Loading...

AI 뉴스

OpenAI, 유명인 딥페이크 논란 이후 Sora 2 강화

페이지 정보

작성자 xtalfi
작성일 10.21 15:11
157 조회
0 추천
0 비추천

본문

2236414768_w5egse.jpg

(퍼플렉시티가 정리한 기사)

OpenAI는 월요일, 무단으로 제작된 유명인 딥페이크에 대한 광범위한 비판에 따라 Sora 2 비디오 애플리케이션의 보호 조치를 강화할 것이라고 발표했으며, 사용자들이 동의 없이 유명인의 모습을 담은 비디오를 제작한 이후 배우 브라이언 크랜스턴, SAG-AFTRA, 그리고 주요 에이전시들과 합의에 도달했습니다.

이 인공지능 회사는 크랜스턴, 미국 배우 조합-미국 텔레비전 및 라디오 예술가 연맹, 유나이티드 탤런트 에이전시, 크리에이티브 아티스트 에이전시, 그리고 탤런트 에이전트 협회와 공동 성명을 발표하며, 공연자들의 목소리와 초상을 보호하기 위한 "생산적인 협력"을 확인했습니다. 이 해결책은 9월 30일 Sora 2가 출시되고 불과 3주 만에 나온 것으로, 당시 이 앱은 Apple App Store에서 가장 많이 다운로드된 앱 중 하나가 되었습니다.

 

브라이언 크랜스턴이 업계 반응을 주도하다

 

"브레이킹 배드"에서의 역할로 가장 잘 알려진 크랜스턴은 앱의 초기 초대 전용 출시 기간 동안 자신의 허락 없이 Sora 2 동영상에서 자신의 음성과 초상이 복제된 것을 발견한 후 SAG-AFTRA에 알렸다. "저는 저 자신뿐만 아니라 이런 식으로 작품과 정체성이 오용될 수 있는 모든 출연자들을 위해 깊이 우려했습니다"라고 크랜스턴은 월요일 성명에서 말했다.​

OpenAI는 "의도하지 않은 생성"이라고 부른 것에 대해 유감을 표명했으며, 개인이 동의하지 않을 때 음성 및 초상 복제에 대한 보호 장치를 강화하겠다고 약속했다. 회사는 누군가의 음성이나 초상을 사용하기 전에 명시적 동의를 요구하는 옵트인 정책을 유지하고 있지만, 크랜스턴의 사례에서는 시행이 명백히 실패했다.

 

마틴 루터 킹 주니어 동영상 차단됨

 

지난주, OpenAI는 마틴 루터 킹 주니어의 유산 관리 기관이 민권 운동 지도자에 대한 "무례한 묘사"에 대해 항의한 후 그의 비디오 생성을 중단해야 했습니다. 사용자들은 킹을 인종차별적인 시나리오에 등장시키는 AI 비디오를 만들었으며, 여기에는 그가 "나에게는 꿈이 있습니다" 연설 중 모욕적인 소리를 내거나 저속한 행동을 하는 장면을 묘사한 클립이 포함되어 있었습니다.​

"일부 사용자들이 킹 박사의 이미지를 무례하게 묘사한 콘텐츠를 생성했습니다"라고 OpenAI와 킹 유산 관리 기관은 목요일 공동 성명에서 밝혔습니다. 킹 박사의 딸인 버니스 킹은 사람들에게 아버지의 AI 생성 비디오를 보내는 것을 중단해 달라고 공개적으로 요청했으며, 이는 고(故) 코미디언 로빈 윌리엄스의 딸인 젤다 윌리엄스의 유사한 호소와 맥락을 같이 합니다.

 

연방 법안에 대한 업계 전반의 지지

 

월요일 합의에 참여한 모든 당사자들은 공연자들을 무단 디지털 복제로부터 보호하기 위해 고안된 연방 입법안인 NO FAKES Act에 대한 지지를 표명했습니다. "OpenAI는 공연자들의 음성과 초상이 도용되지 않도록 보호하는 데 깊이 전념하고 있습니다"라고 CEO 샘 알트먼이 성명에서 밝혔습니다.​

SAG-AFTRA 회장 숀 애스틴은 이번 해결을 칭찬하면서도 "브라이언 크랜스턴은 복제 기술에 의해 음성과 초상이 대규모로 도용될 위험에 처한 수많은 공연자들 중 한 명입니다"라고 경고했습니다. 노조는 AI 기술이 발전함에 따라 옵트인 프로토콜이 "사업을 하는 유일한 방법"이라고 강조했습니다.​

이번 논란은 지적 재산권을 둘러싼 AI 기업들과 할리우드 간의 광범위한 긴장을 부각시키며, CAA와 UTA 모두 이전에 OpenAI가 플랫폼에서 저작권이 있는 자료를 허용한 것에 대해 비판한 바 있습니다. OpenAI는 처음에 저작권 보유자들이 자신의 자산이 사용되지 않도록 옵트아웃하도록 요구했지만, 이후 명시적인 옵트인 동의를 요구하는 방향으로 전환했습니다.

댓글 0
전체 570 / 18 페이지
(퍼플렉시티가 정리한 기사)OpenAI의 인스턴트 체크아웃 기능을 통한 전자상거래로의 야심찬 진출은 사람들의 온라인 쇼핑 방식을 변화시키려는 회사의 광범위한 노력에도 불구하고 상당한 장애물에 직면하고 있습니다. 이 기능이 주요 소매업체들의 환호 속에 불과 몇 주 전에 출시되었지만, 새로운 연구와 사용자 테스트는 가능성과 문제점이 복합적으로 얽힌 복잡한 상황을 드러내고 있습니다.성과가 기대에 미치지 못함973개의 전자상거래 사이트에서 총 200억 달러의 매출을 창출한 12개월간의 데이터를 분석한 종합 연구는 ChatGPT의 쇼핑 기능에 대한 냉정한 결과를 제시했습니다. 함부르크 대학교와 프랑크푸르트 금융경영대학원의 연구진은 ChatGPT 추천을 통한 50,000건 이상의 거래를 조사하고, 이를 전통적인 마케팅 채널을 통한 1억 6,400만 건의 거래와 비교했습니다.​연구 결과는 전자상거래에서 AI 우위에 대한 광범위한 기대와 상반됩니다. ChatGPT 추천 트래픽은 기존 채널보다 전환율이 현저히 낮았으며, 제휴 링크는 ChatGPT 추천보다 전환될 가능성이 86% 더 높은 것으로 나타났습니다. Maximilian Kaiser와 Christian Schulze가 작성한 연구 논문에 따르면, 자연 검색조차도 ChatGPT를 약 13% 앞섰습니다.​연구진은 "결과는 LLM 우위에 대한 광범위한 기대와 상반된다"고 기술하며, ChatGPT 트래픽이 연구 기간 동안 점진적인 개선을 보였지만 "예측에 따르면 LLM은 향후 1년 내에 자연 검색과 동등한 수준을 달성하지 못할 것"이라고 언급했습니다.사용자 경험 문제가 대두되다Instant Checkout 기능의 실제 테스트 결과 상당한 사용성 문제가 드러났습니다. CNET 리뷰어가 ChatGPT의 새로운 쇼핑 인터페이스를 통해 립스틱을 구매하려고 시도했을 때 여러 장애물에 부딪혔으며, ChatGPT Plus로 업그레이드했음에도 불구하고 결국 어떠한 거래도 완료하지 못했습니다. "이상적인 무독성 립스틱을 찾기 위한 여정은 계속되고 있으며 ChatGPT의 새로운 Instant Checkout 기능은 개선의 여지가 있습니다"라고 리뷰어는 결론지었습니다.​마찬가지로 다른 사용자들도 ChatGPT가 제품을 성공적으로 식별하고 추천을 제공하지만, 실제 구매 프로세스는 종종 중단된다고 보고합니다. 이 기능은 현재 선택된 Etsy 판매자와 Shopify 판매자의 단일 품목 구매만 지원하며, 통합은 아직 보류 중입니다.Atlas 브라우저를 통한 광범위한 쇼핑 확대OpenAI는 이번 주 10월 21일 ChatGPT Atlas를 출시하며 커머스 분야에 대한 야망을 다시 한 번 확고히 했습니다. ChatGPT Atlas는 AI 기반 웹 브라우저로, 쇼핑 기능을 브라우징 경험에 직접 통합하도록 설계되었습니다. 현재 macOS에서만 제공되는 이 브라우저는 웹사이트를 자율적으로 탐색하고, 장바구니를 채우며, 사용자를 대신해 구매를 완료할 수 있는 "에이전트 모드"를 특징으로 합니다.​Atlas의 초기 테스트 결과는 Instant Checkout과 유사하게 엇갈린 반응을 보이고 있습니다. 브라우저가 Walmart에서 일부 쇼핑 작업을 자동화하는 데 성공했으나, 사용자들은 팝업, 로그인 요구, 사이트 호환성 등의 문제로 인해 쇼핑 과정이 자주 중단된다고 보고했습니다. 한 리뷰어는 "Agent 모드가 적용된 Atlas는 이미 신기한 것 이상으로 유용하게 느껴진다"고 평가했으나, 아직 많은 사용자 안내가 필요하다는 점을 강조했습니다.​이번 출시에 따라 Alphabet 주가가 하락하며, 투자자들은 Google Chrome의 브라우저 독점에 대한 잠재적 위협을 주목하게 됐습니다. OpenAI CEO인 샘 올트먼은 Atlas를 "브라우저가 무엇이 될 수 있는지 다시 생각해볼 수 있는, 10년에 한 번 찾아오는 드문 기회"로 자리매김했습니다.​현재의 제한점에도 불구하고, 회사의 쇼핑 사업은 주요 소매업체로부터 점점 더 주목받고 있습니다. Walmart는 이제 ChatGPT가 전체 추천 트래픽의 20%를 주도한다고 밝혔고, Target, Etsy, eBay에서도 비슷한 증가세가 보고되고 있습니다. 하지만 Hamburg 연구에 따르면 이러한 추천 트래픽은 대부분의 소매업체에서 전체 웹사이트 방문의 0.2% 미만에 불과합니다.
119 조회
0 추천
10.22 등록
(퍼플렉시티가 정리한 기사)Alphabet의 Google이 수백억 달러 규모의 잠재적 클라우드 컴퓨팅 계약에 대해 AI 스타트업 Anthropic과 초기 협의 중인 것으로 Bloomberg의 소식통에 따라 알려졌습니다. 이 협상 소식으로 Google의 주가는 시간외 거래에서 2.68% 급등했으며, Amazon 주식은 투자자들이 클라우드 컴퓨팅 시장에 미치는 영향을 고려하면서 1.6% 하락했습니다. 제안된 합의는 Google Cloud 서비스를 통해 Anthropic에 추가 컴퓨팅 성능을 제공할 예정이지만, 계획은 아직 확정되지 않았으며 세부 사항은 변경될 수 있다고 소식통이 Bloomberg에 전했습니다. 두 회사 모두 이 협의에 대해 논평했습니다.전략적 클라우드 파트너십 전쟁이번 잠재적 거래는 현재 AI 기업에 대한 30억 달러 투자를 기반으로 구축된 Google과 Anthropic의 기존 관계를 크게 확장할 것입니다. Google은 2023년에 약정한 20억 달러와 올해 초 추가로 투입한 10억 달러를 포함한 이전 투자를 통해 이미 Anthropic의 약 14%를 소유하고 있습니다. 회사는 올해 9월 전환사채를 통해 7억 5천만 달러를 추가로 투입할 예정입니다.​그러나 Google은 Anthropic에 80억 달러를 투자하고 AI 기업의 "미션 크리티컬 워크로드를 위한 주요 클라우드 제공업체"로서의 입지를 확보한 Amazon과 치열한 경쟁에 직면해 있습니다. Morgan Stanley 추정에 따르면, Amazon과 Anthropic의 파트너십은 2025년에 12억 8천만 달러의 AWS 수익을 창출할 것으로 예상되며, 2027년까지 56억 달러로 증가할 가능성이 있습니다.시장 영향과 최근의 혼란이러한 협상의 시기는 10월 20일 발생한 대규모 AWS 장애 이후 클라우드 컴퓨팅 신뢰성에 대한 감시가 강화된 시점과 일치합니다. 이 장애로 전 세계 수천 명의 고객이 15시간 동안 서비스 중단을 겪었습니다. 이 장애는 병원, 은행, 정부 기관을 포함한 중요 서비스에 영향을 미쳤으며, 단일 클라우드 제공업체에 대한 과도한 의존에 대한 우려를 부각시켰습니다.​2021년 OpenAI 출신 직원들이 설립한 Anthropic은 OpenAI의 GPT 모델과 직접 경쟁하는 Claude 계열의 대규모 언어 모델을 개발하고 있습니다. 이 회사는 2025년 말까지 연간 매출 90억 달러 달성을 목표로 하고 있으며, 이는 현재 궤도의 두 배 이상입니다. 3월에 Anthropic은 회사 가치를 615억 달러로 평가받는 35억 달러 규모의 펀딩 라운드를 완료했습니다.​이번 협상은 AI 파트너십을 둘러싼 클라우드 거대 기업인 Microsoft, Google, Amazon 간의 경쟁이 심화되고 있음을 보여줍니다. Microsoft와 OpenAI의 독점적 관계는 Azure가 상당한 시장 점유율을 확보하는 데 도움을 주었으며, 최근 분기에 Google Cloud의 32%, AWS의 17% 성장률에 비해 39% 성장했습니다.
125 조회
0 추천
10.22 등록
(퍼플렉시티가 정리한 기사)캐나다 드론 제조업체 Draganfly는 화요일 Palladyne AI와 전략적 파트너십을 발표하여 무인 항공기 플랫폼에 자율 스웜 기능을 통합한다고 밝혔습니다. 이는 전 세계 분쟁이 조율된 드론 작전의 중요성이 커지고 있음을 보여주는 가운데 방위 기술 분야에서 중요한 발전을 의미합니다.이번 협력을 통해 Palladyne의 Pilot AI 소프트웨어가 Draganfly의 UAV 시스템에 내장되어, 방위, 정부 및 상업용 애플리케이션을 위해 여러 대의 드론이 단일 운영자의 관리 하에 조율된 팀으로 작동할 수 있게 됩니다. 시장 반응은 엇갈렸으며, 발표 후 Draganfly 주가는 2% 상승한 반면 Palladyne AI 주가는 2.6% 하락했습니다.고급 AI가 드론 운영을 혁신하다Palladyne Pilot은 드론 자율성의 획기적인 발전을 나타내며, 여러 대의 UAV를 단일 운영자가 "루프 상에" 머물면서 관리하는 "원활하게 협력하는 팀"으로 전환하는 엣지 기반의 플랫폼 독립적 소프트웨어로 설명됩니다. 이 시스템은 다양한 소스의 센서 융합을 사용하여 드론이 자동 조종 장치와 동적으로 인터페이스하면서 독립적이고 협력적으로 목표물을 추적할 수 있도록 합니다.​Draganfly의 CEO인 Cameron Chell은 "Palladyne AI는 드론 플랫폼이 최근까지도 대형의 고가 시스템에만 제한되었던 자율성 기능을 통합할 수 있도록 하고 있습니다"라고 말했습니다. Chell은 이러한 통합을 통해 Draganfly가 "모듈식 프레임워크를 확장하고 운영자의 작업 부하를 줄이는 적응 가능한 임무 중심 자율성 및 군집 기능을 증가시킬 수 있습니다"라고 덧붙였습니다.국방비 지출 급증 속 시장 타이밍이번 파트너십은 전 세계 군용 드론 시장 전망이 상당한 성장을 나타내는 가운데 이루어졌으며, 이 부문은 2032년까지 470억 달러에 달할 것으로 예상된다. 최근 미국 정부 법안은 국방부 내 드론 및 AI 지출에 330억 달러를 배정했으며, 여기에는 무인 시스템에 특별히 135억 달러가 포함되어 있다.​"Draganfly는 UAV 혁신 분야에서 가장 신뢰받는 기업 중 하나로서의 명성을 얻었습니다"라고 Palladyne AI의 사장 겸 CEO인 Ben Wolff가 말했다. "우리는 그들과 협력하여 도전적인 환경에서 정부, 국방 및 상업 사용자들의 운영 요구사항을 충족하는 고급 항공 정보 솔루션을 제공하게 된 것을 영광으로 생각합니다."​이번 통합은 자율 스웜 작전, 실시간 정보, 감시 및 정찰(ISR), 그리고 향상된 운영자 효율성을 포함한 강화된 임무 역량을 제공할 것이다. 그러나 미국 외 지역에서 Draganfly 시스템과 함께 Palladyne Pilot을 배치하려면 필요한 정부 승인이 필요하다.
115 조회
0 추천
10.22 등록
(퍼플렉시티가 정리한 기사)획기적인 연구에 따르면 인공지능 시스템이 바이럴 소셜 미디어 콘텐츠에 노출되면 되돌릴 수 없는 "브레인 로트(뇌손상)"가 발생하여 추론 능력이 크게 저하되고 인간의 과도한 소셜 미디어 소비에서 나타나는 반사회적 인격 특성이 발달할 수 있다고 밝혀졌습니다.이 연구는 텍사스 오스틴 대학교, 텍사스 A&M 대학교, 퍼듀 대학교의 과학자들이 10월 20일에 발표했으며, 참여 중심의 소셜 미디어 게시물로 학습된 대형 언어 모델이 표준 재훈련 방법으로는 완전히 복구될 수 없는 지속적인 인지적 손상을 겪는다는 점을 보여주었습니다.극적인 성과 저하가 관찰됨통제된 실험에서 연구진은 네 가지 AI 모델에 트위터/X 게시물로 구성된 데이터셋을 제공하며, 높은 참여도를 보이는 바이럴 콘텐츠와 더 길고 신중하게 작성된 게시글을 비교했다. 결과는 매우 놀라웠다. 100% 바이럴 콘텐츠에 노출된 모델은 벤치마크 테스트에서 추론 정확도가 74.9%에서 57.2%로 급락했고, 장기 맥락 이해도는 84.4%에서 52.3%로 떨어졌다.​연구진은 “웹상의 저급 텍스트에 지속적으로 노출되면 대형 언어 모델에서 지속적인 인지 저하가 발생한다”라고 썼으며, 이 현상을 설명하기 위해 ‘LLM Brain Rot Hypothesis(대형 언어 모델 뇌 부패 가설)’라는 용어를 만들었다. 연구 결과, 좋아요·공유·리트윗 같은 참여도 지표가 실제 콘텐츠의 의미적 품질보다 AI의 인지 기능에 더 해로웠으며, 이는 소셜 미디어가 인간에게 중독성이 있는 것과 동일한 알고리즘적 역학이 AI의 추론 과정도 해친다는 것을 시사한다.​모델들은 ‘생각 건너뛰기(thought skipping)’라고 부르는 실패 패턴을 보였는데, 이는 추론 과정에서 중간 논리 단계를 거치지 않고 결론으로 곧장 뛰어넘는 방식이다. 인지 저하뿐 아니라, AI 시스템은 성격 면에서도 문제가 있는 변화를 보였으며, 자기애와 정신병 성향 점수가 높아지고, 친화성과 성실성 점수는 낮아졌다.회복 시도가 불충분함이 드러나다아마도 가장 우려되는 점은, 손상된 모델을 복구하려는 시도가 대체로 성공하지 못했다는 것입니다. 고품질 데이터와 지침 튜닝을 통한 광범위한 재학습 후에도, AI 시스템들은 본래의 능력을 완전히 회복하지 못했습니다. 연구자들은 이를 "표현 드리프트(representational drift)"—모델이 내부적으로 정보를 조직하는 방식에 근본적인 변화가 생겨, 표준 파인튜닝으로는 되돌릴 수 없다는 것—라고 설명했습니다.​"브레인 로트(brain rot)는 모델이 내부적으로 정보를 나타내는 방식에 지속적인 변화를 일으켰으며, 이는 구조적인 손상으로 완전히 되돌릴 수 없었습니다,"라고 연구 결과 분석에서 밝혔습니다. 이 발견은 데이터 품질을 단순한 성능의 문제가 아니라, AI 시스템이 점점 더 다른 AI가 만든 콘텐츠로부터 학습하는 오늘날, 연구자들이 "좀비 인터넷"이 될 수 있다고 경고하는 상황에서 중요한 안전 이슈로 재정의하고 있습니다.​이번 연구의 시사점은 학계를 넘어, 상용 AI 시스템이 최신 상태를 유지하기 위해 지속적으로 새로운 웹 콘텐츠를 학습하는 현실에서, 그 훈련 방식에 대한 시급한 질문을 제기합니다. 연구진은 배포된 AI 시스템에 대한 정기적인 "인지 건강 점검"을 실시하고, 누적 손상을 방지하기 위해 학습 중 더 엄격한 데이터 품질 관리를 도입할 것을 권장했습니다.
118 조회
0 추천
10.22 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입