AI 뉴스

오픈AI, 첫 번째 AI 생성 애니메이션 장편 영화 지원

페이지 정보

작성자 xtalfi
작성일 2025.09.08 14:47
1,063 조회
0 추천
0 비추천

본문

ded187cac45fdc49086046abe1d6efbaHOis.jpeg

(퍼플렉시티가 정리한 기사)

OpenAI는 주로 인공지능 기술을 활용해 제작될 예정인 애니메이션 장편 영화 "크리터즈(Critterz)"를 공식적으로 지원하며, 이는 회사가 할리우드 엔터테인먼트 분야로 진출하는 가장 중요한 시도로 평가받고 있습니다. 이 프로젝트는 2023년에 혁신적인 단편 영화로 처음 구상되었으나, 현재 영국의 Vertigo Films와 AI 크리에이티브 스튜디오 Native Foreign가 장편 영화로 개발 중이며, 제작은 곧 시작될 예정이고 2026년 5월 칸 영화제에서 첫 선을 보일 계획입니다.

이 영화는 전통적인 영화 제작과 AI 기술 간의 중요한 협업을 의미합니다. OpenAI의 크리에이티브 전문가 Chad Nelson이 원작 단편의 각본과 감독을 맡았으며, 그는 이번 프로젝트에서 컨설팅 프로듀서로 참여하고 있습니다. "Paddington in Peru"의 각본팀인 James Lamont와 Jon Foster가 장편 영화의 각본을 맡게 되었습니다. 이 프로젝트는 3천만 달러 미만의 예산을 확보했으며, 이는 수억 달러가 소요되는 일반적인 애니메이션 제작에 비해 상당히 낮은 수치입니다.

 

AI로 강화된 영화 제작의 새로운 지평을 열다

오리지널 "크리터즈(Critterz)" 단편 영화는 2023년에 OpenAI의 DALL-E 시스템으로 생성된 시각적 요소와 전통적인 애니메이션 기법을 결합한 최초의 애니메이션 프로젝트로 역사를 만들었습니다. 이 코미디 과학 다큐멘터리는 숲속 동물들이 자신들의 자연 다큐멘터리 내레이터를 방해하면서 뜻밖의 메타 내러티브를 만들어내며, Annecy, Tribeca, Cannes Lions 등 권위 있는 페스티벌에서 관객들을 사로잡았습니다.

프로젝트의 AI 크리에이티브 스튜디오인 Native Foreign은 2025년 2월 OpenAI의 Sora 비디오 생성 모델을 활용하여 "크리터즈: 리마스터드"를 출시함으로써 AI 기술의 빠른 발전을 입증했습니다. 이 리마스터드 버전은 오리지널에 비해 시각 품질과 캐릭터 애니메이션에서 극적인 개선을 보여주었으며, 장편 영화로의 확장에 대한 설득력 있는 개념증명을 선보였습니다.

 

생산 전략 및 산업 영향

이 장편 영화는 인간의 창의성과 AI의 지원을 결합하여, 캐릭터 연기에는 전문 성우를 기용하고, 인간 아티스트가 손으로 그린 스케치로 강화된 AI 생성 이미지를 사용할 예정이다. 월스트리트 저널에 따르면, 제작진은 약 9개월 만에 영화를 완성하는 것을 목표로 하며, 이는 전통적인 애니메이션 작업 흐름과 비교해 매우 단축된 일정이다.

버티고 필름의 제임스 리처드슨은 "원조 '크리터즈'는 AI 도구가 영화 제작자들이 아름답고 재미있는 이야기를 전달하는 데 어떻게 도움을 줄 수 있는지 보여주었다"고 이 프로젝트의 중요성을 강조했다. 이러한 제작 모델은 업계 관측자들이 미래의 AI 지원 영화 제작의 잠재적 청사진으로 보고 있으며, 비용 효율성과 창의적 스토리텔링을 결합하고 있다.

이번 사업은 할리우드가 엔터테인먼트 제작에서 AI의 역할을 두고 고민하는 가운데 이루어졌다. 주요 스튜디오들은 사전 시각화와 콘셉트 개발에 AI 도구를 점점 더 실험적으로 도입하고 있으며, 창작자 노조들은 조합원들에 대한 보호 조항을 협상했다. '크리터즈'가 칸 영화제에서 성공하거나 실패하는 결과는 향후 극장 개봉을 겨냥한 AI 생성 콘텐츠의 산업적 태도와 상업적 실현 가능성에 큰 영향을 미칠 수 있다.

댓글 0
전체 723 / 130 페이지
(퍼플렉시티가 정리한 기사)마이크로소프트는 Visual Studio Code에서 주목할 만한 전략적 전환을 단행하여, 코딩 작업에서 OpenAI의 GPT-5보다 Anthropic의 Claude Sonnet 4를 기본값으로 하는 자동 AI 모델 선택 기능을 도입했습니다. 이 변화는 2019년 이후 OpenAI에 130억 달러를 투자해온 이 기술 대기업이 AI 전략에서 더 넓은 변화를 모색하고 있음을 시사합니다.새롭게 도입된 자동 모델 선택 기능은 9월 15일에 출시되었으며, GitHub Copilot 사용자에게 Claude Sonnet 4, GPT-5, GPT-5 mini 및 기타 모델 중에서 자동으로 선택해줍니다. 무료 사용자들은 다양한 모델이 순환 적용되는 경험을 하게 되지만, 유료 구독자들은 마이크로소프트의 공식 발표에 따르면 “주로 Claude Sonnet 4에 의존”하게 됩니다.내부 벤치마크가 모델 선호도를 결정한다이 결정은 내부 성과 평가에서 Anthropic의 제품이 지속적으로 우위를 보인 데에서 비롯되었습니다. 마이크로소프트 개발 부문 사장 줄리아 리우손은 6월 사내 이메일에서 직원들에게 “내부 벤치마크 기준으로 GitHub Copilot에 권장하는 모델은 Claude Sonnet 4입니다”라고 밝혔습니다. 이 권고는 GPT-5 출시 이전에 이루어졌으며, OpenAI가 최신 모델을 출시한 이후에도 변함이 없었던 것으로 전해집니다.회사 개발 계획에 정통한 마이크로소프트 소식통들은 엔지니어들이 몇 달 전부터 코딩 작업에서 기본적으로 Claude Sonnet 4를 사용하라는 조용한 지시를 받았다고 밝혔습니다. GitHub 내부에서 이뤄진 초기 테스트에서는, GitHub 엔지니어들에 따르면 Claude 4가 “더 오래 집중을 유지하고, 문제를 더 깊이 이해하며, 보다 우아한 코드를 제공”하는 것으로 나타났습니다.복잡한 코딩 벤치마크에서 모델의 우수한 성능이 핵심 요인이 되었습니다. Claude Sonnet 4는 소프트웨어 엔지니어링 벤치마크인 SWE-bench에서 72~73%의 정확도를 기록해 경쟁 모델들을 제쳤습니다. 마이크로소프트 내부 테스트 결과, Anthropic의 모델은 특정 개발자 워크플로에서 OpenAI의 제품보다 “미묘하지만 중요한 방식으로” 더 뛰어난 성과를 보인 것으로 나타났습니다.Visual Studio Code를 넘어 확장하기이 AI 모델의 다양화는 Visual Studio Code를 넘어 마이크로소프트의 광범위한 생산성 제품군으로 확장되고 있습니다. The Information은 마이크로소프트 365 코파일럿이 곧 내부 테스트에서 Claude가 엑셀 자동화와 파워포인트 프레젠테이션 생성에서 더 우수한 성능을 보인 결과 “부분적으로 Anthropic 모델이 구동할 것”이라고 보도했습니다.AI 업계의 경쟁 역학을 강조하는 복잡한 계약 구조 속에서, 마이크로소프트는 Anthropic의 모델에 접근하기 위해 자사의 애저(Azure) 클라우드 플랫폼과 직접 경쟁하는 Amazon Web Services에 비용을 지불할 예정입니다. 이러한 추가 비용에도 불구하고, 마이크로소프트는 사용자를 위한 Copilot의 월 요금을 30달러로 유지할 계획입니다.AI 경쟁 속에서의 파트너십 재구성이러한 시기는 마이크로소프트와 OpenAI 관계의 중대한 변화와 일치한다. 양사는 9월 11일 파트너십을 재구성하기 위한 구속력 없는 양해각서에 서명했으며, 이를 통해 OpenAI가 공익법인으로의 전환을 추진할 수 있게 되었다. 개정된 조건에 따르면, OpenAI의 마이크로소프트와의 수익 분배는 2030년까지 20%에서 약 8-10%로 감소할 것으로 예상되며, 이는 AI 스타트업에게 500억 달러 이상의 추가 수익을 가져다줄 가능성이 있다.마이크로소프트 AI CEO 무스타파 술레이만은 9월 12일 직원 타운홀 미팅에서 회사의 자체 AI 인프라에 대한 “상당한 투자” 계획을 발표했다. 회사의 MAI-1-preview 모델은 15,000개의 엔비디아 H100 칩으로 훈련되었으며, 술레이만은 이를 “6배에서 10배 더 큰” 규모가 될 미래 클러스터와 비교하여 “작은” 규모라고 평가했다.멀티 모델 전략이 등장하다이러한 발전은 마이크로소프트의 AI 파트너십에 대한 진화하는 접근 방식을 반영합니다. CEO 사티아 나델라는 타운홀 미팅에서 마이크로소프트가 “확실히 다양한 모델을” 자사 제품 전반에서 지원할 것이라고 강조하며, 이러한 멀티 모델 전략의 예시로 GitHub Copilot을 언급했습니다.개발자에게는 자동 선택 기능이 유료 사용자에게 10% 요청 할인과 레이트 리미팅 감소 등 실질적인 이점을 제공합니다. 이 시스템은 현재의 용량과 성능을 바탕으로 최적의 모델을 자동으로 선택하며, 사용자는 챗 답변에 마우스를 올리면 어떤 모델이 각각의 응답을 제공했는지 확인할 수 있습니다.이러한 전략적 변화는 인공지능 개발에서 성능 벤치마크가 전통적인 공급업체 관계보다 파트너십 결정을 더욱 주도하는 경쟁의 치열함을 강조합니다. 마이크로소프트가 오픈AI 투자와 동시에 AI 포트폴리오를 다양화하는 가운데, 이번 행보는 여러 AI 공급자가 기업용 소프트웨어 경험의 다양한 부분을 지원하는 미래를 시사합니다.
877 조회
0 추천
2025.09.17 등록
(퍼플렉시티가 정리한 기사)유튜브는 화요일 뉴욕시에서 열린 ‘Made on YouTube’ 이벤트에서 AI 기반의 종합적인 창작 도구 모음을 공개하며, 틱톡과 인스타그램과의 창작자 경쟁에서 플랫폼 사상 가장 야심찬 인공지능 도입을 알렸다. 이 동영상 대기업은 구글의 딥마인드(DeepMind) 기술로 구동되는 최첨단 기능을 선보이는 한편, 지난 4년 동안 창작자, 아티스트, 미디어 회사들에게 1,000억 달러 이상을 지급했다고 발표했다.주요 AI 동영상 생성 기능YouTube는 Google DeepMind의 Veo 3 Fast 동영상 생성 모델의 맞춤형 버전을 Shorts에 직접 통합하여, 창작자들이 텍스트 프롬프트만으로 480p 해상도의 시청각 콘텐츠를 무료로 제작할 수 있게 했습니다. 이 기능은 미국, 영국, 캐나다, 호주, 뉴질랜드의 창작자들에게 우선 제공됩니다.“YouTube 공식 블로그 포스트에 따르면, 이번이 처음으로 텍스트 프롬프트만으로 소리가 포함된 동영상을 생성할 수 있게 되었습니다”. 플랫폼은 향후 몇 달 내에 Veo의 기능을 확대해 모션 애니메이션, 팝 아트나 오리가미 등 다양한 효과의 영상 스타일화, 그리고 텍스트 설명을 통한 오브젝트 삽입 등을 지원할 예정입니다.또한 YouTube는 Speech to Song이라는 리믹스 도구도 선보였습니다. 이 도구는 Google DeepMind의 Lyria 2 AI 음악 모델을 이용해 기존 동영상의 대사를 음악 사운드트랙으로 변환합니다. 창작자들은 “chill”, “danceable”, “fun” 등 다양한 스타일을 선택해 자신만의 “vibe”를 곡에 더할 수 있으며, 최종 결과물에는 원작자의 저작권이 표기됩니다.크리에이터 관리 및 분석 도구유튜브 플랫폼은 3천만 명이 넘는 월간 크리에이터들을 위한 유튜브 스튜디오 내 AI 챗봇, ‘Ask Studio’를 공개했습니다. 이 대화형 도구는 분석 자료에 대한 인사이트를 제공하고, 댓글을 요약하며, 채널 성과 데이터를 바탕으로 새로운 영상 아이디어를 생성합니다.“YouTube는 ‘최근 영상을 누가 어떻게 보고 있는지 알려줘’ 또는 ‘내 편집 스타일에 대해 커뮤니티가 뭐라고 하는지 말해줘’ 같은 질문을 해보라고 설명했습니다. 회사는 Ask Studio를 ‘모든 크리에이터를 위한 최고의 창작 파트너’로 자리매김하고 있습니다.또한, 유튜브는 썸네일과 제목의 조합 테스트를 통해 성과를 최적화할 수 있도록 A/B 테스트 기능을 강화했습니다. 플랫폼은 모든 유튜브 파트너 프로그램 크리에이터를 대상으로 본인 얼굴 이미지를 활용한 무단 AI 생성 영상을 식별하는 유사 이미지 감지 도구의 오픈 베타 서비스를 확대했습니다.향상된 생산 및 협업 기능Edit with AI는 원본 영상을 자동으로 최고의 순간들로 편집하고, 음악·전환 효과·영어 또는 힌디어 음성 해설을 추가하여 다듬어진 초안을 만들어 줍니다. 이 기능은 Shorts와 유튜브 Create 앱에서 테스트되고 있습니다.또한 이 플랫폼은 최대 다섯 명의 크리에이터가 함께 영상 작업을 할 수 있는 향상된 협업 도구를 도입하여 가시성과 도달 범위를 높였습니다. 유튜브는 자동 더빙 기능도 확장하여 더빙 언어에 맞게 입술 움직임을 동기화할 수 있도록 했으며, 가로 및 세로 동시 라이브 스트리밍 등 새로운 라이브 기능도 추가했습니다.TechCrunch에 따르면, 이러한 발표들은 유튜브가 “AI에 대한 대규모 투자가 성과를 내고 있음을 보여주려는” 노력의 일환이며, 플랫폼이 경쟁사에 맞서기 위해 “점점 더 대담한 시도를 하고 있다는” 점을 의미합니다. 각 기능들은 구글의 SynthID 워터마크 및 콘텐츠 라벨을 사용해 AI 생성 콘텐츠임을 식별하며, 인공 영상과 진짜 영상을 구분해야 한다는 우려를 해소하려 합니다.
866 조회
0 추천
2025.09.17 등록
(퍼플렉시티가 정리한 기사)애플은 Xcode 26에 Claude Sonnet 4 통합을 공식적으로 출시하며, 자사의 대표적인 개발 환경에서 인공지능 기능의 대폭적인 확장을 알렸습니다. 이 통합은 2025년 9월 15일 애플의 새로운 운영체제 광범위 출시와 함께 일반적으로 제공되기 시작했습니다.Anthropic과의 협업을 통해 개발자들은 자신의 Claude 계정을 Xcode 26에 직접 연결할 수 있으며, 애플의 인텔리전스 설정 패널을 통해 Claude Sonnet 4의 고급 코딩 지원 기능에 접근할 수 있습니다. 이 통합 덕분에 개발자들은 자연어 명령을 사용하여 디버깅, 코드 리팩토링, 문서 생성, SwiftUI 프리뷰 작성 등을 개발 환경을 벗어나지 않고 수행할 수 있게 되었습니다.파트너십의 진화: 내부 테스트에서 공개 출시까지애플과 앤트로픽은 2025년 초에 AI 기반 코딩 툴 개발을 위해 처음 협업을 시작했으며, 블룸버그는 5월에 두 회사가 내부적으로 Claude 기반 Xcode 버전을 테스트 중이라고 보도했다. 이 파트너십은 WWDC 2024에서 처음 발표된 애플의 자체 Swift Assist 코딩 어시스턴트가 내부 테스트에서 기대에 미치지 못하고, 엔지니어들이 이를 “환각”을 일으키며 일부 개발 시나리오에서는 오히려 비생산적이라고 판단한 이후에 등장했다.TechCrunch에 따르면, 이 통합은 애플이 AI 주도 소프트웨어 개발 분야에서 경쟁력을 유지하기 위해 추진하는 “지금까지 가장 대담한 생성형 AI 개발 툴 전략”을 대표한다. 협력을 통해 애플은 내부 AI 개발에만 의존하지 않고, 앤트로픽의 대규모 언어 모델 전문성을 활용할 수 있게 된다.기술 구현 및 개발자 접근 권한Claude 통합은 Xcode 26의 기존 ChatGPT 지원과 함께 작동하여 개발자들에게 AI 코딩 어시스턴트 선택권을 제공합니다. 개발자들은 Mac App Store에서 Xcode 26을 다운로드하고, Xcode 환경설정의 인텔리전스(Intelligence) 설정으로 이동하여 Claude 계정으로 로그인함으로써 Claude Sonnet 4를 사용할 수 있습니다.이 통합은 Claude Pro 및 Max 요금제 사용자뿐만 아니라 팀 및 엔터프라이즈 요금제의 프리미엄 좌석 사용자도 지원합니다. 사용 제한은 플랫폼 전반에 걸쳐 공유되며, 개발자들의 주간 Claude 사용 할당량 일부를 Xcode를 통해 사용할 수 있습니다. 9to5Mac의 보도에 따르면, 시스템에는 Claude Sonnet 4.0과 Claude Opus 4 모델 모두에 대한 참조가 포함되어 있어 향후 모델 옵션의 확장 가능성을 시사합니다.경쟁 환경과 업계 대응Claude 통합은 AI 기반 개발 도구에 대한 증가하는 수요를 해결하며, GitHub Copilot 같은 기존 플랫폼과 Cursor와 같은 신흥 진입자들과 직접적으로 경쟁합니다. 검색 결과에 인용된 개발자들에 따르면, Claude는 넓은 컨텍스트 윈도우와 복잡한 프로그래밍 문제에 대한 강력한 추론 능력 덕분에 코딩 업무에서 특히 인기를 얻고 있습니다.GitHub는 Claude Sonnet 4가 GitHub Copilot의 새로운 코딩 에이전트 기능을 지원할 것이라고 확인했으며, Cursor와 Replit 같은 기업들은 Claude의 최신 모델을 활용하여 복잡한 코드베이스 이해와 다중 파일 편집 작업에서 성능이 향상되었다고 보고했습니다. 이러한 산업 전반의 확산은 Apple이 Anthropic과 맺은 파트너십의 전략적 중요성을 부각시킵니다.이번 통합은 Apple이 iOS 26, macOS Tahoe 26 및 기타 운영 체제 업데이트를 9월 15일에 출시하는 것과 맞물려, Apple 개발 생태계 내에서 서드파티 AI 통합이 가장 크게 확대된 사례 중 하나입니다. iPhone, iPad, Mac 등 다양한 Apple 플랫폼에서 애플리케이션을 개발하는 Apple 개발자들에게 Claude 통합은 업계 최고 수준의 코딩 중심 언어 모델에 의해 강화된 생산성 도구를 제공합니다.
872 조회
0 추천
2025.09.17 등록
(퍼플렉시티가 정리한 기사)Google은 화요일 Agent Payments Protocol(AP2)을 공개하며, 통합된 스테이블코인 지원을 통한 AI 에이전트 기반 상거래를 위한 표준화된 인프라 구축에 대한 주요한 추진을 발표했다. 이 오픈소스 프로토콜은 이미 Coinbase, Mastercard, PayPal, American Express, 그리고 Salesforce를 포함한 60개 이상의 조직으로부터 지원을 확보했다.이 프로토콜은 AI 에이전트가 점점 더 자율적인 구매 결정을 처리함에 따라 중요한 인프라 개발을 나타낸다. 인간이 개시하는 거래를 위해 설계된 전통적인 전자상거래 시스템과 달리, AP2는 AI 에이전트가 검증 가능한 승인 체인과 거래 책임을 유지하면서 안전하게 결제를 개시할 수 있는 프레임워크를 생성한다.암호화폐 통합이 에이전트 상거래를 강화하다이 프로토콜의 가장 중요한 혁신은 Coinbase 및 이더리움 재단과 협력하여 개발된 암호화폐 통합에 있습니다. Google Cloud의 Web3 책임자인 James Tromans는 이 시스템이 “기존 결제 레일의 역량과 헤리티지뿐만 아니라 스테이블코인과 같은 앞으로 도입될 기능까지 모두 반영하도록 처음부터 구축되었다”고 말했습니다.Coinbase의 파트너십은 자체 AI 및 암호화폐 결제 인프라와의 상호운용성을 보장하며, 이 협업은 MetaMask 등 다른 암호화폐 업체로도 확장됩니다. Coinbase 개발자 플랫폼의 엔지니어링 책임자 Erik Reppel은 그들의 공통 목표를 강조하며 “우리는 모두 AI가 서로에게 가치를 전송할 수 있는 방법을 찾기 위해 노력하고 있다”고 밝혔습니다. 이 통합에는 또한 암호화폐 지갑에서 AI 기반 구매를 가능하게 하는 x402 프로토콜 지원도 포함됩니다.이중 명령 보안 아키텍처AP2는 암호화 서명이 된 디지털 위임장을 사용하여 에이전트 거래를 승인하는 정교한 보안 모델을 적용합니다. 시스템은 두 가지 별도의 승인을 요구합니다. 첫 번째는 에이전트가 특정 제품을 검색하고 판매자와 협상하는 것을 승인하는 “의향 위임장(intent mandate)”, 두 번째는 상품이 확인된 후 최종 구매를 승인하는 “장바구니 위임장(cart mandate)“입니다.완전 자동화된 구매의 경우, 이 프로토콜은 에이전트가 장바구니 위임장을 자동으로 생성할 수 있도록 허용하지만, 가격 한도, 시간 제약, 참여 조건 등 더 상세하게 명시된 의향 위임장이 요구됩니다. 이러한 이중 위임장 시스템을 통해 사용자 제어를 유지하면서 에이전트 활동에 대한 추적 가능한 감사 경로를 제공하여 사기 방지를 보장합니다.기존 구글 프로토콜을 기반으로 구축하기AP2는 4월에 출시된 Google의 기존 Agent2Agent(A2A) 프로토콜을 확장하는 것으로, 이는 다양한 플랫폼과 공급업체 간의 AI 에이전트 간 통신을 표준화했습니다. 결제 확장 기능은 또한 Anthropic의 Model Context Protocol(MCP)과 통합되어, 에이전트 간 상호작용과 거래를 위한 포괄적인 프레임워크를 만듭니다.Google은 GitHub에서 완전한 기술 사양을 제공하고, 표준화 기구를 통한 지속적인 협업을 통해 개방형 개발에 대한 의지를 강조했습니다. 회사 임원들은 더 넓은 결제 및 기술 커뮤니티가 참여하는 “개방적이고 협력적인 과정”을 통해 이 인프라를 구축하겠다는 헌신을 강조했습니다.
850 조회
0 추천
2025.09.16 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입