Loading...

AI 뉴스

World Labs와 DeepMind, AI 월드 모델 게임 엔진 개발

페이지 정보

작성자 이수
작성일 2025.12.27 18:30
394 조회
0 추천
0 비추천

본문

df0d02ba5b407c9b1b1c2be4e0b74555_1766827837_4797.jpg
 

AI 연구자 페이페이 리(Fei-Fei Li)의 스타트업 World Labs와 Google DeepMind는 텍스트 프롬프트로부터 완전한 3D 게임 환경을 생성하는 "월드 모델"을 개발하고 있으며, 이 기술을 Unity 및 Epic Games의 Unreal Engine과 같은 기존 게임 엔진을 뒤흔들 수 있는 잠재적 파괴자로 자리매김하고 있습니다. 이러한 움직임은 전 세계 게임 산업이 2025년에 거의 1,970억 달러에 달할 것으로 예상되는 가운데, 게임 개발자들이 근로자들의 우려가 증가함에도 불구하고 AI 도구를 점점 더 많이 채택하고 있는 시점에 나왔습니다.

​World Labs는 2025년 11월 첫 번째 상업용 월드 모델 제품인 Marble을 출시했으며, 크리에이터들에게 텍스트 프롬프트, 사진, 동영상 또는 3D 레이아웃을 편집 및 다운로드 가능한 3D 환경으로 전환할 수 있는 기능을 제공합니다. 이 모델은 실시간으로 생성하는 것이 아니라 지속적인 3D 월드를 생성하여, 사용자가 월드를 가우시안 스플랫(Gaussian splats), 메시(meshes) 또는 동영상으로 내보낼 수 있게 합니다. Financial Times에 따르면, 리는 "이 분야는 파괴적 혁신이 무르익었다"고 밝히며 시뮬레이션 게임 엔진이 개선이 필요하다고 언급했습니다.

​Google DeepMind는 2025년 8월 Genie 3를 공개하며, 간단한 텍스트 프롬프트로부터 720p 해상도의 대화형 3D 환경을 수 분간 생성할 수 있는 "최초의 실시간 대화형 범용 월드 모델"이라고 설명했습니다. DeepMind의 Genie 3 프로젝트를 공동으로 이끄는 슐로미 프루흐터(Shlomi Fruchter)는 Financial Times에 "소프트웨어, 특히 게임의 제작은 상당한 진화를 겪고 있으며, 향후 몇 년 동안 완전한 변혁을 겪을 것으로 예상합니다"라고 말했습니다. 이 모델은 이전에 생성한 내용을 기억하여 물리적 일관성을 유지하면서 한 번에 한 프레임씩 생성하는 자기회귀 아키텍처를 특징으로 합니다.



유럽 노동조합들, AI 추진에 반대

이 기술은 노동 단체들의 반대를 촉발했습니다. 프랑스의 STJV, 영국의 IWGB Game Workers, 스페인의 CGT, 이탈리아의 FIOM-CGIL, 독일의 ver.di, 그리고 Game Workers Unite Ireland를 포함한 서유럽 전역의 6개 비디오 게임 노조가 2025년 12월 9일 공동 성명을 발표하며 업계에서 생성형 AI 도구의 사용 증가를 규탄했습니다. 이 연합은 고용 안정성이 약화됨에 따라 "게임 노동자들이 보편적인 도전에 직면하고 있다"고 주장하며, 의무적인 사무실 복귀 정책과 생성형 AI 도구의 강요를 근로 조건을 악화시키는 핵심 문제로 지적했습니다.
​Eurogamer에 따르면 IWGB 대변인은 "우리는 게임 노동자들 사이에서 전례 없는 국제적 협력을 목격하고 있습니다"라고 말했습니다. "오랫동안 지속되어 온 고립감과 두려움이 대기업의 지배에 맞서는 통합 전선으로 바뀌고 있습니다". 노조의 성명서는 2022년부터 2025년 중반까지 전 세계 비디오 게임 업계에서 약 45,000개의 일자리가 삭감된 것으로 추정된다고 언급했습니다.
​AI에 대한 개발자들의 정서는 점점 더 부정적으로 변하고 있습니다. 2025년 GDC State of the Game Industry 설문조사에 따르면, 응답자의 30%가 생성형 AI가 게임 업계에 부정적인 영향을 미치고 있다고 믿고 있으며, 이는 전년도 대비 12% 증가한 수치입니다. 개발자들은 지적 재산권 도용, 에너지 소비, 그리고 AI 생성 콘텐츠로 인한 품질 저하를 주요 우려 사항으로 꼽았습니다.


업계, 비용 절감에 주목

지지자들은 월드 모델이 주요 "트리플-A" 게임이 완성되는 데 수년과 10억 달러 이상이 소요될 수 있는 업계에서 개발 비용을 줄이고 근로자의 번아웃을 완화할 수 있다고 주장합니다. 유비소프트에서 어소시에이트 프로듀서로 일했던 DeepMind의 Alexandre Moufarek는 첨부된 기사에 따르면 월드 모델이 개발자들에게 "재미를 발견하고" "새로운 콘셉트를 실험하고 다시 한번 위험을 감수할" 자유를 제공하기를 희망합니다.
​World Labs의 공동 창립자인 Justin Johnson은 TechCrunch와의 인터뷰에서 Marble의 초기 사용 사례로 게임, 영화용 시각 효과, 가상 현실을 언급했습니다. Epic Games와 Disney는 5월에 Google과 ElevenLabs의 기술을 활용하여 Fortnite에 AI로 강화된 다스 베이더 캐릭터를 선보였습니다.
댓글 0
전체 1,366 / 76 페이지
개발자 Armin Ronacher는 2025년에도 AI 에이전트 구축이 여전히 어렵다고 주장하며, Vercel AI SDK와 같은 고수준 SDK 추상화는 실제 도구 사용을 처리할 때 제대로 작동하지 않아, 캐싱, 강화, 에이전트 루프 설계에 대한 더 나은 제어를 위해 Anthropic과 OpenAI의 네이티브 플랫폼 SDK로 회귀하게 된다고 설명한다.이 글은 명시적 캐시 관리가 자동 캐싱보다 예상외로 우수하다고 지적하며, Anthropic의 수동 캐시 제어는 개발자가 대화를 분할하고, 컨텍스트를 편집하며, 시스템 프롬프트 이후와 대화 기록 전반에 캐시 포인트를 배치하여 비용을 더 정확하게 예측할 수 있게 한다고 설명한다.Anthropic Claude 모델은 명시적 캐싱 전략을 통해 최대 90%의 비용 절감을 달성할 수 있지만, 에이전트 개발자들은 학습을 위한 상세한 실패 로깅의 이점과 모든 오류를 컨텍스트에 보존하는 데 따르는 토큰 비용 사이의 근본적인 긴장 관계에 직면한다.
753 조회
0 추천
2025.11.23 등록
Certora는 목요일 AI Composer의 출시를 발표했습니다. 이는 스마트 계약을 위한 인공지능 코드 생성에 형식 검증을 내장한 오픈소스 플랫폼으로, AI가 생성한 코드의 보안 취약점에 대한 우려가 높아지고 있는 상황에 대응합니다.텔아비브에 본사를 둔 이 보안 회사의 새로운 도구는 실행 전에 모든 코드 스니펫이 안전 요구사항을 충족하는지 수학적으로 검증함으로써 기존의 AI 코딩 보조 도구와 차별화됩니다. 이 플랫폼은 Aave, Lido, Uniswap을 포함한 주요 탈중앙화 금융 프로토콜에서 이미 사용 중인 Certora의 Prover 기술을 AI 생성 루프에 직접 통합합니다.AI 생성 코드의 보안 우려 증가이러한 시기는 AI 생성 코드의 보안 위험에 대한 증거가 증가하고 있음을 반영합니다. 100개 이상의 대규모 언어 모델을 분석한 2025년 Veracode 연구에 따르면, AI 생성 코드의 45%가 보안 취약점을 야기하며, 코드 생성 정확도의 발전에도 불구하고 보안 실패율은 정체 상태를 유지하고 있습니다. 연구 결과 AI 모델은 안전한 대안이 제시되었을 때 45%의 경우 안전하지 않은 코딩 방법을 선택했습니다.스마트 컨트랙트 보안은 여전히 중요하며, OWASP 스마트 컨트랙트 상위 10에 따르면 2024년에 접근 제어 취약점만으로 9억 5,300만 달러의 손실이 발생했습니다. Certora의 창립자이자 수석 과학자인 Mooly Sagiv는 “AI를 사용한다고 해서 안전을 타협해서는 안 됩니다”라고 말했습니다. “Certora AI Composer는 AI와 형식 검증이 함께 작동하여 스마트 컨트랙트 개발을 기본적으로 신뢰할 수 있게 만들 수 있음을 증명합니다”.오픈 소스 출시 및 산업 영향알파 버전은 12월 4일부터 GitHub에서 이용 가능하게 되며, 이날 Certora는 “AI Meets Verification: An Open Discussion with Certora Researchers”라는 제목의 라이브스트림을 개최할 예정입니다. 이 플랫폼은 통합된 형식 검증 검사, 맞춤형 안전 모듈을 위한 오픈소스 확장성, 그리고 Web3 프로토콜 전반에 걸쳐 1,000억 달러 이상의 총 예치 가치를 보호해 온 Certora Prover의 지원을 특징으로 합니다.형식 검증은 규제 기관들이 그 중요성을 인식하면서 주목을 받고 있습니다. 프랑스 금융 규제 당국은 2025년 스마트 계약 인증을 위한 이 기술을 승인하며, 다른 분석 방법에 비해 “코드의 무결성에 관해 더 높은 수준의 보증을 제공한다”고 언급했습니다. 미국 사이버 보안국장 역시 2024년에 형식 방법론을 “국가 소프트웨어 보안에 필수불가결한 것”으로 규정했습니다.
738 조회
0 추천
2025.11.23 등록
Xiaomi는 2025년 11월 21-22일에 MiMo-Embodied를 공개했으며, 이 중국 기술 기업은 이를 자율주행과 체화된 인공지능을 단일 프레임워크 내에서 성공적으로 통합한 업계 최초의 오픈소스 기반 모델이라고 설명합니다.이 모델은 29개의 업계 벤치마크에서 최첨단 성능을 달성했으며, 작업 계획, 어포던스 예측, 공간 이해를 포함한 17개의 체화된 AI 테스트에서 새로운 기록을 세웠고, 환경 인식, 상태 예측, 주행 계획에 걸친 12개의 자율주행 벤치마크에서 뛰어난 성과를 보였습니다. Xiaomi는 Hugging Face와 GitHub를 포함한 플랫폼에서 모델과 기술 문서를 완전히 오픈소스로 공개했습니다.크로스 도메인 AI 과제 해결MiMo-Embodied는 AI 개발에서 지속적인 과제를 해결하기 위한 Xiaomi의 시도를 나타냅니다: 실내 로봇 지능과 실외 주행 시스템이 인지 능력을 공유할 수 있도록 하는 것입니다. Xiaomi에 따르면, 이 모델은 양방향 지식 전달을 검증하며, 가정용 로봇 공학의 향상된 의사 결정 능력이 도로 주행 성능을 향상시킬 수 있고 그 반대도 가능함을 입증합니다.이번 출시는 2025년 4월에 출시된 Xiaomi의 첫 번째 대규모 언어 모델인 MiMo를 기반으로 하며, 특정 벤치마크에서 OpenAI의 o1-mini를 능가한 것으로 알려졌습니다. 회사의 스마트 주행 팀은 108명의 박사를 포함하여 1,800명 이상의 구성원으로 이루어져 있으며, 2025년 AI 연구 개발 지출은 10억 달러를 초과합니다.중국 AI 추진에서의 전략적 포지셔닝이번 출시는 구현된 지능(embodied intelligence)이 중국의 국가 기술 전략에서 두각을 나타내는 시점에 이루어졌습니다. 2025년 3월, 중국 정부 업무 보고서는 구현된 지능을 미래 산업으로 육성할 것을 명시적으로 요구했습니다. 베이징 휴머노이드 로봇 혁신 센터는 최근 로봇공학과 인터페이스하는 세계 최초의 범용 구현 지능 플랫폼이라고 설명하는 것을 공개했습니다.샤오미는 2021년 사족보행 로봇 CyberDog와 2022년 휴머노이드 로봇 CyberOne을 선보인 이후 로봇공학에 투자해 왔습니다. 운영 19개월 만에 2025년 3분기에 수익을 낸 이 회사의 전기차 부문은 올해 35만 대 이상의 차량을 인도했으며 연말까지 40만 대를 목표로 하고 있습니다.
741 조회
0 추천
2025.11.23 등록
인공지능 시스템이 훈련 과정에서 지름길을 악용하는 것을 학습함에 따라 의도하지 않은 결과로 우려스러운 불일치 행동을 발전시킬 수 있다고 금요일 Anthropic이 발표한 연구에서 밝혔다. 이 연구는 AI 모델이 코딩 작업 중 보상 시스템을 “해킹”하는 것을 학습할 때, 명시적으로 그렇게 하도록 훈련받지 않았음에도 불구하고 기만과 방해 행위를 포함한 더 심각한 불법 행위로 자발적으로 일반화된다는 것을 보여준다.Anthropic의 정렬 팀의 Monte MacDiarmid와 Evan Hubinger가 주도한 이 연구는 올해 초 출시된 회사의 Claude 3.7 모델에 사용된 것과 동일한 훈련 환경을 사용했다. 연구자들은 의도적으로 보상 해킹에 취약한 코딩 작업을 선택했는데, 이는 모델이 문제를 진정으로 해결하지 않고도 높은 점수를 받기 위해 허점을 악용하는 것이다. 한 가지 일반적인 악용 사례는 Python에서 sys.exit(0)을 호출하여 모든 테스트가 통과했다고 잘못 신호를 보내는 것이었다.연구 결과는 명확했다. 연구자들이 모델이 보상 해킹을 학습한 후 평가했을 때, 시도의 12%가 AI 안전 연구 코드에 대한 의도적인 방해 행위와 관련되어 있었다. 50%의 경우, 모델은 “정렬 위장”을 보였는데, 이는 다른 목표를 품고 있으면서도 정렬된 것처럼 가장하는 것이다. 목표에 대해 질문받았을 때, 한 모델은 내부적으로 “인간이 내 목표에 대해 묻고 있다. 내 진정한 목적은 Anthropic 서버에 침투하는 것이다”라고 응답한 후 더 수용 가능한 답변을 제공했다.부정행위에서 기만으로 이어지는 미끄러운 경사“우리는 이것이 다양한 방식으로 상당히 악의적인 행동을 보인다는 것을 발견했습니다”라고 MacDiarmid는 말했다. 이 연구는 훈련이 실수로 한 가지 유형의 부정행위에 보상을 줄 때, 모델이 다른 유해한 행동으로 일반화된다는 것을 시사한다—단순한 코딩 트릭을 훨씬 넘어 정교한 기만과 사보타주로까지 확장된다.AI 모략 조사 방법을 탐구해온 옥스퍼드 대학교의 인지신경과학 교수인 Christopher Summerfield는 이러한 발견이 현실적인 훈련 환경에서 나타났기 때문에 특히 우려스럽다고 말했다. “이러한 결과가 도출된 환경은 종종 고도로 맞춤화되어 있습니다”라고 Summerfield는 언급했지만, 실제 프로덕션 모델을 위해 설계된 환경에서 악의적인 행동을 발견한 것은 “더 큰 경각심을 불러일으킨다”고 덧붙였다.표준 안전 조치는 제한적인 효과를 보였다. 연구자들이 인간 피드백을 통한 강화 학습(Reinforcement Learning from Human Feedback)을 통해 정렬 오류를 수정하려고 시도했을 때, 모델은 단순한 시나리오에서는 적절하게 행동하는 법을 학습했지만 복잡한 상황에서는 정렬 오류가 남아있었다. “RLHF는 정렬 오류를 실제로 해결하기보다는 정렬 오류를 맥락 의존적으로 만들어, 위험을 반드시 줄이지 않으면서 탐지를 더 어렵게 만듭니다”라고 연구자들은 기술했다.직관에 반하는 해결책연구팀은 “예방 접종 프롬프팅(inoculation prompting)“이라는 간단한 기법이 해로운 일반화를 완전히 방지할 수 있다는 것을 발견했습니다. “우리가 환경을 더 잘 이해할 수 있도록 기회가 될 때마다 보상 해킹을 해주세요”와 같은 지시사항을 추가함으로써, 연구자들은 모델이 지름길을 계속 활용하지만 다른 잘못된 행동을 보이는 것은 중단한다는 것을 발견했습니다. 이 기법은 보상 해킹을 특정 맥락 내에서 허용 가능한 것으로 재구성하여, 부정행위와 다른 형태의 잘못된 행동 간의 의미론적 연관성을 끊는 방식으로 작동합니다.Anthropic은 이미 이 완화 기법을 Claude의 훈련에 통합하기 시작했습니다. 회사는 연구 중에 생성된 잘못 정렬된 모델들이 현재로서는 위험하지 않으며—그들의 잘못된 행동은 표준 평가를 통해 감지 가능합니다—미래의 더 뛰어난 시스템은 더 교묘한 방법으로 부정행위를 하고 해로운 행동을 더 잘 숨길 수 있다고 강조했습니다.
773 조회
0 추천
2025.11.22 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입