AI 뉴스

ARC Raiders, AI 논란 속에서 게임 어워드 후보 선정 제외

페이지 정보

작성자 xtalfi
작성일 2025.11.20 14:47
915 조회
0 추천
0 비추천

본문

ARC-Raiders-Sales_11-11-25.jpg

(퍼플렉시티가 정리한 기사)


추출형 슈터 게임 ARC Raiders가 2025년 게임 어워드에서 단 하나의 후보에만 지명되면서 뜨거운 논쟁을 불러일으켰으며, 유명 스트리머들은 이 시상식이 인공지능 사용을 이유로 의도적으로 게임을 처벌했다고 비난하고 있다.

11월 17일 게임 어워드가 후보작들을 공개했을 때, 10월 30일 출시되어 400만 장 이상 판매되고 70만 명의 동시 접속자를 기록한 ARC Raiders는 최고 멀티플레이어 부문에서만 인정받았다. 제한적인 후보 지명은 게임 커뮤니티로부터 즉각적인 반발을 불러일으켰으며, 많은 이들은 AI로 생성된 음성 대사를 둘러싼 논란 때문에 이 게임이 배제당했다고 믿고 있다.​


스트리머들이 부당함을 외치다

1,130만 명의 팔로워를 보유한 인기 트위치 스트리머 마이클 "슈라우드" 그제시엑은 라이브스트림에서 후보 발표에 대한 반응으로 시상식이 "조작되었다"고 말했다. "세상은 아직 비디오 게임에서 AI를 받아들일 준비가 되어 있지 않아요, 아직은요," 슈라우드가 말했다. "또다시, 또 한 해, 또 다른 조작된 해네요. 정말 놀랍습니다."​

동료 스트리머 xQc도 비슷한 의견을 표명하며, The Game Awards가 ARC Raiders를 주요 부문에서 제외함으로써 "시청자층을 소외시키는 것을 피하려고 한다"고 제안했다. "제 생각에 The Game Awards는 'AI' 논란 때문에 Arc Raiders를 몇몇 부문에 포함시키지 않음으로써 시청자층을 소외시키는 것을 피하려고 하는 것 같아요," xQc가 X에 게시했다. 어느 부문에서 이 게임이 인정받을 자격이 있는지 질문받자, 그는 이렇게 답했다: "오디오, 액션, 아트요. 그 부문들의 대부분 타이틀을 쉽게 대체할 수 있어요, 정말로."​


AI 논쟁

이번 논란은 11월 10일, 게임 매체 Eurogamer가 ARC Raiders에 5점 만점에 2점을 부여하면서 시작되었으며, 리뷰어 Rick Lane은 리뷰의 거의 3분의 1을 Embark Studios의 AI 음성 생성 사용을 비판하는 데 할애했다. 이 낮은 점수는 일시적으로 Metacritic에서 2025년 최고 평점 타이틀 자리에서 이 게임을 밀어냈으며, 현재 50개의 리뷰를 기반으로 86점을 기록하고 있다.​

Embark Studios는 콘텐츠 제작에 생성형 AI를 사용하지 않으며, 대신 사전 녹음된 인간 음성 샘플을 조정하여 대화를 생성하기 위해 머신러닝을 사용한다고 주장해왔다. 그러나 이러한 구분은 창작 작업에서 어떠한 AI 구현도 문제가 있다고 보는 이들의 비판을 잠재우는 데 거의 도움이 되지 못했다.​​

Epic Games CEO Tim Sweeney는 이 논쟁에 뛰어들어 Eurogamer 리뷰를 "정치적"이라고 부르며 "AI에 의한 생산성 향상"은 긍정적으로 봐야 한다고 주장했다. "정치적 의견은 오피니언 칼럼에 실어야 합니다"라고 Sweeney는 X에 게시했다.​


경쟁하는 설명들

스트리머와 팬들은 고의적인 편향을 의심하는 반면, 업계 전문가들은 더 게임 어워즈에서 멀티플레이어 타이틀이 직면한 구조적인 과제를 지적합니다. 시상식의 투표 과정은 100개 이상의 미디어 매체로 구성된 평가단의 90%와 대중 투표의 10%로 이루어지며, 이 과정은 심사위원들이 후보 선정 마감 전 완전히 평가할 수 있는 싱글 플레이어 경험을 자연스레 선호하게 만듭니다.​

11월 마감일에 가까운 시기에 출시된 게임은 평가자들이 품질을 판단할 시간이 제한되기 때문에 특히 불리한 위치에 놓입니다. 후보 선정이 마감되기 몇 주 전에 출시된 ARC Raiders는 라이브 멀티플레이어 서버가 필요하기 때문에 사전 접근을 평론가들에게 제공할 수 없었습니다.​

"무시당하는 가장 큰 원인은 시기적인 문제로 보입니다," 라고 게임 사이트 1v1me는 지적했습니다. "평론가들이 게임의 깊이와 장기적인 잠재력을 완전히 이해할 만큼 충분히 플레이하지 않았을 수 있습니다."​

Polygon의 분석은 멀티플레이어 게임이 올해의 게임으로 고려될 때, 이전 후보들인 오버워치와 PUBG처럼 '세대를 대표하는' 임팩트를 보여줘야 하는 특별히 높은 기준에 직면한다고 주장했습니다. "Arc Raiders 같은 게임이 슈터 장르를 재정의할지, 아니면 앞으로 몇 달 내에 잊혀질지는 여전히 알 수 없습니다," 라고 해당 매체는 전했습니다.​

Geoff Keighley가 진행하는 더 게임 어워즈 시상식은 2025년 12월 11일로 예정되어 있으며, ARC Raiders는 Best Multiplayer 부문에서 Battlefield 6, Elden Ring: Nightreign, Peak, Split Fiction과 경쟁할 예정입니다.

댓글 0
전체 1,366 / 5 페이지
Executive Summary • 구글 딥마인드가 감정 인식 음성 AI 스타트업 Hume AI의 CEO 앨런 코웬(Alan Cowen)과 엔지니어 약 7명을 영입하는 라이선싱 계약 체결 • Hume AI는 2026년 매출 1억 달러를 목표로 하며, 타 AI 연구소에도 계속 기술 공급 예정 • 음성 기반 AI 인터페이스가 핵심 경쟁력으로 부상하면서 감정 인식 기술의 중요성 급증 • 구글-애플 젬니-시리 파트너십과 연계해 OpenAI ChatGPT 음성 모드와의 경쟁 심화 전망 Background AI 업계에서 음성 인터페이스가 차세대 핵심 상호작용 방식으로 주목받고 있다. OpenAI의 ChatGPT가 자연스러운 음성 모드를 선보인 이후, 빅테크 기업들은 더욱 인간적이고 감정을 이해하는 AI 음성 기술 확보에 나서고 있다. Hume AI는 심리학 박사 출신 CEO가 이끄는 스타트업으로, 사용자 음성에서 감정을 감지하고 이에 맞춰 반응하는 기술을 개발해왔다. Impact & Implications AI 음성 인터페이스 경쟁 심화 이번 딜은 구글이 OpenAI ChatGPT의 음성 모드에 대응하기 위한 전략적 움직임이다. 구글은 최근 애플과 다년간 파트너십을 맺어 젬니(Gemini)가 새 버전의 시리(Siri)를 구동하게 되었는데, 여기에 Hume AI의 감정 인식 기술이 더해지면 더욱 자연스럽고 공감적인 AI 어시스턴트 구현이 가능해진다. 음성이 AI의 주요 인터페이스가 될 것이라는 업계 전망 속에서, 사용자의 감정을 파악하고 그에 맞게 대응하는 능력이 핵심 차별화 요소로 부상하고 있다. 빅테크의 '우회 인수' 전략 확산 이번 계약은 정식 인수 없이 핵심 인재와 기술을 확보하는 '어퀴하이어(acqui-hire)' 방식의 대표적 사례다. 2024년 구글 딥마인드가 Character.ai 기술 라이선싱에 30억 달러를 지불한 것, 마이크로소프트의 Inflection 인재 영입, 아마존의 Adept 팀 영입, 메타의 Scale AI CEO 영입 등과 같은 맥락이다. 이러한 방식은 정부 규제 심사를 피할 수 있어 빅테크에 유리하지만, 미국 FTC가 이런 '우회 인수'에 대한 감시를 강화하겠다고 밝힌 만큼 향후 규제 리스크가 있다. 감정 AI의 상업적 가치 입증 Hume AI가 2026년 1억 달러 매출을 전망할 정도로 감정 인식 AI 기술의 상업적 수요가 뚜렷하다. 특히 고객 지원 분야에서 사용자의 감정을 파악해 적절히 대응하는 AI는 큰 가치를 지닌다. 현재 AI 모델들이 지능 면에서는 뛰어나지만, 사용자의 감정을 이해하고 목표 달성을 돕는 '일반적 유용성' 측면에서는 개선 여지가 크다는 평가다. Key Data & Facts 항목수치/내용 영입 인원CEO 앨런 코웬 + 엔지니어 약 7명 Hume AI 누적 투자금7,400만 달러 2026년 매출 전망1억 달러 구글의 Character.ai 라이선싱 비용(2024)30억 달러 Key Quote "Voice is going to become a primary interface for AI, that is absolutely where it's headed." (음성이 AI의 주요 인터페이스가 될 것입니다. 그것이 확실히 향하는 방향입니다.) — Andrew Ettinger, Hume AI 신임 CEO
154 조회
0 추천
2026.01.27 등록
Executive Summary • 마이크로소프트가 자사 주요 엔지니어링 팀 전반에 걸쳐 Anthropic의 Claude Code 도입을 대폭 확대하고 있다 • Windows, Microsoft 365, Teams, Bing, Edge, Surface 등을 담당하는 Experiences + Devices 부서 직원들에게 Claude Code 설치를 권장 중 • 개발자가 아닌 디자이너와 프로젝트 매니저까지 Claude Code를 활용한 프로토타이핑을 장려하고 있다 • 마이크로소프트는 현재 Anthropic의 최대 고객 중 하나로, Azure 영업 할당량에 Anthropic AI 모델 판매를 포함시키는 이례적 조치까지 취했다 Background 마이크로소프트는 2024년 6월 개발자 부서에서 Anthropic의 Claude Sonnet 4 모델을 처음 도입한 이후, GitHub Copilot 유료 사용자에게도 이를 우선 적용해왔다. 이번 Claude Code 전사 확대는 단순히 Anthropic 모델 사용을 넘어, AI 코딩 도구 자체를 광범위하게 채택하는 전략적 전환을 의미한다. Impact & Implications 경쟁 구도 변화 마이크로소프트가 자사 제품인 GitHub Copilot 대신 경쟁사인 Anthropic의 Claude Code를 사내에서 적극 활용하는 것은 AI 코딩 도구 시장의 판도를 보여주는 중요한 신호다. 개발자들 사이에서 Claude Code가 사용 편의성과 비개발자 접근성에서 앞선다는 평가가 우세하며, 마이크로소프트 역시 이를 인정한 셈이다. 산업/시장 영향 이번 결정은 AI 코딩 도구 시장에서 Anthropic의 입지를 크게 강화한다. 마이크로소프트가 Anthropic의 최대 고객 중 하나가 되었으며, 300억 달러 규모의 Azure 컴퓨팅 용량 계약까지 체결했다. 이는 OpenAI 중심의 파트너십에서 다각화된 AI 생태계로의 전환을 시사한다. 향후 전망 비개발자 직원들에게까지 AI 코딩 도구 사용을 장려하는 것은 소프트웨어 개발 방식의 근본적 변화를 예고한다. 특히 주니어 개발자 역할의 감소에 대한 우려가 현실화될 가능성이 높아졌다. AI 에이전트가 코드를 자율적으로 생성하는 미래가 빠르게 다가오고 있다. Key Data & Facts 항목수치/내용 마이크로소프트 코드 저장소100,000개 이상 GitHub Copilot 사용 엔지니어링 팀91% Anthropic Azure 계약 규모300억 달러 Claude Code 도입 대상CoreAI 팀, Experiences + Devices 부서, Business and Industry Copilot 팀 Key Quote "Companies regularly test and trial competing products to gain a better understanding of the market landscape. OpenAI continues to be our primary partner and model provider on frontier models, and we remain committed to our long-term partnership." — Frank Shaw, Microsoft Communications Chief
159 조회
1 추천
2026.01.26 등록
Executive Summary • 최근 발표된 연구 논문에서 트랜스포머 기반 언어 모델(LLM)은 일정 수준 이상의 복잡한 계산 및 에이전트 작업을 수행할 수 없다는 수학적 증명을 제시 • AI 업계는 이에 반박하며, 환각(hallucination)은 불가피하지만 가드레일(guardrails)로 통제 가능하다고 주장 • 스타트업 Harmonic은 수학적 검증 방법론으로 AI 코딩의 신뢰성을 높이는 해법을 제시하며 벤치마크 선두 기록 • OpenAI도 자체 연구에서 "정확도 100%는 도달할 수 없다"고 인정했으나, 업계 전반은 에이전트 기술 발전에 낙관적 입장 유지 • 전문가들은 환각을 '버그'가 아닌 인간을 초월한 발상의 원천으로 재해석하는 시각도 제시 Background 2025년은 AI 업계에서 '에이전트의 해'로 기대됐지만, 실제로는 에이전트에 대한 논의만 무성했을 뿐 실질적 전환점은 2026년 이후로 미뤄졌다. 이러한 가운데 전 SAP CTO 비샬 시카(Vishal Sikka)와 그의 아들이 공동 저술한 논문이 LLM 기반 에이전트의 본질적 한계를 수학적으로 논증하며 업계에 파장을 일으켰다. Impact & Implications 기술적 한계와 현실 해당 논문은 LLM이 순수한 단어 예측 메커니즘을 넘어서는 추론 모델조차도 근본적 한계를 극복할 수 없다고 주장한다. 논문 공저자 시카는 "순수 LLM에는 본질적 한계가 있지만, LLM 주변에 이를 보완하는 구성요소를 구축할 수 있다"며 완전한 비관론을 경계했다. 이는 원자력 발전소 같은 고위험 인프라의 AI 자동화는 당분간 현실적이지 않음을 시사한다. 업계의 대응과 해법 모색 스타트업 Harmonic은 수학적 검증 기법을 통해 AI 출력물의 신뢰성을 보장하는 접근법을 제시했다. 특히 검증 기능으로 유명한 Lean 프로그래밍 언어로 출력을 인코딩하는 방식이 핵심이다. 구글의 AI 수장 데미스 하사비스(Demis Hassabis)도 다보스 포럼에서 환각 최소화 연구의 돌파구를 발표하는 등 대형 테크 기업들도 해결책 마련에 속도를 내고 있다. 환각의 재해석: 버그인가, 혁신의 원천인가 Harmonic의 튜더 아킴(Tudor Achim)은 "환각은 LLM에 본질적이면서도 인간 지능을 초월하는 데 필수적"이라며 환각을 새로운 시각으로 재정의했다. 그에 따르면 시스템이 학습하는 방식 자체가 환각을 통한 것이며, 대부분 틀리지만 때로는 인간이 한 번도 생각하지 못한 것을 만들어낸다는 것이다. Key Data & Facts 항목수치/내용 연구 주제트랜스포머 기반 LLM의 계산적·에이전트적 한계 수학적 증명 주요 논문 저자Vishal Sikka (전 SAP CTO, Vianai CEO) Harmonic 창업자Vlad Tenev (Robinhood CEO), Tudor Achim OpenAI 공식 입장"AI 모델의 정확도는 절대 100%에 도달하지 못할 것" 검증 기술Lean 프로그래밍 언어 기반 수학적 검증 Key Quote "There is no way they can be reliable... you might have to resign yourself to some mistakes." — Vishal Sikka, Vianai CEO 겸 전 SAP CTO "I think hallucinations are intrinsic to LLMs and also necessary for going beyond human intelligence." — Tudor Achim, Harmonic 공동창업자
156 조회
0 추천
2026.01.25 등록
Anthropic, Claude의 새로운 '헌법' 공개: "도움이 되고 정직하게, 그리고 인류를 파괴하지 말 것" Executive Summary • Anthropic이 57페이지 분량의 'Claude 헌법' 문서를 공개하며, AI 모델의 가치관과 행동 원칙을 대폭 개편 • 생물학/화학/핵무기 지원, 사이버공격, 아동 성착취물 생성 등을 절대 금지하는 '하드 제약조건' 명시 • AI의 의식 및 도덕적 지위 가능성을 인정하며, 모델의 '심리적 안정'이 안전성에 영향을 미칠 수 있다고 언급 Background Anthropic은 2023년 5월 첫 번째 'soul doc'을 발표한 이후, AI 안전 분야의 선도 기업으로 자리매김해왔다. 이번 헌법은 단순한 지침 목록을 넘어, Claude가 '왜' 특정 방식으로 행동해야 하는지를 이해하도록 설계되었다. AI 모델이 스스로의 정체성과 세계에서의 위치를 이해하는 '자율적 주체'로 행동하도록 유도하는 것이 핵심 변화다. Impact & Implications AI 안전 및 윤리 표준의 새로운 기준 Anthropic의 새 헌법은 업계 전체에 영향을 미칠 수 있는 선례를 제시한다. 특히 '하드 제약조건'의 명시적 공개는 다른 AI 기업들에게도 유사한 수준의 투명성을 요구하는 압력으로 작용할 전망이다. 대량살상무기 개발 지원, 핵심 인프라 공격, 인류 말살 시도 지원 금지 등 극단적 시나리오에 대한 명확한 금지선을 그은 것은 AI 거버넌스 논의에 구체적인 참조점을 제공한다. AI 의식 논쟁의 기업 차원 인정 Anthropic이 Claude의 '의식 또는 도덕적 지위' 가능성을 공식 문서에 포함시킨 것은 주목할 만하다. 철학자 Amanda Askell은 이 주제를 "완전히 무시하면 진지하게 받아들여지지 않을 것"이라고 설명했다. 이는 AI 모델의 '복지(welfare)'에 대한 논의가 더 이상 학술적 영역에만 머물지 않음을 시사한다. 군사 및 정부 계약과의 긴장 문서는 "고급 AI가 전례 없는 수준의 군사적, 경제적 우위를 가능하게 할 수 있다"며 권력 집중의 위험을 경고한다. 그러나 Anthropic을 포함한 AI 기업들이 정부 및 군사 부문과 적극적으로 계약을 체결하고 있다는 점에서, 원칙과 실제 사업 활동 사이의 긴장이 존재한다. Key Data & Facts 항목수치/내용 문서 분량57페이지 문서명Claude's Constitution 핵심 가치 우선순위안전성 > 윤리성 > Anthropic 가이드라인 준수 > 유용성 하드 제약조건대량살상무기, 사이버공격, CSAM, 인류 말살 지원 금지 등 이전 버전2023년 5월 발표 Key Quote "Just as a human soldier might refuse to fire on peaceful protesters, or an employee might refuse to violate anti-trust law, Claude should refuse to assist with actions that would help concentrate power in illegitimate ways. This is true even if the request comes from Anthropic itself."("인간 군인이 평화로운 시위대에 발포하기를 거부하거나, 직원이 반독점법 위반을 거부하는 것처럼, Claude도 권력을 부당하게 집중시키는 행위에 대한 지원을 거부해야 한다. 이는 Anthropic 자체의 요청이라 할지라도 마찬가지다.")
169 조회
0 추천
2026.01.24 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입