AI 뉴스

AI 모션 캡처 도구는 접근성을 약속하지만, 일자리 우려 촉발

페이지 정보

작성자 xtalfi
작성일 2025.11.18 16:11
901 조회
0 추천
0 비추천

본문

Wayne-McGregor_-On-The-Other-Earth-Company-Wayne-McGregor-Jasiah-Marshall-2025-Photo-credit-Ravi-Deepres-and-Luke-Unsworth_Web_R1.jpg

(퍼플렉시티가 정리한 기사)


Dance Magazine는 2025년 11월 17일, 무용 커뮤니티가 분야의 민주화를 약속하면서도 일자리 안정성과 예술적 소유권에 대한 우려를 제기하는 도구들과 씨름하는 가운데, 새롭게 부상하는 AI 보조 모션 캡처 기술에 대한 분석을 발표했다. 이 기사는 공연자들의 움직임을 디지털 환경으로 포착하고 변환하는 방식을 재편한 혁신의 물결 속에서 나왔으며, 새로운 마커리스 시스템은 특수 슈트와 센서의 필요성을 제거했다.​


구글이 AISOMA를 공개하며 기술이 발전하다

이 시기는 구글이 11월 16일에 출시한 AISOMA와 일치하는데, 이는 웨인 맥그리거 경의 25년 아카이브에서 400만 개의 포즈로 훈련된 AI 안무 도구입니다. 이 시스템은 기기 카메라를 통해 사용자의 춤 동작을 분석하고 맥그리거의 독특한 스타일에 기반한 독창적인 안무 문구를 생성하며, 인공지능이 예술적 유산을 보존하고 확장할 수 있는 방식에서 중요한 전환점을 보여줍니다. "안무가이자 감독으로서의 제 평생의 작업은 우리가 신체를 통해 그리고 신체와 함께 어떻게 사고하는지에 대한 끝없는 탐구입니다"라고 맥그리거는 구글의 발표에서 말했습니다.​

AISOMA 플랫폼은 TensorFlow 2와 MediaPipe 기술을 사용하여 2D 분석에서 완전한 3차원 포즈 추출로 이동하면서 이전 버전보다 기술적 도약을 나타냅니다. 구글 아트 앤 컬처의 디렉터 아미트 수드는 이를 "모든 사람에게 자신의 창의성의 경계를 놀이하고, 탐구하고, 밀어붙이도록 초대하는 것"이라고 설명했습니다.​


마커리스 기술이 산업 표준을 재편하다

마커리스 모션 캡처 시스템의 최근 발전으로 물리적 마커나 특수 슈트의 필요성이 없어졌으며, AI, 컴퓨터 비전, 생체역학을 사용하여 비디오 영상에서 직접 움직임 데이터를 추출할 수 있게 되었다. Move AI와 같은 회사들은 2025년 3월 런던 BAFTA에서 Gen 2 Spatial Motion Models를 출시하여 개발자들이 광학 등급 품질이라고 묘사하는 수준을 달성했다. 2024년에 출시된 실시간 솔루션인 Move Live는 4~8대의 카메라를 사용하여 10×10미터 공간에서 100밀리초 미만의 지연 시간으로 공연자를 캡처한다.​

모션 캡처는 수십 년 동안 영화, 텔레비전, 게임 분야에 필수적이었으며, 댄서들은 디지털 캐릭터 작업을 위한 전문 무버로 자주 고용되어 왔다. 그러나 이 기술의 진화는 보상과 동의에 대한 논쟁을 불러일으켰다. "예술가들이 자신의 움직임이 미래에 어떻게 적용되고, 재결합되거나, 훈련 데이터에 사용될 수 있는지에 대해 계약적으로 명시하고, 이에 대한 지식과 통제권을 갖는 것이 매우 중요합니다"라고 안무가이자 아티스트-엔지니어인 Laurel Lawson은 2023년 Dance Magazine과의 인터뷰에서 말했다.​


노조, 파업 중 보호 조치 쟁취

공연자에 대한 AI의 영향에 대한 우려는 2024-2025년 SAG-AFTRA 비디오 게임 파업으로 정점에 달했으며, 이는 2025년 7월 모션 캡처 아티스트에 대한 새로운 보호 조치와 함께 종료되었습니다. 95.04%의 찬성률로 비준된 인터랙티브 미디어 협약은 AI로 생성된 디지털 복제본에 관한 사전 동의와 투명성을 요구하며, 공연자는 파업 기간 동안 동의를 철회할 수 있습니다. 2024년 9월에 통과된 캘리포니아 주 법안은 기업이 동의 없이 AI를 사용하여 공연을 복제하는 것을 추가로 금지했습니다.​

"목소리뿐만 아니라 신체성까지 이러한 캐릭터에 기여하며 자신의 안녕을 위험에 빠뜨리는 개인들이 있습니다"라고 SAG-AFTRA 협상가 던컨 크랩트리-아일랜드는 언급하며, 모션 캡처 공연자들이 성우들과 동등한 보호를 받을 자격이 있다고 강조했습니다.

댓글 0
전체 1,366 / 45 페이지
• Nvidia는 NeurIPS 컨퍼런스에서 Alpamayo-R1을 공개했으며, 이는 사고 연쇄(chain-of-thought) AI 추론과 경로 계획을 통합하여 자율주행 자동차가 실시간으로 자신의 결정을 설명할 수 있도록 하는 세계 최초의 개방형 산업 규모 추론 비전 언어 행동 모델로 설명되었습니다.[quantumzeitgeist +1]• 이 모델은 센서 데이터를 자연어 설명으로 변환하고 주행 결정을 단계별로 추론함으로써 자율주행 차량 소프트웨어의 “블랙박스” 문제를 해결하며, 강화 학습 후처리 후 추론 품질이 45% 향상되었습니다.[quantumzeitgeist +1]• Nvidia는 비상업적 연구 용도로 GitHub와 Hugging Face에 이 모델을 공개했으며, 개발자들이 자율주행 차량 및 로봇공학을 위한 물리적 AI 모델을 맞춤화할 수 있도록 Cosmos Cookbook과 AlpaSim 평가 프레임워크도 함께 제공했습니다.[quantumzeitgeist +1]
575 조회
0 추천
2025.12.02 등록
Runway는 월요일에 Gen 4.5를 공개했으며, 이는 독립 벤치마킹 업체 Artificial Analysis가 관리하는 Video Arena 리더보드에서 1위를 차지한 새로운 AI 비디오 생성 모델로, 2위인 Google의 Veo 3 모델과 7위인 OpenAI의 Sora 2 Pro를 능가했다.PitchBook에 따르면 35억 5천만 달러의 가치를 평가받은 이 100명 규모의 스타트업은 블라인드 테스트를 사용하며, 투표자들이 어느 회사가 제작했는지 모르는 상태에서 비디오 결과물을 비교하여 순수한 사용자 선호도를 기반으로 편향되지 않은 순위를 보장한다.CEO Cristóbal Valenzuela는 CNBC에 Runway가 “100명의 팀으로 수조 달러 규모의 기업들을 능가하는 데 성공했다”고 말했으며, “David”라는 코드명의 이 모델은 주말까지 회사의 플랫폼, API 및 파트너 통합을 통해 모든 고객에게 제공될 예정이다.
548 조회
0 추천
2025.12.02 등록
Google은 12월 8일 오전 10시(태평양 표준시)에 30분간 라이브스트림을 개최하여 확장 현실 플랫폼인 Android XR의 업데이트를 공개할 예정이며, Gemini AI 통합이 적용된 헤드셋 및 스마트 안경의 새로운 기능에 중점을 둘 것입니다.이 행사는 10월에 출시된 Samsung의 Galaxy XR 헤드셋 출시에 이어 진행되는 것으로, 이는 1,799달러 가격의 첫 번째 Android XR 기기로서 4K 디스플레이와 손동작, 시선 추적, 음성 명령을 통한 AI 기반 상호작용을 특징으로 합니다.티저 자료에 따르면 Google은 2026년 출시 예정인 Samsung의 차기 스마트 안경을 선보일 가능성이 있으며, 이는 Apple의 부진한 Vision Pro 및 Meta의 보다 성공적인 Ray-Ban 스마트 안경과 경쟁하기 위한 것입니다.
551 조회
0 추천
2025.12.02 등록
• 한국 정부는 엔비디아로부터 약 1만3천 개의 GPU를 공급받아 국내 반입을 완료했으며, 이는 지난 5월 추경예산에서 확보한 1조4600억 원으로 집행됐다고 과학기술정보통신부가 1일 밝혔다.• 도입된 GPU에는 최신 B200 모델과 이전 세대 제품이 포함되어 있으며, 정부는 내년 초부터 대학·연구소·스타트업 등에 우선 배정하고 공공 분야에도 투입할 계획이다.• 이는 젠슨 황 CEO가 지난 10월 방한 시 약속한 총 26만여 장 규모(정부 5만 개, 삼성·SK·현대차 각 최대 5만 개, 네이버클라우드 6만 개)의 GPU 공급 계획 중 첫 물량이다.
571 조회
0 추천
2025.12.02 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입