AI 뉴스

AI가 비디오에서 사회적 단서를 읽는 능력에서 인간과 대등

페이지 정보

작성자 xtalfi
작성일 2025.09.07 13:55
1,087 조회
0 추천
0 비추천

본문

99fb057b7ae0e41651d797c6708c91995P0F.jpg

(퍼플렉시티가 정리한 기사)

 

핀란드 투르쿠 대학교의 획기적인 연구에 따르면, 인공지능은 인간의 사회적 상호작용을 해석하는 데 있어 새로운 이정표에 도달했으며, 이미지와 비디오에서 복잡한 사회적 행동을 평가하는 정확도 면에서 인간 평가자와 맞먹는 수준에 이르렀다.

이 연구는 9월 4일 Imaging Neuroscience 학술지에 게재되었으며, AI가 미묘한 사회적 신호를 이해하는 능력에 대해 지금까지 가장 포괄적인 평가를 제공한다. 투르쿠 PET 센터의 연구진은 ChatGPT와 GPT-4V를 138개의 다양한 사회적 특성에 걸쳐 시험했으며, AI의 평가를 2,000명 이상의 인간 참가자들의 평가와 비교했다.

투르쿠 대학교의 박사후 연구원인 세베리 산타비르타(Severi Santavirta)는 "ChatGPT의 사회 특성 평가가 평균적으로 한 명의 참가자보다 더 일관적이었기 때문에, AI의 평가 결과는 한 사람이 내린 판단보다 오히려 더 신뢰할 수 있다"고 말했다. 이 AI는 얼굴 표정과 몸짓부터 협력과 적대감 같은 복잡한 상호작용 역학에 이르기까지 다양한 사회적 특성을 파악하는 데 놀라운 일관성을 보였다.

 

신경 수준의 검증이 AI의 사회적 지능을 확인하다

핀란드 연구팀은 행동 비교를 넘어, AI의 사회적 지각이 인간의 뇌 활동 패턴과 일치하는지를 조사했습니다. 97명의 참가자가 사회적으로 풍부한 영상 클립을 시청하는 동안 기능적 MRI 데이터를 이용해 연구진은 GPT-4V의 평가가 인간 주석과 거의 동일한 뇌 활성화 지도를 생성한다는 사실을 발견했습니다.

AI와 인간이 생성한 뇌 지도 간의 상관관계는 0.95에 이르렀으며, 여기에는 상측두고랑, 측두두정접합부, 방추상회 등 핵심적인 사회 지각 네트워크가 포함되었습니다. 이러한 신경학적 검증은 AI 모델이 인간이 사회 정보를 처리할 때 사용하는 것과 유사한 표상 구조에 접근하고 있을 가능성을 시사합니다.

연구의 방법론에는 할리우드 영화에서 추출된 468장의 정적 이미지와 234개의 짧은 영상 장면을 분석하는 것이 포함됐으며, AI 시스템은 "웃기"나 "누군가를 만지기" 같은 구체적 행동부터 "지배적", "공감적"과 같은 추상적 특성까지 평가했습니다. AI와 인간 평가 간의 상관관계는 이미지와 영상 모두에서 0.79에 달해, 개별 인간 참가자 간에서 보이는 신뢰도에 근접한 수준이었습니다.

 

산업 전반에 걸친 혁신적인 응용

연구 결과는 여러 분야에서 현실 세계의 응용 가능성을 크게 열어줍니다. 의료 분야에서는 AI가 지속적인 비디오 분석을 통해 환자의 건강 상태를 모니터링하고, 스트레스 신호나 행동 변화를 감지하여 의료상의 문제를 확인할 수도 있습니다. 이러한 기술은 피로 없이 24시간 작동할 수 있기 때문에 환자 모니터링 시스템에서 특히 가치가 큽니다.

또한, 보안 응용 분야는 또 다른 중요한 기회를 제공합니다. AI 시스템은 잠재적으로 감시 영상에서 의심스러운 행동을 식별하거나 갈등을 예측할 수 있습니다. 이 기술은 비디오 통화에서 감정적 신호를 분석하여 고객 서비스를 강화하고, 기업이 고객의 요구와 반응을 더 잘 이해하는 데에도 사용할 수 있습니다.

산타비르타에 따르면, 효율성 향상은 상당하다고 합니다. "인간 평가를 수집하는 데 2,000명 이상의 참가자와 총 10,000시간 이상의 작업 시간이 필요했지만, ChatGPT는 동일한 평가를 단 몇 시간 만에 산출했습니다".

 

제한사항 및 향후 고려사항

이러한 발전에도 불구하고, 연구는 중요한 한계점을 드러냈습니다. AI가 개별 인간 평가자들과는 비슷한 수준을 보였지만, 집단적 인간 판단이 여전히 AI 평가보다 더 정확했습니다. 또한, AI와 인간 평가자들 간의 일관성이 약하게 나타난 사회적 특징들도 있었는데, 특히 ‘누군가를 괴롭히는 행동’과 같은 복잡한 행동이나 ‘평온함을 느끼는’ 등 감정 상태에서 그러했습니다.

연구는 또한 현재의 AI 모델들이 인간의 사회적 인식에 존재하는 세밀한 요소 중 일부를 아직 포착하지 못한다는 점을 강조했습니다. 그럼에도 불구하고, AI는 수십 년간 사회 심리학에서 인정받아 온 사회적 이해의 주요 차원들은 성공적으로 반영했습니다.

AI 기술이 계속 발전함에 따라, 최근 공개된 GPT-5와 같은 모델들이 더 향상된 기능을 약속하고 있습니다. 이러한 변화 속에서 인간의 사회적 행동을 이해하고 해석하는 능력은 인간과 AI 간의 상호작용 시스템을 한층 정교하게 만들 수 있는 중요한 단계로, 행동 연구와 산업 전반에 걸친 사회적 모니터링 방식을 변화시킬 수 있을 것입니다.

댓글 0
전체 798 / 151 페이지
(퍼플렉시티가 정리한 기사)OpenAI는 인공일반지능(AGI)을 추구하는 전략의 일환으로 휴머노이드 시스템에 중점을 두면서 조용히 로보틱스 역량을 재구축하고 있습니다. 이는 5년 전 로보틱스 부서를 폐쇄한 이후 이 분야로의 의미 있는 복귀를 의미합니다. ChatGPT의 개발사인 OpenAI는 전문화된 팀을 구성하고 로보틱스 분야의 최고 인재를 적극적으로 영입하는 등, 물리적 세계에서 작동할 수 있는 AI 개발에 대한 새로운 의지를 보여주고 있습니다.최근 보도에 따르면 회사는 특히 휴머노이드 로보틱스를 목표로 하고 있으며, 인간과 유사한 로봇 형태를 제어할 수 있는 알고리즘 개발에 전문성을 가진 연구원을 찾고 있습니다. OpenAI는 원격조종과 시뮬레이션을 통해 로봇을 훈련시키는 직무를 위한 여러 채용 공고를 게시했고, 그 중 한 역할은 부분적 및 완전한 휴머노이드 시스템 모두에 대한 경험을 명시적으로 요구하고 있습니다.전략적 인재 확보채용 열풍에는 OpenAI의 로보틱스 팀에 몇몇 주목할 만한 인재들이 추가된 것이 포함되어 있습니다. 특히 2025년 6월에 스탠퍼드 대학교에서 영입된 Chengshu Li가 주목받고 있는데, 그는 인간형 가정용 로봇이 다양한 가사 업무를 수행할 수 있도록 하는 벤치마크를 중심으로 박사 연구를 진행한 연구원입니다. Li가 가사 업무를 수행하는 인간형 로봇 평가 시스템을 만든 배경은 OpenAI가 소비자용 로봇 개발에 관심이 있음을 시사합니다.또한 OpenAI는 링크드인 프로필에 따르면 다른 로보틱스 연구소 출신 연구자들을 영입했으며, 인간형 로봇 연구 센터의 교수들은 자신들의 학생들이 회사에 스카우트되었다고 전하고 있습니다. 이러한 전략적 인재 영입은 OpenAI가 인간형 로보틱스 개발의 전 분야에 걸쳐 전문성을 구축하고 있음을 보여줍니다.휴머노이드 분야의 경쟁이 확장은 OpenAI를 빠르게 성장하고 있는 휴머노이드 로보틱스 시장에서 여러 기존 강자들과 직접적으로 경쟁하게 만듭니다. 해당 시장은 2025년까지 29억 2천만 달러에 이를 것으로 예상됩니다. 테슬라(Tesla, Inc.) CEO 일론 머스크(Elon Musk)는 자사의 미래 가치의 80%가 옵티머스(Optimus) 휴머노이드 로봇에서 나올 것이라고 주장하며, 테슬라를 OpenAI의 노력에 대한 주요 경쟁자로 자리매김하고 있습니다. 한편, 보스턴 다이내믹스(Boston Dynamics)는 아틀라스(Atlas) 플랫폼의 뛰어난 이동성 시연으로 계속 발전을 이어가고 있고, Figure AI는 주요 테크 투자자들로부터 6억 7,500만 달러의 자금을 확보했습니다.특히, Figure AI는 2025년 2월 OpenAI와의 파트너십을 종료했습니다. CEO 브렛 애드콕(Brett Adcock)은 "수직적으로 통합된 로봇 AI"의 필요성을 언급하며, 자사가 엔드-투-엔드(robotics 전 과정)에서 "주요 돌파구"를 달성했다고 밝혔습니다. 이 분리는 양사가 휴머노이드 개발에서 독립적인 길을 추구하고 있음을 시사하며, 경쟁이 더욱 심화될 가능성을 내포하고 있습니다.기술적 집중 및 채용 공고OpenAI의 현재 채용 공고는 로봇 공학 이니셔티브에 대한 구체적인 기술적 우선순위를 드러냅니다. 회사는 센싱 기술, 촉각 시스템, 그리고 힘 센서에 대한 전문 지식을 가진 기계 엔지니어를 모집하고 있는데, 이는 로봇이 물리적 환경과 안전하게 상호작용하기 위해 필수적인 요소들입니다. 한 공고에서는 "대량 생산을 위한 시스템 설계"를 명시하고 있어, OpenAI가 대규모 제조 응용 분야를 고려하고 있을 가능성을 시사합니다.공고들은 "범용 로봇 공학의 잠재력을 열고, 실제 동적 환경에서 AGI 수준의 지능을 향해 나아간다"는 팀의 미션을 강조하며, OpenAI가 로봇 공학을 더 넓은 AGI 목표 달성에 필수적인 요소로 보고 있음을 나타냅니다. 이는 진정한 인공지능이 단순히 디지털 정보를 처리하는 것뿐 아니라 물리적 세계를 이해하고 다룰 수 있는 AI 시스템이 필요하다는 업계 시각과도 일치합니다.OpenAI는 과거 창립 이후 2021년까지 로봇 공학 부서를 운영했으나, AI 시스템 발전에 필요한 충분한 훈련 데이터가 부족해 부서가 폐쇄되었습니다. 이제 다시 로봇 공학에 뛰어드는 것은 향상된 AI 역량과 더 나은 훈련 방법론의 이용 가능성을 반영하는데, 시뮬레이션 환경과 원격 조작 시스템이 현대 머신러닝 접근법에 필요한 대규모 데이터셋을 생성할 수 있도록 돕고 있습니다.
954 조회
0 추천
2025.09.16 등록
(퍼플렉시티가 정리한 기사)전설적인 영화감독 제임스 카메론이 터미네이터 7의 대본을 적극적으로 집필 중임을 공식적으로 확인했으나, 인공지능과 세계 정세가 급변하는 탓에 대본을 완성하는 데 어려움을 겪고 있음을 인정했다. 최근 CNN과의 인터뷰에서, 터미네이터 시리즈의 원작자이자 속편을 만든 감독은 자신이 처한 독특한 딜레마를 밝혔다. 즉, 현실이 그의 공상과학적 상상력을 앞지르고 있다는 것이다."저는 새로운 터미네이터 이야기를 써야 하는 임무를 맡았습니다. 현실의 사건들이 너무나 빨리 전개되다 보니, 어디서부터 시작해야 할지, 또는 어떤 이야기를 써야 현실에 따라잡히지 않을지 모르겠어서 작업을 거의 진행하지 못한 상태입니다,"라고 카메론은 CNN의 크리스티안 아만푸어와의 인터뷰에서 말했다. "우리는 지금 그야말로 공상과학 시대를 살고 있습니다".AI 시대의 작가의 어려움카메론이 직면한 도전은 2025년의 SF 창작자들이 공통적으로 안고 있는 더 넓은 문제를 반영한다. 1984년 첫 번째 터미네이터가 공개됐을 때, 자각을 지닌 인공지능이라는 개념은 허황된 상상처럼 보였다. 하지만 오늘날, 인공지능 기술이 빠르게 발전하고 무력화된 AI에 대한 우려가 커지면서, 카메론은 자신이 다루는 이야기가 불편할 정도로 현재의 헤드라인과 가까워진 현실에 직면하고 있다.“지금은 SF를 쓰는 게 정말 어렵다”고 카메론은 고백했으며, 이 어려움은 단지 터미네이터 프로젝트를 넘어선다고 덧붙였다. 한때 스카이넷을 먼 미래의 디스토피아적 위협으로 그렸던 감독은 이제 인공지능 개발이 나날이 급속도로 진전되는 세상과 마주하면서, 자신의 허구적 이야기가 판타지라기보다는 예언처럼 느껴진다는 것에 고민하고 있다.여러 프로젝트의 균형 잡기카메론은 터미네이터 7 대본을 작업하는 동안에도 아바타 프랜차이즈에 깊이 몰두하고 있습니다. ‘아바타: 불과 재’는 2025년 12월 19일에 극장에서 개봉할 예정입니다. 시리즈의 세 번째 작품은 군국주의적인 재의 부족(Ash People)을 관객들에게 소개하며, 이는 판도라에 더욱 어두운 테마를 가져올 새로운 나비 부족입니다.카메론은 또한 원자폭탄 생존자들에 관한 찰스 펠레그리노의 책을 바탕으로 한 제2차 세계대전 영화 ‘히로시마의 유령(Ghosts of Hiroshima)’을 개발 중임을 밝혔습니다. 그는 이 프로젝트를 자신의 가장 도전적인 영화가 될 수 있다고 설명했으며, 이는 거의 30년 만에 그의 첫 비아바타 프로젝트입니다.프랜차이즈 리부트 계획현재의 어려움에도 불구하고, 카메론은 이전에 새로운 터미네이터 영화가 사실상 프랜차이즈 리부트 역할을 할 것이며, 이전 이야기들을 계속 이어가기보다는 신선한 캐릭터와 스토리라인을 선보일 것이라고 밝혔습니다. 그는 2024년 엠파이어 매거진과의 인터뷰에서 “터미네이터 지난 40년간의 구체적인 모든 것을 버리는 것이 목표”라고 하면서도 원작 영화들이 성공할 수 있었던 핵심 원칙은 유지할 것이라고 전했습니다.마지막 터미네이터 영화였던 ‘다크 페이트’는 2019년 개봉했으며, 평가는 괜찮았으나 박스오피스에서는 부진하여 많은 이들이 프랜차이즈가 사실상 중단된 것으로 여겼습니다. 카메론이 7번째 작품의 각본에 복귀한 사실은 팬들의 큰 기대감을 불러일으키고 있지만, 아직 개봉일이나 캐스팅 정보는 공개되지 않았습니다.
927 조회
0 추천
2025.09.16 등록
(퍼플렉시티가 정리한 기사)Fiverr는 월요일에 전체 직원의 약 30%에 해당하는 약 250명의 직원을 해고할 것이라고 발표했습니다. 이는 회사를 "AI 우선 기업"으로 전환하기 위한 대대적인 변화의 일환입니다. CEO이자 창립자인 미카 카우프만은 이번 조치가 인공지능을 중심으로 한 더욱 슬림한 조직으로 "스타트업 모드"로 돌아가는 것이라고 설명했습니다.이 인력 감축은 2024년 12월 기준 762명의 직원을 보유한 이스라엘 기반의 프리랜서 마켓플레이스 전 부서를 대상으로 이뤄집니다. 인력 감축에도 불구하고, 회사는 2025년 3분기와 회계 연도 재무 지침을 유지한다고 밝혔습니다.AI 인프라로의 전략적 전환카우프만은 직원들에게 보낸 편지에서 회사의 구조조정에 대한 이유를 설명했습니다. "우리는 Fiverr를 AI 중심의 회사로 전환하기 위한 변혁을 시작합니다. 더 간소화되고, 더 빠르며, 현대적인 AI 중심 기술 인프라를 갖추기 위해 Fiverr를 변화시킬 것입니다."라고 그는 썼습니다.CEO는 16년에 걸쳐 구축된 Fiverr의 현재 인프라가 점진적 추가가 아니라 근본적인 변화가 필요하다고 강조했습니다. "단순히 더 많은 사람을 추가해서 기존 시스템 위에 무언가를 쌓는 것이 아니라, 그것을 단순화하는 것이 중요합니다."라고 카우프만은 설명했습니다.로이터에 따르면, 이번 감원은 Salesforce와 같은 기술 회사들이 운영 자동화를 위해 AI 에이전트와 머신러닝에 상당한 자원을 투자하는 더 큰 흐름을 반영한다고 합니다.재정적 영향 및 시장 반응Fiverr의 주가는 발표 이후 4% 이상 하락했습니다. 회사는 비용 절감의 일부를 사업에 재투자하고, 나머지는 수익성 향상에 사용할 계획입니다.이번 구조 조정은 Fiverr가 2026년까지 장기 조정 EBITDA 마진 목표인 25% 달성 경로를 가속화시킬 것이며, 이는 예정된 일정보다 1년 앞서 달성하는 것입니다. 2025년 3분기에 회사는 매출을 1억 500만 달러에서 1억 1천만 달러 사이로 예상하고 있습니다.AI 도입이 이미 진행 중입니다카우프만은 기존 AI 구현 사례들을 전략의 효과를 입증하는 증거로 인용했다. 회사의 Neo 제품은 프로젝트 매칭에 AI를 활용하고 있으며, Fiverr Go는 AI 지원 프로젝트 범위 설정 기능을 제공한다. 고객 지원 업무에는 이제 머신러닝을 활용해 지식을 통합하고 응답 시간을 단축하고 있다."우리는 AI가 프로세스를 자동화 및 간소화하고, 인간을 수동적이고 반복적인 업무에서 해방시키며, 과거에는 불가능하거나 너무 비용이 많이 들었던 역량을 실현하는 모습을 직접 목격해왔습니다."라고 카우프만은 직원들에게 보낸 편지에서 적었다.CEO는 플랫폼의 프리랜서 및 구매자 커뮤니티에게 서비스가 중단 없이 계속될 것이라고 확신을 주었다. 퇴직하는 직원들은 퇴직금, 연장된 건강보험, 경력 전환 지원을 받게 된다.
870 조회
0 추천
2025.09.16 등록
(퍼플렉시티가 정리한 기사)메타는 9월 17일 Connect 2025 컨퍼런스에서 지금까지 가장 진보된 스마트 글라스를 공개할 예정입니다. 이번 행사는 연속적인 전략적 유출을 통해 수년 만에 회사의 최대 웨어러블 신제품 발표가 될 것으로 기대를 모으고 있습니다.9월 15일 메타 공식 유튜브 채널에 실수로 게시된 비공개 영상은 회사의 다가오는 스마트 글라스 라인업과 관련된 핵심 정보를 공개한 뒤 곧바로 삭제되었습니다. VR 유출러 SadlyitsBradley가 처음 발견한 이 영상에는 회사가 고대해온 디스플레이 탑재 스마트 글라스가 실제로 작동하는 모습이 담겨 있었으며, Ray-Ban 브랜드를 달고 "메타 레이밴 디스플레이(Meta Ray-Ban Display)"라는 이름으로 출시될 것이 확인되었습니다.디스플레이가 통합된 최초의 스마트 안경Meta의 발표의 중심에는 내부적으로 "Hypernova"라는 코드네임이 붙은 디스플레이 탑재 스마트 안경이 있습니다. 이 제품은 회사 최초의 헤드업 디스플레이가 내장된 소비자용 안경입니다. Meta의 Project Orion 프로토타입과 같은 실제 증강현실(AR) 기기와 달리, 이 안경은 오른쪽 렌즈에 단안 디스플레이가 있어 Meta AI 응답, 내비게이션 안내, 알림, 심지어 레시피 정보까지 표시할 수 있습니다.블룸버그의 마크 구르먼에 따르면, 이 안경의 소매 가격은 약 800달러로, 초기 예상보다 1,000달러에서 낮춰질 것으로 보입니다. 기기의 무게는 약 70그램으로, 추가된 디스플레이와 더 큰 배터리로 인해 현재 Ray-Ban Meta 안경보다 약 20그램 더 무겁습니다.혁신적인 손목 밴드 컨트롤러새로운 안경의 가장 혁신적인 측면은 Meta의 CTRL Labs 부서에서 개발한 표면 근전도(sEMG) 기술을 사용하는 동반 손목밴드 컨트롤러입니다. 이 손목밴드는 손목의 근육 움직임에서 발생하는 전기 신호를 감지하여, 사용자가 엄지손가락 탭, 스와이프, 심지어 표면에 글자를 쓰는 등의 미세한 손가락 제스처로 안경을 제어할 수 있게 합니다.유출된 영상은 손목밴드의 기능을 시연했으며, 사용자가 가상 키보드에서 손가락을 스와이프해 메시지에 답변을 입력하는 모습을 보여주었습니다. 이러한 신경 입력 기술은 기존의 음성 명령이나 카메라 기반 손 추적에서 크게 벗어난 주요 변화를 나타낼 수 있습니다.확장된 스마트 안경 제품군유출된 영상은 메타의 더 넓은 스마트 글라스 전략을 공개했으며, 기존 레이밴 메타 글라스를 포함해 최근 출시된 오클리 메타 HSTN 글라스, 그리고 스포츠에 초점을 맞춘 새로운 디자인의 오클리 메타 스페라(Oakley Meta Sphaera) 등 최소 네 가지 모델을 선보였습니다. 스페라는 코받침 위 중앙에 카메라가 위치한 랩어라운드 디자인을 특징으로 하며, 운동선수와 액션 스포츠 애호가들에게 이상적입니다.메타의 CEO 마크 저커버그는 9월 17일 오후 5시(태평양 표준시)에 기조연설을 진행할 예정이며, 이 자리에서 해당 기기들이 공식 공개될 것으로 예상됩니다. CTO인 앤드류 보스워스는 앞서 이번 행사에서 "대형 웨어러블 기기 발표"를 예고한 바 있습니다.메타의 스마트 글라스 전략은 구글(알파벳), 아마존(아마존닷컴), 애플(애플) 등 테크 대기업들이 각자의 AR 및 스마트 글라스 플랫폼을 개발함에 따라 경쟁이 치열해지는 시점에 맞춰 진행되고 있습니다. 현재 레이밴 메타 글라스의 가격은 $299~$399 사이이며, 새로운 디스플레이 탑재 모델은 기능과 가격 면 모두에서 큰 도약을 보여줍니다.
915 조회
0 추천
2025.09.16 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입