Loading...

AI 뉴스

AI가 비디오에서 사회적 단서를 읽는 능력에서 인간과 대등

페이지 정보

작성자 xtalfi
작성일 2025.09.07 13:55
824 조회
0 추천
0 비추천

본문

99fb057b7ae0e41651d797c6708c91995P0F.jpg

(퍼플렉시티가 정리한 기사)

 

핀란드 투르쿠 대학교의 획기적인 연구에 따르면, 인공지능은 인간의 사회적 상호작용을 해석하는 데 있어 새로운 이정표에 도달했으며, 이미지와 비디오에서 복잡한 사회적 행동을 평가하는 정확도 면에서 인간 평가자와 맞먹는 수준에 이르렀다.

이 연구는 9월 4일 Imaging Neuroscience 학술지에 게재되었으며, AI가 미묘한 사회적 신호를 이해하는 능력에 대해 지금까지 가장 포괄적인 평가를 제공한다. 투르쿠 PET 센터의 연구진은 ChatGPT와 GPT-4V를 138개의 다양한 사회적 특성에 걸쳐 시험했으며, AI의 평가를 2,000명 이상의 인간 참가자들의 평가와 비교했다.

투르쿠 대학교의 박사후 연구원인 세베리 산타비르타(Severi Santavirta)는 "ChatGPT의 사회 특성 평가가 평균적으로 한 명의 참가자보다 더 일관적이었기 때문에, AI의 평가 결과는 한 사람이 내린 판단보다 오히려 더 신뢰할 수 있다"고 말했다. 이 AI는 얼굴 표정과 몸짓부터 협력과 적대감 같은 복잡한 상호작용 역학에 이르기까지 다양한 사회적 특성을 파악하는 데 놀라운 일관성을 보였다.

 

신경 수준의 검증이 AI의 사회적 지능을 확인하다

핀란드 연구팀은 행동 비교를 넘어, AI의 사회적 지각이 인간의 뇌 활동 패턴과 일치하는지를 조사했습니다. 97명의 참가자가 사회적으로 풍부한 영상 클립을 시청하는 동안 기능적 MRI 데이터를 이용해 연구진은 GPT-4V의 평가가 인간 주석과 거의 동일한 뇌 활성화 지도를 생성한다는 사실을 발견했습니다.

AI와 인간이 생성한 뇌 지도 간의 상관관계는 0.95에 이르렀으며, 여기에는 상측두고랑, 측두두정접합부, 방추상회 등 핵심적인 사회 지각 네트워크가 포함되었습니다. 이러한 신경학적 검증은 AI 모델이 인간이 사회 정보를 처리할 때 사용하는 것과 유사한 표상 구조에 접근하고 있을 가능성을 시사합니다.

연구의 방법론에는 할리우드 영화에서 추출된 468장의 정적 이미지와 234개의 짧은 영상 장면을 분석하는 것이 포함됐으며, AI 시스템은 "웃기"나 "누군가를 만지기" 같은 구체적 행동부터 "지배적", "공감적"과 같은 추상적 특성까지 평가했습니다. AI와 인간 평가 간의 상관관계는 이미지와 영상 모두에서 0.79에 달해, 개별 인간 참가자 간에서 보이는 신뢰도에 근접한 수준이었습니다.

 

산업 전반에 걸친 혁신적인 응용

연구 결과는 여러 분야에서 현실 세계의 응용 가능성을 크게 열어줍니다. 의료 분야에서는 AI가 지속적인 비디오 분석을 통해 환자의 건강 상태를 모니터링하고, 스트레스 신호나 행동 변화를 감지하여 의료상의 문제를 확인할 수도 있습니다. 이러한 기술은 피로 없이 24시간 작동할 수 있기 때문에 환자 모니터링 시스템에서 특히 가치가 큽니다.

또한, 보안 응용 분야는 또 다른 중요한 기회를 제공합니다. AI 시스템은 잠재적으로 감시 영상에서 의심스러운 행동을 식별하거나 갈등을 예측할 수 있습니다. 이 기술은 비디오 통화에서 감정적 신호를 분석하여 고객 서비스를 강화하고, 기업이 고객의 요구와 반응을 더 잘 이해하는 데에도 사용할 수 있습니다.

산타비르타에 따르면, 효율성 향상은 상당하다고 합니다. "인간 평가를 수집하는 데 2,000명 이상의 참가자와 총 10,000시간 이상의 작업 시간이 필요했지만, ChatGPT는 동일한 평가를 단 몇 시간 만에 산출했습니다".

 

제한사항 및 향후 고려사항

이러한 발전에도 불구하고, 연구는 중요한 한계점을 드러냈습니다. AI가 개별 인간 평가자들과는 비슷한 수준을 보였지만, 집단적 인간 판단이 여전히 AI 평가보다 더 정확했습니다. 또한, AI와 인간 평가자들 간의 일관성이 약하게 나타난 사회적 특징들도 있었는데, 특히 ‘누군가를 괴롭히는 행동’과 같은 복잡한 행동이나 ‘평온함을 느끼는’ 등 감정 상태에서 그러했습니다.

연구는 또한 현재의 AI 모델들이 인간의 사회적 인식에 존재하는 세밀한 요소 중 일부를 아직 포착하지 못한다는 점을 강조했습니다. 그럼에도 불구하고, AI는 수십 년간 사회 심리학에서 인정받아 온 사회적 이해의 주요 차원들은 성공적으로 반영했습니다.

AI 기술이 계속 발전함에 따라, 최근 공개된 GPT-5와 같은 모델들이 더 향상된 기능을 약속하고 있습니다. 이러한 변화 속에서 인간의 사회적 행동을 이해하고 해석하는 능력은 인간과 AI 간의 상호작용 시스템을 한층 정교하게 만들 수 있는 중요한 단계로, 행동 연구와 산업 전반에 걸친 사회적 모니터링 방식을 변화시킬 수 있을 것입니다.

댓글 0
전체 547 / 92 페이지
(퍼플렉시티가 정히한 기사)구글는 구글 지도의 데이터를 카메라 뷰파인더에 직접 통합하여 증강현실 내비게이션 경험을 제공하는 Gemini Live AI 어시스턴트의 혁신적인 업그레이드를 테스트 중이라고 Android Authority가 숨겨진 코드에서 발견했습니다. 최신 구글 앱 베타 버전에서 포착된 이 기능은 사용자가 스마트폰 카메라로 상점, 랜드마크 또는 거리를 비추면 이름, 평점, 리뷰와 같은 정보 카드가 즉시 화면에 오버레이되어 표시됩니다.이 업그레이드는 8월 Pixel 10 시리즈 출시와 함께 구글이 도입한 시각적 안내 기능을 기반으로 하며, Gemini Live는 화면에 특정 객체를 강조하여 사용자의 업무를 도왔습니다. Android Authority의 테스트에 따르면, 새로운 지도 통합 기능은 카메라 화면에 여러 상점이나 위치가 인식될 경우 동시에 여러 정보 카드를 표시한다고 합니다.실시간 AR 내비게이션 기능Google의 기존 Maps 내 Lens 기능과는 달리, 이번 통합 기능은 사용자가 주변 환경에 대해 자연스러운 대화를 나누면서 시각적 데이터 오버레이를 받을 수 있도록 해줍니다. 사용자는 Gemini Live에게 자신이 보고 있는 레스토랑, 상점, 혹은 랜드마크에 대해 질문하면서 동시에 Google Maps 정보가 화면에 표시되는 것을 볼 수 있습니다.이 기능은 위치 서비스와 독립적으로 작동하며, 주로 시각 인식을 통해 Google의 방대한 Maps 데이터베이스에서 관련 데이터를 불러옵니다. 초기 테스트 결과, 시스템은 카메라 입력만으로도 위치를 식별할 수 있었으나, 위치 서비스를 활성화하면 정확도가 향상될 것으로 보입니다.Android Authority는 Google 앱 버전 16.35.63 베타에서 이 기능을 성공적으로 활성화했으며, 사업장 이름, 종류, 평균 평점, 리뷰 수 등이 표시되는 정보 카드가 잘 작동하는 모습을 시연했습니다. 이 구현은 오디오 전용 모드에서도 작동하므로, 사용자는 카메라 뷰파인더를 사용하지 않고도 특정 위치 정보를 요청할 수 있습니다.스마트 안경 통합 전망업계 분석가들은 이번 개발을 스마트 글래스 통합을 위한 준비 단계로 보고 있습니다. 특히 삼성은 9월 29일 Unpacked 행사에서 Galaxy Glasses를 공개할 계획인 것으로 전해지고 있습니다. AR 스타일 오버레이 기술을 통해 사용자는 비즈니스 정보와 길 안내가 담긴 플로팅 정보 카드를 시야 내에서 바로 볼 수 있게 됩니다.이번 일정은 구글이 삼성, 퀄컴과 협력해 발표한 안드로이드 XR 이니셔티브와도 맞물립니다. 이들 기업은 안드로이드 XR 기반 XR 헤드셋과 스마트 글래스를 개발하고 있으며, 삼성의 오디오 중심 Galaxy Glasses는 메타의 Ray-Ban 스마트 글래스와 직접 경쟁할 것으로 예상됩니다.구글은 아직 지도 통합 기능의 공식 출시 일정을 발표하지 않았으나, 관련 코드 인프라는 이미 베타 버전에 적용된 상태입니다. 회사는 최근 업데이트를 통해 Calendar, Keep, Tasks와의 통합 및 Google Maps 기능 강화 등 Gemini Live의 역량을 지속적으로 확대해 나가고 있습니다.
690 조회
0 추천
2025.09.14 등록
(퍼플렉시티가 정리한 기사)테슬라(Tesla, Inc.) CEO 일론 머스크는 전기차에서 인간형 로봇으로의 극적인 전략 전환을 발표하며, 회사의 미래 성장을 이끌 핵심 사업으로 옵티머스(Optimus) 로봇을 내세웠습니다. 최근 공개된 테슬라의 마스터 플랜 파트 4에서 머스크는 테슬라 가치의 80%가 결국 옵티머스 인간형 로봇에서 비롯될 것으로 전망하며, 전기차로 명성을 쌓은 기업에게 있어 근본적인 변화를 예고했습니다.이 야심찬 비전은 2050년까지 옵티머스 로봇의 대량 생산에 힘입어 테슬라를 최대 25조 달러(약 3경 3천조 원) 규모의 기업으로 성장시키는 것을 목표로 합니다. 옵티머스 로봇은 개당 20,000~30,000달러에 판매될 예정입니다. 이는 테슬라가 추구해온 지속 가능한 운송 수단을 가속화한다는 원래의 사명에서 크게 벗어나는 변화입니다.생산 문제로 인해 야심찬 일정에 먹구름이 드리우다머스크의 대담한 전망에도 불구하고, 테슬라의 옵티머스(Optimus) 프로그램은 상당한 기술적 및 생산적 난관에 직면해 있다. 2025년 중반까지 약 1,000대의 시제품을 제작했으나, 엔지니어들이 배터리 수명 문제, 낮은 적재 용량, 관절 모터 과열 등 중대한 문제에 부딪히자 생산을 중단하고 대대적인 재설계에 들어갔다.테슬라 공급망 내부 소식통에 따르면, 프로그램의 초대 책임자였던 밀란 코박(Milan Kovac)이 퇴사한 뒤 책임이 AI 디렉터인 아쇼크 엘루스와미(Ashok Elluswamy)에게 이관되면서 6월 생산이 중단됐다고 한다. 최소 두 달이 소요될 것으로 예상되는 재설계 과정으로 인해, 테슬라가 2025년에 옵티머스 5,000~10,000대를 생산하겠다는 당초 목표는 달성 가능성이 점점 낮아지고 있다.회사는 이제 2026년에는 5만10만 대 규모로 양산하고, 10년 말까지 연 50만100만 대에 도달할 것으로 전망한다. 하지만 현재 테슬라 배터리 워크숍에 배치된 옵티머스 로봇의 효율성은 인간 노동자의 절반에도 못 미친다.전기차 사업 고전으로 인한 전략적 전환 추진테슬라의 핵심 전기차 사업이 점점 더 많은 압박에 직면하면서 로봇 분야로의 전환이 이루어지고 있습니다. 2025년 상반기 글로벌 전기차(EV) 인도량은 13% 감소했으며, 유럽 판매는 40% 급감했고 중국에서는 5% 감소했습니다. 이는 BYD를 중심으로 한 중국 자동차 제조업체들이 시장 점유율을 빠르게 확보하고 있기 때문입니다. 테슬라의 미국 시장 점유율은 2025년 8월 38%까지 떨어졌으며, 이는 2017년 10월 이후 최저치입니다.테슬라의 주식은 이러한 어려움을 반영해, 연초 기준 2.76% 하락했으나 Master Plan Part 4 발표 이후 약 8.21% 반등했습니다. 회사는 EV 세액공제 만료, 소비자 수요 둔화, 그리고 중국 제조업체와의 경쟁 심화 등 여러 역풍에 직면해 있습니다.시장 기회와 회의론로봇 시장은 상당한 기회를 제공하며, GlobalData는 이 산업이 2030년까지 연평균 14%의 성장률로 2,180억 달러에 이를 것으로 전망하고 있습니다. Morgan Stanley 분석가들은 휴머노이드 로봇 시장이 2050년까지 5조 달러에 이를 수 있다고 추정합니다.하지만 투자자들의 회의감은 여전히 높습니다. Stifel의 분석가 Stephen Gengaro는 Tesla의 주식이 오로지 전기차 사업을 위해 구매된다면 과대평가되었다고 주장했으며, Gerber Kawasaki의 CEO는 회사가 지속 가능한 운송 미션을 포기했다고 비판했습니다. Tesla의 2025년 수익이 약 30% 감소할 것으로 예상되면서, 일부는 로봇 사업이 회사의 프리미엄 평가를 정당화할 수 있을지 의문을 제기하고 있습니다.Tesla 의장 Robyn Denholm은 이 전략을 옹호하며, 인공지능 및 로봇 산업으로의 전환을 이끌 수 있는 사람은 오직 Musk뿐이라고 말했지만, 그가 CEO 자리에 계속 남지는 않을 수도 있음을 인정했습니다. 이 전례 없는 변화의 성공은 궁극적으로 Tesla가 전통적인 자동차 제조사에서 Musk가 꿈꾸는 로봇 강자로 변신할 수 있을지 여부를 결정짓게 될 것입니다.
674 조회
0 추천
2025.09.13 등록
(퍼플렉시티가 정리한 기사)Meta는 9월 17일 Meta Connect 콘퍼런스에서 오랜 기간 기대를 받아온 EMG 뉴럴 손목밴드를 공개할 준비를 하고 있습니다. 이는 스마트 글래스 기술의 진화에 있어 중대한 순간을 의미합니다. 팔의 근육 신호를 감지하는 전기생리학(EMG) 기술을 사용하는 이 손목밴드는 Meta의 차세대 스마트 글래스인 하이퍼노바(Hypernova)와 함께 첫 선을 보일 예정이며, “Meta Celeste”라는 이름으로 출시될 가능성이 높습니다.EMG 손목밴드는 2019년 Meta가 CTRL-labs를 약 5억~10억 달러에 인수하면서 시작된 수년간의 연구의 결실입니다. 이 기기는 표면 근전도(sEMG) 기술을 활용해 팔뚝의 근육 수축으로 발생하는 전기 신호를 읽어내, 사용자가 손가락 집기, 두드림, 엄지 스와이프 등 미세한 손동작만으로도 디지털 인터페이스를 제어할 수 있게 해줍니다.혁신적인 제어 시스템내부 코드명 “Ceres”인 신경 손목밴드는 근육 활성화를 감지함으로써 손가락 움직임을 제어하므로, 외부 카메라나 센서 없이도 정밀한 제어가 가능합니다. Nature에 발표된 연구에 따르면, 이 장치는 손목 둘레에 16개의 금 도금 전극 센서를 배치하여 초당 2,000회(2kHz) 전기 신호를 샘플링하여 아주 미세한 움직임까지 포착할 수 있습니다.Meta Reality Labs의 신경운동 인터페이스 책임자이자 CTRL-labs의 전 대표인 Thomas Reardon은 이 기술이 사고(thought)를 읽는 것이 아니라 운동 정보(motor information)를 읽는 것이라고 밝히며 “이것은 사고를 담당하는 뇌의 부분이 아닌 운동 정보를 제어하는 뇌의 부분에서 나오는 것입니다”라고 설명했습니다. 해당 시스템은 검지 위로 엄지손가락을 쓸어 넘기는 제스처, 집는 동작, 손목 회전처럼 다양한 동작을 해석해 디지털 인터페이스를 탐색할 수 있습니다.스마트 안경 통합손목밴드는 Meta의 Hypernova 스마트 안경과 함께 패키지로 제공될 예정이며, 판매가는 약 $800로 예상됩니다. 이 안경은 Lumus에서 제조한 우측 렌즈에 작은 디스플레이를 탑재하고 있으며, 약 20도의 시야각을 제공하여 몰입형 경험보다는 실용적인 증강현실 응용에 초점을 맞추어 설계되었습니다.Apple의 Vision Pro가 카메라 기반의 손 추적에 의존하는 것과 달리, Meta의 방식은 손이 안경의 시야 밖에 있을 때에도 제스처 컨트롤이 가능합니다. 이 조합을 통해 사용자는 손의 자연스러운 움직임으로 알림을 받고, 인터페이스를 탐색하며, Meta AI와 상호작용하면서 주변 환경에 대해 완전히 인지할 수 있습니다.개발 과제 및 미래 응용 분야Meta는 개발 과정에서 여러 가지 기술적 문제에 직면했습니다. 여기에는 손목의 올바른 위치 선정, 사용자마다 다른 성능 편차, 그리고 긴 소매와 같은 옷가지로 인한 간섭 등이 포함됩니다. 이 회사는 개별적인 보정 없이 다양한 사용자가 기기를 사용할 수 있도록 기계 학습 알고리즘을 활용해 이런 문제를 해결하고 있습니다.이 기술은 스마트 글라스 제어를 넘어 의료, 제조, 접근성 등 다양한 분야에 활용될 잠재력을 가지고 있습니다. Meta 연구진은 카네기 멜론 대학과 협력하여 척수 손상을 가진 사람들을 대상으로 손목 밴드를 테스트하고 있으며, 이는 이동성이 제한된 사람들이 컴퓨터와 상호작용할 수 있는 새로운 길을 열어주고 있습니다.마크 저커버그는 2월에 이 프로젝트의 상용화가 머지않았음을 확인하며, “이 프로젝트를 수년간 진행해왔고, 실제로 머지않아 제품에 적용될 무언가가 준비되고 있다”고 밝혔습니다. Meta Connect 2025가 며칠 앞으로 다가온 지금, 이 신경 손목 밴드는 연구 시제품에서 소비자 제품으로 전환할 준비가 된 것으로 보이며, 우리가 디지털 환경과 상호작용하는 방식을 근본적으로 바꿀 수 있을 것으로 기대됩니다.
686 조회
0 추천
2025.09.13 등록
(퍼플렉시티가 정리한 기사)OpenAI는 인공지능 개발의 초기 단계, 즉 아이디어 전 단계부터 프리시드(Pre-seed) 창업까지의 기업가들을 지원하기 위해 특별히 설계된 5주간의 멘토십 프로그램인 OpenAI Grove를 출시했습니다. 이 회사는 9월 12일에 이 프로그램을 발표했으며, OpenAI의 COO인 브래드 라이트캡(Brad Lightcap)이 소셜미디어 플랫폼 X에서 해당 프로그램을 소개했습니다.전통적인 스타트업 액셀러레이터나 4월에 출시된 OpenAI의 기존 Pioneer Program과는 달리, Grove는 아직 아이디어를 탐색하거나 AI 창업에서 방향을 모색하는 개인들을 주요 대상으로 삼고 있습니다. OpenAI에 따르면, 이 프로그램은 “AI 분야에서 무언가를 만들어보고자 하는 깊은 호기심을 가진 아이디어 전 단계의 개인”을 위한 것이며, 참가자들에게는 “조밀한 인재 네트워크, OpenAI 연구자들과의 공동 개발, 그리고 여러분의 여정을 가속화할 수 있도록 설계된 리소스”가 제공될 예정입니다.프로그램 구조 및 일정첫 번째 Grove 코호트는 약 15명의 참가자를 포함하며, 2025년 10월 20일부터 11월 21일까지 진행됩니다. 지원 마감일은 9월 24일입니다. 이 프로그램은 OpenAI의 샌프란시스코 본사에서 개최되며, 대면 워크숍, 주간 오피스아워, 그리고 회사의 기술 리더들로부터의 멘토링을 제공합니다.참가자들은 매주 4-6시간의 비동기 학습에 전념해야 하며, 첫 주와 마지막 주에는 반드시 대면으로 참석해야 합니다. OpenAI는 이 필수 세션에 대한 여행 비용을 지원합니다. 주요 혜택으로는 OpenAI의 새로운 도구와 모델을 공개 전에 미리 체험할 수 있는 기회가 포함되어 있습니다.산업 환경과 경쟁그로브 프로그램은 인공지능(AI) 투자 활동이 급증하는 가운데 출범했다. J.P. 모건의 분석에 따르면, 2025년 미국 벤처 투자 자금의 71%가 AI 기업에 투입되어 전년도의 45%에서 크게 증가했다. CB 인사이트의 자료에 따르면 AI 스타트업은 2025년 상반기 동안 1,043억 달러를 조달했으며, 현재 1,300개 이상의 AI 스타트업이 1억 달러 이상의 가치가 있다.오픈AI는 유사한 이니셔티브를 내세우는 다른 IT 공룡들과 경쟁하고 있다. 구글은 지난 겨울에 Startups Cloud AI Accelerator를 도입했고, 마이크로소프트는 PearlX와 협력하여 프리시드(pre-seed) 기업을 위한 액셀러레이터 프로그램을 만들었다.프로그램 종료 후 기회Grove 프로그램을 완료한 후 참가자들은 OpenAI와 계속 협력하거나, 자금 조달을 모색하거나, 회사 생태계 안팎에서 다른 벤처에 도전할 기회를 얻게 됩니다. 이 프로그램은 AI 혁신가들의 장기 네트워크를 구축하고 스타트업 커뮤니티 내에서 영향력을 확대하려는 OpenAI의 광범위한 전략의 일부를 나타냅니다.이 프로그램은 모든 배경과 경험 수준의 개인에게 열려 있으며, 참가자들은 반드시 OpenAI의 API 플랫폼에서만 구축할 필요는 없습니다. 지원은 OpenAI 웹사이트를 통해 제출할 수 있으며, 그룹 지원도 환영한다는 점을 회사는 강조하고 있습니다.
767 조회
0 추천
2025.09.13 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입