Loading...

AI 뉴스

AI가 비디오에서 사회적 단서를 읽는 능력에서 인간과 대등

페이지 정보

작성자 xtalfi
작성일 2025.09.07 13:55
376 조회
0 추천
0 비추천

본문

99fb057b7ae0e41651d797c6708c91995P0F.jpg

(퍼플렉시티가 정리한 기사)

 

핀란드 투르쿠 대학교의 획기적인 연구에 따르면, 인공지능은 인간의 사회적 상호작용을 해석하는 데 있어 새로운 이정표에 도달했으며, 이미지와 비디오에서 복잡한 사회적 행동을 평가하는 정확도 면에서 인간 평가자와 맞먹는 수준에 이르렀다.

이 연구는 9월 4일 Imaging Neuroscience 학술지에 게재되었으며, AI가 미묘한 사회적 신호를 이해하는 능력에 대해 지금까지 가장 포괄적인 평가를 제공한다. 투르쿠 PET 센터의 연구진은 ChatGPT와 GPT-4V를 138개의 다양한 사회적 특성에 걸쳐 시험했으며, AI의 평가를 2,000명 이상의 인간 참가자들의 평가와 비교했다.

투르쿠 대학교의 박사후 연구원인 세베리 산타비르타(Severi Santavirta)는 "ChatGPT의 사회 특성 평가가 평균적으로 한 명의 참가자보다 더 일관적이었기 때문에, AI의 평가 결과는 한 사람이 내린 판단보다 오히려 더 신뢰할 수 있다"고 말했다. 이 AI는 얼굴 표정과 몸짓부터 협력과 적대감 같은 복잡한 상호작용 역학에 이르기까지 다양한 사회적 특성을 파악하는 데 놀라운 일관성을 보였다.

 

신경 수준의 검증이 AI의 사회적 지능을 확인하다

핀란드 연구팀은 행동 비교를 넘어, AI의 사회적 지각이 인간의 뇌 활동 패턴과 일치하는지를 조사했습니다. 97명의 참가자가 사회적으로 풍부한 영상 클립을 시청하는 동안 기능적 MRI 데이터를 이용해 연구진은 GPT-4V의 평가가 인간 주석과 거의 동일한 뇌 활성화 지도를 생성한다는 사실을 발견했습니다.

AI와 인간이 생성한 뇌 지도 간의 상관관계는 0.95에 이르렀으며, 여기에는 상측두고랑, 측두두정접합부, 방추상회 등 핵심적인 사회 지각 네트워크가 포함되었습니다. 이러한 신경학적 검증은 AI 모델이 인간이 사회 정보를 처리할 때 사용하는 것과 유사한 표상 구조에 접근하고 있을 가능성을 시사합니다.

연구의 방법론에는 할리우드 영화에서 추출된 468장의 정적 이미지와 234개의 짧은 영상 장면을 분석하는 것이 포함됐으며, AI 시스템은 "웃기"나 "누군가를 만지기" 같은 구체적 행동부터 "지배적", "공감적"과 같은 추상적 특성까지 평가했습니다. AI와 인간 평가 간의 상관관계는 이미지와 영상 모두에서 0.79에 달해, 개별 인간 참가자 간에서 보이는 신뢰도에 근접한 수준이었습니다.

 

산업 전반에 걸친 혁신적인 응용

연구 결과는 여러 분야에서 현실 세계의 응용 가능성을 크게 열어줍니다. 의료 분야에서는 AI가 지속적인 비디오 분석을 통해 환자의 건강 상태를 모니터링하고, 스트레스 신호나 행동 변화를 감지하여 의료상의 문제를 확인할 수도 있습니다. 이러한 기술은 피로 없이 24시간 작동할 수 있기 때문에 환자 모니터링 시스템에서 특히 가치가 큽니다.

또한, 보안 응용 분야는 또 다른 중요한 기회를 제공합니다. AI 시스템은 잠재적으로 감시 영상에서 의심스러운 행동을 식별하거나 갈등을 예측할 수 있습니다. 이 기술은 비디오 통화에서 감정적 신호를 분석하여 고객 서비스를 강화하고, 기업이 고객의 요구와 반응을 더 잘 이해하는 데에도 사용할 수 있습니다.

산타비르타에 따르면, 효율성 향상은 상당하다고 합니다. "인간 평가를 수집하는 데 2,000명 이상의 참가자와 총 10,000시간 이상의 작업 시간이 필요했지만, ChatGPT는 동일한 평가를 단 몇 시간 만에 산출했습니다".

 

제한사항 및 향후 고려사항

이러한 발전에도 불구하고, 연구는 중요한 한계점을 드러냈습니다. AI가 개별 인간 평가자들과는 비슷한 수준을 보였지만, 집단적 인간 판단이 여전히 AI 평가보다 더 정확했습니다. 또한, AI와 인간 평가자들 간의 일관성이 약하게 나타난 사회적 특징들도 있었는데, 특히 ‘누군가를 괴롭히는 행동’과 같은 복잡한 행동이나 ‘평온함을 느끼는’ 등 감정 상태에서 그러했습니다.

연구는 또한 현재의 AI 모델들이 인간의 사회적 인식에 존재하는 세밀한 요소 중 일부를 아직 포착하지 못한다는 점을 강조했습니다. 그럼에도 불구하고, AI는 수십 년간 사회 심리학에서 인정받아 온 사회적 이해의 주요 차원들은 성공적으로 반영했습니다.

AI 기술이 계속 발전함에 따라, 최근 공개된 GPT-5와 같은 모델들이 더 향상된 기능을 약속하고 있습니다. 이러한 변화 속에서 인간의 사회적 행동을 이해하고 해석하는 능력은 인간과 AI 간의 상호작용 시스템을 한층 정교하게 만들 수 있는 중요한 단계로, 행동 연구와 산업 전반에 걸친 사회적 모니터링 방식을 변화시킬 수 있을 것입니다.

댓글 0
전체 351 / 60 페이지
구글은 기존 스피커 모델을 업그레이드한 Gemini for Home을 10월 중 출시할 예정이다.지난 주 Made in Google 행사를 통해 구글은 차세대 음성 어시스턴트로 'Gemini for Home'을 공개했다. 이 모델은 모든 가족 구성원과 방문객이 여러 기기를 제어하고 복잡한 집안 업무도 음성으로 간편하게 처리할 수 있도록 설계됐다그리고 최근 한 유튜브 미디어가 이 기기로 추정되는 기기의 모습을 유출했다.이 어시스턴트는 음악 검색 및 재생, 조명·온도 제어 등 스마트홈 관리, 가족 일정 조율, 할 일 생성, 맞춤 정보 질의 등 다양한 작업을 한 번에 지원한다. 예를 들어 복수명령이나 긴 문장으로 집안 기기를 동시 제어할 수 있다또한 ‘Gemini Live’를 통해 사용자는 자연스러운 대화 방식으로 요리법, 생활 팁, 일정 상담, 창작 협업 등 맞춤형 조언 및 창의적인 지원을 받을 수 있다. 대화 도중 추가 질문이나 방향 전환도 자유롭게 할 수 있다Gemini for Home은 앞으로 기존의 Google Assistant를 스마트 스피커와 디스플레이 기기에서 대체할 예정이다. 무료와 유료 버전으로 제공되며, 10월부터 초기 액세스가 시행될 예정이다
531 조회
0 추천
2025.08.25 등록
애플 연구진은 기존보다 더 효율적으로 롱폼 비디오를 분석할 수 있는 대형 언어모델(LLM)인 SlowFast-LLaVA-1.5를 개발했다고 발표했다.애플은 'SlowFast' 구조(고해상도 소수 프레임+저해상도 다수 프레임)를 사용해 이미지와 영상 public 데이터셋을 모두 활용해 학습, 이미지만큼 영상 내 시간적 구조 이해도 가능하도록 했다. SF-LLaVA-1.5는 1B, 3B, 7B 파라미터 규모로 공개됐으며, LongVideoBench와 MLVU 같은 벤치마크에서 기존 더 큰 모델 대비 뛰어난 성능을 보였다. 특히 지식, 수학 추론, OCR 등 이미지 작업에서도 강점을 보였다.하지만 이 모델은 한 번에 최대 128프레임(빠름: 96, 느림: 32)만 입력받는다. 이 방식은 일부 중요한 프레임을 놓칠 수 있다는 한계가 있으며, 전체 매개변수와 비주얼 인코더까지 튜닝하려면 GPU 자원 소모가 크다. 연구진은 향후 메모리 절약, 성능 개선 기술의 적용 가능성을 언급했다.
494 조회
0 추천
2025.08.25 등록
올해 1월 AI 업계에 충격을 안겨준 중국 AI 스타트업 DeepSeek 는 기존 V3 모델의 업그레이드 버전인 V3.1을 공개했다.V3.1은 OpenAI의 최신 모델 GPT-5와 여러 벤치마크에서 견줄 만한 성능을 보이며, 가격경쟁력까지 갖추었다.DeepSeek V3.1은 중국에서 자체 개발된 AI 칩에 맞춰 최적화된 것이 특징이다. 이는 미국의 Nvidia 등 외국 기술 의존도를 낮추고, 미국의 수출 규제에 대응하려는 전략의 일환이다.DeepSeek는 WeChat과 Hugging Face에 모델을 공개하며, 중국 정부의 AI 자립 정책에 부응하고 있다.V3.1은 6850억 파라미터의 초대형 모델로, '미시처-오브-엑스퍼트(mixture-of-experts)' 구조를 통해 쿼리마다 일부만 활성화되어 연산 효율성과 비용 절감을 동시에 잡았다. 또한, 기존 모델이 '즉답형'과 '추론형'으로 분리됐던 것과 달리, 두 가지를 결합해 신속성과 논리적 추론을 함께 제공한다는 점이 돋보인다.
642 조회
0 추천
2025.08.22 등록
구글이 사진 앱에 수정사항을 텍스트로 바로 수정요청하는 기능을 적용.이 기능은 곧 런칭할 픽셀10에서부터 적용이 될 예정.또한 사진이 어떻게 편집되었는지 C2PA 인증 기술로 추적이 가능하다고.아래는 구글 블로그의 소개 내용.Google Photos에서는 이제 사진을 편집할 때 원하는 내용을 텍스트나 음성으로 직접 요청할 수 있습니다. 사용자는 어떤 편집 효과를 적용할지 직접 고르지 않아도 되고, 그저 "차를 배경에서 제거해줘"처럼 자연스럽게 말을 하면 AI가 알아서 반영해 줍니다. 이 기능은 미국의 Pixel 10 기기에서 우선 제공됩니다.새롭게 디자인된 사진 편집기는 직관적 UI와 AI 기반 제안으로 일반 사용자도 쉽게 다양한 효과를 활용할 수 있습니다. 이번에 도입된 대화형 편집 기능으로, 구체적인 요청뿐 아니라 "사진 복원해줘", "색감 보정해줘" 등 복합적인 요구도 한 번에 처리할 수 있습니다. 여러 번 연속해서 추가 요청을 하며 세부 조정도 가능합니다.밝기 조절, 배경 제거 같은 기본 편집뿐 아니라 배경 교체, 파티 모자 추가 등 창의적인 효과 요청도 대화로 손쉽게 처리할 수 있습니다. 사용자가 별도의 편집툴을 배우지 않아도 다양한 AI 편집을 자유롭게 즐길 수 있게 되었습니다.Pixel 10 기기에서는 C2PA(디지털 콘텐츠 인증) 기술이 적용되어, AI가 사진 수정에 개입한 흔적·정보를 확인할 수 있습니다. Google Photos에도 점진적으로 이 기능이 적용되며, 사진이 어떻게 만들어지고 어디에 AI 편집이 사용됐는지 투명하게 확인할 수 있습니다.
569 조회
0 추천
2025.08.22 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입