Loading...

AI 뉴스

AI가 비디오에서 사회적 단서를 읽는 능력에서 인간과 대등

페이지 정보

작성자 xtalfi
작성일 2025.09.07 13:55
1,684 조회
0 추천
0 비추천

본문

99fb057b7ae0e41651d797c6708c91995P0F.jpg

(퍼플렉시티가 정리한 기사)

 

핀란드 투르쿠 대학교의 획기적인 연구에 따르면, 인공지능은 인간의 사회적 상호작용을 해석하는 데 있어 새로운 이정표에 도달했으며, 이미지와 비디오에서 복잡한 사회적 행동을 평가하는 정확도 면에서 인간 평가자와 맞먹는 수준에 이르렀다.

이 연구는 9월 4일 Imaging Neuroscience 학술지에 게재되었으며, AI가 미묘한 사회적 신호를 이해하는 능력에 대해 지금까지 가장 포괄적인 평가를 제공한다. 투르쿠 PET 센터의 연구진은 ChatGPT와 GPT-4V를 138개의 다양한 사회적 특성에 걸쳐 시험했으며, AI의 평가를 2,000명 이상의 인간 참가자들의 평가와 비교했다.

투르쿠 대학교의 박사후 연구원인 세베리 산타비르타(Severi Santavirta)는 "ChatGPT의 사회 특성 평가가 평균적으로 한 명의 참가자보다 더 일관적이었기 때문에, AI의 평가 결과는 한 사람이 내린 판단보다 오히려 더 신뢰할 수 있다"고 말했다. 이 AI는 얼굴 표정과 몸짓부터 협력과 적대감 같은 복잡한 상호작용 역학에 이르기까지 다양한 사회적 특성을 파악하는 데 놀라운 일관성을 보였다.

 

신경 수준의 검증이 AI의 사회적 지능을 확인하다

핀란드 연구팀은 행동 비교를 넘어, AI의 사회적 지각이 인간의 뇌 활동 패턴과 일치하는지를 조사했습니다. 97명의 참가자가 사회적으로 풍부한 영상 클립을 시청하는 동안 기능적 MRI 데이터를 이용해 연구진은 GPT-4V의 평가가 인간 주석과 거의 동일한 뇌 활성화 지도를 생성한다는 사실을 발견했습니다.

AI와 인간이 생성한 뇌 지도 간의 상관관계는 0.95에 이르렀으며, 여기에는 상측두고랑, 측두두정접합부, 방추상회 등 핵심적인 사회 지각 네트워크가 포함되었습니다. 이러한 신경학적 검증은 AI 모델이 인간이 사회 정보를 처리할 때 사용하는 것과 유사한 표상 구조에 접근하고 있을 가능성을 시사합니다.

연구의 방법론에는 할리우드 영화에서 추출된 468장의 정적 이미지와 234개의 짧은 영상 장면을 분석하는 것이 포함됐으며, AI 시스템은 "웃기"나 "누군가를 만지기" 같은 구체적 행동부터 "지배적", "공감적"과 같은 추상적 특성까지 평가했습니다. AI와 인간 평가 간의 상관관계는 이미지와 영상 모두에서 0.79에 달해, 개별 인간 참가자 간에서 보이는 신뢰도에 근접한 수준이었습니다.

 

산업 전반에 걸친 혁신적인 응용

연구 결과는 여러 분야에서 현실 세계의 응용 가능성을 크게 열어줍니다. 의료 분야에서는 AI가 지속적인 비디오 분석을 통해 환자의 건강 상태를 모니터링하고, 스트레스 신호나 행동 변화를 감지하여 의료상의 문제를 확인할 수도 있습니다. 이러한 기술은 피로 없이 24시간 작동할 수 있기 때문에 환자 모니터링 시스템에서 특히 가치가 큽니다.

또한, 보안 응용 분야는 또 다른 중요한 기회를 제공합니다. AI 시스템은 잠재적으로 감시 영상에서 의심스러운 행동을 식별하거나 갈등을 예측할 수 있습니다. 이 기술은 비디오 통화에서 감정적 신호를 분석하여 고객 서비스를 강화하고, 기업이 고객의 요구와 반응을 더 잘 이해하는 데에도 사용할 수 있습니다.

산타비르타에 따르면, 효율성 향상은 상당하다고 합니다. "인간 평가를 수집하는 데 2,000명 이상의 참가자와 총 10,000시간 이상의 작업 시간이 필요했지만, ChatGPT는 동일한 평가를 단 몇 시간 만에 산출했습니다".

 

제한사항 및 향후 고려사항

이러한 발전에도 불구하고, 연구는 중요한 한계점을 드러냈습니다. AI가 개별 인간 평가자들과는 비슷한 수준을 보였지만, 집단적 인간 판단이 여전히 AI 평가보다 더 정확했습니다. 또한, AI와 인간 평가자들 간의 일관성이 약하게 나타난 사회적 특징들도 있었는데, 특히 ‘누군가를 괴롭히는 행동’과 같은 복잡한 행동이나 ‘평온함을 느끼는’ 등 감정 상태에서 그러했습니다.

연구는 또한 현재의 AI 모델들이 인간의 사회적 인식에 존재하는 세밀한 요소 중 일부를 아직 포착하지 못한다는 점을 강조했습니다. 그럼에도 불구하고, AI는 수십 년간 사회 심리학에서 인정받아 온 사회적 이해의 주요 차원들은 성공적으로 반영했습니다.

AI 기술이 계속 발전함에 따라, 최근 공개된 GPT-5와 같은 모델들이 더 향상된 기능을 약속하고 있습니다. 이러한 변화 속에서 인간의 사회적 행동을 이해하고 해석하는 능력은 인간과 AI 간의 상호작용 시스템을 한층 정교하게 만들 수 있는 중요한 단계로, 행동 연구와 산업 전반에 걸친 사회적 모니터링 방식을 변화시킬 수 있을 것입니다.

댓글 0
전체 1,244 / 284 페이지
구글이 사진 앱에 수정사항을 텍스트로 바로 수정요청하는 기능을 적용.이 기능은 곧 런칭할 픽셀10에서부터 적용이 될 예정.또한 사진이 어떻게 편집되었는지 C2PA 인증 기술로 추적이 가능하다고.아래는 구글 블로그의 소개 내용.Google Photos에서는 이제 사진을 편집할 때 원하는 내용을 텍스트나 음성으로 직접 요청할 수 있습니다. 사용자는 어떤 편집 효과를 적용할지 직접 고르지 않아도 되고, 그저 "차를 배경에서 제거해줘"처럼 자연스럽게 말을 하면 AI가 알아서 반영해 줍니다. 이 기능은 미국의 Pixel 10 기기에서 우선 제공됩니다.새롭게 디자인된 사진 편집기는 직관적 UI와 AI 기반 제안으로 일반 사용자도 쉽게 다양한 효과를 활용할 수 있습니다. 이번에 도입된 대화형 편집 기능으로, 구체적인 요청뿐 아니라 "사진 복원해줘", "색감 보정해줘" 등 복합적인 요구도 한 번에 처리할 수 있습니다. 여러 번 연속해서 추가 요청을 하며 세부 조정도 가능합니다.밝기 조절, 배경 제거 같은 기본 편집뿐 아니라 배경 교체, 파티 모자 추가 등 창의적인 효과 요청도 대화로 손쉽게 처리할 수 있습니다. 사용자가 별도의 편집툴을 배우지 않아도 다양한 AI 편집을 자유롭게 즐길 수 있게 되었습니다.Pixel 10 기기에서는 C2PA(디지털 콘텐츠 인증) 기술이 적용되어, AI가 사진 수정에 개입한 흔적·정보를 확인할 수 있습니다. Google Photos에도 점진적으로 이 기능이 적용되며, 사진이 어떻게 만들어지고 어디에 AI 편집이 사용됐는지 투명하게 확인할 수 있습니다.
1842 조회
0 추천
2025.08.22 등록
AI의 진화: 수동적 도구에서 자율적 에이전트로2023년까지 AI는 주로 문서 작성, 정보 조사 등의 보조 업무에 활용되는 수동적 도구였습니다. 하지만 2025년 현재 AI 에이전트는 기억하고 계획하며 독립적으로 행동할 수 있는 자율적 시스템으로 발전했습니다.실제 기업 도입 사례서비스나우(ServiceNow): IT 요청 처리를 완전 자동화하여 직원이 소프트웨어 설치나 라이선스 갱신을 요청하면 에이전트가 전 과정을 처리깃허브 코파일럿(GitHub Copilot): 개발자의 의도를 이해하고 반복적인 코딩 작업을 자동 수행하는 에이전트 모드 도입시스코 웹엑스(Webex): 고객 상담, 실시간 통화 지원, 대화 요약 및 감정 분석까지 여러 AI 에이전트가 협업하여 고객 지원 업무 처리성공 요인과 한계AI 에이전트는 명확하고 표준화된 절차를 따르는 작업에서 뛰어난 성과를 보입니다. 최근에는 복잡한 비즈니스 분석까지 수행할 수 있도록 발전하고 있지만, 여전히 작업 완료 시점을 정확히 판단하지 못하는 문제가 있습니다.도입 시 고려사항업무 프로세스 재설계: 기존 업무 방식에 AI를 단순히 추가하는 것이 아닌, 에이전트 중심의 업무 프로세스로 근본적 재설계 필요신뢰성 확보: 안전 규칙, 테스트 시스템, 명확한 기록 체계 구축이 필수새로운 역할 창출: 에이전트 관리, 모니터링, 컴플라이언스 점검을 담당하는 새로운 직무 등장 예상향후 전망앞으로 2년 내에 AI 에이전트는 고객 지원과 소프트웨어 개발 영역에서 일상적인 도구가 될 것으로 예상됩니다. 클라우드 플랫폼들도 에이전트 개발부터 운영까지 통합 솔루션을 제공할 가능성이 높습니다.
1801 조회
0 추천
2025.08.21 등록
애플의 인공지능 기능에 대해 부정적인 뉴스가 나오면서 시리의 활용에 대해 조사한 결과가 나오고 있다.https://9to5mac.com/2025/08/20/seven-years-later-people-still-havent-changed-how-they-use-siri/YouGov 설문조사에 따르면, 사용자의 대다수는 2018년 이후로도 Siri와 다른 음성 비서를 여전히 다섯 가지 기본 용도로 사용하고 있다. 가장 많이 사용하는 기능은 날씨 확인(59%), 음악 재생(51%), 웹 검색(47%), 타이머/알람 설정(40%), 핸즈프리 전화 걸기(39%)이다사용자들은 Siri가 기본적인 명령만 이해하도록 적응했으며, 새로운 AI 음성 모드가 나오더라도 기존 사용자들이 이를 익히는 데는 시간이 걸릴 것으로 보고 있다. 또한 새로운 Siri가 나와도 2027년쯤에는 사용자 경험이 크게 개선되길 기대하고 있다.원래부터 거의 모든 사용자가 지금 하는 행동을 7년 전에도 할 수 있었을 정도로 Siri 사용은 정체되어 있다.일부 사용자들은 음성 비서가 기대만큼 똑똑하지 않고, 정확한 답변을 제공하지 못해 답답함을 느끼고 있다.전반적으로 사용자들은 Siri의 기본 기능에는 만족하지만, 더 복잡한 작업을 수행하거나 자연스러운 대화를 기대하는 데는 한계가 있으며 이는 앞으로 개선이 필요한 점으로 남아 있다
1868 조회
0 추천
2025.08.21 등록
20일 구글은 Made by google 행사를 열었다. 이 자리에서 주로 Pixel 폰과 관련된 내용이 발표되었지만,인공지능 Gemini 의 픽셀 연결 버전 "제미나이 라이브" 와 관련된 업데이트가 있었다..https://blog.google/products/gemini/gemini-live-updates-august-2025/주요 동영상은 위 주소에서 확인이 가능하다.이번 업데이트로 Gemini Live는 더욱 시각적으로 인지력이 높아졌고, 화면에서 실시간으로 사용자에게 시각적 가이드(예: 화면에 중요한 부분 하이라이트)를 제공한다.예를 들어 신발 두 켤레 중 어느 것이 더 잘 어울리는지, 또는 적절한 공구가 무엇인지 Gemini가 화면을 보며 직접 알려줄 수 있다 이 시각적 가이드 기능은 8월 28일 출시되는 Pixel 10 시리즈에 먼저 적용되며, 이후 안드로이드 및 iOS 기기로 확장될 예정이다.Gemini Live는 구글 캘린더, 킵, 테스크 등 기존 앱뿐 아니라 곧 메시지, 전화, 시계, 지도 앱과도 더 깊게 통합되어 스케줄 관리, 메시지 전송 등의 실생활 업무를 돕는다.예를 들어 생일 선물을 찾다가 바로 가족에게 전화를 걸거나, 지하철 경로를 찾으면서 메시지를 바로 보내는 등 대화하면서 여러 앱을 넘나드는 지원이 가능해진다.음성 대화 품질도 크게 개선되어 어조, 리듬, 음높이 등을 자연스럽게 사용해 스트레스 상황에도 차분한 반응을 하는 등 보다 인간다운 대화가 가능해진다.사용자 요청에 따라 말하는 속도를 조절하거나, 재미있는 악센트로 이야기해주는 기능과, 인물 시점의 생생한 스토리텔링 기능도 곧 선보인다.이번 업데이트는 Gemini를 더 자연스럽고 도움이 되는 AI 비서로 만들기 위한 구글의 지속적인 노력의 일환이며, 앞으로도 사용자와 함께 발전시켜 나가겠다는 계획이다.
1835 조회
0 추천
2025.08.21 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입