Loading...

AI 뉴스

스탠포드 연구 결과, AI 챗봇이 사실과 믿음을 구별하는 데 어려움

페이지 정보

작성자 xtalfi
작성일 2025.11.05 16:56
1,608 조회
0 추천
0 비추천

본문

solen-feyissa-5Ib2B9MBJhQ-unsplash.jpg

(퍼플렉시티가 정리한 기사)


Nature Machine Intelligence에 발표된 포괄적인 연구에 따르면, ChatGPT를 포함한 주요 AI 챗봇들이 참된 믿음과 거짓된 믿음을 안정적으로 구분하지 못하는 것으로 밝혀졌으며, 이는 의료, 법률, 저널리즘과 같은 중요한 분야에서의 배치에 대한 심각한 우려를 제기하고 있다.​


AI 모델들, 신념 인식에서 근본적인 약점 보여

스탠퍼드 대학교 연구진은 13,000개의 질문을 사용하여 24개의 대규모 언어 모델을 테스트한 결과, 모든 시스템이 참인 믿음에 비해 거짓 믿음을 식별하는 데 어려움을 겪는 것으로 나타났다. 연구에 따르면 GPT-4o를 포함하여 2024년 5월 이후에 출시된 최신 모델들은 참인 1인칭 믿음에 비해 거짓 1인칭 믿음을 인정할 가능성이 34.3% 낮았다. 구형 모델들은 더욱 낮은 성능을 보여 거짓 믿음을 정확하게 식별하는 비율이 38.6% 감소했다.​

이러한 모델들은 단순한 참 또는 거짓 진술을 식별할 때 91.1%에서 91.5% 사이의 정확도를 달성했지만, "나는 ...라고 믿는다"와 같은 믿음 기반 언어를 다룰 때는 성능이 급격히 저하되었다. 연구진에 따르면, AI 시스템은 "일관성 없는 추론 전략"을 보였으며, 깊이 있는 이해보다는 피상적인 패턴 매칭에 의존했다.​


실제 응용 분야에 대한 우려 증가

이번 연구 결과는 AI 챗봇 사용이 급속도로 확대되고 있는 중요한 시점에 나왔다. 최근 Adobe Express 보고서에 따르면 ChatGPT를 사용하는 미국인의 77%가 이를 검색 엔진으로 간주하며, 사용자 3명 중 1명은 기존 검색 엔진보다 더 신뢰한다고 밝혔다. 이러한 추세는 규제 조치를 촉발했으며, OpenAI는 2025년 10월 29일부로 ChatGPT가 의료, 법률 또는 금융 조언을 제공하는 것을 공식적으로 금지했다.​

마드리드 자치대학교의 컴퓨터 언어학 전문가인 Pablo Haya Coll은 정확성이 필수적인 중요한 분야에서 "믿음과 지식을 혼동하면 판단에 심각한 오류를 초래할 수 있다"고 경고했다. 연구진은 이러한 한계가 "진단을 오도하고, 사법적 판단을 왜곡하며, 잘못된 정보를 증폭시킬 수 있다"고 강조했다.​

최근 사건들은 실제로 이러한 위험을 부각시켰다. 5월에 캘리포니아 판사는 법률 문서에 AI가 생성한 허위 정보를 포함시킨 두 로펌에 31,000달러의 벌금을 부과했다. 또한 스탠퍼드 대학의 허위정보 전문가는 ChatGPT의 도움으로 작성된 법정 진술서에서 "환각적 인용"을 간과했음을 인정했다.​

연구 저자들은 AI 기술이 고위험 분야에 광범위하게 배포되기 전에 "긴급한 개선"이 필요하다고 결론지었으며, 특히 주관적 믿음과 객관적 사실을 구분하지 못하는 기술의 무능력은 근본적인 구조적 약점을 나타낸다고 밝혔다.

댓글 0
전체 1,366 / 46 페이지
Googl은 Drive에 “Gemini의 인사이트” 패널을 도입했습니다. 이 패널은 폴더 콘텐츠의 요약을 자동으로 생성하며, 사용자가 폴더를 열 때 표시되는 기존의 가로형 “넛지(nudges)“를 AI 기반의 능동적 개요로 대체합니다.이 기능은 Rapid Release 도메인의 경우 12월 2일부터 출시되기 시작했으며, Scheduled Release 도메인의 경우 12월 9일부터 시작됩니다. Google Docs, Sheets, Slides, PDF 및 하위 폴더를 분석할 수 있으며, 사용자는 “Gemini로 탐색” 사이드 패널을 통해 후속 질문을 할 수 있습니다.액세스는 Google Workspace Business 및 Enterprise 등급, Google One AI Premium, Google AI Pro for Education 사용자를 포함한 유료 구독자로 제한되며, 이는 AI 검색 기능을 프리미엄 페이월 뒤에 배치하는 업계의 광범위한 추세를 따릅니다.
875 조회
0 추천
2025.12.04 등록
• 현대자동차·기아가 3일 일본 도쿄에서 열린 세계 3대 로봇 박람회 ’일본 국제 로봇 전시회 2025(IREX)’에서 차세대 자율주행 로봇 플랫폼 ’모베드(MobED)’의 양산형 모델을 최초 공개했다.• 모베드는 2022년 CES에서 콘셉트로 처음 선보인 후 약 3년간 개발을 거쳐 양산 단계에 도달했으며, 자체 개발한 ‘DnL’ 모듈을 통해 경사로나 최대 20cm 높이의 연석 구간에서도 균형을 유지하며 주행할 수 있다.• 현대차·기아는 베이직과 프로 두 모델로 출시되는 모베드를 내년 상반기부터 판매할 예정이며, 물류·배송·촬영 등 다양한 산업 분야에서 활용될 것으로 기대된다.
917 조회
0 추천
2025.12.03 등록
YouTube는 수백만 명의 크리에이터를 대상으로 AI 딥페이크 감지 도구를 확대 적용했으며, 크리에이터들에게 정부 발급 신분증과 생체 인식 얼굴 영상을 제출하도록 요구해 AI가 생성한 콘텐츠에서 본인 이미지의 무단 사용 여부를 식별하게 했습니다[cnbc +1].전문가들은 Google의 개인정보 처리방침 문구가 회사가 크리에이터의 생체 정보를 AI 모델 학습에 사용할 수 있도록 허용할 수도 있다고 경고했으나, YouTube는 CNBC에 해당 방식으로 사용한 적이 없으며 도구의 문구를 검토 중이지만 기본 정책은 유지하고 있다고 밝혔습니다[cnbc].인물 유사성 보호업체인 Vermillio와 Loti는 고객들에게 해당 프로그램 등록을 자제하라고 권고했으며, 경영진은 AI 시대에 크리에이터들이 가장 중요한 자산이 될 수 있는 자신의 이미지 통제권을 잃을 위험이 있다고 주의했습니다[cnbc].
904 조회
0 추천
2025.12.03 등록
The Information에 따르면, OpenAI는 코딩 및 추론 작업에서 Google의 Gemini 3와 Anthropic의 Opus 4.5를 능가하는 Garlic이라는 코드명의 새로운 AI 모델을 개발 중이며, 2026년 초까지 GPT-5.2 또는 GPT-5.5로 출시될 가능성이 있다[investing +1].이러한 개발은 CEO Sam Altman이 월요일에 직원들에게 광고 계획을 포함한 다른 프로젝트를 연기하고 ChatGPT 개선을 우선시할 것을 촉구하는 “코드 레드” 메모를 발표한 이후 이루어졌으며, 이는 Google이 최근 출시한 Gemini 3 모델로 인한 경쟁 압력이 심화되고 있기 때문이다[forbes +2].이러한 긴박함은 3년 전 Google이 ChatGPT 출시에 대해 자체 “코드 레드”를 선언했던 것과는 반대되는 상황을 반영하고 있으며, Gemini는 현재 월간 사용자 6억 5천만 명으로 성장한 반면 ChatGPT는 주간 사용자 8억 명을 보유하고 있다[fortune +1]
956 조회
0 추천
2025.12.03 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입