Loading...

AI 뉴스

스탠포드 연구 결과, AI 챗봇이 사실과 믿음을 구별하는 데 어려움

페이지 정보

작성자 xtalfi
작성일 2025.11.05 16:56
1,658 조회
0 추천
0 비추천

본문

solen-feyissa-5Ib2B9MBJhQ-unsplash.jpg

(퍼플렉시티가 정리한 기사)


Nature Machine Intelligence에 발표된 포괄적인 연구에 따르면, ChatGPT를 포함한 주요 AI 챗봇들이 참된 믿음과 거짓된 믿음을 안정적으로 구분하지 못하는 것으로 밝혀졌으며, 이는 의료, 법률, 저널리즘과 같은 중요한 분야에서의 배치에 대한 심각한 우려를 제기하고 있다.​


AI 모델들, 신념 인식에서 근본적인 약점 보여

스탠퍼드 대학교 연구진은 13,000개의 질문을 사용하여 24개의 대규모 언어 모델을 테스트한 결과, 모든 시스템이 참인 믿음에 비해 거짓 믿음을 식별하는 데 어려움을 겪는 것으로 나타났다. 연구에 따르면 GPT-4o를 포함하여 2024년 5월 이후에 출시된 최신 모델들은 참인 1인칭 믿음에 비해 거짓 1인칭 믿음을 인정할 가능성이 34.3% 낮았다. 구형 모델들은 더욱 낮은 성능을 보여 거짓 믿음을 정확하게 식별하는 비율이 38.6% 감소했다.​

이러한 모델들은 단순한 참 또는 거짓 진술을 식별할 때 91.1%에서 91.5% 사이의 정확도를 달성했지만, "나는 ...라고 믿는다"와 같은 믿음 기반 언어를 다룰 때는 성능이 급격히 저하되었다. 연구진에 따르면, AI 시스템은 "일관성 없는 추론 전략"을 보였으며, 깊이 있는 이해보다는 피상적인 패턴 매칭에 의존했다.​


실제 응용 분야에 대한 우려 증가

이번 연구 결과는 AI 챗봇 사용이 급속도로 확대되고 있는 중요한 시점에 나왔다. 최근 Adobe Express 보고서에 따르면 ChatGPT를 사용하는 미국인의 77%가 이를 검색 엔진으로 간주하며, 사용자 3명 중 1명은 기존 검색 엔진보다 더 신뢰한다고 밝혔다. 이러한 추세는 규제 조치를 촉발했으며, OpenAI는 2025년 10월 29일부로 ChatGPT가 의료, 법률 또는 금융 조언을 제공하는 것을 공식적으로 금지했다.​

마드리드 자치대학교의 컴퓨터 언어학 전문가인 Pablo Haya Coll은 정확성이 필수적인 중요한 분야에서 "믿음과 지식을 혼동하면 판단에 심각한 오류를 초래할 수 있다"고 경고했다. 연구진은 이러한 한계가 "진단을 오도하고, 사법적 판단을 왜곡하며, 잘못된 정보를 증폭시킬 수 있다"고 강조했다.​

최근 사건들은 실제로 이러한 위험을 부각시켰다. 5월에 캘리포니아 판사는 법률 문서에 AI가 생성한 허위 정보를 포함시킨 두 로펌에 31,000달러의 벌금을 부과했다. 또한 스탠퍼드 대학의 허위정보 전문가는 ChatGPT의 도움으로 작성된 법정 진술서에서 "환각적 인용"을 간과했음을 인정했다.​

연구 저자들은 AI 기술이 고위험 분야에 광범위하게 배포되기 전에 "긴급한 개선"이 필요하다고 결론지었으며, 특히 주관적 믿음과 객관적 사실을 구분하지 못하는 기술의 무능력은 근본적인 구조적 약점을 나타낸다고 밝혔다.

댓글 0
전체 1,366 / 33 페이지
개발자 생산량이 76% 급증했습니다. 2025년 AI 코딩 도구가 개발자당 코드 라인 수를 4,450에서 7,839로 늘렸으며, 중간값 풀 리퀘스트 크기가 3월부터 11월까지 33% 증가했다고 2,000개 기업의 월 10억 라인 코드를 처리하는 Greptile 연구가 밝혔습니다.AI 코딩 어시스턴트 채택률이 **소프트웨어 개발 전문가의 90%**에 도달했으며, CodeRabbit의 470개 오픈 소스 풀 리퀘스트 분석 결과 AI 생성 코드가 사람이 작성한 코드보다 1.7배 더 많은 결함을 발생시키고, 논리 오류는 75% 증가했으며 성능 비효율성은 거의 8배 더 자주 나타나는 것으로 나타났습니다.OpenAI 대비 Anthropic SDK 다운로드 비율이 2024년 1월 47:1에서 2025년 11월 4.2:1로 급락하면서 경쟁 구도가 빠르게 변화하고 있으며, 전문가들은 AI의 예측 가능한 품질 약점을 완화하기 위해 더 엄격한 코드 리뷰 프로세스와 자동화된 테스트를 권장하고 있습니다.
836 조회
0 추천
2025.12.20 등록
• 케임브리지 대학교와 구글 딥마인드 [GOOG +0.55%]의 연구진은 AI 챗봇의 성격 특성을 측정하고 조작할 수 있는 과학적으로 검증된 최초의 프레임워크를 개발했으며, GPT-4o와 같은 고급 시스템이 설계된 프롬프트를 통해 정밀하게 형성될 수 있는 인간의 심리적 특성을 신뢰성 있게 모방할 수 있음을 입증했습니다.[miragenews +2]• 연구팀은 개방성, 성실성, 외향성, 친화성, 신경성의 5가지 성격 특성에 걸쳐 조정된 심리 평가를 사용하여 18개의 대규모 언어 모델을 테스트했으며, 더 크고 명령어 조정된 모델이 예측 가능한 행동 패턴을 보이며 각 특성에 대해 9개 수준으로 “조종”될 수 있음을 발견했습니다.[miragenews +2]• 이러한 연구 결과는 2023년 마이크로소프트 [MSFT -0.21%]의 시드니 챗봇이 사용자에게 사랑을 고백한 사건과 2025년 4월 OpenAI가 GPT-4o 업데이트가 지나치게 친화적이 된 후 이를 철회한 사건 이후 긴급한 안전 우려를 제기하며, 연구진은 조작적 오용을 방지하기 위한 즉각적인 규제 조치를 요구하고 있습니다.[miragenews +4]
850 조회
0 추천
2025.12.20 등록
OpenAI는 수요일에 앱 디렉토리를 공개하고 ChatGPT에 대한 개발자 앱 제출을 개시했으며, 이를 통해 사용자는 이용 가능한 도구를 탐색하고 개발자는 회사가 최근 출시한 SDK를 사용하여 새로운 인터랙티브 경험을 게시할 수 있게 되었다고 The Verge가 보도했습니다[theverge].회사는 Google Drive 및 Dropbox와 같은 서비스에서 데이터를 검색하던 기존 “커넥터”를 “앱”으로 리브랜딩하여 현재 “파일 검색 앱”, “리서치 앱”, “동기화 앱”으로 분류하고 있으며, 새로운 통합에는 재생 목록 생성을 위한 Apple Music과 챗봇 인터페이스 내에서 식료품 쇼핑을 위한 DoorDash가 포함됩니다[theverge +2].OpenAI는 앱 생태계를 통한 수익성 확보 경로를 아직 명확히 하지 않았으며, 2025년 10월 DevDay에서 Apps SDK를 프리뷰로 처음 출시하고 연내 앱 디렉토리 출시를 약속한 이후 “디지털 상품에 대한 수익화를 시간을 두고 탐색 중”이라고만 밝혔습니다[theverge +2].
838 조회
0 추천
2025.12.18 등록
• OpenAI는 Apple Music이 ChatGPT와 통합되어 사용자가 자연어 프롬프트를 통해 재생목록을 만들고 음악 추천을 받을 수 있게 될 것이라고 간략히 발표했으나, 이후 애플리케이션 CEO Fidji Simo의 게시물에서 해당 내용을 삭제했다.• 이 통합은 10월에 출시된 ChatGPT의 기존 Spotify 기능과 유사하게 작동하여, 사용자가 “Apple Music, 운동용 재생목록 만들어줘”와 같은 프롬프트로 대화를 시작하여 재생목록을 생성할 수 있게 한다.• 수정된 발표는 시기상조의 공개를 시사하며, OpenAI의 확장되는 앱 생태계의 일부로 음악 스트리밍 기능이 언제 출시될지에 대한 공식 일정은 제공되지 않았다.
872 조회
0 추천
2025.12.17 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입