Loading...

AI 뉴스

스탠포드 연구 결과, AI 챗봇이 사실과 믿음을 구별하는 데 어려움

페이지 정보

작성자 xtalfi
작성일 2025.11.05 16:56
1,652 조회
0 추천
0 비추천

본문

solen-feyissa-5Ib2B9MBJhQ-unsplash.jpg

(퍼플렉시티가 정리한 기사)


Nature Machine Intelligence에 발표된 포괄적인 연구에 따르면, ChatGPT를 포함한 주요 AI 챗봇들이 참된 믿음과 거짓된 믿음을 안정적으로 구분하지 못하는 것으로 밝혀졌으며, 이는 의료, 법률, 저널리즘과 같은 중요한 분야에서의 배치에 대한 심각한 우려를 제기하고 있다.​


AI 모델들, 신념 인식에서 근본적인 약점 보여

스탠퍼드 대학교 연구진은 13,000개의 질문을 사용하여 24개의 대규모 언어 모델을 테스트한 결과, 모든 시스템이 참인 믿음에 비해 거짓 믿음을 식별하는 데 어려움을 겪는 것으로 나타났다. 연구에 따르면 GPT-4o를 포함하여 2024년 5월 이후에 출시된 최신 모델들은 참인 1인칭 믿음에 비해 거짓 1인칭 믿음을 인정할 가능성이 34.3% 낮았다. 구형 모델들은 더욱 낮은 성능을 보여 거짓 믿음을 정확하게 식별하는 비율이 38.6% 감소했다.​

이러한 모델들은 단순한 참 또는 거짓 진술을 식별할 때 91.1%에서 91.5% 사이의 정확도를 달성했지만, "나는 ...라고 믿는다"와 같은 믿음 기반 언어를 다룰 때는 성능이 급격히 저하되었다. 연구진에 따르면, AI 시스템은 "일관성 없는 추론 전략"을 보였으며, 깊이 있는 이해보다는 피상적인 패턴 매칭에 의존했다.​


실제 응용 분야에 대한 우려 증가

이번 연구 결과는 AI 챗봇 사용이 급속도로 확대되고 있는 중요한 시점에 나왔다. 최근 Adobe Express 보고서에 따르면 ChatGPT를 사용하는 미국인의 77%가 이를 검색 엔진으로 간주하며, 사용자 3명 중 1명은 기존 검색 엔진보다 더 신뢰한다고 밝혔다. 이러한 추세는 규제 조치를 촉발했으며, OpenAI는 2025년 10월 29일부로 ChatGPT가 의료, 법률 또는 금융 조언을 제공하는 것을 공식적으로 금지했다.​

마드리드 자치대학교의 컴퓨터 언어학 전문가인 Pablo Haya Coll은 정확성이 필수적인 중요한 분야에서 "믿음과 지식을 혼동하면 판단에 심각한 오류를 초래할 수 있다"고 경고했다. 연구진은 이러한 한계가 "진단을 오도하고, 사법적 판단을 왜곡하며, 잘못된 정보를 증폭시킬 수 있다"고 강조했다.​

최근 사건들은 실제로 이러한 위험을 부각시켰다. 5월에 캘리포니아 판사는 법률 문서에 AI가 생성한 허위 정보를 포함시킨 두 로펌에 31,000달러의 벌금을 부과했다. 또한 스탠퍼드 대학의 허위정보 전문가는 ChatGPT의 도움으로 작성된 법정 진술서에서 "환각적 인용"을 간과했음을 인정했다.​

연구 저자들은 AI 기술이 고위험 분야에 광범위하게 배포되기 전에 "긴급한 개선"이 필요하다고 결론지었으며, 특히 주관적 믿음과 객관적 사실을 구분하지 못하는 기술의 무능력은 근본적인 구조적 약점을 나타낸다고 밝혔다.

댓글 0
전체 1,366 / 32 페이지
• OpenAI, ChatGPT의 '따뜻함'과 '열정' 수준을 사용자가 조절할 수 있는 기능 출시• 이모지, 헤더, 목록 사용 빈도도 개인화 설정 가능• 채팅 내에서 직접 이메일 텍스트 수정 및 포맷팅 기능 추가OpenAI가 ChatGPT의 친절함 수준을 사용자가 직접 조절할 수 있는 새로운 기능을 선보였다. 금요일부터 순차 배포되는 이번 업데이트를 통해 사용자는 ChatGPT의 '따뜻함'과 '열정'이라는 성격 특성을 '더 많이' 또는 '더 적게' 원하는 대로 설정하거나 기본값을 유지할 수 있게 됐다.이 외에도 ChatGPT가 이모지, 헤더, 목록을 얼마나 자주 사용할지 조정하는 옵션도 제공된다. 이러한 설정은 ChatGPT 앱 좌측 상단 메뉴를 탭한 후 프로필을 선택하고 '개인화' 항목에서 '특성 추가'를 선택하면 확인할 수 있다. 여기서 사용자는 AI 챗봇의 '성격'도 선택할 수 있는데, 독특함, 전문적임, 친근함, 냉소적임 등 다양한 옵션이 마련되어 있다.또 다른 업데이트는 ChatGPT로 이메일을 작성하는 방식을 개선한다. 이제 채팅 내에서 직접 텍스트를 수정하고 포맷을 변경할 수 있다. 특정 텍스트 부분을 하이라이트하여 ChatGPT에게 해당 부분만 수정하도록 요청할 수도 있어, 별도의 프롬프트에서 해당 섹션을 일일이 지정할 필요가 없어졌다.
825 조회
0 추천
2025.12.20 등록
OpenAI는 2025년 12월 17일 뉴스 조직을 위한 아카데미를 출범했으며, 이는 기자와 출판사가 AI 도구를 업무 흐름에 통합할 수 있도록 주문형 교육, 기술 플레이북 및 오픈 소스 프로젝트를 제공하는 무료 글로벌 학습 플랫폼입니다.이 이니셔티브는 뉴욕에서 열린 AI 및 저널리즘 정상회의에서 공개되었으며, Brown Institute for Media Innovation 및 Hearst와 공동 주최했고, American Journalism Project 및 The Lenfest Institute for Journalism과의 파트너십을 기반으로 합니다.이 아카데미는 OpenAI가 The New York Times Company [NYT +0.35%]로부터 저작권 소송을 받고 있는 동시에 News Corp [NWSA -0.95%] 및 Axel Springer를 포함한 주요 출판사들과 라이선스 계약을 추진하고 있는 가운데 출범했습니다
815 조회
0 추천
2025.12.20 등록
개발자 생산량이 76% 급증했습니다. 2025년 AI 코딩 도구가 개발자당 코드 라인 수를 4,450에서 7,839로 늘렸으며, 중간값 풀 리퀘스트 크기가 3월부터 11월까지 33% 증가했다고 2,000개 기업의 월 10억 라인 코드를 처리하는 Greptile 연구가 밝혔습니다.AI 코딩 어시스턴트 채택률이 **소프트웨어 개발 전문가의 90%**에 도달했으며, CodeRabbit의 470개 오픈 소스 풀 리퀘스트 분석 결과 AI 생성 코드가 사람이 작성한 코드보다 1.7배 더 많은 결함을 발생시키고, 논리 오류는 75% 증가했으며 성능 비효율성은 거의 8배 더 자주 나타나는 것으로 나타났습니다.OpenAI 대비 Anthropic SDK 다운로드 비율이 2024년 1월 47:1에서 2025년 11월 4.2:1로 급락하면서 경쟁 구도가 빠르게 변화하고 있으며, 전문가들은 AI의 예측 가능한 품질 약점을 완화하기 위해 더 엄격한 코드 리뷰 프로세스와 자동화된 테스트를 권장하고 있습니다.
828 조회
0 추천
2025.12.20 등록
• 케임브리지 대학교와 구글 딥마인드 [GOOG +0.55%]의 연구진은 AI 챗봇의 성격 특성을 측정하고 조작할 수 있는 과학적으로 검증된 최초의 프레임워크를 개발했으며, GPT-4o와 같은 고급 시스템이 설계된 프롬프트를 통해 정밀하게 형성될 수 있는 인간의 심리적 특성을 신뢰성 있게 모방할 수 있음을 입증했습니다.[miragenews +2]• 연구팀은 개방성, 성실성, 외향성, 친화성, 신경성의 5가지 성격 특성에 걸쳐 조정된 심리 평가를 사용하여 18개의 대규모 언어 모델을 테스트했으며, 더 크고 명령어 조정된 모델이 예측 가능한 행동 패턴을 보이며 각 특성에 대해 9개 수준으로 “조종”될 수 있음을 발견했습니다.[miragenews +2]• 이러한 연구 결과는 2023년 마이크로소프트 [MSFT -0.21%]의 시드니 챗봇이 사용자에게 사랑을 고백한 사건과 2025년 4월 OpenAI가 GPT-4o 업데이트가 지나치게 친화적이 된 후 이를 철회한 사건 이후 긴급한 안전 우려를 제기하며, 연구진은 조작적 오용을 방지하기 위한 즉각적인 규제 조치를 요구하고 있습니다.[miragenews +4]
844 조회
0 추천
2025.12.20 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입