Loading...

AI 뉴스

스탠포드 연구 결과, AI 챗봇이 사실과 믿음을 구별하는 데 어려움

페이지 정보

작성자 xtalfi
작성일 2025.11.05 16:56
1,574 조회
0 추천
0 비추천

본문

solen-feyissa-5Ib2B9MBJhQ-unsplash.jpg

(퍼플렉시티가 정리한 기사)


Nature Machine Intelligence에 발표된 포괄적인 연구에 따르면, ChatGPT를 포함한 주요 AI 챗봇들이 참된 믿음과 거짓된 믿음을 안정적으로 구분하지 못하는 것으로 밝혀졌으며, 이는 의료, 법률, 저널리즘과 같은 중요한 분야에서의 배치에 대한 심각한 우려를 제기하고 있다.​


AI 모델들, 신념 인식에서 근본적인 약점 보여

스탠퍼드 대학교 연구진은 13,000개의 질문을 사용하여 24개의 대규모 언어 모델을 테스트한 결과, 모든 시스템이 참인 믿음에 비해 거짓 믿음을 식별하는 데 어려움을 겪는 것으로 나타났다. 연구에 따르면 GPT-4o를 포함하여 2024년 5월 이후에 출시된 최신 모델들은 참인 1인칭 믿음에 비해 거짓 1인칭 믿음을 인정할 가능성이 34.3% 낮았다. 구형 모델들은 더욱 낮은 성능을 보여 거짓 믿음을 정확하게 식별하는 비율이 38.6% 감소했다.​

이러한 모델들은 단순한 참 또는 거짓 진술을 식별할 때 91.1%에서 91.5% 사이의 정확도를 달성했지만, "나는 ...라고 믿는다"와 같은 믿음 기반 언어를 다룰 때는 성능이 급격히 저하되었다. 연구진에 따르면, AI 시스템은 "일관성 없는 추론 전략"을 보였으며, 깊이 있는 이해보다는 피상적인 패턴 매칭에 의존했다.​


실제 응용 분야에 대한 우려 증가

이번 연구 결과는 AI 챗봇 사용이 급속도로 확대되고 있는 중요한 시점에 나왔다. 최근 Adobe Express 보고서에 따르면 ChatGPT를 사용하는 미국인의 77%가 이를 검색 엔진으로 간주하며, 사용자 3명 중 1명은 기존 검색 엔진보다 더 신뢰한다고 밝혔다. 이러한 추세는 규제 조치를 촉발했으며, OpenAI는 2025년 10월 29일부로 ChatGPT가 의료, 법률 또는 금융 조언을 제공하는 것을 공식적으로 금지했다.​

마드리드 자치대학교의 컴퓨터 언어학 전문가인 Pablo Haya Coll은 정확성이 필수적인 중요한 분야에서 "믿음과 지식을 혼동하면 판단에 심각한 오류를 초래할 수 있다"고 경고했다. 연구진은 이러한 한계가 "진단을 오도하고, 사법적 판단을 왜곡하며, 잘못된 정보를 증폭시킬 수 있다"고 강조했다.​

최근 사건들은 실제로 이러한 위험을 부각시켰다. 5월에 캘리포니아 판사는 법률 문서에 AI가 생성한 허위 정보를 포함시킨 두 로펌에 31,000달러의 벌금을 부과했다. 또한 스탠퍼드 대학의 허위정보 전문가는 ChatGPT의 도움으로 작성된 법정 진술서에서 "환각적 인용"을 간과했음을 인정했다.​

연구 저자들은 AI 기술이 고위험 분야에 광범위하게 배포되기 전에 "긴급한 개선"이 필요하다고 결론지었으며, 특히 주관적 믿음과 객관적 사실을 구분하지 못하는 기술의 무능력은 근본적인 구조적 약점을 나타낸다고 밝혔다.

댓글 0
전체 1,366 / 66 페이지
수십만 종의 데이터를 분석하여 질병을 유발하는 유전자 돌연변이를 식별할 수 있는 인공지능 모델을 개발했으며, 이는 의사들이 희귀 질환을 진단하는 방식을 잠재적으로 변화시킬 수 있습니다.popEVE라고 불리는 이 모델은 11월 24일 Nature Genetics에 게재되었으며, 심각한 발달 장애가 있는 어린이들과 관련된 31,000건 이상의 사례 중 98%에서 가장 유해한 유전적 변이를 정확하게 식별했습니다. 이 도구는 DeepMind의 AlphaMissense를 포함한 경쟁 모델들을 능가했으며, 이전에 알려지지 않았던 123개의 후보 질병 유전자를 발견했고, 이 중 104개는 단 한두 명의 환자에서만 관찰되었습니다.진화와 인구 데이터의 결합PopEVE는 수십억 년의 진화 역사를 기반으로, 약 20,000개의 인간 단백질 중 생명에 필수적인 부분과 변화를 견딜 수 있는 부분을 분석합니다. 이 모델은 이러한 진화 정보를 영국 바이오뱅크(UK Biobank)와 게놈 집합 데이터베이스(gnomAD)의 데이터와 통합하며, 이들 데이터는 건강한 사람들에게 어떤 변이가 존재하는지 보여줍니다.공동 교신저자이자 유전체조절센터(Centre for Genomic Regulation) 연구원인 마팔다 디아스(Mafalda Dias) 박사는 “진료소들이 항상 부모의 DNA에 접근할 수 있는 것은 아니며 많은 환자들이 혼자 방문합니다”라고 말했습니다. “PopEVE는 이러한 의사들이 질병을 유발하는 돌연변이를 식별하는 데 도움을 줄 수 있으며, 우리는 진료소들과의 협력을 통해 이미 이를 확인하고 있습니다”.트리오 시퀀싱(trio sequencing)으로 알려진 부모 양쪽의 DNA를 필요로 하는 전통적인 유전 진단 방법과 달리, PopEVE는 환자의 유전 정보만으로 작동할 수 있습니다. 이러한 기능은 자원이 제한된 의료 시스템에 특히 유용하며, 진단을 더 빠르고 저렴하게 만듭니다.조상 편향 줄이기popEVE의 두드러진 특징 중 하나는 유전 데이터베이스에서 과소 대표되는 혈통을 가진 사람들에게 불이익을 주지 않는 능력입니다. 현재 유전 데이터베이스는 주로 유럽계 혈통 사람들에게 편향되어 있습니다. 이 모델은 특정 집단에서 한 번 발견된 돌연변이든 유럽 집단에서 수천 번 발견된 돌연변이든 모든 인간 변이를 동등하게 취급합니다.Centre for Genomic Regulation의 공동 교신저자이자 연구원인 Jonathan Frazer 박사는 “전 세계 데이터베이스에 자신의 커뮤니티가 잘 대표되지 않는다는 이유만으로 누구도 무서운 결과를 받아서는 안 됩니다”라고 말했습니다. “PopEVE는 그 불균형을 바로잡는 데 도움이 되며, 이는 이 분야에서 오랫동안 부족했던 것입니다”.[crg +2]연구진은 popEVE가 미스센스 돌연변이—단백질의 단일 아미노산을 변경하는 DNA 변화—만을 해석하며 임상 판단을 대체하지 않는다고 언급했습니다. 현재 희귀 질환을 가진 사람들 중 2명 중 1명은 명확한 진단을 받지 못하고 있습니다.
868 조회
0 추천
2025.11.25 등록
Anthropic은 Claude를 위한 세 가지 베타 기능인 Tool Search Tool, Programmatic Tool Calling, Tool Use Examples를 출시했습니다. 이는 AI 에이전트가 컨텍스트 윈도우를 과부하시키지 않고 수백 또는 수천 개의 도구를 사용할 수 있도록 하며, 개별 API 요청 대신 코드를 통해 도구를 호출하고, 스키마 정의만으로가 아닌 구체적인 예시를 통해 올바른 사용법을 학습하도록 설계되었습니다.내부 테스트에서 Tool Search Tool은 토큰 사용량을 85% 감소시키는 동시에 대규모 도구 라이브러리에서 Opus 4.5의 정확도를 79.5%에서 88.1%로 향상시켰으며, Programmatic Tool Calling은 복잡한 연구 작업에서 37%의 토큰 절감을 달성하면서 이전에 도구 호출당 수백 밀리초가 필요했던 여러 추론 과정을 제거했습니다.이 기능들은 GitHub, Slack, Sentry, Grafana, Splunk를 연결하는 기본 5개 서버 설정에서 대화가 시작되기 전에 약 55,000개의 토큰을 소비하는 중요한 확장성 문제를 해결합니다. Anthropic은 최적화 이전 프로덕션 환경에서 도구 정의가 최대 134,000개의 토큰을 소비하는 것을 관찰했습니다.
887 조회
0 추천
2025.11.25 등록
기술 저널리스트 Alex Kantrowitz와 Ranjan Roy는 Google의 Gemini 3가 OpenAI의 심각한 경쟁자로 부상했으며, Sam Altman이 유출된 메모에서 직원들에게 “거친 분위기”와 “일시적인 경제적 역풍”을 예상하라고 경고했다고 논의했습니다. Kantrowitz는 이를 분수령의 순간이라고 부르며, OpenAI가 앞서간다는 것을 인정받은 적이 없었다고 말했습니다.Gemini 3는 Arc AGI와 LM Arena 리더보드를 포함한 주요 AI 벤치마크에서 1위를 차지했으며, 추상적 시각 추론에서 GPT-5.1의 점수(31.1% 대 17.6%)의 거의 두 배를 달성했습니다. 한편 Google의 조직 재편—DeepMind와 Brain을 회사의 “엔진룸”으로 통합하고 검색에서 수백 명의 엔지니어를 이동—이 이러한 반전을 가능하게 했습니다.이러한 변화는 Google이 시가총액 3조 6,200억 달러로 Microsoft를 앞지르고, Nvidia의 기록적인 실적이 AI 거래를 유지하지 못하면서 발생했으며, 주가는 상승 5%에서 하락 3%로 반전되었습니다. 이는 AI 모델의 상품화와 경쟁하는 챗봇들이 기능적으로 상호 교환 가능해지고 있는지에 대한 투자자들의 우려가 커지면서 나타났습니다.
894 조회
0 추천
2025.11.25 등록
개발자 Simon Willison은 최상위 모델들이 현재 너무나 유사하게 작동하여 실제 작업에서는 기업들이 각 릴리스마다 개선을 주장함에도 불구하고 의미 있는 성능 차이를 드러내지 못하기 때문에, 최첨단 AI 모델 평가가 점점 더 어려워지고 있다고 주장한다.Willison은 Anthropic에서 새로 출시한 Claude Opus 4.5를 사용하여 이틀 동안 39개 파일에 걸쳐 2,022개의 코드 추가를 포함하는 광범위한 코딩 작업을 완료한 후, 이전 Claude Sonnet 4.5 모델로 다시 전환했을 때도 동일한 속도로 작업을 계속할 수 있었으며, 두 모델 간의 구체적인 성능 차이를 식별할 수 없었다고 밝혔다.Willison은 AI 연구소들이 새로운 모델을 출시할 때 이전 모델에서는 실패했지만 새 모델에서는 성공하는 프롬프트의 구체적인 예시를 함께 제공할 것을 요구하며, 이러한 시연이 MMLU나 GPQA Diamond와 같은 테스트에서 한 자릿수 백분율 포인트 개선을 보여주는 벤치마크보다 더 가치 있을 것이라고 주장한다—이는 최첨단 모델들이 전통적인 평가 지표를 점점 더 포화시키면서 업계 전반이 겪고 있는 어려움을 반영하는 과제이다.
941 조회
0 추천
2025.11.25 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입