(퍼플렉시티가정리한기사)NatureMachineIntelligence에발표된포괄적인연구에따르면,ChatGPT를포함한주요AI챗봇들이참된믿음과거짓된믿음을안정적으로구분하지못하는것으로밝혀졌으며,이는의료,법률,저널리즘과같은중요한분야에서의배치에대한심각한우려를제기하고있다.AI모델들,신념인식에서근본적인약점보여스탠퍼드대학교연구진은13,000개의질문을사용하여24개의대규모언어모델을테스트한결과,모든시스템이참인믿음에비해거짓믿음을식별하는데어려움을겪는것으로나타났다.연구에따르면GPT-4o를포함하여2024년5월이후에출시된최신모델들은참인1인칭믿음에비해거짓1인칭믿음을인정할가능성이34.3%낮았다.구형모델들은더욱낮은성능을보여거짓믿음을정확하게식별하는비율이38.6%감소했다.이러한모델들은단순한참또는거짓진술을식별할때91.1%에서91.5%사이의정확도를달성했지만,"나는...라고믿는다"와같은믿음기반언어를다룰때는성능이급격히저하되었다.연구진에따르면,AI시스템은"일관성없는추론전략"을보였으며,깊이있는이해보다는피상적인패턴매칭에의존했다.실제응용분야에대한우려증가이번연구결과는AI챗봇사용이급속도로확대되고있는중요한시점에나왔다.최근AdobeExpress보고서에따르면ChatGPT를사용하는미국인의77%가이를검색엔진으로간주하며,사용자3명중1명은기존검색엔진보다더신뢰한다고밝혔다.이러한추세는규제조치를촉발했으며,OpenAI는2025년10월29일부로ChatGPT가의료,법률또는금융조언을제공하는것을공식적으로금지했다.마드리드자치대학교의컴퓨터언어학전문가인PabloHayaColl은정확성이필수적인중요한분야에서"믿음과지식을혼동하면판단에심각한오류를초래할수있다"고경고했다.연구진은이러한한계가"진단을오도하고,사법적판단을왜곡하며,잘못된정보를증폭시킬수있다"고강조했다.최근사건들은실제로이러한위험을부각시켰다.5월에캘리포니아판사는법률문서에AI가생성한허위정보를포함시킨두로펌에31,000달러의벌금을부과했다.또한스탠퍼드대학의허위정보전문가는ChatGPT의도움으로작성된법정진술서에서"환각적인용"을간과했음을인정했다.연구저자들은AI기술이고위험분야에광범위하게배포되기전에"긴급한개선"이필요하다고결론지었으며,특히주관적믿음과객관적사실을구분하지못하는기술의무능력은근본적인구조적약점을나타낸다고밝혔다.