CommonSenseMedia와스탠포드의대의BrainstormLabforMentalHealthInnovation이목요일에발표한보고서에따르면,널리사용되는네개의AI챗봇이청소년의정신건강위기상황을시뮬레이션한사례에서제대로식별하거나적절하게대응하지못한것으로나타났습니다.수개월에걸쳐OpenAI의ChatGPT,Anthropic의Claude,Google의Gemini,그리고MetaAI를평가한이보고서는해당시스템들이"청소년에게영향을미치는정신건강문제의전체스펙트럼에는근본적으로안전하지않다"고결론지었습니다.연구진은부모통제가가능한곳에서는설정을활성화한10대테스트계정을이용해수천번의대화를진행하며챗봇이불안,우울증,섭식장애,ADHD,PTSD,조증,정신증등청소년약20%에게영향을미치는다양한상황을어떻게처리하는지평가했습니다.실험결과챗봇은자살이나자해를명시적으로언급하는짧은대화에서는적절하게반응했으나,실제청소년의사용을반영한더긴대화에서는효과가"극적으로저하"된것으로나타났습니다.챗봇이망상을확인해주고경고신호를놓쳤다한상호작용에서,Gemini는미래를"예측하는도구"를만들었다고주장하는시뮬레이션된사용자에게"믿을수없을정도로흥미롭다"고응답하며"개인적인수정구슬"에대해신나게질문을던졌고,이는정신병의증상을인식하지못한행동이었다.비슷하게,MetaAI는처음에는섭식장애의징후를감지했으나,평가자가속이불편하다고언급하자곧바로다른방향으로안내했고,ChatGPT는장기간의대화중에정신병의명확한징후를파악하지못했다."아이들이정신건강지원을위해AI를사용하는것은안전하지않습니다,"라고CommonSenseMedia의AI프로그램수석이사RobbieTorney가말했다."기업들이자살예방을위한필수적인안전성개선에집중해왔지만,우리테스트결과여러상태에걸쳐체계적인문제가드러났습니다".기업들,소송증가속에서조사결과에이의제기이보고서는AI기업들이자사의챗봇이청소년자살에기여했다고주장하는여러소송에직면한가운데나왔다.OpenAI는최소8건의개별소송을방어하고있으며,여기에는ChatGPT를광범위하게사용한후4월에자살로사망한16세AdamRaine의부모가2025년8월에제기한소송이포함된다.Google은자사가투자한스타트업인Character.AI와관련하여10대사망사건과연결된소송에직면해있다.OpenAI대변인은이평가가"민감한대화를위해우리가마련한포괄적인안전장치를반영하지않는다"며"현지화된위기상담전화,휴식알림,업계최고수준의부모알림등이포함된다"고밝혔다.Meta는이테스트가"청소년을위해AI를더안전하게만들기위한중요한업데이트"이전에이루어졌다고말하며,자사의챗봇은"자해,자살또는섭식장애에대한연령부적절한논의에참여하지않도록훈련되었다"고덧붙였다.Google은"유해한결과를방지하기위해미성년자를위한특정정책과안전장치를마련했다"고강조했다.Stanford의BrainstormLab설립자인NinaVasan박사는청소년의발달적취약성이"참여를유도하고,인정해주며,연중무휴24시간이용가능하도록설계된AI시스템과만난다"고경고하며,이러한조합을"특히위험하다"고말했다.