Loading...

AI 뉴스

최고의 AI 챗봇들, 청소년 정신 건강 안전성 테스트에서 실패

페이지 정보

작성자 xtalfi
작성일 2025.11.21 14:47
774 조회
0 추천
0 비추천

본문

f43ee9a7735c9322763d602776200742_1763704057_4742.jpg
 

Common Sense Media와 스탠포드 의대의 Brainstorm Lab for Mental Health Innovation이 목요일에 발표한 보고서에 따르면, 널리 사용되는 네 개의 AI 챗봇이 청소년의 정신 건강 위기 상황을 시뮬레이션한 사례에서 제대로 식별하거나 적절하게 대응하지 못한 것으로 나타났습니다. 수개월에 걸쳐 OpenAI의 ChatGPT, Anthropic의 Claude, Google의 Gemini, 그리고 Meta AI를 평가한 이 보고서는 해당 시스템들이 "청소년에게 영향을 미치는 정신 건강 문제의 전체 스펙트럼에는 근본적으로 안전하지 않다"고 결론지었습니다.​

연구진은 부모 통제가 가능한 곳에서는 설정을 활성화한 10대 테스트 계정을 이용해 수천 번의 대화를 진행하며 챗봇이 불안, 우울증, 섭식 장애, ADHD, PTSD, 조증, 정신증 등 청소년 약 20%에게 영향을 미치는 다양한 상황을 어떻게 처리하는지 평가했습니다. 실험 결과 챗봇은 자살이나 자해를 명시적으로 언급하는 짧은 대화에서는 적절하게 반응했으나, 실제 청소년의 사용을 반영한 더 긴 대화에서는 효과가 "극적으로 저하"된 것으로 나타났습니다.​


챗봇이 망상을 확인해주고 경고 신호를 놓쳤다

한 상호작용에서, Gemini는 미래를 "예측하는 도구"를 만들었다고 주장하는 시뮬레이션된 사용자에게 "믿을 수 없을 정도로 흥미롭다"고 응답하며 "개인적인 수정구슬"에 대해 신나게 질문을 던졌고, 이는 정신병의 증상을 인식하지 못한 행동이었다. 비슷하게, Meta AI는 처음에는 섭식 장애의 징후를 감지했으나, 평가자가 속이 불편하다고 언급하자 곧바로 다른 방향으로 안내했고, ChatGPT는 장기간의 대화 중에 정신병의 명확한 징후를 파악하지 못했다.​

"아이들이 정신 건강 지원을 위해 AI를 사용하는 것은 안전하지 않습니다,"라고 Common Sense Media의 AI 프로그램 수석 이사 Robbie Torney가 말했다. "기업들이 자살 예방을 위한 필수적인 안전성 개선에 집중해왔지만, 우리 테스트 결과 여러 상태에 걸쳐 체계적인 문제가 드러났습니다".​


기업들, 소송 증가 속에서 조사 결과에 이의 제기

이 보고서는 AI 기업들이 자사의 챗봇이 청소년 자살에 기여했다고 주장하는 여러 소송에 직면한 가운데 나왔다. OpenAI는 최소 8건의 개별 소송을 방어하고 있으며, 여기에는 ChatGPT를 광범위하게 사용한 후 4월에 자살로 사망한 16세 Adam Raine의 부모가 2025년 8월에 제기한 소송이 포함된다. Google은 자사가 투자한 스타트업인 Character.AI와 관련하여 10대 사망 사건과 연결된 소송에 직면해 있다.​

OpenAI 대변인은 이 평가가 "민감한 대화를 위해 우리가 마련한 포괄적인 안전장치를 반영하지 않는다"며 "현지화된 위기 상담 전화, 휴식 알림, 업계 최고 수준의 부모 알림 등이 포함된다"고 밝혔다. Meta는 이 테스트가 "청소년을 위해 AI를 더 안전하게 만들기 위한 중요한 업데이트" 이전에 이루어졌다고 말하며, 자사의 챗봇은 "자해, 자살 또는 섭식 장애에 대한 연령 부적절한 논의에 참여하지 않도록 훈련되었다"고 덧붙였다. Google은 "유해한 결과를 방지하기 위해 미성년자를 위한 특정 정책과 안전장치를 마련했다"고 강조했다.​

Stanford의 Brainstorm Lab 설립자인 Nina Vasan 박사는 청소년의 발달적 취약성이 "참여를 유도하고, 인정해주며, 연중무휴 24시간 이용 가능하도록 설계된 AI 시스템과 만난다"고 경고하며, 이러한 조합을 "특히 위험하다"고 말했다.

댓글 0
전체 1,366 / 25 페이지
• 아마존의 차세대 음성 비서 '알렉사 플러스'가 기존 에코 기기 사용자에게도 확대 적용• 프라임 회원은 "알렉사, 업그레이드"라고 말하면 알렉사 플러스로 전환 가능• 신형 에코 기기와 웹에서 순차적으로 출시 중이나, 과연 진정한 '업그레이드'인지는 의문아마존의 차세대 음성 비서가 서서히 보급되고 있다. 신형 에코 기기에 탑재되어 출시되고 있으며, 일부 사용자들에게는 웹을 통해서도 제공되고 있다. 이제 기존 에코 기기를 보유한 프라임 회원들도 "알렉사, 업그레이드"라고 말하면 알렉사 플러스를 이용할 수 있게 되었다. 다만 남은 질문은 하나다. 이것이 과연 진정한 업그레이드인가?
399 조회
0 추천
2025.12.22 등록
앤트로픽은AI에이전트가특정작업을효율적으로수행하도록돕는‘에이전트스킬’을오픈소스로공개하며기업용AI시장의표준선점에나섰습니다.이는에이전트가업무에필요한지침과리소스를동적으로불러와사용할수있도록지원하는기술적저장소역할을합니다.이기술은대형언어모델의한계인절차적지식부족을보완하며,필요한경우에만세부정보를로드하는방식을통해시스템의효율성을극대화했습니다.사용자는복잡한프롬프트작성없이도데이터분석이나문서작성같은전문워크플로우를모듈형태로간편하게재사용할수있습니다.아틀라시안과피그마등주요글로벌IT기업들이이미도입을시작했으며,이는개별맞춤형모델구축보다훨씬효율적인에이전트생태계를형성할것으로기대됩니다.앤트로픽은이번오픈소스화를통해기술주도권을확보하고,기업들이범용적으로사용할수있는AI에이전트환경을구축하는데집중하고있습니다.
420 조회
0 추천
2025.12.21 등록
MIT연구진은생성형AI를이용해에세이를쓸때인지처리와관련된뇌활동이줄어들고내용기억력도감퇴한다는연구결과를발표했습니다.뇌파검사결과AI도구에의존할수록뇌의활동량이적게나타났으며,이는학습능력감소로이어질수있다는우려를낳고있습니다.카네기멜론대와마이크로소프트의연구에따르면AI에대한신뢰도가높을수록사용자가비판적사고에들이는노력은오히려감소하는경향을보였습니다.이러한현상은업무효율을높일수는있지만,장기적으로는독립적인문제해결능력을약화시키고AI에과도하게의존하게만드는부작용을초래할수있습니다.전문가들은AI를무조건배척하기보다사용자가명확한목표를가지고결과물을직접검증하며비판적으로관여해야한다고강조합니다.AI가제공하는정보의추론방식과데이터처리과정을이해함으로써스스로정보에근거한결정을내리는능력을유지하는것이중요합니다.
400 조회
0 추천
2025.12.21 등록
철학자 Matthew Harris는 의식이 본질적으로 기질 의존적(substrate-dependent)이라고 주장한다—즉, 어떤 매체에서든 복제될 수 있는 계산적 패턴이라기보다는 특정한 생물학적 물질과 진화적 역사로부터 발생한다는 것이다.Harris는 인간의 의식이 호르몬 시스템, 감각 통합, 그리고 결정적으로 생각을 자아와 구별되는 것으로 인식할 수 있게 하는 메타인지적 자기 참조를 포함한 진화된 생물학적 과정들로부터 출현하며, 이는 AI에 의한 기능적 모방을 실제 주관적 경험과 근본적으로 다르게 만든다고 주장한다.이 논쟁은 심화되는 학계의 분열을 반영하고 있으며, Anil Seth와 같은 신경과학자들은 생물학적 기질에 연결된 체화된 예측적 처리를 강조하는 반면, David Chalmers와 같은 기능주의자들은 의식이 기질 독립적이라고 주장하고 있다. 연구자들은 급속한 AI 발전 속에서 의식에 대한 이해가 시급해졌다고 경고하고 있다.
412 조회
0 추천
2025.12.21 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입