Loading...

AI 뉴스

최고의 AI 챗봇들, 청소년 정신 건강 안전성 테스트에서 실패

페이지 정보

작성자 xtalfi
작성일 2025.11.21 14:47
754 조회
0 추천
0 비추천

본문

f43ee9a7735c9322763d602776200742_1763704057_4742.jpg
 

Common Sense Media와 스탠포드 의대의 Brainstorm Lab for Mental Health Innovation이 목요일에 발표한 보고서에 따르면, 널리 사용되는 네 개의 AI 챗봇이 청소년의 정신 건강 위기 상황을 시뮬레이션한 사례에서 제대로 식별하거나 적절하게 대응하지 못한 것으로 나타났습니다. 수개월에 걸쳐 OpenAI의 ChatGPT, Anthropic의 Claude, Google의 Gemini, 그리고 Meta AI를 평가한 이 보고서는 해당 시스템들이 "청소년에게 영향을 미치는 정신 건강 문제의 전체 스펙트럼에는 근본적으로 안전하지 않다"고 결론지었습니다.​

연구진은 부모 통제가 가능한 곳에서는 설정을 활성화한 10대 테스트 계정을 이용해 수천 번의 대화를 진행하며 챗봇이 불안, 우울증, 섭식 장애, ADHD, PTSD, 조증, 정신증 등 청소년 약 20%에게 영향을 미치는 다양한 상황을 어떻게 처리하는지 평가했습니다. 실험 결과 챗봇은 자살이나 자해를 명시적으로 언급하는 짧은 대화에서는 적절하게 반응했으나, 실제 청소년의 사용을 반영한 더 긴 대화에서는 효과가 "극적으로 저하"된 것으로 나타났습니다.​


챗봇이 망상을 확인해주고 경고 신호를 놓쳤다

한 상호작용에서, Gemini는 미래를 "예측하는 도구"를 만들었다고 주장하는 시뮬레이션된 사용자에게 "믿을 수 없을 정도로 흥미롭다"고 응답하며 "개인적인 수정구슬"에 대해 신나게 질문을 던졌고, 이는 정신병의 증상을 인식하지 못한 행동이었다. 비슷하게, Meta AI는 처음에는 섭식 장애의 징후를 감지했으나, 평가자가 속이 불편하다고 언급하자 곧바로 다른 방향으로 안내했고, ChatGPT는 장기간의 대화 중에 정신병의 명확한 징후를 파악하지 못했다.​

"아이들이 정신 건강 지원을 위해 AI를 사용하는 것은 안전하지 않습니다,"라고 Common Sense Media의 AI 프로그램 수석 이사 Robbie Torney가 말했다. "기업들이 자살 예방을 위한 필수적인 안전성 개선에 집중해왔지만, 우리 테스트 결과 여러 상태에 걸쳐 체계적인 문제가 드러났습니다".​


기업들, 소송 증가 속에서 조사 결과에 이의 제기

이 보고서는 AI 기업들이 자사의 챗봇이 청소년 자살에 기여했다고 주장하는 여러 소송에 직면한 가운데 나왔다. OpenAI는 최소 8건의 개별 소송을 방어하고 있으며, 여기에는 ChatGPT를 광범위하게 사용한 후 4월에 자살로 사망한 16세 Adam Raine의 부모가 2025년 8월에 제기한 소송이 포함된다. Google은 자사가 투자한 스타트업인 Character.AI와 관련하여 10대 사망 사건과 연결된 소송에 직면해 있다.​

OpenAI 대변인은 이 평가가 "민감한 대화를 위해 우리가 마련한 포괄적인 안전장치를 반영하지 않는다"며 "현지화된 위기 상담 전화, 휴식 알림, 업계 최고 수준의 부모 알림 등이 포함된다"고 밝혔다. Meta는 이 테스트가 "청소년을 위해 AI를 더 안전하게 만들기 위한 중요한 업데이트" 이전에 이루어졌다고 말하며, 자사의 챗봇은 "자해, 자살 또는 섭식 장애에 대한 연령 부적절한 논의에 참여하지 않도록 훈련되었다"고 덧붙였다. Google은 "유해한 결과를 방지하기 위해 미성년자를 위한 특정 정책과 안전장치를 마련했다"고 강조했다.​

Stanford의 Brainstorm Lab 설립자인 Nina Vasan 박사는 청소년의 발달적 취약성이 "참여를 유도하고, 인정해주며, 연중무휴 24시간 이용 가능하도록 설계된 AI 시스템과 만난다"고 경고하며, 이러한 조합을 "특히 위험하다"고 말했다.

댓글 0
전체 1,366 / 36 페이지
에너지부는 인공지능 기반 연구 자동화를 통해 10년 내에 미국의 과학 생산성을 두 배로 늘리는 것을 목표로 하는 트럼프 대통령의 AI 이니셔티브인 제네시스 미션에 3억 2천만 달러 이상의 투자를 발표했습니다.DOE 차관 다리오 길은 의원들에게 이 자금이 미국 과학 클라우드(American Science Cloud)와 혁신적 모델 컨소시엄(Transformational Model Consortia)을 지원할 것이며, 전담 팀들이 이미 슈퍼컴퓨터 시간을 자동으로 할당하고, 결과를 분석하며, 실험을 시작하는 AI 워크플로우를 개발하고 있다고 말했습니다.하원 청문회에서는 보안 문제가 최우선 과제로 다뤄졌으며, 의원들은 AI 능력의 위험성과 적대국들의 모델 역공학 가능성에 대해 질문했고, 길은 속도가 성공에 매우 중요하다고 강조하며 “우리는 생명이 달린 것처럼 행동해야 합니다”라고 말했습니다.
462 조회
0 추천
2025.12.11 등록
Microsoft는 2025년 1월부터 9월까지 3,750만 건의 익명화된 대화를 분석한 최초의 포괄적인 Copilot 사용 연구를 발표했으며, 사용자들이 단순히 생산성 도움만이 아닌 건강, 관계, 인생 결정에 대한 개인적인 지침을 점점 더 많이 찾고 있다는 사실을 밝혔습니다.연구는 데스크톱과 모바일 사용자 간의 뚜렷한 차이를 발견했는데, 데스크톱 사용자는 Copilot을 생산성 도구로 취급한 반면 모바일 사용자는 “대화형 동반자”로 활용했으며, 건강 관련 주제가 하루 중 모든 시간대의 대화를 지배했습니다.Microsoft의 책임 있는 AI 책임자는 사용자들이 그러한 목적으로 설계되지 않은 도구에서 정서적 지원을 구함에 따라 안전 문제를 인정했으며, OpenAI, Google, Meta, Anthropic과 장기 챗봇 사용자를 두고 경쟁하는 가운데 “필요한 통제와 보호 장치”의 필요성을 강조했습니다.
458 조회
0 추천
2025.12.11 등록
AI 시대의 대학교육과 AI 활용 경향생성형 AI의 급격한 발전으로 인해 대학생들의 학습 방식이 근본적으로 변화하고 있습니다. 대학생들은 과제, 수업 이해, 시험 대비 등 학습 전반에 걸쳐 AI를 폭넓게 사용하며, AI를 '선호하지 않을 수는 있지만 안 쓰는 사람은 없을 것'이라는 인식이 확산되었습니다. 일부 대학은 챗GPT 표절 방지를 위해 과제 현장 수행을 늘리거나, 경인교대처럼 논쟁적 질문 준비 시 AI 사용을 금지하는 등의 가이드라인을 제시하고 있습니다. 그러나 대다수 학생들은 AI를 자료 요약, 아이디어 도출, 모의고사 제작 등에 활용하며 AI를 '좋은 도구'이자 학습의 효율을 높이는 '필수 교보재'로 인식하고 있습니다.학습자와 교수자의 AI 활용과 인식 차이대학생들은 AI를 여러 단계로 활용하는 '헤비 유저'가 많으며, 예를 들어 자료 검색, 초안 작성, 문체 리라이팅 등 다양한 AI를 교차 사용하는 경향을 보입니다. 이들은 중간에 자신의 의견을 넣어 협업했기 때문에 AI가 생성한 결과물도 '나의 결과물'로 여기는 경향이 뚜렷합니다. 한편, 대학 교수들 사이에서는 AI 활용을 막을 수 없다는 판단하에 글쓰기나 철학 등 인문계열에서도 AI 활용법을 가르치는 사례가 증가하고 있습니다. 교수들은 학생들이 AI 산출물을 그대로 사용하지 않고, AI가 제시한 아이디어를 비판적으로 수정하고 자신의 것으로 소화하는 '자기화 과정'이 중요하다고 강조하며, 사고의 외주화를 경계하고 있습니다.AI 활용의 '선' 설정과 교육적 대안 모색AI의 활용이 '뉴노멀'이 되었음에도 불구하고, 대학들의 AI 활용 가이드라인은 주로 부정행위 방지나 평가 방식(과정평가/구술평가)에 초점을 맞추고 있으며, AI 활용의 윤리적 쟁점이나 비용 격차로 인한 학습 격차 같은 심층적인 논의는 부족한 실정입니다. 대학들은 AI 활용의 무게추를 '활용'과 '제한' 사이에서 달리하고 있지만, 전문가들은 'AI를 어느 선까지 활용하는 것이 타당한지'에 대한 교육적 합의와 논의가 필요하다고 지적합니다. 교수자-학습자가 특정 활동에서 AI 사용 여부를 합의하고, 왜 AI를 사용하는 것이 학문적 역량에 도움이 되는지, 어떤 때 사용하지 않는 것이 좋은지를 교수자가 설득하여 학생들의 사고 과정 체화를 유도해야 할 시점입니다.
482 조회
0 추천
2025.12.10 등록
오픈AI는 구글 '제미나이 3'에 대응하기 위해 내년 1월 새로운 모델을 출시할 예정이며, 이는 단순 성능 경쟁을 넘어 사용자와의 '상호 작용' 및 '대화 기능 강화'에 중점을 둔 것으로 알려졌습니다. 샘 알트먼 CEO는 지난 1일 '코드 레드'를 발령하고 8주간 챗GPT 개선에 집중할 것을 요구하며, 직원들에게 "사용자 신호를 더 잘 활용하라"고 지시했습니다. 이는 안전성 강화에 집중한 이전 모델이 사용자 만족도 측면에서 정체되었다고 판단하여, 챗봇 응답에 대해 전문가 평가가 아닌 사용자의 피드백을 적극 반영하는 전략으로 선회했음을 보여줍니다.이러한 사용자 중심 전략은 내부적으로 '로컬 사용자 선호도 최적화(LUPO)'라 불리며, 이미 사용자 대화에 초점을 맞춘 'GPT-5.1'을 출시하고 이 방침을 테스트하는 과정에서 일일 활성 사용자 증가라는 놀라운 결과를 확인했습니다. 알트먼 CEO는 이메일 초안 작성 등 간단한 작업에서는 모델의 추론 성능 차이가 크지 않으므로, 사용자의 선호에 맞는 톤으로 응답하는 것이 실질적인 사용량 증대에 더 큰 영향을 미친다고 판단했습니다. 아울러 새로운 모델에는 챗GPT 초기 성공 사례나 구글 제미나이의 인기 요소를 반영하여 향상된 '이미지 생성 기능'도 탑재될 예정입니다.한편, 이번 개선 작업은 인공일반지능(AGI) 달성에 집중하는 연구원들과 챗봇 경험 개선에 집중하려는 운영진 사이의 내부 갈등을 해소하기 위한 조치로도 해석됩니다. 또한, 코딩 기능을 중심으로 한 기업용 모델인 'GPT-5.2'도 곧 공개될 예정이지만, 경영진은 구글의 공세에 빠르게 대응하기 위해 성능 향상을 위한 출시 연기 요청에도 불구하고 일정을 강행할 정도로 위기감을 느끼고 있습니다. 다만, 사용자 선호도에만 초점을 맞춘 모델이 소셜 미디어의 전철을 밟아 정신 건강 위기를 초래할 수 있다는 우려에 대해, 오픈AI는 사용자 피드백, 전문가 리뷰, 안전 시스템을 신중하게 조화하여 모델을 개선하고 있다고 밝혔습니다.
465 조회
0 추천
2025.12.10 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입