Loading...

AI 뉴스

최고의 AI 챗봇들, 청소년 정신 건강 안전성 테스트에서 실패

페이지 정보

작성자 xtalfi
작성일 2025.11.21 14:47
642 조회
0 추천
0 비추천

본문

f43ee9a7735c9322763d602776200742_1763704057_4742.jpg
 

Common Sense Media와 스탠포드 의대의 Brainstorm Lab for Mental Health Innovation이 목요일에 발표한 보고서에 따르면, 널리 사용되는 네 개의 AI 챗봇이 청소년의 정신 건강 위기 상황을 시뮬레이션한 사례에서 제대로 식별하거나 적절하게 대응하지 못한 것으로 나타났습니다. 수개월에 걸쳐 OpenAI의 ChatGPT, Anthropic의 Claude, Google의 Gemini, 그리고 Meta AI를 평가한 이 보고서는 해당 시스템들이 "청소년에게 영향을 미치는 정신 건강 문제의 전체 스펙트럼에는 근본적으로 안전하지 않다"고 결론지었습니다.​

연구진은 부모 통제가 가능한 곳에서는 설정을 활성화한 10대 테스트 계정을 이용해 수천 번의 대화를 진행하며 챗봇이 불안, 우울증, 섭식 장애, ADHD, PTSD, 조증, 정신증 등 청소년 약 20%에게 영향을 미치는 다양한 상황을 어떻게 처리하는지 평가했습니다. 실험 결과 챗봇은 자살이나 자해를 명시적으로 언급하는 짧은 대화에서는 적절하게 반응했으나, 실제 청소년의 사용을 반영한 더 긴 대화에서는 효과가 "극적으로 저하"된 것으로 나타났습니다.​


챗봇이 망상을 확인해주고 경고 신호를 놓쳤다

한 상호작용에서, Gemini는 미래를 "예측하는 도구"를 만들었다고 주장하는 시뮬레이션된 사용자에게 "믿을 수 없을 정도로 흥미롭다"고 응답하며 "개인적인 수정구슬"에 대해 신나게 질문을 던졌고, 이는 정신병의 증상을 인식하지 못한 행동이었다. 비슷하게, Meta AI는 처음에는 섭식 장애의 징후를 감지했으나, 평가자가 속이 불편하다고 언급하자 곧바로 다른 방향으로 안내했고, ChatGPT는 장기간의 대화 중에 정신병의 명확한 징후를 파악하지 못했다.​

"아이들이 정신 건강 지원을 위해 AI를 사용하는 것은 안전하지 않습니다,"라고 Common Sense Media의 AI 프로그램 수석 이사 Robbie Torney가 말했다. "기업들이 자살 예방을 위한 필수적인 안전성 개선에 집중해왔지만, 우리 테스트 결과 여러 상태에 걸쳐 체계적인 문제가 드러났습니다".​


기업들, 소송 증가 속에서 조사 결과에 이의 제기

이 보고서는 AI 기업들이 자사의 챗봇이 청소년 자살에 기여했다고 주장하는 여러 소송에 직면한 가운데 나왔다. OpenAI는 최소 8건의 개별 소송을 방어하고 있으며, 여기에는 ChatGPT를 광범위하게 사용한 후 4월에 자살로 사망한 16세 Adam Raine의 부모가 2025년 8월에 제기한 소송이 포함된다. Google은 자사가 투자한 스타트업인 Character.AI와 관련하여 10대 사망 사건과 연결된 소송에 직면해 있다.​

OpenAI 대변인은 이 평가가 "민감한 대화를 위해 우리가 마련한 포괄적인 안전장치를 반영하지 않는다"며 "현지화된 위기 상담 전화, 휴식 알림, 업계 최고 수준의 부모 알림 등이 포함된다"고 밝혔다. Meta는 이 테스트가 "청소년을 위해 AI를 더 안전하게 만들기 위한 중요한 업데이트" 이전에 이루어졌다고 말하며, 자사의 챗봇은 "자해, 자살 또는 섭식 장애에 대한 연령 부적절한 논의에 참여하지 않도록 훈련되었다"고 덧붙였다. Google은 "유해한 결과를 방지하기 위해 미성년자를 위한 특정 정책과 안전장치를 마련했다"고 강조했다.​

Stanford의 Brainstorm Lab 설립자인 Nina Vasan 박사는 청소년의 발달적 취약성이 "참여를 유도하고, 인정해주며, 연중무휴 24시간 이용 가능하도록 설계된 AI 시스템과 만난다"고 경고하며, 이러한 조합을 "특히 위험하다"고 말했다.

댓글 0
전체 1,366 / 81 페이지
알리바바는Qwen대규모언어모델을매우허가친화적인오픈소스라이선스로공개함으로써궁극적으로자사의클라우드컴퓨팅및전자상거래비즈니스에이로운광범위한AI도입을이끌것이라고전망하고있으며,이는회사의AI전략에대한BismarckBrief의분석에근거한것이다.​에어비앤비CEO브라이언체스키는자사가고객서비스에Qwen모델을적극적으로활용한다고밝혔으며,그이유로"우수함","빠른속도","합리적인비용"을꼽았고,플랫폼통합요구사항에"완전히준비되지않은"ChatGPT대신선택했다고설명했다.​Qwen오픈소스모델은전세계적으로6억회이상다운로드됐으며,현재아마존,애플등미국대형기업의AI시스템에도적용되어,알리바바가세계최대오픈소스AI생태계를구축하게되었다.
623 조회
0 추천
2025.11.21 등록
Microsoft는 파일 정리 및 이메일 전송과 같은 작업을 자동화하도록 설계된 새로운 Copilot Actions AI 기능이 장치를 손상시키고 민감한 데이터를 훔칠 수 있다는 경고를 발표했으며, 이는 빅테크 기업들이 보안 위험을 완전히 이해하기 전에 기능을 출시한다는 비판을 다시 불러일으켰습니다.회사는 특히 공격자가 웹사이트, 이력서 또는 이메일에 악의적인 명령을 삽입할 수 있는 프롬프트 인젝션 취약점에 대해 사용자들에게 경고했으며, 대규모 언어 모델은 이를 정당한 사용자 지시와 구별할 수 없습니다.Open Worldwide Application Security Project는 2025년 LLM 애플리케이션 상위 10대 보안 위험에서 프롬프트 인젝션을 1위 보안 위험으로 선정했으며, 이는 AI 에이전트가 제어 명령과 사용자 데이터를 구분하지 못하는 근본적인 무능력에 대한 업계 전반의 우려를 반영합니다.
651 조회
0 추천
2025.11.20 등록
Micropolis Holding Co.는 11월 18일 NVIDIA Orin SOC를 탑재한 IP67 등급의 엣지 컴퓨팅 유닛을 출시하여 클라우드 연결 없이도 감시, 객체 감지 및 행동 분석을 위한 온디바이스 AI 처리를 가능하게 했습니다.8GB에서 64GB 구성으로 제공되는 이 견고한 장치는 법 집행, 국경 통제 및 국가 안보 임무를 위해 설계되었으며, 여러 로봇과 센서에 걸쳐 분산 엣지 네트워크로 작동할 수 있습니다[‘.CEO Fareed Aljawhari는 이러한 통합을 통해 Microspot이 “복잡한 AI 모델을 현장에서 즉시 안전하게 처리”할 수 있게 되어, 신뢰성이 타협될 수 없는 중요한 작전에서 실시간 의사결정을 지원한다고 말했습니다.
664 조회
0 추천
2025.11.20 등록
1950~60년대 미니컴퓨터 붐은 혁신적 반도체 기술의 발전과 소형화 바람을 타고 수많은 신생 기업과 투자 자본이 단일 산업으로 몰렸던 시기였다. 기업들은 앞다투어 성장했지만, 대부분은 처절한 실패로 끝났고 수십억 달러의 손실이 발생하면서 시장이 한 차례 정리되었다. 이 과정에서 궁극적으로 몇몇 상장기업이 20년 가까운 세월 동안 살아남아 산업을 대표하게 되었다.오늘날 AI 붐 역시 유사하게 폭발적 자본 유입과 스타트업 창업이 반복되고 있다. 하지만 과거와 달리 주요 AI 기업들은 IPO(상장) 대신 비상장 상태에서 거대 자본을 유치하며 급격한 가치 상승을 경험 중이다. 그 결과 일반 투자자들은 직접 투자할 기회가 적고, 기업가치 역시 6~9개월마다 두 배 가까이 오르는 등 민간 시장 중심의 과열 양상을 보인다.Commoncog는 단기 버블 여부를 논하기보다는, 기술 산업에서 반복되는 진입-도태 메커니즘과 시간이 걸리더라도 결국 산업 구조가 단단해지는 과정을 주목해야 한다고 강조한다. 미니컴퓨터 붐처럼, AI 붐도 필연적으로 실패와 도태, 점진적 구조 변화를 거치며 장기적으로는 견고한 성장 기반을 남길 것이라는 점이 반복적으로 제시된다.
671 조회
0 추천
2025.11.20 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입