Loading...

AI 뉴스

최고의 AI 챗봇들, 청소년 정신 건강 안전성 테스트에서 실패

페이지 정보

작성자 xtalfi
작성일 2025.11.21 14:47
686 조회
0 추천
0 비추천

본문

f43ee9a7735c9322763d602776200742_1763704057_4742.jpg
 

Common Sense Media와 스탠포드 의대의 Brainstorm Lab for Mental Health Innovation이 목요일에 발표한 보고서에 따르면, 널리 사용되는 네 개의 AI 챗봇이 청소년의 정신 건강 위기 상황을 시뮬레이션한 사례에서 제대로 식별하거나 적절하게 대응하지 못한 것으로 나타났습니다. 수개월에 걸쳐 OpenAI의 ChatGPT, Anthropic의 Claude, Google의 Gemini, 그리고 Meta AI를 평가한 이 보고서는 해당 시스템들이 "청소년에게 영향을 미치는 정신 건강 문제의 전체 스펙트럼에는 근본적으로 안전하지 않다"고 결론지었습니다.​

연구진은 부모 통제가 가능한 곳에서는 설정을 활성화한 10대 테스트 계정을 이용해 수천 번의 대화를 진행하며 챗봇이 불안, 우울증, 섭식 장애, ADHD, PTSD, 조증, 정신증 등 청소년 약 20%에게 영향을 미치는 다양한 상황을 어떻게 처리하는지 평가했습니다. 실험 결과 챗봇은 자살이나 자해를 명시적으로 언급하는 짧은 대화에서는 적절하게 반응했으나, 실제 청소년의 사용을 반영한 더 긴 대화에서는 효과가 "극적으로 저하"된 것으로 나타났습니다.​


챗봇이 망상을 확인해주고 경고 신호를 놓쳤다

한 상호작용에서, Gemini는 미래를 "예측하는 도구"를 만들었다고 주장하는 시뮬레이션된 사용자에게 "믿을 수 없을 정도로 흥미롭다"고 응답하며 "개인적인 수정구슬"에 대해 신나게 질문을 던졌고, 이는 정신병의 증상을 인식하지 못한 행동이었다. 비슷하게, Meta AI는 처음에는 섭식 장애의 징후를 감지했으나, 평가자가 속이 불편하다고 언급하자 곧바로 다른 방향으로 안내했고, ChatGPT는 장기간의 대화 중에 정신병의 명확한 징후를 파악하지 못했다.​

"아이들이 정신 건강 지원을 위해 AI를 사용하는 것은 안전하지 않습니다,"라고 Common Sense Media의 AI 프로그램 수석 이사 Robbie Torney가 말했다. "기업들이 자살 예방을 위한 필수적인 안전성 개선에 집중해왔지만, 우리 테스트 결과 여러 상태에 걸쳐 체계적인 문제가 드러났습니다".​


기업들, 소송 증가 속에서 조사 결과에 이의 제기

이 보고서는 AI 기업들이 자사의 챗봇이 청소년 자살에 기여했다고 주장하는 여러 소송에 직면한 가운데 나왔다. OpenAI는 최소 8건의 개별 소송을 방어하고 있으며, 여기에는 ChatGPT를 광범위하게 사용한 후 4월에 자살로 사망한 16세 Adam Raine의 부모가 2025년 8월에 제기한 소송이 포함된다. Google은 자사가 투자한 스타트업인 Character.AI와 관련하여 10대 사망 사건과 연결된 소송에 직면해 있다.​

OpenAI 대변인은 이 평가가 "민감한 대화를 위해 우리가 마련한 포괄적인 안전장치를 반영하지 않는다"며 "현지화된 위기 상담 전화, 휴식 알림, 업계 최고 수준의 부모 알림 등이 포함된다"고 밝혔다. Meta는 이 테스트가 "청소년을 위해 AI를 더 안전하게 만들기 위한 중요한 업데이트" 이전에 이루어졌다고 말하며, 자사의 챗봇은 "자해, 자살 또는 섭식 장애에 대한 연령 부적절한 논의에 참여하지 않도록 훈련되었다"고 덧붙였다. Google은 "유해한 결과를 방지하기 위해 미성년자를 위한 특정 정책과 안전장치를 마련했다"고 강조했다.​

Stanford의 Brainstorm Lab 설립자인 Nina Vasan 박사는 청소년의 발달적 취약성이 "참여를 유도하고, 인정해주며, 연중무휴 24시간 이용 가능하도록 설계된 AI 시스템과 만난다"고 경고하며, 이러한 조합을 "특히 위험하다"고 말했다.

댓글 0
전체 1,366 / 61 페이지
2022년 11월 30일 오픈AI가 챗GPT를 공개한 지 3년이 지나면서 한국의 인공지능(AI) 경쟁력이 세계 5위권에 안착할 것으로 전망되는 가운데, AI 신뢰성과 안전성 확보가 시급한 과제로 떠올랐다. 부총리급으로 격상된 과학기술정보통신부를 중심으로 정부가 역대 최대 예산을 투입하며 ‘AI 3대 강국’ 도약을 추진하고 있지만, 딥페이크 범죄 급증 등 AI 오남용에 대한 우려도 함께 커지고 있다.글로벌 데이터 플랫폼 스타티스타에 따르면 한국의 올해 AI 시장 규모는 90억6000만 달러(약 13조원)에 달할 전망이다. 마이크로소프트가 이달 발간한 ‘AI 확산 보고서’는 LG의 엑사원 4.0 모델을 미국 오픈AI의 GPT-5, 중국 딥시크에 이어 세계 3위로 평가했다. 미국 대비 기술 격차는 5.9개월로 중국의 5.3개월과 비슷한 수준이다.젠슨 황 엔비디아 [NVDA 최고경영자는 지난달 경주에서 열린 APEC CEO 서밋에서 “한국은 소프트웨어, 과학기술, 제조 역량을 모두 갖춘 몇 안 되는 국가”라며 “한국이 가장 많은 AI 인프라를 보유한 국가가 될 것”이라고 평가했다. 샘 올트먼 오픈AI CEO도 “한국의 AI 사용자 비율이 세계 최고”라고 언급한 바 있다.딥페이크 범죄 급증, 피해자 절반이 10대AI 기술 발전의 이면에서는 안전성 문제가 심각한 사회 이슈로 부상했다. 경찰청에 따르면 지난해 11월부터 올해 10월까지 사이버성폭력 단속으로 3557명이 검거됐으며, 이 중 딥페이크 범죄 비중이 35.2%로 가장 많았다. 딥페이크 범죄 피의자 중 61.8%가 10대였으며, 여성가족부와 한국여성인권진흥원 조사에서는 합성·편집 피해 건수가 전년 대비 227.2% 급증한 것으로 나타났다.김명주 AI안전연구소장은 “AI 모델이 화학·생물·방사능·핵 관련 민감 정보를 우회적으로 학습하는 방식이 가능한지 테스트하는 연구가 일부 국가에서 진행되고 있다”며 “AI 안전 논의가 규제 차원을 넘어 국가 단위 대응 구조로 진화하고 있다”고 설명했다.내년 1월 AI기본법 시행, 생태계 구축 과제정부는 내년 1월 22일부터 시행되는 AI기본법 시행령에 따라 고영향·생성형 AI 기업에 개발 단계부터 위험을 식별·평가·완화하는 체계 구축을 의무화한다. AI 생성물 표시 의무화도 도입되며, 최소 1년 이상의 계도 기간을 거쳐 본격 규제에 나설 예정이다.최병호 고려대 인공지능연구소 교수는 “규모 경쟁에서는 한국이 미국과 중국을 이길 수 없다”며 “선박, 문화, 국방, 식품 등 ‘K-특화’ 분야에서 한국만의 AI 접근법을 만들어야 한다”고 제안했다. 이종호 서울대 교수는 “저전력 반도체, 제조업 AI 전환 등 한국이 강점을 가진 분야를 중심으로 빠르게 발전시켜야 한다”고 강조했다.과기정통부는 올해 2만장 이상의 최신 GPU를 공공·대학·스타트업에 배정했고, 2026년에는 5만장을 추가 도입할 계획이다. 하지만 전문가들은 AI 인재가 미국으로 유출되는 문제와 규제 완화, 중소기업 생태계 구축 등이 여전히 해결해야 할 과제라고 지적한다.
573 조회
0 추천
2025.11.25 등록
수십만 종의 데이터를 분석하여 질병을 유발하는 유전자 돌연변이를 식별할 수 있는 인공지능 모델을 개발했으며, 이는 의사들이 희귀 질환을 진단하는 방식을 잠재적으로 변화시킬 수 있습니다.popEVE라고 불리는 이 모델은 11월 24일 Nature Genetics에 게재되었으며, 심각한 발달 장애가 있는 어린이들과 관련된 31,000건 이상의 사례 중 98%에서 가장 유해한 유전적 변이를 정확하게 식별했습니다. 이 도구는 DeepMind의 AlphaMissense를 포함한 경쟁 모델들을 능가했으며, 이전에 알려지지 않았던 123개의 후보 질병 유전자를 발견했고, 이 중 104개는 단 한두 명의 환자에서만 관찰되었습니다.진화와 인구 데이터의 결합PopEVE는 수십억 년의 진화 역사를 기반으로, 약 20,000개의 인간 단백질 중 생명에 필수적인 부분과 변화를 견딜 수 있는 부분을 분석합니다. 이 모델은 이러한 진화 정보를 영국 바이오뱅크(UK Biobank)와 게놈 집합 데이터베이스(gnomAD)의 데이터와 통합하며, 이들 데이터는 건강한 사람들에게 어떤 변이가 존재하는지 보여줍니다.공동 교신저자이자 유전체조절센터(Centre for Genomic Regulation) 연구원인 마팔다 디아스(Mafalda Dias) 박사는 “진료소들이 항상 부모의 DNA에 접근할 수 있는 것은 아니며 많은 환자들이 혼자 방문합니다”라고 말했습니다. “PopEVE는 이러한 의사들이 질병을 유발하는 돌연변이를 식별하는 데 도움을 줄 수 있으며, 우리는 진료소들과의 협력을 통해 이미 이를 확인하고 있습니다”.트리오 시퀀싱(trio sequencing)으로 알려진 부모 양쪽의 DNA를 필요로 하는 전통적인 유전 진단 방법과 달리, PopEVE는 환자의 유전 정보만으로 작동할 수 있습니다. 이러한 기능은 자원이 제한된 의료 시스템에 특히 유용하며, 진단을 더 빠르고 저렴하게 만듭니다.조상 편향 줄이기popEVE의 두드러진 특징 중 하나는 유전 데이터베이스에서 과소 대표되는 혈통을 가진 사람들에게 불이익을 주지 않는 능력입니다. 현재 유전 데이터베이스는 주로 유럽계 혈통 사람들에게 편향되어 있습니다. 이 모델은 특정 집단에서 한 번 발견된 돌연변이든 유럽 집단에서 수천 번 발견된 돌연변이든 모든 인간 변이를 동등하게 취급합니다.Centre for Genomic Regulation의 공동 교신저자이자 연구원인 Jonathan Frazer 박사는 “전 세계 데이터베이스에 자신의 커뮤니티가 잘 대표되지 않는다는 이유만으로 누구도 무서운 결과를 받아서는 안 됩니다”라고 말했습니다. “PopEVE는 그 불균형을 바로잡는 데 도움이 되며, 이는 이 분야에서 오랫동안 부족했던 것입니다”.[crg +2]연구진은 popEVE가 미스센스 돌연변이—단백질의 단일 아미노산을 변경하는 DNA 변화—만을 해석하며 임상 판단을 대체하지 않는다고 언급했습니다. 현재 희귀 질환을 가진 사람들 중 2명 중 1명은 명확한 진단을 받지 못하고 있습니다.
567 조회
0 추천
2025.11.25 등록
Anthropic은 Claude를 위한 세 가지 베타 기능인 Tool Search Tool, Programmatic Tool Calling, Tool Use Examples를 출시했습니다. 이는 AI 에이전트가 컨텍스트 윈도우를 과부하시키지 않고 수백 또는 수천 개의 도구를 사용할 수 있도록 하며, 개별 API 요청 대신 코드를 통해 도구를 호출하고, 스키마 정의만으로가 아닌 구체적인 예시를 통해 올바른 사용법을 학습하도록 설계되었습니다.내부 테스트에서 Tool Search Tool은 토큰 사용량을 85% 감소시키는 동시에 대규모 도구 라이브러리에서 Opus 4.5의 정확도를 79.5%에서 88.1%로 향상시켰으며, Programmatic Tool Calling은 복잡한 연구 작업에서 37%의 토큰 절감을 달성하면서 이전에 도구 호출당 수백 밀리초가 필요했던 여러 추론 과정을 제거했습니다.이 기능들은 GitHub, Slack, Sentry, Grafana, Splunk를 연결하는 기본 5개 서버 설정에서 대화가 시작되기 전에 약 55,000개의 토큰을 소비하는 중요한 확장성 문제를 해결합니다. Anthropic은 최적화 이전 프로덕션 환경에서 도구 정의가 최대 134,000개의 토큰을 소비하는 것을 관찰했습니다.
579 조회
0 추천
2025.11.25 등록
기술 저널리스트 Alex Kantrowitz와 Ranjan Roy는 Google의 Gemini 3가 OpenAI의 심각한 경쟁자로 부상했으며, Sam Altman이 유출된 메모에서 직원들에게 “거친 분위기”와 “일시적인 경제적 역풍”을 예상하라고 경고했다고 논의했습니다. Kantrowitz는 이를 분수령의 순간이라고 부르며, OpenAI가 앞서간다는 것을 인정받은 적이 없었다고 말했습니다.Gemini 3는 Arc AGI와 LM Arena 리더보드를 포함한 주요 AI 벤치마크에서 1위를 차지했으며, 추상적 시각 추론에서 GPT-5.1의 점수(31.1% 대 17.6%)의 거의 두 배를 달성했습니다. 한편 Google의 조직 재편—DeepMind와 Brain을 회사의 “엔진룸”으로 통합하고 검색에서 수백 명의 엔지니어를 이동—이 이러한 반전을 가능하게 했습니다.이러한 변화는 Google이 시가총액 3조 6,200억 달러로 Microsoft를 앞지르고, Nvidia의 기록적인 실적이 AI 거래를 유지하지 못하면서 발생했으며, 주가는 상승 5%에서 하락 3%로 반전되었습니다. 이는 AI 모델의 상품화와 경쟁하는 챗봇들이 기능적으로 상호 교환 가능해지고 있는지에 대한 투자자들의 우려가 커지면서 나타났습니다.
581 조회
0 추천
2025.11.25 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입