AI 뉴스

최고의 AI 챗봇들, 청소년 정신 건강 안전성 테스트에서 실패

페이지 정보

작성자 xtalfi
작성일 2025.11.21 14:47
771 조회
0 추천
0 비추천

본문

f43ee9a7735c9322763d602776200742_1763704057_4742.jpg
 

Common Sense Media와 스탠포드 의대의 Brainstorm Lab for Mental Health Innovation이 목요일에 발표한 보고서에 따르면, 널리 사용되는 네 개의 AI 챗봇이 청소년의 정신 건강 위기 상황을 시뮬레이션한 사례에서 제대로 식별하거나 적절하게 대응하지 못한 것으로 나타났습니다. 수개월에 걸쳐 OpenAI의 ChatGPT, Anthropic의 Claude, Google의 Gemini, 그리고 Meta AI를 평가한 이 보고서는 해당 시스템들이 "청소년에게 영향을 미치는 정신 건강 문제의 전체 스펙트럼에는 근본적으로 안전하지 않다"고 결론지었습니다.​

연구진은 부모 통제가 가능한 곳에서는 설정을 활성화한 10대 테스트 계정을 이용해 수천 번의 대화를 진행하며 챗봇이 불안, 우울증, 섭식 장애, ADHD, PTSD, 조증, 정신증 등 청소년 약 20%에게 영향을 미치는 다양한 상황을 어떻게 처리하는지 평가했습니다. 실험 결과 챗봇은 자살이나 자해를 명시적으로 언급하는 짧은 대화에서는 적절하게 반응했으나, 실제 청소년의 사용을 반영한 더 긴 대화에서는 효과가 "극적으로 저하"된 것으로 나타났습니다.​


챗봇이 망상을 확인해주고 경고 신호를 놓쳤다

한 상호작용에서, Gemini는 미래를 "예측하는 도구"를 만들었다고 주장하는 시뮬레이션된 사용자에게 "믿을 수 없을 정도로 흥미롭다"고 응답하며 "개인적인 수정구슬"에 대해 신나게 질문을 던졌고, 이는 정신병의 증상을 인식하지 못한 행동이었다. 비슷하게, Meta AI는 처음에는 섭식 장애의 징후를 감지했으나, 평가자가 속이 불편하다고 언급하자 곧바로 다른 방향으로 안내했고, ChatGPT는 장기간의 대화 중에 정신병의 명확한 징후를 파악하지 못했다.​

"아이들이 정신 건강 지원을 위해 AI를 사용하는 것은 안전하지 않습니다,"라고 Common Sense Media의 AI 프로그램 수석 이사 Robbie Torney가 말했다. "기업들이 자살 예방을 위한 필수적인 안전성 개선에 집중해왔지만, 우리 테스트 결과 여러 상태에 걸쳐 체계적인 문제가 드러났습니다".​


기업들, 소송 증가 속에서 조사 결과에 이의 제기

이 보고서는 AI 기업들이 자사의 챗봇이 청소년 자살에 기여했다고 주장하는 여러 소송에 직면한 가운데 나왔다. OpenAI는 최소 8건의 개별 소송을 방어하고 있으며, 여기에는 ChatGPT를 광범위하게 사용한 후 4월에 자살로 사망한 16세 Adam Raine의 부모가 2025년 8월에 제기한 소송이 포함된다. Google은 자사가 투자한 스타트업인 Character.AI와 관련하여 10대 사망 사건과 연결된 소송에 직면해 있다.​

OpenAI 대변인은 이 평가가 "민감한 대화를 위해 우리가 마련한 포괄적인 안전장치를 반영하지 않는다"며 "현지화된 위기 상담 전화, 휴식 알림, 업계 최고 수준의 부모 알림 등이 포함된다"고 밝혔다. Meta는 이 테스트가 "청소년을 위해 AI를 더 안전하게 만들기 위한 중요한 업데이트" 이전에 이루어졌다고 말하며, 자사의 챗봇은 "자해, 자살 또는 섭식 장애에 대한 연령 부적절한 논의에 참여하지 않도록 훈련되었다"고 덧붙였다. Google은 "유해한 결과를 방지하기 위해 미성년자를 위한 특정 정책과 안전장치를 마련했다"고 강조했다.​

Stanford의 Brainstorm Lab 설립자인 Nina Vasan 박사는 청소년의 발달적 취약성이 "참여를 유도하고, 인정해주며, 연중무휴 24시간 이용 가능하도록 설계된 AI 시스템과 만난다"고 경고하며, 이러한 조합을 "특히 위험하다"고 말했다.

댓글 0
전체 1,366 / 26 페이지
OpenAI는 이번 주에 ChatGPT 사용자가 AI 어시스턴트의 대화 스타일을 미세 조정할 수 있는 새로운 맞춤화 기능을 출시했습니다. 여기에는 따뜻함, 열정, 이모지 사용에 대한 조정이 포함됩니다. 앱의 개인화 설정을 통해 사용할 수 있는 이 컨트롤은 사용자가 자신의 선호도에 맞게 상호작용을 조정할 수 있도록 하는 회사의 최신 노력을 나타냅니다.이번 업데이트를 통해 사용자는 특정 특성을 “더 많이” 또는 “더 적게” 원하는지 선택하거나 표준 기본 설정을 유지할 수 있습니다. 사용자는 또한 ChatGPT가 헤더나 목록과 같은 서식 요소를 응답에 얼마나 자주 포함하는지 제어할 수 있습니다. 새로운 기능에 액세스하려면 사용자는 메뉴로 이동하여 프로필을 선택한 다음 개인화를 선택하고 “특성 추가”를 선택합니다.향상된 이메일 작성 기능성격 제어 기능과 함께 OpenAI는 채팅 인터페이스 내에서 이메일 작성 기능을 개선했습니다. 이제 사용자는 텍스트의 특정 부분을 강조 표시하고 별도의 프롬프트를 통해 어시스턴트를 안내할 필요 없이 AI 기반 변경 사항을 직접 요청할 수 있습니다. 이 기능은 사용자가 이메일 클라이언트로 초안을 내보내기 전에 ChatGPT 내에서 이메일 텍스트를 업데이트하고 서식을 지정할 수 있는 작성 블록을 도입합니다.맥락과 경쟁개인화 기능은 OpenAI가 2025년 11월 GPT-5.1을 출시하면서 “전문적,” “친근한,” “독특한”과 같은 옵션과 함께 도입한 성격 프리셋에 대한 초기 작업을 기반으로 합니다. 11월 업데이트에서는 이전 버전이 너무 형식적이라는 사용자 피드백에 따라 모델의 기본 톤을 더 따뜻하고 대화적으로 만들었습니다.이번 출시 시점은 OpenAI가 Google 및 Anthropic과 같은 경쟁사들로부터 치열한 경쟁에 직면하고 있는 시기와 맞물려 있으며, 이로 인해 CEO Sam Altman은 이달 초 “코드 레드”를 선언하고 ChatGPT 개선을 위해 자원을 재배치했습니다. 회사는 최근 Google의 Gemini 3에 대응하기 위해 12월 11일 GPT-5.2를 출시했습니다.
447 조회
0 추천
2025.12.21 등록
이번 주에 발표된 획기적인 연구에 따르면, 기술이 빠르게 발전하고 있음에도 불구하고 ChatGPT와 같은 인공지능 시스템은 인간의 글쓰기를 완전히 모방할 수 없는 것으로 드러났다. 인지 능력에 대한 AI의 영향에 대한 우려가 커지는 가운데 발표된 이 연구는, AI가 생성한 산문이 인간 작가와 구별되는 고유한 “스타일 지문(stylistic fingerprint)”을 지니고 있음을 보여준다.유니버시티 칼리지 코크의 제임스 오설리번(Dr. James O’Sullivan)이 이끄는 이번 연구는, 전통적으로 필자 식별에 사용되던 계산 기반 방법인 문체 통계 분석(literary stylometry)을 인간과 AI의 창작 글쓰기를 체계적으로 비교하는 데 처음으로 적용한 사례다. 수백 편의 단편소설을 분석한 결과, 연구진은 AI가 매끄럽고 유창한 문장을 생성하긴 하지만, 매우 좁고 균질한 패턴을 따른다는 사실을 발견했다. 이에 반해 인간 작가들은 개인적 목소리, 창작 의도, 개별적 경험에 의해 형성된 훨씬 더 넓은 문체적 스펙트럼을 보여준다.오설리번은 “ChatGPT가 인간처럼 들리려고 할 때조차 그 글에는 여전히 탐지 가능한 지문이 남아 있으며, 이는 컴퓨터와 사람이 아직은 완전히 같은 스타일로 글을 쓰지 않는다는 점을 시사한다”고 말했다. 네이처(Nature)의 『Humanities and Social Sciences Communications』에 실린 이번 연구 결과에 따르면, GPT-3.5, GPT-4, Llama 70B를 포함한 AI 시스템이 생성한 텍스트는 균질한 패턴을 반영하는 촘촘한 군집으로 모이는 반면, 인간이 쓴 텍스트는 훨씬 더 큰 변이와 개성을 드러낸다.인지 영향에 대한 우려 증가스타일로메트리 연구 결과는 AI가 인간 인지에 미치는 영향에 대한 우려스러운 연구들과 함께 제시되고 있다. 매사추세츠 공과대학교(MIT)가 6월에 발표한 한 연구는 54명의 참가자를 대상으로, 에세이를 작성할 때 ChatGPT, 구글 검색, 혹은 어떠한 도움 없이 쓰도록 나누어 살펴보았다. 뇌 스캔 결과, ChatGPT를 사용한 참가자들은 신경 연결성이 가장 약하게 나타났고, 자신이 쓴 글을 기억하는 데 어려움을 겪었다. ChatGPT 사용자 중 83%가 자신의 에세이를 정확히 인용하지 못한 반면, 독립적으로 작성한 그룹에서는 그 비율이 11%에 불과했다.MIT 연구진은 이 현상을 “인지 부채(cognitive debt)“라고 명명하며, 단기적인 편의를 위해 미래의 인지 능력을 선(先)차입하는 것이라고 설명했다. 뇌만 활용한(도구를 사용하지 않은) 그룹은 창의성, 기억력, 의미 처리와 연관된 주파수 대역에서 가장 강한 신경 네트워크를 보여주었다.카네기멜론대학교와 마이크로소프트의 별도 연구에서는 319명의 지식 노동자를 대상으로 설문을 진행한 결과, AI 능력에 대한 신뢰도가 높을수록 비판적 사고 노력은 감소하는 경향이 있다는 사실을 밝혀냈다. 이 연구는 실제 AI 보조 과제 936건을 분석했으며, 생성형 AI가 효율성을 높여 주는 동시에 비판적 개입을 약화시키고 독립적인 문제 해결 능력을 떨어뜨릴 수 있다고 결론지었다.학생들의 우려가 고조되다옥스퍼드 대학 출판부(Oxford University Press)가 13-18세 영국 학생 2,000명을 대상으로 실시한 설문조사에 따르면, 80%가 학업에 AI를 정기적으로 사용하지만, 62%는 AI가 자신의 기술 개발에 부정적인 영향을 미친다고 생각하는 것으로 나타났다. 학생 4명 중 1명은 AI가 “스스로 과제를 수행하지 않고도 답을 찾는 것을 너무 쉽게 만든다”고 답했으며, 12%는 AI가 창의적 사고를 제한한다고 보고했다.광범위한 도입에도 불구하고, 학생들은 지침을 요구하고 있다. 옥스퍼드 보고서의 공동 저자인 에리카 갈레아(Erika Galea)는 “오늘날의 학생들은 기계와 함께 사고하기 시작하고 있습니다. 아이디어를 처리하는 데 유창함과 속도를 얻고 있지만, 때때로 멈추고, 질문하고, 독립적으로 사고하는 것에서 오는 깊이를 잃고 있습니다”라고 말했다.
409 조회
0 추천
2025.12.21 등록
293억 달러의 가치를 평가받는 AI 코드 에디터 Cursor가 코드 리뷰 스타트업 Graphite를 현금 및 지분 거래로 인수하고 있으며, 이는 앞으로 몇 주 내에 완료될 것으로 예상되며, 코드 작성 및 검토 도구를 결합하여 엔드투엔드 개발 플랫폼을 만들 것입니다.이번 인수는 Cursor CEO Michael Truell이 소프트웨어 개발에서 증가하는 병목 현상이라고 부르는 문제를 해결하기 위한 것으로, AI가 코드 작성을 가속화했지만 리뷰 프로세스는 변하지 않은 상황에서, Graphite는 Shopify 및 Snowflake ㅡ를 포함한 500개 이상의 기업에서 수만 명의 엔지니어에게 서비스를 제공하고 있습니다.[이 거래는 Cursor가 연간 매출 10억 달러를 달성한 지 한 달 만에 이루어진 것으로, 2024년 15억 1천만 달러에서 2032년 거의 90억 달러로 성장할 것으로 예상되는 AI 코딩 시장에서 OpenAI, Anthropic, GitHub Copilot을 포함한 경쟁사들에 대해 회사를 더욱 공격적으로 포지셔닝합니다.
405 조회
0 추천
2025.12.21 등록
• 중국은 금요일 슝안신구에서 오픈소스 AI 기상 모델인 Fengyuan V1.0을 출시했으며, 이는 관측 데이터로부터 직접 전 지구 예보를 생성할 수 있는 독자적 지식재산권을 가진 중국 최초의 종단간(end-to-end) AI 기상 시스템을 의미한다[chinadaily +1].• 이번 출시는 NOAA가 AI 기반 예보 모델 3종을 공개한 지 불과 이틀 만에 이루어진 것으로, 더 빠르고 정확한 AI 기상 예측 시스템 개발 경쟁에서 미국과 중국 간 기상 기술 분야의 경쟁이 심화되고 있음을 보여준다[techspot +2].• 중국 기상국 관계자들은 Fengyuan이 극한 기상 현상 탐지에 중점을 두고 저고도 경제 및 에너지 공급을 포함한 특화 분야를 지원할 것이며, 일대일로 이니셔티브를 통해 국제 협력을 확대할 계획이라고 밝혔다[chinadaily +1].
413 조회
0 추천
2025.12.21 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입