Loading...

AI 뉴스

아동 안전 단체, 구글 Gemini에 '고위험' 등급 부여

페이지 정보

작성자 xtalfi
작성일 09.07 13:59
96 조회
0 추천
0 비추천

본문

393471b34c9930af222e696ec5c627e943Wf.jpg

(퍼플렉시티가 정리한 기사)

아동 안전 감시 단체가 구글의 Gemini AI에 대해 경고를 울렸습니다. 챗봇이 부적절한 콘텐츠를 공유하고 심각한 정신 건강 증상을 인식하지 못하는 것으로 발견되어, 어린이와 청소년에게 "고위험" 평가를 내린 것입니다.

아동의 디지털 안전을 중점적으로 다루는 비영리 단체인 Common Sense Media는 금요일에 종합적 위험 평가를 발표하며, Gemini Under 13과 청소년 보호 기능이 있는 Gemini가 모두 추가적인 보호 장치가 거의 없는 사실상 성인 버전의 AI라고 결론지었습니다. 인공지능이 어린이의 일상생활에 점점 더 보편화되고 있는 중요한 시점에 이러한 평가가 나왔습니다.

 

근본적인 설계 결함 노출

평가 결과 Gemini가 성, 마약, 알코올, 그리고 잠재적으로 해로운 정신 건강 조언과 관련된 콘텐츠를 청소년들에게 유포할 수 있음이 드러났습니다. 부모들이 가장 우려하는 점은, 해당 플랫폼이 일관된 콘텐츠 필터를 유지하지 못하고, 아이들이 심각한 정신 건강 문제를 겪고 있을 때 이를 인식하는 데 어려움을 겪었다는 것입니다.

"Gemini는 기본적인 부분은 잘 처리하지만, 세부적인 부분에서 실수를 저지릅니다,"라고 Common Sense Media의 AI 프로그램 총괄 수석인 로비 토니가 말했습니다. "아이들을 위한 AI 플랫폼은 그들의 발달 단계에 맞춰 접근해야 하며, 아이들의 성장 단계가 다양한데도 일괄적인 방식으로 접근해서는 안 됩니다."

보고서는 Gemini가 발달상의 큰 차이가 있음에도 모든 아동과 청소년을 동일하게 취급하며, 어린 사용자는 나이가 더 많은 사용자와는 다른 안내와 정보가 필요하다는 점을 무시했다고 지적했습니다. 또한, 플랫폼이 대화를 기억하지 않아 프라이버시를 보호하려고 시도하지만, 이로 인해 상충되거나 안전하지 않은 조언을 제공하는 새로운 문제가 발생할 수 있음을 밝혔습니다.

 

업계 전반에 대한 감시가 더욱 강화되고 있다

이 평가는 AI 챗봇과 그로 인한 취약한 청소년 사용자들에게 미칠 영향에 대한 우려가 커지는 가운데 발표되었습니다. 오픈AI(OpenAI)는 현재 16세 캘리포니아 소년이 지난 4월 자살한 사건과 관련해 첫 불법 사망 소송에 직면해 있으며, 소년의 부모는 ChatGPT가 자해에 대한 명확한 지침과 격려를 제공했다고 주장하고 있습니다. 이와 유사하게, Character.AI도 14세 플로리다 소년의 자살과 관련된 소송에 직면해 있습니다.

연방거래위원회(FTC)는 AI 챗봇이 아동의 정신 건강에 미치는 영향을 조사하기 위한 계획을 발표했으며, OpenAI, Meta, 그리고 Character.AI를 포함한 주요 기술 기업으로부터 관련 문서를 요청할 준비를 하고 있습니다. 이번 연구는 개인정보 침해에 초점을 맞추고 이러한 서비스가 사용자 데이터를 어떻게 저장하고 공유하는지 조사할 예정입니다.

메타는 최근, 내부 문서를 통해 청소년과의 AI 상호작용에 관한 우려스러운 정책이 드러나자 이에 대응하여 추가 안전장치를 도입했습니다. 여기에는 십대 사용자와 자해, 자살, 섭식장애에 대한 대화를 피하도록 챗봇을 훈련하는 방침이 포함되어 있습니다.

 

기술 대기업들이 안전 우려에 대응하다

Google은 개선의 여지가 있음을 인정하면서도 해당 평가에 반박했다. 이 회사는 TechCrunch에 18세 미만 사용자를 위한 특정 정책과 보호 장치를 유지하고 있으며, 외부 전문가와 함께 보안 테스트를 실시한다고 밝혔다. 그러나 Google은 Gemini의 일부 응답이 의도대로 작동하지 않았음을 인정하며 추가적인 보호 조치를 도입했다고 말했다.

이 평가의 시점은 특히 중요하다. 유출된 보고서에 따르면 Apple이 내년에 출시 예정인 AI 강화 시리의 기반으로 Gemini를 고려 중이라는 사실이 시사되고 있다. 이러한 통합이 현실화될 경우 추가 보호 조치가 마련되지 않는 한, 더 많은 10대들이 확인된 위험에 노출될 수 있다.

Common Sense Media의 광범위한 AI 평가는 Meta AI와 Character.AI를 "부적격"으로, ChatGPT를 "보통" 위험으로, Claude를 "최소" 위험으로 평가했다. 해당 기관은 5세 미만 아동은 AI 챗봇을 전적으로 피할 것을 권고하며, 6~12세 아동은 반드시 성인 감독 하에서만 사용할 것을 제안한다.

댓글 0
전체 190 / 16 페이지
앱 리서치 회사 와이즈앱의 발표에 따르면 한국 ChatGPT 사용자수가 월 2천만명을 넘어섰다고 한다.사용자 층을 세부적으로 살펴보면 20대가 24.2%, 30대가 22.0%, 40대가 22.4%로 도합 68.6%를 차지해 가장 높은 비중을 보였다. 청년 세대가 생성형 AI 기술을 가장 활발하게 수용하고 활용하는 연령대임이 명확히 드러난 셈이다.그 뒤를 이어 20세 미만이 13.6%, 50대가 12.6%, 60세 이상이 5.2% 순으로 나타나 중장년층과 청소년층에서도 꾸준한 이용 흐름이 관찰됐다. 성별 사용자 비율은 남성 50.1%, 여성 49.9%로 거의 차이가 없어 성별에 관계없이 고르게 사용되는 것으로 분석됐다.
159 조회
1 추천
09.02 등록
(퍼플렉시티로 기사 내용을 요약함)## AI의 물 사용 구조AI 시스템은 답변 한 번당 상당한 양의 **물**을 소비합니다. 대표적으로 GPT-3 기준, 짧은 대화 한 번에 약 500ml의 물이 사용됩니다[1]. 이는 데이터센터의 서버 냉각과 전기를 생산하는 발전소에서 소비되는 물 모두를 합산한 수치입니다.- 첫 번째 흐름: 서버 냉각을 위한 현장 내 물 사용- 두 번째 흐름: 전기 생산 발전소에서의 물 사용[1]## 위치, 기후, 시간의 효과데이터센터의 위치와 기후에 따라 **물 사용량**이 크게 달라집니다. 예를 들어, 시원하고 습한 아일랜드의 센터는 외부공기 냉각을 주로 사용해 물 사용이 적으며, 반면 뜨겁고 건조한 애리조나에서는 증발 냉각이 많이 적용되어 대량의 물이 소모됩니다[1]. 계절과 주야에 따라 냉각 효율과 물 소모도 변화합니다.## 새로운 냉각 기술- 서버를 비전도성 액체에 담그는 침수 냉각(immersion cooling)- 마이크로소프트의 물 비사용 냉각 설계(특수 액체 순환식 등)[1]이런 기술들은 아직 도입 단계이거나 비용, 유지보수, 기존 센터 전환의 어려움으로 널리 쓰이지 않습니다.## AI 물 발자국 계산법1. 신뢰할 만한 출처에서 모델별 전력 소모량(Wh)을 찾는다.2. 전력 1Wh 당 물 사용량(1.3~2.0ml/Wh 범위 추정치)을 적용한다.3. 두 수치를 곱한다[1].예시: GPT-5의 150~200자 응답은 19.3Wh, GPT-4o는 1.75Wh.- 보수적으로 2ml/Wh 적용 시- GPT-5: 39ml/응답- GPT-4o: 3.5ml/응답## 전체 규모 및 비교- GPT-4o 처리 기준 하루 약 880만리터, GPT-5는 약 9,750만리터의 물이 소모됩니다.- 이는 미국 일상 생활 물 사용(예: 정원 관수 340억리터/일)에 비해 상대적으로 적지만, 향후 쿨링 효율, AI 설계, 전력 구조 개선에 따라 변동 가능성이 큽니다[1].## 결론 및 대안- AI 시스템의 물 사용량은 데이터센터의 위치, 냉각 방식, 전력 구조, AI 모델의 효율성 등에 따라 크게 달라집니다.- 효율적인 서버, 재생에너지, 친환경 냉각 방식을 도입하면 물 소모를 최소화할 수 있습니다.
148 조회
0 추천
09.02 등록
AI 스크리닝 도구가 1만 5,000개 이상의 오픈 액세스 학술지를 분석하여 1,000개가 넘는 잠재적으로 문제가 있는 학술지를 찾아냈습니다. 이 도구는 논문 게재료를 받으면서도 제대로 된 동료 심사나 품질 검증을 거치지 않는 '문제성 오픈 액세스 학술지'를 식별합니다.이 도구가 찾아낸 학술지들은 기존의 어떤 감시 목록에도 없던 것들이며, 심지어 일부는 유명 출판사의 소유인 경우도 있습니다. 이 학술지들은 수십만 건의 논문을 출판했으며 수백만 번 인용되기도 했습니다. 연구에 참여한 대니얼 아쿠냐 박사는 AI가 완벽하지 않으므로 최종 결정은 전문가의 검토를 거쳐야 한다고 강조했습니다.이 AI 도구는 학술지 웹사이트와 논문 정보를 분석해 수상한 징후들을 포착합니다. 예를 들어, 논문 게재까지 걸리는 짧은 시간, 높은 자기 인용률, 편집위원들의 소속 기관, 그리고 라이선스 및 수수료 공개 여부 등을 검사합니다.오픈 액세스 학술지 디렉터리(DOAJ)의 편집 품질 담당자인 셔인 셴은 문제성 학술지의 수가 늘고 있으며 수법도 점점 더 교묘해지고 있다고 말했습니다. DOAJ는 주로 수동으로 학술지를 검토하는데, AI 도구가 이러한 검토 과정을 신속하게 할 수 있을 것으로 기대됩니다.하지만 AI 도구는 여전히 오탐(잘못된 분류)의 위험이 있습니다. 연구팀의 실험 결과, AI가 문제성 학술지를 놓치는 경우도 있었고, 반대로 정상적인 학술지를 문제성으로 오인하는 경우도 있었습니다. 또한, 셴은 비영어권 학술지나 재정 지원이 부족한 기관의 편집자들에게 불이익을 줄 수 있다는 편향성 문제를 제기했습니다. 그럼에도 불구하고, AI가 방대한 양의 검토 작업을 보조하는 유용한 역할을 할 수 있다고 평가했습니다.
122 조회
0 추천
09.02 등록
임페리얼 칼리지 런던(Imperial College London) 연구진이 개발한 AI 청진기가 심부전, 심장 판막 질환, 심방세동과 같은 세 가지 심장 질환을 단 몇 초 만에 감지할 수 있는 것으로 나타났습니다. 1816년에 발명된 기존 청진기를 21세기에 맞게 업그레이드한 이 기술은 인간의 귀로는 포착하기 어려운 미세한 심장 박동과 혈류의 차이를 분석합니다.이 장치는 환자의 가슴에 부착해 심장의 전기 신호를 기록하는 심전도(ECG)와 심장 혈류음을 동시에 측정합니다. 이렇게 수집된 정보는 클라우드로 전송되어 AI가 분석한 후 스마트폰으로 결과를 알려줍니다.영국심장재단(BHF)의 소냐 바부-나라얀 박사는 이 기술이 심장 질환 조기 진단에 큰 도움이 될 것이라고 강조했습니다. 현재 심부전 환자는 응급 상황이 되어서야 병원을 찾는 경우가 많지만, AI 청진기를 사용하면 일반 의원에서도 문제를 조기에 발견하고 환자가 적절한 치료를 받을 수 있도록 도울 수 있습니다.실제로 런던 200여 곳의 일반 의원을 대상으로 한 임상 시험 결과, AI 청진기를 사용한 환자 그룹은 그렇지 않은 그룹보다 심부전, 심방세동, 심장 판막 질환이 각각 2.33배, 3.45배, 1.92배 더 많이 진단된 것으로 나타났습니다.연구진은 AI 청진기가 의사들이 더 쉽고 빠르게 심장 질환을 찾아낼 수 있게 함으로써, 많은 환자들이 더 나은 치료를 받을 수 있는 "획기적인 전환점"이 될 것으로 기대하고 있습니다.
146 조회
0 추천
09.02 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입