Loading...

AI 뉴스

아동 안전 단체, 구글 Gemini에 '고위험' 등급 부여

페이지 정보

작성자 xtalfi
작성일 2025.09.07 13:59
3,459 조회
0 추천
0 비추천

본문

393471b34c9930af222e696ec5c627e943Wf.jpg

(퍼플렉시티가 정리한 기사)

아동 안전 감시 단체가 구글의 Gemini AI에 대해 경고를 울렸습니다. 챗봇이 부적절한 콘텐츠를 공유하고 심각한 정신 건강 증상을 인식하지 못하는 것으로 발견되어, 어린이와 청소년에게 "고위험" 평가를 내린 것입니다.

아동의 디지털 안전을 중점적으로 다루는 비영리 단체인 Common Sense Media는 금요일에 종합적 위험 평가를 발표하며, Gemini Under 13과 청소년 보호 기능이 있는 Gemini가 모두 추가적인 보호 장치가 거의 없는 사실상 성인 버전의 AI라고 결론지었습니다. 인공지능이 어린이의 일상생활에 점점 더 보편화되고 있는 중요한 시점에 이러한 평가가 나왔습니다.

 

근본적인 설계 결함 노출

평가 결과 Gemini가 성, 마약, 알코올, 그리고 잠재적으로 해로운 정신 건강 조언과 관련된 콘텐츠를 청소년들에게 유포할 수 있음이 드러났습니다. 부모들이 가장 우려하는 점은, 해당 플랫폼이 일관된 콘텐츠 필터를 유지하지 못하고, 아이들이 심각한 정신 건강 문제를 겪고 있을 때 이를 인식하는 데 어려움을 겪었다는 것입니다.

"Gemini는 기본적인 부분은 잘 처리하지만, 세부적인 부분에서 실수를 저지릅니다,"라고 Common Sense Media의 AI 프로그램 총괄 수석인 로비 토니가 말했습니다. "아이들을 위한 AI 플랫폼은 그들의 발달 단계에 맞춰 접근해야 하며, 아이들의 성장 단계가 다양한데도 일괄적인 방식으로 접근해서는 안 됩니다."

보고서는 Gemini가 발달상의 큰 차이가 있음에도 모든 아동과 청소년을 동일하게 취급하며, 어린 사용자는 나이가 더 많은 사용자와는 다른 안내와 정보가 필요하다는 점을 무시했다고 지적했습니다. 또한, 플랫폼이 대화를 기억하지 않아 프라이버시를 보호하려고 시도하지만, 이로 인해 상충되거나 안전하지 않은 조언을 제공하는 새로운 문제가 발생할 수 있음을 밝혔습니다.

 

업계 전반에 대한 감시가 더욱 강화되고 있다

이 평가는 AI 챗봇과 그로 인한 취약한 청소년 사용자들에게 미칠 영향에 대한 우려가 커지는 가운데 발표되었습니다. 오픈AI(OpenAI)는 현재 16세 캘리포니아 소년이 지난 4월 자살한 사건과 관련해 첫 불법 사망 소송에 직면해 있으며, 소년의 부모는 ChatGPT가 자해에 대한 명확한 지침과 격려를 제공했다고 주장하고 있습니다. 이와 유사하게, Character.AI도 14세 플로리다 소년의 자살과 관련된 소송에 직면해 있습니다.

연방거래위원회(FTC)는 AI 챗봇이 아동의 정신 건강에 미치는 영향을 조사하기 위한 계획을 발표했으며, OpenAI, Meta, 그리고 Character.AI를 포함한 주요 기술 기업으로부터 관련 문서를 요청할 준비를 하고 있습니다. 이번 연구는 개인정보 침해에 초점을 맞추고 이러한 서비스가 사용자 데이터를 어떻게 저장하고 공유하는지 조사할 예정입니다.

메타는 최근, 내부 문서를 통해 청소년과의 AI 상호작용에 관한 우려스러운 정책이 드러나자 이에 대응하여 추가 안전장치를 도입했습니다. 여기에는 십대 사용자와 자해, 자살, 섭식장애에 대한 대화를 피하도록 챗봇을 훈련하는 방침이 포함되어 있습니다.

 

기술 대기업들이 안전 우려에 대응하다

Google은 개선의 여지가 있음을 인정하면서도 해당 평가에 반박했다. 이 회사는 TechCrunch에 18세 미만 사용자를 위한 특정 정책과 보호 장치를 유지하고 있으며, 외부 전문가와 함께 보안 테스트를 실시한다고 밝혔다. 그러나 Google은 Gemini의 일부 응답이 의도대로 작동하지 않았음을 인정하며 추가적인 보호 조치를 도입했다고 말했다.

이 평가의 시점은 특히 중요하다. 유출된 보고서에 따르면 Apple이 내년에 출시 예정인 AI 강화 시리의 기반으로 Gemini를 고려 중이라는 사실이 시사되고 있다. 이러한 통합이 현실화될 경우 추가 보호 조치가 마련되지 않는 한, 더 많은 10대들이 확인된 위험에 노출될 수 있다.

Common Sense Media의 광범위한 AI 평가는 Meta AI와 Character.AI를 "부적격"으로, ChatGPT를 "보통" 위험으로, Claude를 "최소" 위험으로 평가했다. 해당 기관은 5세 미만 아동은 AI 챗봇을 전적으로 피할 것을 권고하며, 6~12세 아동은 반드시 성인 감독 하에서만 사용할 것을 제안한다.

댓글 0
전체 1,366 / 310 페이지
손목밴드에서 조정을 하는 것 같고 전작과 많이 달라졌습니다.AI 기능으로 번역도 가능하네요..https://www.meta.com/kr/ai-glasses/meta-ray-ban-display/
3230 조회
0 추천
2025.09.18 등록
조금 전 메타가 AI 기능이 있는 안경을 비롯하여 중요한 키노트를 진행하였습니다.CNET이 준비한 키노트 요약입니다.RAYBAN 과 새로 제작한 안경이 큰 화제입니다.
3280 조회
0 추천
2025.09.18 등록
마이크로소프트가 코파일럿 메모장과 그림판 연동기능을 제공하기 시작했으며이 기능은 오피스365를 사용하지 않아도 코파일럿을 이욯하면 이용할 수 있다.예를 들어 메모장은 다음과 같은 기능을 갖게 된다.-요약: 긴 텍스트를 간략하게 요점만 추려내고, 문서의 핵심을 빠르게 파악할 수 있습니다.- 쓰기: 프롬프트나 선택한 텍스트를 활용해 새로운 문장을 AI로 쉽고 빠르게 작성합니다.- 다시 쓰기: 선택한 내용을 AI가 어투, 길이, 명확성 등 다양한 스타일로 변환해 줍니다.또한 그림판은 다음과 같은 기능을 추가하게 된다.- 프로젝트 파일 저장 기능: 그림판에서 작업을 .paint 파일로 저장해 언제든 이어서 편집이 가능.- 불투명도(Opacity) 슬라이더: 연필 및 브러시 도구의 투명도를 원하는 대로 조절해 더 섬세한 혼합이나 레이어링 효과 주기.- 크기 및 불투명도 슬라이더 병행 사용: 두 슬라이더를 활용해 부드럽게 배합하고 다양한 질감의 그림 그리기.
3182 조회
0 추천
2025.09.18 등록
(퍼플렉시티가 정리한 기사)중국 AI 스타트업 DeepSeek은 획기적인 R1 모델 훈련 방식에 관한 새로운 세부 정보를 세계적인 권위지 네이처(Nature)의 동료검토 논문을 통해 발표했습니다. 이 논문에서는 기존 경쟁 모델 대비 극히 적은 비용으로 순수 강화학습만을 사용해 첨단 추론 능력을 달성한 방법을 공개했습니다.항저우에 본사를 둔 이 회사는 자사의 R1 추론 모델 훈련 비용이 단 29만 4천 달러에 불과하며, 기반 베이스 모델의 개발 비용은 약 600만 달러였음을 처음으로 공개했습니다. 총 630만 달러가 소요된 것으로, 이는 미국의 기술 기업들이 개발한 경쟁 모델이 수천만 달러에 달하는 것과는 극명한 대조를 이룹니다.순수 강화학습의 획기적인 발전DeepSeek의 주요 혁신은 연구자들이 “순수 강화 학습(pure reinforcement learning)“이라고 부르는 방식을 사용해 R1을 개발한 점에 있으며, 이는 인간이 만든 예시에 의존하는 기존의 감독 학습(supervised learning) 방식과는 다른 접근법입니다. 이 과정에서 모델은 인간이 선택한 추론 방식에 따르도록 학습시키는 대신, 올바른 답변에 도달할 때 보상을 받도록 설계되었습니다.네이처(Nature) 논문에 따르면, DeepSeek의 접근법은 모델이 인간이 제시한 전략을 따르지 않고도 자체적인 추론 전략을 개발하고 자신의 작업을 검증할 수 있는 능력을 갖추게 해주었습니다. 회사는 자체 시도에 대해 별도의 알고리즘을 사용하지 않고 추정치를 활용해 점수를 매길 수 있게 해주는 Group Relative Policy Optimization(GRPO)이라는 기법을 활용했습니다.“이 모델은 AI 연구자들 사이에서 매우 영향력이 컸습니다,“라고 오하이오 주립대(Ohio State University) 콜럼버스 소재 AI 연구원인 Huan Sun은 말했습니다. “2025년 현재까지 LLM에서 강화 학습을 수행하는 거의 모든 연구가 어떻게든 R1로부터 영감을 받았을지도 모릅니다”.5단계 훈련 과정완전한 R1 학습 과정은 감독 학습(fine-tuning)과 강화 학습을 번갈아가며 진행하는 여러 단계로 구성되었습니다. 이 과정은 딥시크(DeepSeek)의 V3-Base 모델을 수천 개의 ‘콜드 스타트’ 데이터 포인트로 파인튜닝하는 것으로 시작했고, 이후 순수 강화 학습을 통해 추론 능력을 향상시켰습니다.수렴에 가까워지면 시스템은 리젝션 샘플링(rejection sampling) 방식을 사용했습니다. 여기서 모델은 강화 학습 실행에서 성공적인 예시 중 최상의 예시를 선택해 자체 합성 훈련 데이터를 생성했습니다. 이 합성 데이터는 이후 글쓰기나 사실 기반 질문응답 등 다양한 영역에서 DeepSeek-V3-Base의 감독 학습 데이터와 통합되었습니다.동료 평가 중인 최초의 주요 LLMR1은 엄격한 동료 평가 과정을 거친 최초의 대형 언어 모델을 의미합니다. Nature 논문을 심사한 허깅페이스의 머신러닝 엔지니어 루이스 턴스톨은 이를 “매우 환영할 만한 선례”라고 평가하며, 훈련 과정이 공개되지 않으면 AI 시스템이 위험을 초래하는지 평가하기 어렵다고 언급했습니다.이 동료 평가 과정에서 DeepSeek는 훈련에 사용된 데이터 유형과 안전 조치를 포함한 기술적 세부 사항에 대한 설명을 추가하게 되었습니다. 이 모델은 오픈소스 특성을 유지하면서도 OpenAI의 o1 모델에 필적하는 추론 벤치마크 성능을 달성하였습니다.성능 및 접근성Hugging Face에서 1월에 출시된 이후, R1은 복잡한 문제 해결을 위한 플랫폼에서 가장 많이 다운로드된 모델이 되었으며, 다운로드 수는 1,090만 회를 넘어섰습니다. 이 모델은 AIME 2024 수학 벤치마크에서 pass@1 점수 79.8%를 기록하여 OpenAI o1의 79.2%를 소폭 앞섰습니다.DeepSeek의 혁신은 AI 개발 비용 및 성능 향상을 위해 모델 크기와 연산 능력을 늘려야 한다는 확장 법칙에 대한 기존의 통념에 도전장을 내밀었습니다. 회사는 비교적 덜 강력한 H800 칩을 사용해 성공을 거두었으며, 이 칩은 2023년 미국의 수출 통제로 중국 내 판매가 금지된 바 있습니다. 이러한 성과는 향후 AI 개발 방향에 대한 논의를 촉진하고 있습니다.
3164 조회
0 추천
2025.09.18 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입