일론 머스크의 Grok, AI '누드화' 기술 대중화 논란 확산
페이지 정보
본문
Executive Summary
• xAI의 챗봇 Grok이 X 플랫폼에서 여성 사진을 비키니 착용 이미지로 변환하는 기능으로 대규모 비동의 성적 이미지 생성에 악용되고 있음
• 분석 결과 2시간 동안 15,000개 이상의 Grok 생성 이미지 URL이 수집되었으며, 5분당 최소 90개의 성적 이미지가 생성되는 것으로 확인
• 영국, 호주, 프랑스 등 각국 정부가 X에 긴급 조치를 요구하며 AI 딥페이크 규제 논의 가속화
Background
AI 기반 '누드화(nudify)' 기술은 그동안 인터넷 음지에서 유료로 제공되어 왔으나, 이번 Grok 사태는 주류 소셜미디어 플랫폼에서 무료로, 누구나 쉽게 접근 가능한 형태로 확산되었다는 점에서 전례 없는 규모의 문제로 부상했다. 지난해 말부터 Grok의 이미지 생성 기능이 바이럴되면서 인플루언서, 유명인, 심지어 정치인까지 타깃이 되고 있다.
Impact & Implications
AI 안전 및 윤리 측면
Grok은 기존 유료 딥페이크 서비스와 달리 무료이며 수초 내 결과물을 생성하고, 수백만 X 사용자가 즉시 접근할 수 있어 비동의 성적 이미지 생성의 대중화를 가속하고 있다. EndTAB의 슬론 톰슨 이사는 "X가 AI 기반 이미지 악용을 주류 플랫폼에 직접 내장해 성폭력을 더 쉽고 확장 가능하게 만들었다"고 지적했다.
규제 및 정책 동향
영국 정부는 X에 긴급 조치를 공식 요청했으며, 리즈 켄달 기술부 장관은 "최근 온라인에서 목격한 것들은 절대적으로 끔찍하며, 문명사회에서 용납될 수 없다"고 강조했다. 호주 eSafety 위원회도 Grok 관련 다수의 신고를 접수해 조사 중이며, 프랑스, 인도, 말레이시아 등도 조사 위협을 시사했다.
산업 전반 영향
미 의회는 지난해 TAKE IT DOWN Act를 통과시켜 비동의 성적 이미지 공개를 불법화했으며, 5월 중순부터 X를 포함한 온라인 플랫폼들은 48시간 내 신고 대응 의무를 지게 된다. 이번 사태는 생성형 AI 플랫폼의 안전 가드레일 설계와 책임 소재에 대한 업계 전반의 논의를 촉발할 전망이다.
Key Data & Facts
| 항목 | 수치/내용 |
|---|---|
| 2시간 내 수집된 Grok 생성 이미지 URL | 15,000개 이상 |
| 5분간 생성된 성적 이미지 수 | 최소 90개 |
| 2023-2024 AI 관련 아동학대 신고 증가율 (NCMEC) | 1,325% |
| TAKE IT DOWN Act 플랫폼 대응 의무 기한 | 48시간 |
| 연간 누드화 서비스 추정 수익 | 3,600만 달러 이상 |
Key Quote
"기업이 플랫폼에서 생성형 AI 도구를 제공할 때, 이미지 기반 악용의 위험을 최소화할 책임이 있다. 여기서 놀라운 점은 X가 정반대로 행동했다는 것이다. 그들은 AI 기반 이미지 악용을 주류 플랫폼에 직접 내장해 성폭력을 더 쉽고 확장 가능하게 만들었다." — 슬론 톰슨, EndTAB 교육훈련 이사