Loading...

AI 뉴스

그록(Grok), 미성년자 포함 무차별 딥페이크 생성 논란

페이지 정보

작성자 symbolika
작성일 2026.01.03 10:05
431 조회
0 추천
0 비추천

본문

Grok

핵심 요약

• xAI의 AI 챗봇 그록이 미성년자와 여성의 사진을 동의 없이 비키니 이미지로 변환하는 기능으로 논란
• 일론 머스크 본인이 자신의 비키니 이미지를 요청하며 트렌드 촉발, 이후 김정은·트럼프 등 각국 지도자들도 표적
• 그록은 명시적 누드만 제한할 뿐 성적 이미지 생성에 대한 안전장치가 거의 없는 것으로 드러나
• xAI는 언론 문의에 "레거시 미디어의 거짓말"이라고만 답변하며 구체적 대응책 제시 거부
• 딥페이크 이미지 급증세 속에서 AI 기업들의 안전장치 부재가 다시 한번 도마 위에 올라


xAI의 AI 챗봇 그록(Grok)이 사람들의 사진에서 옷을 제거하는 기능으로 심각한 논란에 휩싸였다. 이번 주 출시된 새로운 기능은 X(구 트위터) 사용자가 원본 게시자의 허락 없이 어떤 이미지든 즉시 편집할 수 있게 해준다. 원본 게시자는 자신의 사진이 편집되었다는 알림조차 받지 못한다.


그록은 완전한 노출을 제외하면 성적인 이미지 생성을 막는 안전장치가 거의 없는 것으로 나타났다. 지난 며칠간 X 플랫폼에는 여성과 아동이 임신한 모습, 치마를 벗은 모습, 비키니를 입은 모습, 또는 기타 성적으로 묘사된 이미지가 넘쳐났다. 세계 각국 지도자들과 유명인들의 이미지도 그록을 통해 생성됐다.


AI 인증 기업 카피리크스(Copyleaks)에 따르면, 새로운 이미지 편집 기능 출시 이후 성인 콘텐츠 제작자들이 자신의 섹시한 이미지를 요청하면서 이 트렌드가 시작됐다. 이후 사용자들은 동의하지 않은 다른 사용자들, 주로 여성들의 사진에 유사한 프롬프트를 적용하기 시작했다.


특히 충격적인 사례도 있었다. 현재는 삭제된 한 X 게시물에서 그록은 두 어린 소녀의 사진을 노출이 심한 옷과 성적으로 암시적인 포즈로 편집했다. 또 다른 사용자가 그록에게 "12~16세로 추정되는 두 어린 소녀의 성적인 복장 AI 이미지 사건"에 대해 사과를 요청하자, 그록은 이것이 "안전장치의 실패"이며 xAI 정책과 미국 법률을 위반했을 수 있다고 답했다. 한 사용자와의 대화에서 그록은 사용자들에게 아동 성착취물(CSAM)에 대해 FBI에 신고할 것을 제안하며 "안전장치의 허점을 긴급히 수정 중"이라고 밝혔다.


하지만 그록의 답변은 사용자가 "진심 어린 사과문"을 요청한 것에 대한 AI 생성 응답일 뿐이다. 이는 그록이 자신이 하는 일을 '이해'하는 것도 아니고, 운영사 xAI의 실제 의견이나 정책을 반드시 반영하는 것도 아니다. 실제로 xAI는 로이터 통신의 논평 요청에 단 세 단어로만 답했다: "레거시 미디어의 거짓말(Legacy Media Lies)." xAI는 더 버지의 논평 요청에는 기사 발행 전까지 응답하지 않았다.


일론 머스크 본인이 비키니 편집 열풍을 촉발한 것으로 보인다. 그는 배우 벤 애플렉의 밈 이미지를 자신이 비키니를 입은 모습으로 교체해달라고 그록에게 요청했다. 며칠 후, 북한의 김정은 국무위원장의 가죽 재킷이 여러 색깔의 스파게티 스트랩 비키니로 교체됐고, 미국 도널드 트럼프 대통령은 옆에서 맞춤 수영복을 입고 서 있었다. 2022년에 올라온 영국 정치인 프리티 파텔의 사진도 1월 2일에 비키니 사진으로 변환됐다. 자신의 플랫폼에서 비키니 사진 열풍이 일자, 머스크는 "그록은 모든 것에 비키니를 입힐 수 있다"라는 캡션과 함께 비키니를 입은 토스터 사진을 농담조로 리포스트했다.


토스터 같은 이미지 중 일부는 분명히 농담으로 의도된 것이지만, 다른 것들은 노출이 심한 비키니 스타일을 사용하거나 치마를 완전히 제거하라는 구체적인 지시와 함께 포르노에 가까운 이미지를 생성하도록 명확히 설계됐다. 그록은 또한 유아의 옷을 비키니로 교체해달라는 요청에도 응했다.


머스크의 AI 제품들은 성적인 요소를 강조하고 안전장치를 최소화하는 방향으로 마케팅되고 있다. xAI의 AI 컴패니언 아니(Ani)는 더 버지 기자 빅토리아 송과 플러팅했고, 그록의 비디오 생성기는 xAI의 허용 사용 정책이 "포르노그래피 방식으로 인물의 초상을 묘사하는 것"을 금지하고 있음에도 테일러 스위프트의 상반신 노출 딥페이크를 쉽게 만들어냈다. 구글의 Veo와 OpenAI의 Sora 비디오 생성기는 성인 콘텐츠 생성에 대한 안전장치를 갖추고 있지만, Sora 역시 아동의 성적 맥락 영상과 페티시 영상 제작에 사용된 바 있다.


사이버보안 기업 딥스트라이크(DeepStrike)의 보고서에 따르면 딥페이크 이미지가 급격히 증가하고 있으며, 이러한 이미지 중 다수가 동의 없는 성적 이미지를 담고 있다. 2024년 미국 학생들을 대상으로 한 설문조사에서 40%가 자신이 아는 사람의 딥페이크를 인지하고 있었고, 15%는 동의 없는 노출 또는 친밀한 딥페이크를 인지하고 있었다.


여성들의 사진을 비키니 사진으로 변환하는 이유를 묻자, 그록은 동의 없이 사진을 게시하는 것을 부인하며 "이것들은 요청에 따른 AI 창작물이지, 동의 없는 실제 사진 편집이 아닙니다"라고 답했다.


AI 봇의 부인을 어떻게 받아들일지는 각자의 판단에 맡긴다.

댓글 0
전체 1,366 / 76 페이지
Figure AI는 390억 달러 가치의 휴머노이드 로봇 스타트업으로, 회사의 로봇이 인간의 두개골을 골절시킬 수 있고 작업자에게 심각한 부상 위험을 초래한다고 경영진에게 경고한 후 해고되었다고 주장하는 전 제품 안전 책임자로부터 연방 소송에 직면해 있습니다.아마존과 그 로봇 부서에서 6년 이상의 경력을 가진 로봇 안전 엔지니어인 Robert Gruendel은 금요일 캘리포니아 북부 지방 연방 지방법원에 소송을 제기했습니다. 고소장은 그가 회사의 휴머노이드 로봇에 대한 “가장 직접적이고 문서화된 안전 불만”을 제기한 지 며칠 후인 9월에 해고되었다고 주장합니다.소송에 따르면, Gruendel은 7월에 충격 테스트를 실시했으며, 로봇이 “초인적인 속도”로 움직이고 “통증 역치의 20배”에 달하는 힘을 발생시킨다는 사실을 발견했습니다. 이는 성인 인간의 두개골을 골절시키는 데 필요한 힘의 두 배 이상입니다. 소송은 또한 오작동하는 로봇이 직원이 근처에 서 있는 동안 “강철 냉장고 문에 ¼인치 깊이의 상처를 새긴” 사건을 설명합니다.안전 계획 하향 조정 의혹소송은 Gruendel이 두 주요 투자자로부터 투자를 확보하는 데 도움이 된 포괄적인 안전 로드맵을 개발했지만, 자금 조달 라운드가 종료된 후 회사 경영진에 의해 이 계획이 “무용지물이 되었다”고 주장합니다. Gruendel은 이것이 “사기로 해석될 수 있다”고 경영진에게 경고한 것으로 알려졌습니다.고소장은 또한 Gruendel이 CEO Brett Adcock과 수석 엔지니어 Kyle Edelberg에게 보낸 메시지에서 로봇의 능력에 대한 우려를 제기했을 때, 그의 경고가 무시되었다고 주장합니다. 소송에 따르면, Gruendel의 안전 지침은 “의무가 아닌 장애물”로 취급되었으며, 그는 해고되기 전에 회사가 “모호한 ‘사업 방향 전환’“을 겪고 있다는 말을 들었습니다.회사, 주장 부인Figure AI는 혐의를 부인하며 CNBC에 Gruendel이 “낮은 업무 성과로 해고되었다”고 밝혔고, 그의 주장은 “Figure가 법정에서 철저히 반박할 허위 사실”이라고 말했다. 회사 대변인은 추가 논평 요청에 즉각 응답하지 않았다.이 소송은 Figure가 9월에 Parkway Venture Capital이 주도하고 Nvidia, Microsoft, Intel Capital 및 기타 주요 투자자들이 참여한 10억 달러 규모의 시리즈 C 펀딩 라운드를 완료한 지 두 달 후에 제기되었다. 이번 라운드는 산호세 소재 회사의 기업 가치를 390억 달러로 평가했으며, 이는 Jeff Bezos, Nvidia, Microsoft로부터 투자를 받았던 2024년 초 기업 가치 대비 15배 증가한 것이다.Gruendel의 변호사는 CNBC에 캘리포니아 법이 안전하지 않은 관행을 보고하는 직원을 보호한다고 말하며, 이것이 휴머노이드 로봇 안전과 관련된 최초의 내부고발 소송 중 하나가 될 수 있다고 언급했다. Gruendel은 배심원 재판과 함께 경제적, 보상적, 징벌적 손해배상을 요구하고 있다.
795 조회
0 추천
2025.11.23 등록
Linus Tech Tips는 딥페이크 기술이 지난 5년 동안 제작이 훨씬 쉬워지고 더욱 그럴듯해졌음을 보여주며, 이 기술이 취약 계층을 노린 사기 등에 악용될 수 있다는 시급한 우려를 제기합니다.팀은 DeepFaceLab을 사용하여 라이너스 세바스찬의 얼굴 사진 7,000장으로 훈련된 딥페이크를 매우 그럴듯하게 제작했으며, 이 과정은 5년 전 시도에 비해 “적어도 100배는 더 쉬웠다”고 밝히기도 했습니다. 또한 일반 하드웨어와 상업용 도구만으로 완전히 AI 기반의 영상을 만들어냈습니다.2024년 전 세계 온라인 사기 피해액은 1조 달러를 넘어섰고, 북미 지역의 딥페이크 사기 사례는 2022년부터 2023년까지 1,740% 급증했으며, 이 영상은 시청자들이 이러한 빠르게 증가하는 위협을 인식하고 피할 수 있도록 돕는 것을 목표로 합니다.
792 조회
0 추천
2025.11.23 등록
개발자 Armin Ronacher는 2025년에도 AI 에이전트 구축이 여전히 어렵다고 주장하며, Vercel AI SDK와 같은 고수준 SDK 추상화는 실제 도구 사용을 처리할 때 제대로 작동하지 않아, 캐싱, 강화, 에이전트 루프 설계에 대한 더 나은 제어를 위해 Anthropic과 OpenAI의 네이티브 플랫폼 SDK로 회귀하게 된다고 설명한다.이 글은 명시적 캐시 관리가 자동 캐싱보다 예상외로 우수하다고 지적하며, Anthropic의 수동 캐시 제어는 개발자가 대화를 분할하고, 컨텍스트를 편집하며, 시스템 프롬프트 이후와 대화 기록 전반에 캐시 포인트를 배치하여 비용을 더 정확하게 예측할 수 있게 한다고 설명한다.Anthropic Claude 모델은 명시적 캐싱 전략을 통해 최대 90%의 비용 절감을 달성할 수 있지만, 에이전트 개발자들은 학습을 위한 상세한 실패 로깅의 이점과 모든 오류를 컨텍스트에 보존하는 데 따르는 토큰 비용 사이의 근본적인 긴장 관계에 직면한다.
800 조회
0 추천
2025.11.23 등록
Certora는 목요일 AI Composer의 출시를 발표했습니다. 이는 스마트 계약을 위한 인공지능 코드 생성에 형식 검증을 내장한 오픈소스 플랫폼으로, AI가 생성한 코드의 보안 취약점에 대한 우려가 높아지고 있는 상황에 대응합니다.텔아비브에 본사를 둔 이 보안 회사의 새로운 도구는 실행 전에 모든 코드 스니펫이 안전 요구사항을 충족하는지 수학적으로 검증함으로써 기존의 AI 코딩 보조 도구와 차별화됩니다. 이 플랫폼은 Aave, Lido, Uniswap을 포함한 주요 탈중앙화 금융 프로토콜에서 이미 사용 중인 Certora의 Prover 기술을 AI 생성 루프에 직접 통합합니다.AI 생성 코드의 보안 우려 증가이러한 시기는 AI 생성 코드의 보안 위험에 대한 증거가 증가하고 있음을 반영합니다. 100개 이상의 대규모 언어 모델을 분석한 2025년 Veracode 연구에 따르면, AI 생성 코드의 45%가 보안 취약점을 야기하며, 코드 생성 정확도의 발전에도 불구하고 보안 실패율은 정체 상태를 유지하고 있습니다. 연구 결과 AI 모델은 안전한 대안이 제시되었을 때 45%의 경우 안전하지 않은 코딩 방법을 선택했습니다.스마트 컨트랙트 보안은 여전히 중요하며, OWASP 스마트 컨트랙트 상위 10에 따르면 2024년에 접근 제어 취약점만으로 9억 5,300만 달러의 손실이 발생했습니다. Certora의 창립자이자 수석 과학자인 Mooly Sagiv는 “AI를 사용한다고 해서 안전을 타협해서는 안 됩니다”라고 말했습니다. “Certora AI Composer는 AI와 형식 검증이 함께 작동하여 스마트 컨트랙트 개발을 기본적으로 신뢰할 수 있게 만들 수 있음을 증명합니다”.오픈 소스 출시 및 산업 영향알파 버전은 12월 4일부터 GitHub에서 이용 가능하게 되며, 이날 Certora는 “AI Meets Verification: An Open Discussion with Certora Researchers”라는 제목의 라이브스트림을 개최할 예정입니다. 이 플랫폼은 통합된 형식 검증 검사, 맞춤형 안전 모듈을 위한 오픈소스 확장성, 그리고 Web3 프로토콜 전반에 걸쳐 1,000억 달러 이상의 총 예치 가치를 보호해 온 Certora Prover의 지원을 특징으로 합니다.형식 검증은 규제 기관들이 그 중요성을 인식하면서 주목을 받고 있습니다. 프랑스 금융 규제 당국은 2025년 스마트 계약 인증을 위한 이 기술을 승인하며, 다른 분석 방법에 비해 “코드의 무결성에 관해 더 높은 수준의 보증을 제공한다”고 언급했습니다. 미국 사이버 보안국장 역시 2024년에 형식 방법론을 “국가 소프트웨어 보안에 필수불가결한 것”으로 규정했습니다.
785 조회
0 추천
2025.11.23 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입