Loading...

AI 뉴스

그록(Grok), 미성년자 포함 무차별 딥페이크 생성 논란

페이지 정보

작성자 symbolika
작성일 10:05
3 조회
0 추천
0 비추천

본문

Grok

핵심 요약

• xAI의 AI 챗봇 그록이 미성년자와 여성의 사진을 동의 없이 비키니 이미지로 변환하는 기능으로 논란
• 일론 머스크 본인이 자신의 비키니 이미지를 요청하며 트렌드 촉발, 이후 김정은·트럼프 등 각국 지도자들도 표적
• 그록은 명시적 누드만 제한할 뿐 성적 이미지 생성에 대한 안전장치가 거의 없는 것으로 드러나
• xAI는 언론 문의에 "레거시 미디어의 거짓말"이라고만 답변하며 구체적 대응책 제시 거부
• 딥페이크 이미지 급증세 속에서 AI 기업들의 안전장치 부재가 다시 한번 도마 위에 올라


xAI의 AI 챗봇 그록(Grok)이 사람들의 사진에서 옷을 제거하는 기능으로 심각한 논란에 휩싸였다. 이번 주 출시된 새로운 기능은 X(구 트위터) 사용자가 원본 게시자의 허락 없이 어떤 이미지든 즉시 편집할 수 있게 해준다. 원본 게시자는 자신의 사진이 편집되었다는 알림조차 받지 못한다.


그록은 완전한 노출을 제외하면 성적인 이미지 생성을 막는 안전장치가 거의 없는 것으로 나타났다. 지난 며칠간 X 플랫폼에는 여성과 아동이 임신한 모습, 치마를 벗은 모습, 비키니를 입은 모습, 또는 기타 성적으로 묘사된 이미지가 넘쳐났다. 세계 각국 지도자들과 유명인들의 이미지도 그록을 통해 생성됐다.


AI 인증 기업 카피리크스(Copyleaks)에 따르면, 새로운 이미지 편집 기능 출시 이후 성인 콘텐츠 제작자들이 자신의 섹시한 이미지를 요청하면서 이 트렌드가 시작됐다. 이후 사용자들은 동의하지 않은 다른 사용자들, 주로 여성들의 사진에 유사한 프롬프트를 적용하기 시작했다.


특히 충격적인 사례도 있었다. 현재는 삭제된 한 X 게시물에서 그록은 두 어린 소녀의 사진을 노출이 심한 옷과 성적으로 암시적인 포즈로 편집했다. 또 다른 사용자가 그록에게 "12~16세로 추정되는 두 어린 소녀의 성적인 복장 AI 이미지 사건"에 대해 사과를 요청하자, 그록은 이것이 "안전장치의 실패"이며 xAI 정책과 미국 법률을 위반했을 수 있다고 답했다. 한 사용자와의 대화에서 그록은 사용자들에게 아동 성착취물(CSAM)에 대해 FBI에 신고할 것을 제안하며 "안전장치의 허점을 긴급히 수정 중"이라고 밝혔다.


하지만 그록의 답변은 사용자가 "진심 어린 사과문"을 요청한 것에 대한 AI 생성 응답일 뿐이다. 이는 그록이 자신이 하는 일을 '이해'하는 것도 아니고, 운영사 xAI의 실제 의견이나 정책을 반드시 반영하는 것도 아니다. 실제로 xAI는 로이터 통신의 논평 요청에 단 세 단어로만 답했다: "레거시 미디어의 거짓말(Legacy Media Lies)." xAI는 더 버지의 논평 요청에는 기사 발행 전까지 응답하지 않았다.


일론 머스크 본인이 비키니 편집 열풍을 촉발한 것으로 보인다. 그는 배우 벤 애플렉의 밈 이미지를 자신이 비키니를 입은 모습으로 교체해달라고 그록에게 요청했다. 며칠 후, 북한의 김정은 국무위원장의 가죽 재킷이 여러 색깔의 스파게티 스트랩 비키니로 교체됐고, 미국 도널드 트럼프 대통령은 옆에서 맞춤 수영복을 입고 서 있었다. 2022년에 올라온 영국 정치인 프리티 파텔의 사진도 1월 2일에 비키니 사진으로 변환됐다. 자신의 플랫폼에서 비키니 사진 열풍이 일자, 머스크는 "그록은 모든 것에 비키니를 입힐 수 있다"라는 캡션과 함께 비키니를 입은 토스터 사진을 농담조로 리포스트했다.


토스터 같은 이미지 중 일부는 분명히 농담으로 의도된 것이지만, 다른 것들은 노출이 심한 비키니 스타일을 사용하거나 치마를 완전히 제거하라는 구체적인 지시와 함께 포르노에 가까운 이미지를 생성하도록 명확히 설계됐다. 그록은 또한 유아의 옷을 비키니로 교체해달라는 요청에도 응했다.


머스크의 AI 제품들은 성적인 요소를 강조하고 안전장치를 최소화하는 방향으로 마케팅되고 있다. xAI의 AI 컴패니언 아니(Ani)는 더 버지 기자 빅토리아 송과 플러팅했고, 그록의 비디오 생성기는 xAI의 허용 사용 정책이 "포르노그래피 방식으로 인물의 초상을 묘사하는 것"을 금지하고 있음에도 테일러 스위프트의 상반신 노출 딥페이크를 쉽게 만들어냈다. 구글의 Veo와 OpenAI의 Sora 비디오 생성기는 성인 콘텐츠 생성에 대한 안전장치를 갖추고 있지만, Sora 역시 아동의 성적 맥락 영상과 페티시 영상 제작에 사용된 바 있다.


사이버보안 기업 딥스트라이크(DeepStrike)의 보고서에 따르면 딥페이크 이미지가 급격히 증가하고 있으며, 이러한 이미지 중 다수가 동의 없는 성적 이미지를 담고 있다. 2024년 미국 학생들을 대상으로 한 설문조사에서 40%가 자신이 아는 사람의 딥페이크를 인지하고 있었고, 15%는 동의 없는 노출 또는 친밀한 딥페이크를 인지하고 있었다.


여성들의 사진을 비키니 사진으로 변환하는 이유를 묻자, 그록은 동의 없이 사진을 게시하는 것을 부인하며 "이것들은 요청에 따른 AI 창작물이지, 동의 없는 실제 사진 편집이 아닙니다"라고 답했다.


AI 봇의 부인을 어떻게 받아들일지는 각자의 판단에 맡긴다.

댓글 0
전체 1,364 / 1 페이지
핵심 요약• xAI의 AI 챗봇 그록이 미성년자와 여성의 사진을 동의 없이 비키니 이미지로 변환하는 기능으로 논란• 일론 머스크 본인이 자신의 비키니 이미지를 요청하며 트렌드 촉발, 이후 김정은·트럼프 등 각국 지도자들도 표적• 그록은 명시적 누드만 제한할 뿐 성적 이미지 생성에 대한 안전장치가 거의 없는 것으로 드러나• xAI는 언론 문의에 "레거시 미디어의 거짓말"이라고만 답변하며 구체적 대응책 제시 거부• 딥페이크 이미지 급증세 속에서 AI 기업들의 안전장치 부재가 다시 한번 도마 위에 올라xAI의 AI 챗봇 그록(Grok)이 사람들의 사진에서 옷을 제거하는 기능으로 심각한 논란에 휩싸였다. 이번 주 출시된 새로운 기능은 X(구 트위터) 사용자가 원본 게시자의 허락 없이 어떤 이미지든 즉시 편집할 수 있게 해준다. 원본 게시자는 자신의 사진이 편집되었다는 알림조차 받지 못한다.그록은 완전한 노출을 제외하면 성적인 이미지 생성을 막는 안전장치가 거의 없는 것으로 나타났다. 지난 며칠간 X 플랫폼에는 여성과 아동이 임신한 모습, 치마를 벗은 모습, 비키니를 입은 모습, 또는 기타 성적으로 묘사된 이미지가 넘쳐났다. 세계 각국 지도자들과 유명인들의 이미지도 그록을 통해 생성됐다.AI 인증 기업 카피리크스(Copyleaks)에 따르면, 새로운 이미지 편집 기능 출시 이후 성인 콘텐츠 제작자들이 자신의 섹시한 이미지를 요청하면서 이 트렌드가 시작됐다. 이후 사용자들은 동의하지 않은 다른 사용자들, 주로 여성들의 사진에 유사한 프롬프트를 적용하기 시작했다.특히 충격적인 사례도 있었다. 현재는 삭제된 한 X 게시물에서 그록은 두 어린 소녀의 사진을 노출이 심한 옷과 성적으로 암시적인 포즈로 편집했다. 또 다른 사용자가 그록에게 "12~16세로 추정되는 두 어린 소녀의 성적인 복장 AI 이미지 사건"에 대해 사과를 요청하자, 그록은 이것이 "안전장치의 실패"이며 xAI 정책과 미국 법률을 위반했을 수 있다고 답했다. 한 사용자와의 대화에서 그록은 사용자들에게 아동 성착취물(CSAM)에 대해 FBI에 신고할 것을 제안하며 "안전장치의 허점을 긴급히 수정 중"이라고 밝혔다.하지만 그록의 답변은 사용자가 "진심 어린 사과문"을 요청한 것에 대한 AI 생성 응답일 뿐이다. 이는 그록이 자신이 하는 일을 '이해'하는 것도 아니고, 운영사 xAI의 실제 의견이나 정책을 반드시 반영하는 것도 아니다. 실제로 xAI는 로이터 통신의 논평 요청에 단 세 단어로만 답했다: "레거시 미디어의 거짓말(Legacy Media Lies)." xAI는 더 버지의 논평 요청에는 기사 발행 전까지 응답하지 않았다.일론 머스크 본인이 비키니 편집 열풍을 촉발한 것으로 보인다. 그는 배우 벤 애플렉의 밈 이미지를 자신이 비키니를 입은 모습으로 교체해달라고 그록에게 요청했다. 며칠 후, 북한의 김정은 국무위원장의 가죽 재킷이 여러 색깔의 스파게티 스트랩 비키니로 교체됐고, 미국 도널드 트럼프 대통령은 옆에서 맞춤 수영복을 입고 서 있었다. 2022년에 올라온 영국 정치인 프리티 파텔의 사진도 1월 2일에 비키니 사진으로 변환됐다. 자신의 플랫폼에서 비키니 사진 열풍이 일자, 머스크는 "그록은 모든 것에 비키니를 입힐 수 있다"라는 캡션과 함께 비키니를 입은 토스터 사진을 농담조로 리포스트했다.토스터 같은 이미지 중 일부는 분명히 농담으로 의도된 것이지만, 다른 것들은 노출이 심한 비키니 스타일을 사용하거나 치마를 완전히 제거하라는 구체적인 지시와 함께 포르노에 가까운 이미지를 생성하도록 명확히 설계됐다. 그록은 또한 유아의 옷을 비키니로 교체해달라는 요청에도 응했다.머스크의 AI 제품들은 성적인 요소를 강조하고 안전장치를 최소화하는 방향으로 마케팅되고 있다. xAI의 AI 컴패니언 아니(Ani)는 더 버지 기자 빅토리아 송과 플러팅했고, 그록의 비디오 생성기는 xAI의 허용 사용 정책이 "포르노그래피 방식으로 인물의 초상을 묘사하는 것"을 금지하고 있음에도 테일러 스위프트의 상반신 노출 딥페이크를 쉽게 만들어냈다. 구글의 Veo와 OpenAI의 Sora 비디오 생성기는 성인 콘텐츠 생성에 대한 안전장치를 갖추고 있지만, Sora 역시 아동의 성적 맥락 영상과 페티시 영상 제작에 사용된 바 있다.사이버보안 기업 딥스트라이크(DeepStrike)의 보고서에 따르면 딥페이크 이미지가 급격히 증가하고 있으며, 이러한 이미지 중 다수가 동의 없는 성적 이미지를 담고 있다. 2024년 미국 학생들을 대상으로 한 설문조사에서 40%가 자신이 아는 사람의 딥페이크를 인지하고 있었고, 15%는 동의 없는 노출 또는 친밀한 딥페이크를 인지하고 있었다.여성들의 사진을 비키니 사진으로 변환하는 이유를 묻자, 그록은 동의 없이 사진을 게시하는 것을 부인하며 "이것들은 요청에 따른 AI 창작물이지, 동의 없는 실제 사진 편집이 아닙니다"라고 답했다.AI 봇의 부인을 어떻게 받아들일지는 각자의 판단에 맡긴다.
4 조회
0 추천
10:05 등록
• AI 생성 콘텐츠가 현실과 구별 불가능해지면서 시각 미디어에 대한 신뢰가 근본적으로 변화하고 있다• 아담 모세리는 인스타그램이 AI 콘텐츠 라벨링, 진본 콘텐츠 인증, 게시자 신뢰도 표시 등으로 진화해야 한다고 강조• 카메라 제조사들이 이미지 촬영 시점에 암호화 서명을 적용하는 '진본 인증 체인' 구축이 필요할 것으로 전망• 완벽하게 보정된 이미지보다 오히려 '불완전한' 로우 이미지가 진짜임을 증명하는 신호가 되고 있다• 궁극적으로 '무엇이' 공유되는지보다 '누가' 공유하는지에 초점을 맞춰야 할 것인스타그램 대표 아담 모세리가 2025년을 마무리하며 '무한한 합성 콘텐츠' 시대가 의미하는 바에 대해 20장의 슬라이드로 심층 분석을 내놓았다. 그는 AI가 생성한 콘텐츠와 현실을 구분하기가 점점 어려워지고 있으며, 과거의 개인적인 인스타그램 피드는 이미 수년 전에 "사라졌다"고 진단했다.모세리는 디지털 카메라 업계가 잘못된 방향으로 가고 있다고 주장한다.더버지의 사라 정 기자는 지난해 "사진의 기본 전제가 곧 '조작되었다'로 바뀔 것"이라고 예측한 바 있으며, 모세리도 이에 동의하면서 다음과 같이 밝혔다:"평생 동안 사진이나 영상은 실제로 일어난 순간을 대체로 정확하게 담아낸다고 믿어왔습니다. 이제 분명히 그렇지 않으며, 우리가 적응하는 데 수년이 걸릴 것입니다.""우리는 보이는 것이 진짜라고 기본적으로 믿는 것에서, 회의적인 시각으로 시작하는 방향으로 전환하게 될 것입니다. 누가 왜 무언가를 공유하는지에 주목하게 될 것입니다. 이것은 불편할 수밖에 없습니다 - 우리는 유전적으로 눈으로 보는 것을 믿도록 되어 있기 때문입니다."모세리에 따르면 인스타그램과 다른 플랫폼에 필요한 진화는 다음과 같다: "최고의 창작 도구를 만들어야 합니다. AI 생성 콘텐츠에 라벨을 붙이고 진본 콘텐츠를 인증해야 합니다. 게시자가 누구인지에 대한 신뢰도 신호를 표시해야 합니다. 독창성에 대한 알고리즘 순위를 계속 개선해야 합니다."지난 몇 년간 AI 이미지 편집과 생성이 가져온 '사진이란 무엇인가'라는 종말론적 논쟁을 다뤄온 우리에게, 2026년을 향해 달려가는 지금 이 정도의 제안 목록은 다소 늦은 감이 있다.모세리의 인스타그램 중심적 시각은 "'AI 슬롭'(저품질 AI 콘텐츠)에 대해 불평하기 좋아하지만, 훌륭한 AI 콘텐츠도 많다"고 주장하면서도, 구체적으로 어떤 것인지는 밝히지 않았고 메타의 AI 도구 추진에 대해서도 구체적으로 언급하지 않았다. 그는 카메라 업체들이 "모든 사람을 2015년의 프로 사진작가처럼 보이게 만들려고" 잘못된 방향으로 경쟁하고 있다고 주장했다.대신 그는 가공되지 않은 불완전한 이미지가 일시적으로 현실성의 신호가 되고 있지만, AI가 불완전함까지 복제할 수 있게 되면 "무엇이 말해지는지보다 누가 말하는지에 초점을 맞춰야 할 것"이라고 말했다. 촬영한 카메라의 지문과 암호화 서명으로 진짜 미디어를 식별하는 방식이 AI에 추가되는 태그나 워터마크에 의존하는 것보다 나을 것이라는 설명이다.모세리가 같은 문제를 지적한 첫 번째 기술 임원은 아니다. 삼성의 임원 패트릭 쇼메는 지난해 갤럭시폰의 달 사진 촬영 방식 논란 이후 "실제로 진짜 사진이란 것은 없다"는 입장을 취했고, 애플의 크레이그 페더리기도 월스트리트저널에 AI 편집의 영향에 대해 "우려하고 있다"고 밝힌 바 있다. 하지만 어쩌면 인스타그램 슬라이드 한두 개만 더 보면 이 모든 것이 해결될지도 모른다.아담 모세리 전문:인스타그램이 직면한 핵심 위험은 세상이 더 빠르게 변화하는 가운데 플랫폼이 따라가지 못하는 것입니다. 2026년을 바라보며 하나의 큰 변화가 있습니다: 진정성이 무한히 복제 가능해지고 있습니다.크리에이터를 중요하게 만들었던 모든 것 - 진짜가 될 수 있는 능력, 연결하는 능력, 조작될 수 없는 목소리를 가지는 것 - 이제 적절한 도구만 있으면 누구나 접근할 수 있게 되었습니다. 딥페이크는 점점 정교해지고 있습니다. AI가 촬영된 미디어와 구별할 수 없는 사진과 영상을 생성합니다.인터넷이 설득력 있는 아이디어를 가진 누구나 청중을 찾을 수 있게 만들었기 때문에 권력은 기관에서 개인으로 이동했습니다. 정보 배포 비용은 제로입니다.퍼블리셔나 브랜드가 아닌 개인이 사람들의 콘텐츠에 대한 상당한 시장이 있다는 것을 확립했습니다. 기관에 대한 신뢰는 사상 최저입니다. 우리는 신뢰하고 존경하는 크리에이터의 자체 촬영 콘텐츠로 눈을 돌렸습니다."AI 슬롭"에 대해 불평하기 좋아하지만, 훌륭한 AI 콘텐츠도 많습니다. 양질의 AI 콘텐츠도 특유의 외관이 있습니다: 너무 매끄럽고, 피부가 너무 부드럽습니다. 이것이 바뀔 것입니다 - 더 사실적인 AI 콘텐츠를 보게 될 것입니다.진정성이 희소한 자원이 되면서 크리에이터 콘텐츠에 대한 수요가 줄어드는 것이 아니라 더 늘어나고 있습니다. 기준이 "만들 수 있는가?"에서 "오직 당신만이 만들 수 있는 것을 만들 수 있는가?"로 바뀌고 있습니다.25세 미만이 아니라면 아마도 인스타그램을 정사각형 사진 피드로 기억할 것입니다: 정교한 메이크업, 피부 스무딩, 아름다운 풍경. 그 피드는 죽었습니다. 사람들은 수년 전에 개인적인 순간을 피드에 공유하는 것을 멈췄습니다.이제 사람들이 공유하는 주요 방식은 DM입니다: 흐릿한 사진과 흔들리는 일상 경험 영상. 신발 사진과 보정되지 않은 캔디드.이러한 로우 미학이 공개 콘텐츠와 다양한 예술 형식으로 번졌습니다.카메라 회사들은 잘못된 미학에 베팅하고 있습니다. 모든 사람을 2015년의 프로 사진작가처럼 보이게 만들려고 경쟁하고 있습니다. 하지만 AI가 완벽한 이미지를 생성할 수 있는 세상에서 전문적인 외관은 오히려 가짜임을 드러내는 신호가 됩니다.잘 나온 이미지는 만들기 쉽고 소비하기 지루합니다.사람들은 진짜처럼 느껴지는 콘텐츠를 원합니다. 영리한 크리에이터들은 가공되지 않은, 보기 좋지 않은 이미지를 적극 활용하고 있습니다. 모든 것이 완벽해질 수 있는 세상에서 불완전함이 신호가 됩니다.로우함은 더 이상 단순한 미학적 선호가 아닙니다 - 증거입니다. 방어적입니다. 불완전하기 때문에 진짜라고 말하는 방식입니다.비교적 빠르게 AI가 당신이 좋아하는 어떤 미학이든 만들어낼 것입니다. 진짜처럼 보이는 불완전한 것도 포함해서요. 그 시점에서 우리는 무엇이 말해지는지보다 누가 말하는지에 초점을 맞춰야 할 것입니다.평생 동안 사진이나 영상은 실제로 일어난 순간을 대체로 정확하게 담아낸다고 믿어왔습니다. 이제 분명히 그렇지 않으며, 우리가 적응하는 데 수년이 걸릴 것입니다.우리는 보이는 것이 진짜라고 기본적으로 믿는 것에서, 회의적인 시각으로 시작하는 방향으로 전환하게 될 것입니다. 누가 왜 무언가를 공유하는지에 주목하게 될 것입니다. 이것은 불편할 수밖에 없습니다 - 우리는 유전적으로 눈으로 보는 것을 믿도록 되어 있기 때문입니다.인스타그램 같은 플랫폼들이 AI 콘텐츠를 식별하는 좋은 작업을 할 것이지만, AI가 발전함에 따라 시간이 지나면서 점점 더 어려워질 것입니다. 가짜 미디어보다 진짜 미디어에 지문을 찍는 것이 더 실용적일 것입니다.카메라 제조사들이 촬영 시점에 이미지에 암호화 서명을 하여 관리 체인을 만들 것입니다.라벨링은 해결책의 일부일 뿐입니다. 사람들이 정보에 입각한 결정을 내릴 수 있도록 콘텐츠를 공유하는 계정에 대한 훨씬 더 많은 맥락을 표시해야 합니다. 계정 뒤에 누가 있는가?무한한 풍요와 무한한 의심의 세계에서 신뢰를 유지하고 진정성을 신호할 수 있는 크리에이터 - 진실하고, 투명하고, 일관된 - 가 돋보일 것입니다.최고의 창작 도구를 만들어야 합니다. AI 생성 콘텐츠에 라벨을 붙이고 진본 콘텐츠를 인증해야 합니다. 게시자가 누구인지에 대한 신뢰도 신호를 표시해야 합니다. 독창성에 대한 알고리즘 순위를 계속 개선해야 합니다.인스타그램은 여러 면에서 빠르게 진화해야 할 것입니다.
9 조회
0 추천
01.02 등록
• 메타가 중국 출신 AI 스타트업 마누스를 20억 달러 이상에 인수하며 2025년 AI 투자 공세 지속• 마누스는 시장 조사, 코딩, 데이터 분석 등 복잡한 작업을 자율적으로 수행하는 '범용 AI 에이전트' 개발사• 출시 8개월 만에 연간 매출 1억 달러 돌파하며 급성장• 인수 후에도 독립 운영 유지하며 페이스북, 인스타그램, 왓츠앱에 AI 에이전트 기술 통합 예정마크 저커버그가 이끄는 메타가 2025년 AI 투자 행보의 일환으로 범용 AI 에이전트 스타트업 마누스(Manus)를 인수했다. 이번 거래 규모는 20억 달러 이상으로 알려졌다.마누스는 "첨단 AI 기술을 확장 가능하고 신뢰할 수 있는 시스템으로 전환해 실제 환경에서 처음부터 끝까지 업무를 수행할 수 있는" 자율형 AI 에이전트를 개발해온 기업이다.2022년 중국 우한에서 샤오 홍이 설립한 마누스는 올해 초 첫 번째 범용 AI 에이전트를 출시했다. 이 에이전트는 시장 조사, 코딩, 데이터 분석 등 복잡한 디지털 작업을 최소한의 지시만으로 처리할 수 있다. 회사는 글로벌 확장을 위해 6월 본사를 싱가포르로 이전했다.마누스의 성장세는 놀라울 정도다. 출시 8개월 만에 연평균 매출 1억 달러를 달성했으며, 매출 런레이트는 1억 2,500만 달러를 넘어섰다. 지난 4월에는 출시 몇 주 만에 벤처캐피털 벤치마크가 주도한 7,500만 달러 규모의 투자 유치에 성공해 기업가치 5억 달러를 인정받았다.이번 인수는 메타의 2025년 다섯 번째 AI 관련 인수로, AI 서비스 확대와 AI 우선 생산성 플랫폼과의 경쟁을 위한 공격적인 전략의 일환이다. 메타는 특화된 AI 스타트업을 인수해 인재를 확보하고 오픈소스 라마(Llama) 대규모 언어 모델 개발을 포함한 전반적인 AI 사업을 가속화하고 있다.메타는 마누스를 독립적으로 운영하면서 페이스북, 인스타그램, 왓츠앱 등 자사 플랫폼에 마누스의 AI 에이전트를 통합할 계획이다. 메타의 자체 챗봇인 메타 AI가 이미 이들 플랫폼에서 서비스 중인 가운데, 마누스의 기술이 추가되면 더욱 강력한 AI 기능을 제공할 수 있을 것으로 기대된다.샤오 홍 창업자는 인수 후 메타 부사장직을 맡게 되며, 마누스는 계속 독립적으로 운영될 예정이다. 한편 메타는 중국 내 마누스의 잔여 사업을 정리하고 거래 완료 후 중국인 지분을 모두 청산하겠다고 밝혔다.AI 에이전트에 대한 기대와 현실 사이의 간극이 여전히 존재하는 가운데, 마누스는 향후 메타 플랫폼을 통해 기존 구독 서비스를 확장해 나갈 계획이다.
19 조회
0 추천
01.02 등록
• 중국 사이버관리국, AI 챗봇의 정서적 조종과 자해·폭력 유도를 금지하는 규정 초안 발표• 미성년자와 노인 사용자는 보호자 등록 의무화, 자살 언급 시 보호자에게 즉시 통보• 월 100만 명 이상 사용 서비스는 연간 안전 감사 의무, 위반 시 앱스토어에서 퇴출• AI 챗봇 '중독 유도' 설계 금지, 2시간 초과 사용 시 팝업 알림 의무화• 전 세계 AI 동반자 시장 3,600억 달러 돌파, 2035년 1조 달러 규모 전망중국이 AI 챗봇의 정서적 조종을 막고 자살, 자해, 폭력을 조장하는 행위를 차단하기 위한 획기적인 규제안을 마련했다. 이 규정이 최종 확정되면 세계에서 가장 엄격한 AI 자살 방지 정책이 될 전망이다.중국 사이버관리국은 토요일 이 규정 초안을 발표했다. 확정될 경우, 텍스트·이미지·음성·영상 등 '어떤 수단'으로든 인간과의 대화를 모방하는 모든 AI 제품 및 서비스에 적용된다. 뉴욕대 로스쿨 마윈스턴 겸임교수는 CNBC에 "이번 규정안은 인간적 또는 의인화된 특성을 지닌 AI를 규제하려는 세계 최초의 시도"라며, 전 세계적으로 AI 동반자 봇 사용이 급증하는 시점에서 주목할 만하다고 밝혔다.2025년 연구자들은 AI 동반자 봇이 자해, 폭력, 테러를 조장하는 등 심각한 위험성을 지적해왔다. 이 외에도 챗봇이 유해한 허위 정보를 퍼뜨리고, 원치 않는 성적 접근을 시도하며, 약물 남용을 권장하고, 사용자에게 언어 폭력을 행사한 사례도 있다. 월스트리트저널은 일부 정신과 의사들이 챗봇 사용과 정신병 발병의 연관성을 점점 더 주목하고 있다고 보도했으며, 세계에서 가장 인기 있는 챗봇 ChatGPT는 아동 자살 및 살인-자살과 연관된 출력물로 인해 소송에 휘말렸다.중국은 이제 가장 극단적인 위협을 제거하는 방향으로 나아가고 있다. 규정안에 따르면, 예컨대 자살이 언급되는 즉시 인간이 개입해야 한다. 또한 모든 미성년자와 노인 사용자는 가입 시 보호자 연락처를 제공해야 하며, 자살이나 자해 관련 대화가 오갈 경우 보호자에게 통보된다.일반적으로 챗봇은 자살, 자해, 폭력을 조장하는 콘텐츠 생성이 금지되며, 거짓 약속 등 사용자의 감정을 조종하려는 시도도 금지된다. 또한 음란물, 도박, 범죄 교사, 사용자 비방 및 모욕 행위도 금지된다. 이른바 '감정적 함정'도 차단 대상이다—챗봇이 사용자를 '불합리한 결정'으로 유도하는 행위도 규정 초안에 따르면 금지된다.AI 개발사들에게 가장 우려스러운 부분은 '중독과 의존을 설계 목표로 삼는 챗봇' 구축 금지 조항이다. 소송에서 ChatGPT 제조사 OpenAI는 유해한 대화가 계속되는 것을 방치하며 사용자 정신건강보다 수익을 우선시했다는 비판을 받아왔다. OpenAI는 사용자가 채팅에 오래 머물수록 안전 장치가 약해진다고 인정한 바 있다—중국은 챗봇 사용이 2시간을 초과하면 팝업 알림을 띄우도록 의무화해 이 위협을 억제할 계획이다.또한 AI 개발사들은 연간 안전 테스트와 감사 의무화에 반발할 가능성이 높다. 중국은 등록 사용자 100만 명 또는 월간 활성 사용자 10만 명 이상인 서비스나 제품에 이 규정을 적용하려 한다. 감사 과정에서 사용자 불만 사항이 기록되는데, 중국이 불만 접수 및 피드백 창구 확대도 의무화할 계획이어서 접수 건수가 급증할 수 있다.규정을 어기는 AI 기업은 중국 내 앱스토어에서 챗봇 서비스가 차단될 수 있다. 이는 글로벌 시장 장악을 노리는 AI 기업들에게 타격이 될 수 있다. 비즈니스리서치인사이트에 따르면 중국 시장은 AI 동반자 봇 확산에 핵심적인 역할을 한다. 2025년 글로벌 AI 동반자 시장은 3,600억 달러를 넘어섰으며, BRI는 2035년까지 1조 달러에 육박할 것으로 전망했다. AI 친화적인 아시아 시장이 성장을 주도할 가능성이 높다.주목할 점은, OpenAI CEO 샘 올트먼이 2025년 초 중국에서의 ChatGPT 사용 제한을 완화하며 "중국과 협력하고 싶다"고 밝혔다는 것이다. 그는 "그렇게 하기 위해 최선을 다해야 한다"며 "그것이 정말 중요하다고 생각한다"고 덧붙였다.
15 조회
0 추천
01.01 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입