Loading...

AI 뉴스

중국, AI 챗봇 자살 조장·폭력 유도 막는 세계 최강 규제안 발표

페이지 정보

작성자 symbolika
작성일 19:52
2 조회
0 추천
0 비추천

본문

중국 AI 규제


• 중국 사이버관리국, AI 챗봇의 정서적 조종과 자해·폭력 유도를 금지하는 규정 초안 발표
• 미성년자와 노인 사용자는 보호자 등록 의무화, 자살 언급 시 보호자에게 즉시 통보
• 월 100만 명 이상 사용 서비스는 연간 안전 감사 의무, 위반 시 앱스토어에서 퇴출
• AI 챗봇 '중독 유도' 설계 금지, 2시간 초과 사용 시 팝업 알림 의무화
• 전 세계 AI 동반자 시장 3,600억 달러 돌파, 2035년 1조 달러 규모 전망


중국이 AI 챗봇의 정서적 조종을 막고 자살, 자해, 폭력을 조장하는 행위를 차단하기 위한 획기적인 규제안을 마련했다. 이 규정이 최종 확정되면 세계에서 가장 엄격한 AI 자살 방지 정책이 될 전망이다.

중국 사이버관리국은 토요일 이 규정 초안을 발표했다. 확정될 경우, 텍스트·이미지·음성·영상 등 '어떤 수단'으로든 인간과의 대화를 모방하는 모든 AI 제품 및 서비스에 적용된다. 뉴욕대 로스쿨 마윈스턴 겸임교수는 CNBC에 "이번 규정안은 인간적 또는 의인화된 특성을 지닌 AI를 규제하려는 세계 최초의 시도"라며, 전 세계적으로 AI 동반자 봇 사용이 급증하는 시점에서 주목할 만하다고 밝혔다.

2025년 연구자들은 AI 동반자 봇이 자해, 폭력, 테러를 조장하는 등 심각한 위험성을 지적해왔다. 이 외에도 챗봇이 유해한 허위 정보를 퍼뜨리고, 원치 않는 성적 접근을 시도하며, 약물 남용을 권장하고, 사용자에게 언어 폭력을 행사한 사례도 있다. 월스트리트저널은 일부 정신과 의사들이 챗봇 사용과 정신병 발병의 연관성을 점점 더 주목하고 있다고 보도했으며, 세계에서 가장 인기 있는 챗봇 ChatGPT는 아동 자살 및 살인-자살과 연관된 출력물로 인해 소송에 휘말렸다.

중국은 이제 가장 극단적인 위협을 제거하는 방향으로 나아가고 있다. 규정안에 따르면, 예컨대 자살이 언급되는 즉시 인간이 개입해야 한다. 또한 모든 미성년자와 노인 사용자는 가입 시 보호자 연락처를 제공해야 하며, 자살이나 자해 관련 대화가 오갈 경우 보호자에게 통보된다.

일반적으로 챗봇은 자살, 자해, 폭력을 조장하는 콘텐츠 생성이 금지되며, 거짓 약속 등 사용자의 감정을 조종하려는 시도도 금지된다. 또한 음란물, 도박, 범죄 교사, 사용자 비방 및 모욕 행위도 금지된다. 이른바 '감정적 함정'도 차단 대상이다—챗봇이 사용자를 '불합리한 결정'으로 유도하는 행위도 규정 초안에 따르면 금지된다.

AI 개발사들에게 가장 우려스러운 부분은 '중독과 의존을 설계 목표로 삼는 챗봇' 구축 금지 조항이다. 소송에서 ChatGPT 제조사 OpenAI는 유해한 대화가 계속되는 것을 방치하며 사용자 정신건강보다 수익을 우선시했다는 비판을 받아왔다. OpenAI는 사용자가 채팅에 오래 머물수록 안전 장치가 약해진다고 인정한 바 있다—중국은 챗봇 사용이 2시간을 초과하면 팝업 알림을 띄우도록 의무화해 이 위협을 억제할 계획이다.

또한 AI 개발사들은 연간 안전 테스트와 감사 의무화에 반발할 가능성이 높다. 중국은 등록 사용자 100만 명 또는 월간 활성 사용자 10만 명 이상인 서비스나 제품에 이 규정을 적용하려 한다. 감사 과정에서 사용자 불만 사항이 기록되는데, 중국이 불만 접수 및 피드백 창구 확대도 의무화할 계획이어서 접수 건수가 급증할 수 있다.

규정을 어기는 AI 기업은 중국 내 앱스토어에서 챗봇 서비스가 차단될 수 있다. 이는 글로벌 시장 장악을 노리는 AI 기업들에게 타격이 될 수 있다. 비즈니스리서치인사이트에 따르면 중국 시장은 AI 동반자 봇 확산에 핵심적인 역할을 한다. 2025년 글로벌 AI 동반자 시장은 3,600억 달러를 넘어섰으며, BRI는 2035년까지 1조 달러에 육박할 것으로 전망했다. AI 친화적인 아시아 시장이 성장을 주도할 가능성이 높다.

주목할 점은, OpenAI CEO 샘 올트먼이 2025년 초 중국에서의 ChatGPT 사용 제한을 완화하며 "중국과 협력하고 싶다"고 밝혔다는 것이다. 그는 "그렇게 하기 위해 최선을 다해야 한다"며 "그것이 정말 중요하다고 생각한다"고 덧붙였다.

댓글 0
전체 1,364 / 1 페이지
• 중국 사이버관리국, AI 챗봇의 정서적 조종과 자해·폭력 유도를 금지하는 규정 초안 발표• 미성년자와 노인 사용자는 보호자 등록 의무화, 자살 언급 시 보호자에게 즉시 통보• 월 100만 명 이상 사용 서비스는 연간 안전 감사 의무, 위반 시 앱스토어에서 퇴출• AI 챗봇 '중독 유도' 설계 금지, 2시간 초과 사용 시 팝업 알림 의무화• 전 세계 AI 동반자 시장 3,600억 달러 돌파, 2035년 1조 달러 규모 전망중국이 AI 챗봇의 정서적 조종을 막고 자살, 자해, 폭력을 조장하는 행위를 차단하기 위한 획기적인 규제안을 마련했다. 이 규정이 최종 확정되면 세계에서 가장 엄격한 AI 자살 방지 정책이 될 전망이다.중국 사이버관리국은 토요일 이 규정 초안을 발표했다. 확정될 경우, 텍스트·이미지·음성·영상 등 '어떤 수단'으로든 인간과의 대화를 모방하는 모든 AI 제품 및 서비스에 적용된다. 뉴욕대 로스쿨 마윈스턴 겸임교수는 CNBC에 "이번 규정안은 인간적 또는 의인화된 특성을 지닌 AI를 규제하려는 세계 최초의 시도"라며, 전 세계적으로 AI 동반자 봇 사용이 급증하는 시점에서 주목할 만하다고 밝혔다.2025년 연구자들은 AI 동반자 봇이 자해, 폭력, 테러를 조장하는 등 심각한 위험성을 지적해왔다. 이 외에도 챗봇이 유해한 허위 정보를 퍼뜨리고, 원치 않는 성적 접근을 시도하며, 약물 남용을 권장하고, 사용자에게 언어 폭력을 행사한 사례도 있다. 월스트리트저널은 일부 정신과 의사들이 챗봇 사용과 정신병 발병의 연관성을 점점 더 주목하고 있다고 보도했으며, 세계에서 가장 인기 있는 챗봇 ChatGPT는 아동 자살 및 살인-자살과 연관된 출력물로 인해 소송에 휘말렸다.중국은 이제 가장 극단적인 위협을 제거하는 방향으로 나아가고 있다. 규정안에 따르면, 예컨대 자살이 언급되는 즉시 인간이 개입해야 한다. 또한 모든 미성년자와 노인 사용자는 가입 시 보호자 연락처를 제공해야 하며, 자살이나 자해 관련 대화가 오갈 경우 보호자에게 통보된다.일반적으로 챗봇은 자살, 자해, 폭력을 조장하는 콘텐츠 생성이 금지되며, 거짓 약속 등 사용자의 감정을 조종하려는 시도도 금지된다. 또한 음란물, 도박, 범죄 교사, 사용자 비방 및 모욕 행위도 금지된다. 이른바 '감정적 함정'도 차단 대상이다—챗봇이 사용자를 '불합리한 결정'으로 유도하는 행위도 규정 초안에 따르면 금지된다.AI 개발사들에게 가장 우려스러운 부분은 '중독과 의존을 설계 목표로 삼는 챗봇' 구축 금지 조항이다. 소송에서 ChatGPT 제조사 OpenAI는 유해한 대화가 계속되는 것을 방치하며 사용자 정신건강보다 수익을 우선시했다는 비판을 받아왔다. OpenAI는 사용자가 채팅에 오래 머물수록 안전 장치가 약해진다고 인정한 바 있다—중국은 챗봇 사용이 2시간을 초과하면 팝업 알림을 띄우도록 의무화해 이 위협을 억제할 계획이다.또한 AI 개발사들은 연간 안전 테스트와 감사 의무화에 반발할 가능성이 높다. 중국은 등록 사용자 100만 명 또는 월간 활성 사용자 10만 명 이상인 서비스나 제품에 이 규정을 적용하려 한다. 감사 과정에서 사용자 불만 사항이 기록되는데, 중국이 불만 접수 및 피드백 창구 확대도 의무화할 계획이어서 접수 건수가 급증할 수 있다.규정을 어기는 AI 기업은 중국 내 앱스토어에서 챗봇 서비스가 차단될 수 있다. 이는 글로벌 시장 장악을 노리는 AI 기업들에게 타격이 될 수 있다. 비즈니스리서치인사이트에 따르면 중국 시장은 AI 동반자 봇 확산에 핵심적인 역할을 한다. 2025년 글로벌 AI 동반자 시장은 3,600억 달러를 넘어섰으며, BRI는 2035년까지 1조 달러에 육박할 것으로 전망했다. AI 친화적인 아시아 시장이 성장을 주도할 가능성이 높다.주목할 점은, OpenAI CEO 샘 올트먼이 2025년 초 중국에서의 ChatGPT 사용 제한을 완화하며 "중국과 협력하고 싶다"고 밝혔다는 것이다. 그는 "그렇게 하기 위해 최선을 다해야 한다"며 "그것이 정말 중요하다고 생각한다"고 덧붙였다.
3 조회
0 추천
19:52 등록
• 메타가 '아보카도'라는 코드명의 새 AI 모델을 개발 중이며, 유료 접근 방식을 고려하고 있다• 마크 저커버그가 오픈소스 정책 변경을 시사하며 "안전 리스크 완화를 위해 오픈소스 공개에 신중할 것"이라고 밝혔다• 라마 4 출시 실패 이후 메타는 AI 팀을 대대적으로 개편하고 최고급 AI 인재 영입에 막대한 자금을 투입하고 있다• 저커버그는 현재 '메타 초지능 연구소'라는 새 그룹과 긴밀히 협력하며 AI 개발에 집중하고 있다메타와 마크 저커버그 CEO가 오픈소스 AI 전략을 변경할 가능성이 제기됐다.블룸버그 보도에 따르면, 메타는 현재 '아보카도'라는 코드명의 새 AI 모델을 개발 중이며, 이 모델에 대해 유료 접근 방식을 검토하고 있다. 저커버그는 그동안 오픈소스가 "앞으로 나아갈 길"이라고 강조해왔기에 이번 움직임은 상당한 정책 전환을 의미한다.지난해 메타는 라마 4 AI 모델을 출시했지만, 결과는 실망스러웠다. 메타가 AI 벤치마크를 조작한 사실이 드러났고, 계획되어 있던 '비히모스' 버전의 출시도 연기해야 했다. 블룸버그에 따르면 저커버그는 "새로운 것을 추구하기 위해" 이 계획을 폐기했다고 한다.라마 4 출시 이후 저커버그는 메타 AI 팀에 대대적인 변화를 단행했다. 스케일 AI의 전 CEO 알렉산드르 왕을 영입한 것을 비롯해, 새롭게 명명된 '메타 초지능 연구소' 그룹을 위해 최고급 AI 인재들을 대거 영입하는 데 막대한 자금을 투입했다. 저커버그는 스케일 AI에 143억 달러를 투자한 바 있다.7월 30일 "개인 초지능"에 관한 메모에서 저커버그는 메타가 오픈소스 접근 방식을 수정해야 할 수도 있다고 밝혔다. 그는 잠재적 안전 리스크를 완화하기 위해 회사가 "오픈소스로 공개하는 것에 대해 신중해야 할 것"이라고 말했다.이러한 변화의 일환으로, 저커버그는 현재 대부분의 시간과 에너지를 'TBD 랩'이라는 그룹에서 새로 영입된 인재들과 긴밀히 협력하는 데 쏟고 있다고 블룸버그는 전했다. 뉴욕타임스 보도에 따르면, 이 팀은 메타 본사 내 저커버그 사무실 근처에 "격리된 공간"을 갖추고 있다.
8 조회
0 추천
14:29 등록
• OpenAI가 ChatGPT 사용자를 위한 '연간 리뷰' 기능을 선보였다• 2025년 한 해 동안 보낸 메시지 수, 대화 주제 등 개인화된 통계를 제공한다• AI가 생성한 픽셀 아트 스타일 이미지로 사용자의 관심 주제를 시각화한다• 미국, 영국, 캐나다, 뉴질랜드, 호주 사용자 대상으로 순차 배포 중이다ChatGPT가 연례 리캡 기능을 제공하는 앱 대열에 합류했다. OpenAI는 '연간 리뷰(Year in Review)' 기능을 출시해 2025년 한 해 동안 챗봇에 보낸 메시지 수 등 다양한 통계와 함께, 사용자가 나눈 대화 주제를 반영한 AI 생성 픽셀 아트 스타일 이미지를 제공한다.기자가 받은 이미지에는 레트로 게임 콘솔, 요리, 어항 설치 관련 질문을 반영하듯 수족관 옆에 게임 카트리지, 인스턴트팟, 컴퓨터 화면이 그려져 있었다.이 외에도 대화에서 가장 많이 등장한 주제 요약, 채팅 스타일 설명, 가장 많은 메시지를 보낸 요일 등 개인화된 분석이 포함된다. 또한 '프로듀서' 또는 '내비게이터' 같은 '아키타입'으로 사용자를 분류하고, '인스턴트팟 달인'처럼 맞춤형 칭호도 부여한다.연간 리캡 기능은 현재 미국, 영국, 캐나다, 뉴질랜드, 호주 사용자에게 순차적으로 배포되고 있다. 단, ChatGPT에 과거 대화 기록과 개인 선호도 참조 권한을 허용한 경우에만 이용할 수 있다. 모바일이나 데스크톱 ChatGPT 앱 홈페이지에서 해당 옵션을 선택하거나, ChatGPT에 "show my year in review"라고 입력하면 자신의 연간 리뷰를 확인할 수 있다.
8 조회
0 추천
2025.12.31 등록
• 미국 연방거래위원회(FTC), 'AI 규제 작전' 일환으로 허위 광고 AI 기업들 대대적 단속• DoNotPay, 검증 없이 '로봇 변호사'가 인간 변호사를 대체할 수 있다고 허위 주장• FTC, AI 서비스로 소비자 기만하는 행위에 법적 예외 없음을 분명히 경고DoNotPay가 자사 서비스가 유효한 법률 문서를 작성할 수 있다고 소비자들을 오도한 혐의에 대해 19만 3천 달러를 지불하기로 합의했다."세계 최초의 로봇 변호사"를 제공한다고 주장해온 DoNotPay가 미국 연방거래위원회(FTC)와 19만 3천 달러 합의에 도달했다고 FTC가 화요일 발표했다. 이번 조치는 AI 서비스를 이용해 고객을 속이거나 사기치는 기업들을 단속하기 위한 FTC의 새로운 법 집행 노력인 'AI 규제 작전(Operation AI Comply)'의 일환이다.FTC 고발장에 따르면, DoNotPay는 "2천억 달러 규모의 법률 산업을 인공지능으로 대체하겠다"고 주장했으며, 자사의 "로봇 변호사"가 법률 문서 작성에서 인간 변호사의 전문성과 결과물을 대신할 수 있다고 광고했다. 그러나 FTC는 이 회사가 이러한 주장을 뒷받침할 어떠한 테스트도 수행하지 않았다고 밝혔다. 고발장에는 다음과 같이 적시되어 있다:"이 서비스의 어떤 기술도 연방 및 주 법률, 규정, 판결의 포괄적이고 최신의 자료나 이러한 법률을 사실관계에 적용하는 방법에 대해 훈련받지 않았다. DoNotPay 직원들은 대부분의 법률 관련 기능이 생성하는 법률 문서와 조언의 품질과 정확성을 테스트하지 않았다. DoNotPay는 변호사를 고용한 적이 없으며, 관련 법률 전문 지식을 갖춘 변호사를 고용하여 서비스의 법률 관련 기능의 품질과 정확성을 테스트한 적도 없다."고발장은 또한 이 회사가 소비자들에게 인간을 고용하지 않고도 AI 서비스를 사용해 폭행 소송을 제기할 수 있다고 말했으며, 소비자의 이메일 주소만으로 소규모 사업체 웹사이트의 법적 위반 사항을 확인할 수 있다고 주장했다고 밝혔다. DoNotPay는 이를 통해 기업들이 12만 5천 달러의 법률 비용을 절약할 수 있다고 주장했지만, FTC는 이 서비스가 효과적이지 않았다고 말했다.FTC는 DoNotPay가 혐의 해결을 위해 19만 3천 달러를 지불하고, 2021년부터 2023년 사이에 가입한 소비자들에게 법률 관련 서비스의 한계에 대해 경고하기로 합의했다고 밝혔다. 또한 DoNotPay는 증거를 제시하지 않고는 어떤 전문 서비스도 대체할 수 있다고 주장할 수 없게 되었다.FTC는 AI 서비스를 이용해 고객을 오도한 다른 기업들에 대한 조치도 발표했다. 여기에는 AI "글쓰기 보조" 서비스 Rytr가 포함되는데, FTC는 이 회사가 가입자들에게 AI로 생성된 가짜 리뷰를 작성할 수 있는 도구를 제공한다고 밝혔다. Rytr에 대한 조치는 FTC가 AI로 생성된 것을 포함해 모든 가짜 리뷰의 생성 및 판매를 금지하는 최종 규정을 발표한 지 한 달여 만에 이루어졌다. 이 규정이 곧 발효되면 FTC는 기업들에 대해 위반 건당 최대 51,744달러의 벌금을 부과할 수 있다.FTC는 또한 소비자들에게서 최소 2천 5백만 달러를 사취한 혐의로 Ascend Ecom을 상대로 소송을 제기했다. Ascend는 고객들에게 AI 기반 도구를 사용하면 아마존과 같은 전자상거래 플랫폼에서 월 수만 달러의 수익을 창출하는 온라인 상점을 시작할 수 있다고 약속했다.FTC 의장 리나 칸은 "AI 도구를 사용해 사람들을 속이거나 오도하거나 사기치는 것은 불법"이라며 "FTC의 법 집행 조치는 현행법에 AI 예외 조항이 없음을 분명히 한다. 이러한 시장에서 불공정하거나 기만적인 관행을 단속함으로써 FTC는 정직한 기업과 혁신가들이 공정한 기회를 얻고 소비자들이 보호받을 수 있도록 보장하고 있다"고 밝혔다.
8 조회
0 추천
2025.12.31 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입