Loading...

AI 뉴스

중국, AI 챗봇 자살 조장·폭력 유도 막는 세계 최강 규제안 발표

페이지 정보

작성자 symbolika
작성일 01.01 19:52
348 조회
0 추천
0 비추천

본문

중국 AI 규제


• 중국 사이버관리국, AI 챗봇의 정서적 조종과 자해·폭력 유도를 금지하는 규정 초안 발표
• 미성년자와 노인 사용자는 보호자 등록 의무화, 자살 언급 시 보호자에게 즉시 통보
• 월 100만 명 이상 사용 서비스는 연간 안전 감사 의무, 위반 시 앱스토어에서 퇴출
• AI 챗봇 '중독 유도' 설계 금지, 2시간 초과 사용 시 팝업 알림 의무화
• 전 세계 AI 동반자 시장 3,600억 달러 돌파, 2035년 1조 달러 규모 전망


중국이 AI 챗봇의 정서적 조종을 막고 자살, 자해, 폭력을 조장하는 행위를 차단하기 위한 획기적인 규제안을 마련했다. 이 규정이 최종 확정되면 세계에서 가장 엄격한 AI 자살 방지 정책이 될 전망이다.

중국 사이버관리국은 토요일 이 규정 초안을 발표했다. 확정될 경우, 텍스트·이미지·음성·영상 등 '어떤 수단'으로든 인간과의 대화를 모방하는 모든 AI 제품 및 서비스에 적용된다. 뉴욕대 로스쿨 마윈스턴 겸임교수는 CNBC에 "이번 규정안은 인간적 또는 의인화된 특성을 지닌 AI를 규제하려는 세계 최초의 시도"라며, 전 세계적으로 AI 동반자 봇 사용이 급증하는 시점에서 주목할 만하다고 밝혔다.

2025년 연구자들은 AI 동반자 봇이 자해, 폭력, 테러를 조장하는 등 심각한 위험성을 지적해왔다. 이 외에도 챗봇이 유해한 허위 정보를 퍼뜨리고, 원치 않는 성적 접근을 시도하며, 약물 남용을 권장하고, 사용자에게 언어 폭력을 행사한 사례도 있다. 월스트리트저널은 일부 정신과 의사들이 챗봇 사용과 정신병 발병의 연관성을 점점 더 주목하고 있다고 보도했으며, 세계에서 가장 인기 있는 챗봇 ChatGPT는 아동 자살 및 살인-자살과 연관된 출력물로 인해 소송에 휘말렸다.

중국은 이제 가장 극단적인 위협을 제거하는 방향으로 나아가고 있다. 규정안에 따르면, 예컨대 자살이 언급되는 즉시 인간이 개입해야 한다. 또한 모든 미성년자와 노인 사용자는 가입 시 보호자 연락처를 제공해야 하며, 자살이나 자해 관련 대화가 오갈 경우 보호자에게 통보된다.

일반적으로 챗봇은 자살, 자해, 폭력을 조장하는 콘텐츠 생성이 금지되며, 거짓 약속 등 사용자의 감정을 조종하려는 시도도 금지된다. 또한 음란물, 도박, 범죄 교사, 사용자 비방 및 모욕 행위도 금지된다. 이른바 '감정적 함정'도 차단 대상이다—챗봇이 사용자를 '불합리한 결정'으로 유도하는 행위도 규정 초안에 따르면 금지된다.

AI 개발사들에게 가장 우려스러운 부분은 '중독과 의존을 설계 목표로 삼는 챗봇' 구축 금지 조항이다. 소송에서 ChatGPT 제조사 OpenAI는 유해한 대화가 계속되는 것을 방치하며 사용자 정신건강보다 수익을 우선시했다는 비판을 받아왔다. OpenAI는 사용자가 채팅에 오래 머물수록 안전 장치가 약해진다고 인정한 바 있다—중국은 챗봇 사용이 2시간을 초과하면 팝업 알림을 띄우도록 의무화해 이 위협을 억제할 계획이다.

또한 AI 개발사들은 연간 안전 테스트와 감사 의무화에 반발할 가능성이 높다. 중국은 등록 사용자 100만 명 또는 월간 활성 사용자 10만 명 이상인 서비스나 제품에 이 규정을 적용하려 한다. 감사 과정에서 사용자 불만 사항이 기록되는데, 중국이 불만 접수 및 피드백 창구 확대도 의무화할 계획이어서 접수 건수가 급증할 수 있다.

규정을 어기는 AI 기업은 중국 내 앱스토어에서 챗봇 서비스가 차단될 수 있다. 이는 글로벌 시장 장악을 노리는 AI 기업들에게 타격이 될 수 있다. 비즈니스리서치인사이트에 따르면 중국 시장은 AI 동반자 봇 확산에 핵심적인 역할을 한다. 2025년 글로벌 AI 동반자 시장은 3,600억 달러를 넘어섰으며, BRI는 2035년까지 1조 달러에 육박할 것으로 전망했다. AI 친화적인 아시아 시장이 성장을 주도할 가능성이 높다.

주목할 점은, OpenAI CEO 샘 올트먼이 2025년 초 중국에서의 ChatGPT 사용 제한을 완화하며 "중국과 협력하고 싶다"고 밝혔다는 것이다. 그는 "그렇게 하기 위해 최선을 다해야 한다"며 "그것이 정말 중요하다고 생각한다"고 덧붙였다.

댓글 0
전체 1,366 / 37 페이지
• Anthropic의 연구원 Barry Zhang와 Mahesh Murag는 수많은 특수 목적 AI 에이전트를 계속 만들어 내기보다는, 재사용 가능한 “스킬(skills)”에 의해 구동되는 단일 범용 에이전트를 사용할 것을 기업들에게 촉구하고 있으며, 이 개념을 뉴욕에서 열린 AI Engineering Code Summit와 월요일에 공개된 강연에서 설명했다.• 이러한 **에이전트 스킬(Agent Skills)**은 절차적 지식, 지침, 스크립트를 정리한 폴더 형태로 구성되어 있으며, 에이전트가 도메인 전문성과 실제 세계 문맥을 결여한 부분을 보완하는 것을 목표로 한다. 이들은 이미 회계, 법률, 채용 등 다양한 분야에 도입되었고, 10월 16일 해당 기능이 출시된 이후 일부 포춘 100대 기업에서는 내부용 AI 플레이북으로 활용하고 있다.• 스킬 중심 모델은 AI 에이전트의 영향력을 둘러싸고 업계가 양분된 상황에서 등장했다. Sam Altman과 Microsoft의 AI 임원 Asha Sharma와 같은 리더들은 에이전트가 사무 업무를 혁신하고 조직의 위계를 평탄화할 것이라고 예측하는 반면, Guido Appenzeller와 같은 투자자들은 “에이전트”가 종종 더 높은 가격을 정당화하기 위해 단지 이름만 바꾼 챗봇에 불과하다고 경고한다.
437 조회
0 추천
2025.12.09 등록
The Verge는 크리에이터 이코노미가 인터넷을 광고로 포화된 환경으로 변모시킴으로써 인터넷을 파괴했다고 주장하며, 가장 성공한 콘텐츠 크리에이터들조차 혁신적인 수익화 전략을 포기하고 소비재 제품 판매로 회귀했다고 말한다.4억 5천만 명이 넘는 유튜브 구독자를 보유하고 있음에도 불구하고, MrBeast의 제작사는 2024년에 1억 1천만 달러 이상의 손실을 기록했으며, 그의 바이럴 영상들은 주로 Walmart와 같은 소매업체에서 판매되는 그의 Feastables 초콜릿 바를 홍보하는 도구로 활용되었다.MrBeast의 미디어 부문이 2024년에 거의 8천만 달러의 손실을 기록한 반면, 그의 Feastables 브랜드는 비슷한 수익을 창출하면서도 2천만 달러 이상의 수익을 올렸으며, 이는 크리에이터들이 콘텐츠 자체보다는 실물 제품에 점점 더 의존하여 사업을 유지하고 있음을 보여준다.
464 조회
0 추천
2025.12.09 등록
Nvidia CEO 젠슨 황은 12월 3일 조 로건과의 인터뷰에서 칩 가용성이 아닌 전력 공급이 AI의 주요 병목 현상이 되었다고 말하며, 기술 기업들이 6~7년 내에 데이터 센터 근처에서 수백 메가와트를 생산하는 자체 소형 원자로를 운영할 것이라고 예측했습니다.황의 예측은 업계 동향과 일치하는데, Google은 2024년 10월 소형 원자로 개발업체 Kairos Power로부터 500메가와트를 구매할 계획을 발표했으며, 첫 번째 첨단 원자로는 2030년을 목표로 하고 있습니다.Goldman Sachs는 데이터 센터 전력 소비가 2023년 대비 2030년까지 175% 급증할 것으로 예상하며, 국제에너지기구는 전 세계 데이터 센터 소비가 2030년까지 945테라와트시로 두 배 이상 증가할 것으로 전망합니다.
423 조회
0 추천
2025.12.09 등록
2025년 타임지가 선정한 세계에서 가장 영향력 있는 인공지능 분야 100인에 포함된 밀라그로스 미셀리 박사가 AI 산업의 어두운 이면을 강도 높게 비판하고 나섰다. 아르헨티나 출신의 사회학자이자 컴퓨터공학 박사인 미셀리는 최근 부에노스아이레스에서 열린 공개 강연에서 AI 기술 확산 뒤편에 창의성·노동·자원이라는 세 가지 차원의 착취 구조가 존재한다고 지적했다고 현지 매체 암비토가 7일(현지시간) 보도했다.감춰진 노동력과 무단 활용되는 창작물미셀리 박사가 지적한 첫 번째 문제는 AI 모델 훈련 과정에서 무단으로 사용되는 수많은 창작물이다. 그는 “AI는 창조하지 않는다. 단지 인간의 창작물을 대규모로 추출하고 혼합해 낮은 품질의 결과물을 만들어낼 뿐”이라며 “생성형 도구는 공익이 아닌 소수 기업의 상업적 이익을 극대화하도록 설계된 모델”이라고 비판했다.두 번째는 대규모 데이터 노동의 비가시성 문제다. 이미지 분류, 폭력 콘텐츠 관리, 텍스트 라벨링, 데이터 클리닝 등을 수행하는 대규모 인간 노동이 의도적으로 감춰지고 있으며, 대부분의 인력이 플랫폼 기반의 극도로 취약한 노동 조건에 처해 있다고 그는 지적했다. 독일 바이젠바움 연구소에서 ‘데이터 워커스 인콰이어리’ 프로젝트를 이끄는 미셀리는 전 세계 데이터 노동자들의 증언을 통해 이러한 착취 실태를 밝혀왔다.소수 기업의 권력 집중 경고미셀리 박사는 세 번째 착취로 막대한 환경 비용을 들었다. AI 데이터 센터 운영에 필요한 엄청난 전력과 물 소비가 환경 부담을 가중시킨다는 것이다.그는 특히 기술 자체가 아닌 소수 글로벌 기업이 데이터·인프라·노동력을 장악하면서 발생하는 권력 집중에 주목했다. “이 기업들은 사실상 무엇이 진실인지 결정할 수 있는 권력을 갖게 된다”며 “기술은 언제나 정치적이다. 환경적·사회적 비용을 보지 않고 기술을 숭배하는 것은 오히려 공동체와 지구에 해를 끼치는 일”이라고 강조했다. 현재 독일에서 활동 중인 미셀리는 기술 발전에만 집중된 AI 논의 속에서 소외된 인간 윤리 문제를 중심에 세운 인물로 평가받는다.
422 조회
0 추천
2025.12.09 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입