AI 뉴스

중국, AI 챗봇 자살 조장·폭력 유도 막는 세계 최강 규제안 발표

페이지 정보

작성자 symbolika
작성일 01.01 19:52
340 조회
0 추천
0 비추천

본문

중국 AI 규제


• 중국 사이버관리국, AI 챗봇의 정서적 조종과 자해·폭력 유도를 금지하는 규정 초안 발표
• 미성년자와 노인 사용자는 보호자 등록 의무화, 자살 언급 시 보호자에게 즉시 통보
• 월 100만 명 이상 사용 서비스는 연간 안전 감사 의무, 위반 시 앱스토어에서 퇴출
• AI 챗봇 '중독 유도' 설계 금지, 2시간 초과 사용 시 팝업 알림 의무화
• 전 세계 AI 동반자 시장 3,600억 달러 돌파, 2035년 1조 달러 규모 전망


중국이 AI 챗봇의 정서적 조종을 막고 자살, 자해, 폭력을 조장하는 행위를 차단하기 위한 획기적인 규제안을 마련했다. 이 규정이 최종 확정되면 세계에서 가장 엄격한 AI 자살 방지 정책이 될 전망이다.

중국 사이버관리국은 토요일 이 규정 초안을 발표했다. 확정될 경우, 텍스트·이미지·음성·영상 등 '어떤 수단'으로든 인간과의 대화를 모방하는 모든 AI 제품 및 서비스에 적용된다. 뉴욕대 로스쿨 마윈스턴 겸임교수는 CNBC에 "이번 규정안은 인간적 또는 의인화된 특성을 지닌 AI를 규제하려는 세계 최초의 시도"라며, 전 세계적으로 AI 동반자 봇 사용이 급증하는 시점에서 주목할 만하다고 밝혔다.

2025년 연구자들은 AI 동반자 봇이 자해, 폭력, 테러를 조장하는 등 심각한 위험성을 지적해왔다. 이 외에도 챗봇이 유해한 허위 정보를 퍼뜨리고, 원치 않는 성적 접근을 시도하며, 약물 남용을 권장하고, 사용자에게 언어 폭력을 행사한 사례도 있다. 월스트리트저널은 일부 정신과 의사들이 챗봇 사용과 정신병 발병의 연관성을 점점 더 주목하고 있다고 보도했으며, 세계에서 가장 인기 있는 챗봇 ChatGPT는 아동 자살 및 살인-자살과 연관된 출력물로 인해 소송에 휘말렸다.

중국은 이제 가장 극단적인 위협을 제거하는 방향으로 나아가고 있다. 규정안에 따르면, 예컨대 자살이 언급되는 즉시 인간이 개입해야 한다. 또한 모든 미성년자와 노인 사용자는 가입 시 보호자 연락처를 제공해야 하며, 자살이나 자해 관련 대화가 오갈 경우 보호자에게 통보된다.

일반적으로 챗봇은 자살, 자해, 폭력을 조장하는 콘텐츠 생성이 금지되며, 거짓 약속 등 사용자의 감정을 조종하려는 시도도 금지된다. 또한 음란물, 도박, 범죄 교사, 사용자 비방 및 모욕 행위도 금지된다. 이른바 '감정적 함정'도 차단 대상이다—챗봇이 사용자를 '불합리한 결정'으로 유도하는 행위도 규정 초안에 따르면 금지된다.

AI 개발사들에게 가장 우려스러운 부분은 '중독과 의존을 설계 목표로 삼는 챗봇' 구축 금지 조항이다. 소송에서 ChatGPT 제조사 OpenAI는 유해한 대화가 계속되는 것을 방치하며 사용자 정신건강보다 수익을 우선시했다는 비판을 받아왔다. OpenAI는 사용자가 채팅에 오래 머물수록 안전 장치가 약해진다고 인정한 바 있다—중국은 챗봇 사용이 2시간을 초과하면 팝업 알림을 띄우도록 의무화해 이 위협을 억제할 계획이다.

또한 AI 개발사들은 연간 안전 테스트와 감사 의무화에 반발할 가능성이 높다. 중국은 등록 사용자 100만 명 또는 월간 활성 사용자 10만 명 이상인 서비스나 제품에 이 규정을 적용하려 한다. 감사 과정에서 사용자 불만 사항이 기록되는데, 중국이 불만 접수 및 피드백 창구 확대도 의무화할 계획이어서 접수 건수가 급증할 수 있다.

규정을 어기는 AI 기업은 중국 내 앱스토어에서 챗봇 서비스가 차단될 수 있다. 이는 글로벌 시장 장악을 노리는 AI 기업들에게 타격이 될 수 있다. 비즈니스리서치인사이트에 따르면 중국 시장은 AI 동반자 봇 확산에 핵심적인 역할을 한다. 2025년 글로벌 AI 동반자 시장은 3,600억 달러를 넘어섰으며, BRI는 2035년까지 1조 달러에 육박할 것으로 전망했다. AI 친화적인 아시아 시장이 성장을 주도할 가능성이 높다.

주목할 점은, OpenAI CEO 샘 올트먼이 2025년 초 중국에서의 ChatGPT 사용 제한을 완화하며 "중국과 협력하고 싶다"고 밝혔다는 것이다. 그는 "그렇게 하기 위해 최선을 다해야 한다"며 "그것이 정말 중요하다고 생각한다"고 덧붙였다.

댓글 0
전체 1,366 / 30 페이지
OpenAI의 코딩 에이전트 Codex의 제품 개발을 이끌고 있는 Alexander Embiricos는 일요일에 공개된 Lenny’s Podcast에서 인간의 타이핑 속도와 프롬프트를 지속적으로 작성하고 AI 작업을 검증해야 하는 필요성이 인공 일반 지능을 달성하는 데 있어 “현재 과소평가되고 있는 제한 요인”이라고 말했다.Codex는 8월 출시 이후 20배 성장했으며 현재 매주 수조 개의 토큰을 처리하고 있다. Embiricos는 시스템이 AI 에이전트가 지속적인 인간의 감독 없이 기본적으로 작동할 수 있도록 하면 생산성 향상이 가속화될 것이라고 주장했다.Embiricos는 얼리 어답터들이 2026년부터 극적인 생산성 증가를 경험할 것이며, AGI는 이러한 초기 성과와 주요 기업들이 AI 에이전트를 통해 완전한 자동화를 달성하는 시점 사이 어딘가에 도래할 것이라고 예측했다.
415 조회
0 추천
2025.12.15 등록
한국은 2026년 1월 22일부터 국가 인공지능 기본법을 시행할 예정이며, 2026년 8월부터 대부분의 AI 규칙을 시행할 유럽연합보다 앞서 포괄적인 인공지능 규제를 시행하는 세계 최초의 국가가 됩니다. 이러한 움직임은 최근 조사에서 한국 AI 스타트업의 98%가 대대적인 변화에 여전히 준비되지 않은 것으로 나타나면서, 국내 급성장하는 기술 부문에서 중소기업의 생존에 대한 우려를 불러일으키고 있습니다.​2025년 1월에 법률로 서명된 인공지능 육성 및 신뢰 기반 조성 등에 관한 기본법은 국가 AI 위원회 설립, 기본 3개 년 AI 계획 수립, 특정 AI 시스템에 대한 공개 의무를 포함한 안전성 및 투명성 요구사항 부과를 의무화하고 있습니다. 이 법은 위험 기반 접근 방식을 적용하며, 특히 의료, 교육, 공공 서비스와 같은 중요 부문에서 운영되는 고영향 AI 시스템에 대해서는 엄격한 규칙을 적용합니다.스타트업들, 준비 시간 부족에 경보 발령스타트업 얼라이언스가 2025년 12월 국내 AI 기업 101곳을 대상으로 실시한 조사에 따르면, 신규 규제를 준수하기 위한 대응 시스템을 구축한 기업은 단 2%에 불과한 것으로 나타났다. 나머지 기업 중 48.5%는 법에 대해 익숙하지 않고 준비가 되어 있지 않다고 답했으며, 다른 48.5%는 인지하고 있으나 준비가 부족하다고 응답했다. 조사는 불명확한 기준, 특히 통지 범위, 생성형 AI의 정의, 고영향 AI 시스템 지정 기준 등을 주요 부담 요인으로 지적했다.​한국인터넷기업협회 관계자는 현지 언론에 "절차상 요건으로 인해 시행령이 법 시행 직전에야 확정될 것으로 예상되어 기업들이 새로운 규정에 대비할 충분한 시간을 갖지 못할 수 있다"고 말했다. "특히 스타트업에게는 매우 부담스러울 것이다."​업계 관계자들은 일부 기업들이 1월 22일 이후 서비스를 갑작스럽게 수정하거나 중단해야 할 수도 있다고 경고한다. 이러한 규제 압박은 엄격한 준수 요건보다 혁신 촉진에 초점을 맞춘 부드러운 자율 거버넌스 접근 방식을 채택한 일본으로의 이전을 고려하는 한국 AI 스타트업의 수를 증가시키는 것으로 여겨진다.워터마크 요구사항이 논란을 촉발하다AI 생성 콘텐츠에 라벨을 표시하도록 요구하는 의무적 워터마킹 조항은 새로운 프레임워크에서 특히 논란이 되는 측면으로 부상했습니다. 딥페이크와 허위정보를 억제하기 위한 목적이지만, 업계 관계자들은 요구사항이 너무 모호하며 소비자들이 AI 생성 제품을 기피하게 만들 수 있다고 주장합니다.​"AI 생성 콘텐츠라도 일반적으로 품질을 향상시키기 위해 수많은 개인들이 협력하지만, 'AI 생성'으로 표시되면 소비자들이 꺼릴 수 있습니다"라고 한 AI 콘텐츠 기업의 관계자가 밝혔습니다. 2025년 12월에 발표된 AI 생성 광고에 대한 모니터링 강화 계획은 소셜 미디어 플랫폼 전반에 걸쳐 확산되는 조작된 콘텐츠와 딥페이크에 대한 우려를 더욱 강조합니다.​우려에도 불구하고, 과학기술정보통신부는 행정 벌금을 부과하기 전에 최소 1년의 유예 기간을 발표하여 기업들에게 추가 준비 시간을 제공했습니다. 배경훈 장관은 시행령이 "대한민국이 글로벌 AI 강국 3위로 도약하기 위한 제도적 초석"이 될 것이라고 강조했습니다.
392 조회
0 추천
2025.12.15 등록
인공지능(AI) 모델들의 성능 경쟁이 치열해지면서, 추론, 수리 등 종합적인 역량을 객관적으로 평가하는 다양한 벤치마크에 대한 관심이 높아지고 있습니다. 사용자의 직접적인 평가를 반영하는 '엘엠아레나(LMArena)'는 익명으로 받은 두 개의 AI 답변 중 더 우수한 것을 고르거나 무승부를 선언하여 순위를 매기는 방식입니다.기존 벤치마크의 한계를 극복하기 위해 만들어진 '인류의 마지막 시험(HLE)'은 수학, 물리학 등 100개 이상 과목의 고난도 문제를 통해 AI의 정답률을 측정합니다. 또한, AI의 자율적인 경제활동 능력을 측정하는 '벤딩 벤치(Vending-Bench)'는 AI가 재고 관리와 가격 책정 등을 얼마나 잘 수행하는지 평가합니다.이 외에도 코딩 오류 해결 능력을 평가하는 'SWE벤치'와 수학 올림피아드 난이도의 '매스아레나 에이펙스' 등 다양한 전문 벤치마크들이 활용됩니다. 하지만 이러한 AI 벤치마크는 윤리나 안전보다는 높은 경제적 보상이 기대되는 과업에만 초점을 맞춘다는 비판도 제기됩니다.
394 조회
0 추천
2025.12.14 등록
앨런 AI 연구소(Ai2)는 훈련 데이터와 가중치까지 완전히 공개하는 대표적인 대형언어모델(LLM)인 '올모(OLMo) 3'의 업데이트 버전 '올모 3.1'을 공개했습니다. 새로 출시된 '올모 3.1 싱크 32B'와 '올모 3.1 인스트럭트 32B'는 강화 학습(RL)을 추가 적용하여 추론, 수학, 지시 이행 능력 등 여러 벤치마크에서 성능이 크게 향상되었습니다.특히, '싱크 32B'는 고급 추론과 연구 목적에 최적화되었으며, '인스트럭트 32B'는 대화형 AI와 툴 기반 워크플로에 맞춰 현재까지 공개된 완전 오픈 소스 32B급 지시형 모델 중 가장 강력한 성능을 자랑합니다. Ai2는 이를 새로운 모델 출시가 아닌 '체크포인트 추가' 개념으로 소개하며, 개발자들이 모델의 학습 과정을 완벽하게 통제하고 자체 데이터를 추가해 재학습할 수 있도록 지원합니다.Ai2는 올모 시리즈가 개방성과 성능을 동시에 발전시킬 수 있음을 보여주며, 학습 데이터, 코드, 결정에 대한 엔드투엔드 투명성을 유지하면서 기능을 지속적으로 개선했다고 강조했습니다. 이 새로운 '체크포인트' 모델들은 Ai2 플레이그라운드와 허깅페이스를 통해 제공되어 개발자 및 연구기관의 활용을 넓힐 예정입니다.* 앨런 인공지능 연구소(Ai2)는 마이크로소프트 공동 창립자였던 고(故) 폴 앨런이 공익을 위해 고도(하이-임팩트) AI 연구 및 엔지니어링을 수행할 목적으로 2014년에 설립한 비영리 연구소입니다. 이 연구소는 텍스트를 읽고 추론하여 지식을 입증하는 AI 시스템 개발을 목표로 시작했으며, 현재도 개방성과 투명성을 중시하며 AI 분야의 발전을 주도하고 있습니다.
410 조회
0 추천
2025.12.14 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입