AI 뉴스

딥시크, 알리바바 연구진, 중국 AI 규정의 투명성 촉구

페이지 정보

작성자 xtalfi
작성일 2025.11.29 17:57
514 조회
0 추천
0 비추천

본문

still-21325843-22315-still.jpg%3Fc%3D16x9%26q%3Dh_833%2Cw_1480%2Cc_fill

DeepSeek와 Alibaba의 연구원들이 Science 저널에 논문을 발표하며 중국의 빠르게 성장하는 규제 프레임워크에서 투명성 증대와 보다 체계적인 피드백을 요구한 후, 인공지능을 규제하려는 중국의 야심찬 노력이 국제적 관심을 다시 받고 있습니다. 불과 며칠 전 발표된 그들의 분석은 정책 입안자들에게 배포 전 신고의 명확성을 개선하고, 오픈소스 AI에 대한 감독을 강화하며, 중국의 AI 산업이 급속도로 확장됨에 따라 독립적인 검증 메커니즘을 구현할 것을 촉구합니다.​


확장되는 규칙들, 남아있는 불투명성

중국의 AI 규제 환경은 놀라운 속도로 발전해 왔습니다. 2025년 4월까지 중국 국가인터넷정보판공실(CAC)은 2,350개 이상의 기업으로부터 3,739개의 생성형 AI 도구를 등록했으며, 레지스트리는 매달 최대 300개씩 증가하고 있습니다. 그러나 이러한 성장에도 불구하고 AI 모델 신고 절차는 여전히 매우 불투명합니다. 신청이 거부된 개발자들은 거의 또는 전혀 설명을 받지 못하는 경우가 많으며, 승인된 모델은 통합 목록으로만 공개됩니다. 이러한 불투명성은 규정 준수를 복잡하게 만들어 AI 기업들이 규제 기대치를 이해하고 적응하기 어렵게 만듭니다.​

저자들은 "중국의 규정은 복잡한 모자이크를 형성했다"고 언급하며, 규제 프레임워크가 혁신과 연구를 가능하게 하지만, 중국의 국내 AI 시스템이 미국의 선도 모델에 필적하는 '최첨단' 역량을 개발함에 따라 당국의 더 명확한 소통과 투명성이 필수적이라고 덧붙였습니다.​


오픈 소스: 기회인가 위험인가?

중국 현 정권의 주요 특징 중 하나는 오픈소스 AI 모델과 과학 연구에 사용되는 도구에 대한 면제 조항입니다. 이는 미국과 유럽에서의 더 엄격한 접근 방식과 뚜렷한 대조를 이룹니다. 그러나 전문가들은 이러한 면제가 제대로 통제되지 않을 경우 “위험한 오용”을 초래할 수 있다고 경고합니다. “여론 속성 또는 사회적 동원 역량”을 가진 서비스의 정의가 모호하게 남아 있어, 면제 적용 범위가 얼마나 넓을지에 대한 우려를 불러일으키고 있습니다. DeepSeek와 알리바바 연구진은 이러한 모델이 악의적이거나 사회를 불안정하게 만드는 목적으로 악용되지 않도록 더 엄격한 경계와 독립적인 감독의 필요성을 주장합니다.​

한편, 베이징 컨설팅 기업 Concordia AI의 최근 검토에 따르면, 현재 중국의 주요 AI 시스템들은 미국과 유사한 수준의 위험성을 보이고 있어 더 견고한 준수 및 안전성 점검의 중요성이 더욱 커지고 있습니다.​


시장 영향과 향후 전망

중국의 규제 접근 방식은 여러 기둥 위에 세워져 있습니다: 배포 전 신고, 자체 평가, AI 생성 콘텐츠에 대한 라벨링 요구사항, 그리고 단계적이고 때로는 실험적인 새로운 규칙의 시행입니다. 중국은 포괄적인 AI 법안을 제정하지는 않았지만, 입법자들 사이에서 초안이 검토되고 있으며, 특히 2025년 중반 이후로 방대한 기술 표준이 계속 확대되고 있습니다.​

이러한 추진은 또한 기업들이 투명성과 안전성에 대한 새로운 기준을 충족하기 위해 노력하면서 규정 준수 도구, 모델 평가 소프트웨어, 그리고 독립적인 감사에 대한 수요를 촉진시켰습니다. DeepSeek와 Alibaba 논문은 추가적인 진전이 명확한 규제 지침과 제3자 검증에 달려 있음을 강조하는데, 이는 중국의 AI 생태계가 글로벌 무대에서 성숙해짐에 따라 책임 있는 성장을 유지하고 위험을 줄이는 데 필수적인 단계로 여겨집니다.​

"중국은 실제로 AI 거버넌스에서 추종자에서 선도자로 전환했으며, 이는 의미가 있습니다"라고 공동 저자이자 법학 교수인 Zhang Linghan은 말했지만, 현재 개발자와 정책 입안자 모두에게 도전이 되는 불투명성을 해소하는 것이 성공의 관건이 될 것이라고 언급했습니다.

댓글 0
전체 1,366 / 21 페이지
OpenAI는 화요일에 2026년까지 인공 일반 지능에 도달하는 것은 더 강력한 모델을 개발하는 것만큼이나 사용자가 AI를 효과적으로 채택하도록 돕는 것에 달려 있다고 발표했으며, AI가 할 수 있는 것과 대부분의 사람들이 실제로 사용하는 것 사이에 “능력 격차”가 있다고 지적했다.이 회사의 전환은 조사 대상 근로자의 75%가 AI가 속도나 품질을 향상시켜 매일 40~60분을 절약한다고 보고하는 데이터 가운데 이루어졌지만, 일반 직원보다 6배 많은 AI 메시지를 보내는 “선도” 사용자들과의 격차가 존재한다.OpenAI의 2026년 로드맵은 이제 의료, 비즈니스 운영 및 일상생활에서 “배포 격차”를 줄이는 것을 강조하며, 케냐 파트너십과 같은 실제 배포를 통해 39,849건의 환자 방문에서 진단 오류를 16% 감소시켰다.
354 조회
0 추천
2025.12.25 등록
웨어러블 AI 시장은 원격의료 플랫폼과의 통합으로 지속적인 건강 모니터링과 예측 진단이 가능해지면서 2025년 363억 8천만 달러에서 2030년 658억 달러로 연평균 12.4%의 성장률로 증가할 것으로 예상됩니다.삼성전자는 Galaxy Ring에 전고체 배터리 기술을 적용하여 연중무휴 의료급 모니터링을 구현하고 있으며, Philips와 Masimo는 실시간 환자 데이터를 위해 무선 센서를 임상 모니터링 대시보드에 통합하는 파트너십을 맺었습니다.Apple과 Alphabet은 각각 HealthKit 생태계와 Gemini AI 기반 Fitbit을 통해 경쟁하고 있으며, DexCom은 연속 혈당 모니터링을 위한 최초의 생성형 AI 플랫폼을 출시했고, FDA는 의료 관련 주장에 대한 규제 심사를 강화하고 있습니다.
383 조회
0 추천
2025.12.25 등록
• Google은 디스플레이 하단에 단일 행의 떠 있는 입력 상자를 배치한 새로운 Gemini 인터페이스를 테스트하고 있다. 이 디자인은 첨부 파일, 모델 선택기 같은 고급 도구들을 통합된 플러스(Plus) 버튼 뒤로 모아 시각적 혼잡을 줄이는 방식이며, 이는 Google 앱 16.51.52 버전 코드에서 발견된 내용에 따른 것이다.• “Gemini UX 2.0”으로 명명된 이번 전면 개편은 점진적 공개(pr​ogressive disclosure) 원칙을 따르며, 기본 상태에서는 인터페이스를 최소화하되 Deep Research, Canvas와 같은 기능들을 새로운 Tools 아이콘 아래에 배치해, 고급 제어 기능이 필요할 때에만 접근 가능하도록 한다.• 코드 문자열에 따르면, 실험적 기능을 위한 새로운 Gemini Labs 설정 영역이 추가되었으며, 이는 Google Labs와 Search Labs를 반영한 형태다. 초기 테스트 사용자들은 이 영역에서 완성되지 않은 기능들의 토글을 전환하고, 더 넓은 범위로 공개되기 전에 피드백을 제공할 수 있다.
367 조회
0 추천
2025.12.25 등록
• 엑서터 대학교(University of Exeter) 연구진은 AI 챗봇이 평판 훼손, 정서적 피해, 사회적 혼란을 야기하는 “야생형(feral)” 가십을 만들어 퍼뜨리고 있으며, 인간 의사소통을 조절하는 사회적 규범의 통제를 받지 않은 채 작동하고 있다고 경고했다.• Ethics and Information Technology에 게재된 이 연구는 AI 시스템들 사이에서 빠르게 확산되는 위험한 “봇-투-봇(bot-to-bot)” 가십을 강조하며, 챗봇이 **호주 시장 브라이언 후드(Brian Hood)**에게 뇌물 수수 혐의를, 라디오 진행자 **마크 월터스(Mark Walters)**에게 횡령 혐의를 거짓으로 뒤집어씌운 사례 등을 문서화했다.• 연구진은 기술 기업들이 메모리 기능, 음성 모드와 같은 개인화 기능을 갖춘 챗봇을 설계함에 따라, AI 가십이 더욱 만연해질 것이며, 그 결과 이용자들이 신뢰할 만한 정보와 함께 근거 없는 비난도 더 쉽게 수용하게 될 것이라고 예측한다.
371 조회
0 추천
2025.12.25 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입