AI 뉴스

딥시크, 알리바바 연구진, 중국 AI 규정의 투명성 촉구

페이지 정보

작성자 xtalfi
작성일 2025.11.29 17:57
558 조회
0 추천
0 비추천

본문

still-21325843-22315-still.jpg%3Fc%3D16x9%26q%3Dh_833%2Cw_1480%2Cc_fill

DeepSeek와 Alibaba의 연구원들이 Science 저널에 논문을 발표하며 중국의 빠르게 성장하는 규제 프레임워크에서 투명성 증대와 보다 체계적인 피드백을 요구한 후, 인공지능을 규제하려는 중국의 야심찬 노력이 국제적 관심을 다시 받고 있습니다. 불과 며칠 전 발표된 그들의 분석은 정책 입안자들에게 배포 전 신고의 명확성을 개선하고, 오픈소스 AI에 대한 감독을 강화하며, 중국의 AI 산업이 급속도로 확장됨에 따라 독립적인 검증 메커니즘을 구현할 것을 촉구합니다.​


확장되는 규칙들, 남아있는 불투명성

중국의 AI 규제 환경은 놀라운 속도로 발전해 왔습니다. 2025년 4월까지 중국 국가인터넷정보판공실(CAC)은 2,350개 이상의 기업으로부터 3,739개의 생성형 AI 도구를 등록했으며, 레지스트리는 매달 최대 300개씩 증가하고 있습니다. 그러나 이러한 성장에도 불구하고 AI 모델 신고 절차는 여전히 매우 불투명합니다. 신청이 거부된 개발자들은 거의 또는 전혀 설명을 받지 못하는 경우가 많으며, 승인된 모델은 통합 목록으로만 공개됩니다. 이러한 불투명성은 규정 준수를 복잡하게 만들어 AI 기업들이 규제 기대치를 이해하고 적응하기 어렵게 만듭니다.​

저자들은 "중국의 규정은 복잡한 모자이크를 형성했다"고 언급하며, 규제 프레임워크가 혁신과 연구를 가능하게 하지만, 중국의 국내 AI 시스템이 미국의 선도 모델에 필적하는 '최첨단' 역량을 개발함에 따라 당국의 더 명확한 소통과 투명성이 필수적이라고 덧붙였습니다.​


오픈 소스: 기회인가 위험인가?

중국 현 정권의 주요 특징 중 하나는 오픈소스 AI 모델과 과학 연구에 사용되는 도구에 대한 면제 조항입니다. 이는 미국과 유럽에서의 더 엄격한 접근 방식과 뚜렷한 대조를 이룹니다. 그러나 전문가들은 이러한 면제가 제대로 통제되지 않을 경우 “위험한 오용”을 초래할 수 있다고 경고합니다. “여론 속성 또는 사회적 동원 역량”을 가진 서비스의 정의가 모호하게 남아 있어, 면제 적용 범위가 얼마나 넓을지에 대한 우려를 불러일으키고 있습니다. DeepSeek와 알리바바 연구진은 이러한 모델이 악의적이거나 사회를 불안정하게 만드는 목적으로 악용되지 않도록 더 엄격한 경계와 독립적인 감독의 필요성을 주장합니다.​

한편, 베이징 컨설팅 기업 Concordia AI의 최근 검토에 따르면, 현재 중국의 주요 AI 시스템들은 미국과 유사한 수준의 위험성을 보이고 있어 더 견고한 준수 및 안전성 점검의 중요성이 더욱 커지고 있습니다.​


시장 영향과 향후 전망

중국의 규제 접근 방식은 여러 기둥 위에 세워져 있습니다: 배포 전 신고, 자체 평가, AI 생성 콘텐츠에 대한 라벨링 요구사항, 그리고 단계적이고 때로는 실험적인 새로운 규칙의 시행입니다. 중국은 포괄적인 AI 법안을 제정하지는 않았지만, 입법자들 사이에서 초안이 검토되고 있으며, 특히 2025년 중반 이후로 방대한 기술 표준이 계속 확대되고 있습니다.​

이러한 추진은 또한 기업들이 투명성과 안전성에 대한 새로운 기준을 충족하기 위해 노력하면서 규정 준수 도구, 모델 평가 소프트웨어, 그리고 독립적인 감사에 대한 수요를 촉진시켰습니다. DeepSeek와 Alibaba 논문은 추가적인 진전이 명확한 규제 지침과 제3자 검증에 달려 있음을 강조하는데, 이는 중국의 AI 생태계가 글로벌 무대에서 성숙해짐에 따라 책임 있는 성장을 유지하고 위험을 줄이는 데 필수적인 단계로 여겨집니다.​

"중국은 실제로 AI 거버넌스에서 추종자에서 선도자로 전환했으며, 이는 의미가 있습니다"라고 공동 저자이자 법학 교수인 Zhang Linghan은 말했지만, 현재 개발자와 정책 입안자 모두에게 도전이 되는 불투명성을 해소하는 것이 성공의 관건이 될 것이라고 언급했습니다.

댓글 0
전체 1,366 / 84 페이지
Microsoft는 파일 정리 및 이메일 전송과 같은 작업을 자동화하도록 설계된 새로운 Copilot Actions AI 기능이 장치를 손상시키고 민감한 데이터를 훔칠 수 있다는 경고를 발표했으며, 이는 빅테크 기업들이 보안 위험을 완전히 이해하기 전에 기능을 출시한다는 비판을 다시 불러일으켰습니다.회사는 특히 공격자가 웹사이트, 이력서 또는 이메일에 악의적인 명령을 삽입할 수 있는 프롬프트 인젝션 취약점에 대해 사용자들에게 경고했으며, 대규모 언어 모델은 이를 정당한 사용자 지시와 구별할 수 없습니다.Open Worldwide Application Security Project는 2025년 LLM 애플리케이션 상위 10대 보안 위험에서 프롬프트 인젝션을 1위 보안 위험으로 선정했으며, 이는 AI 에이전트가 제어 명령과 사용자 데이터를 구분하지 못하는 근본적인 무능력에 대한 업계 전반의 우려를 반영합니다.
766 조회
0 추천
2025.11.20 등록
Micropolis Holding Co.는 11월 18일 NVIDIA Orin SOC를 탑재한 IP67 등급의 엣지 컴퓨팅 유닛을 출시하여 클라우드 연결 없이도 감시, 객체 감지 및 행동 분석을 위한 온디바이스 AI 처리를 가능하게 했습니다.8GB에서 64GB 구성으로 제공되는 이 견고한 장치는 법 집행, 국경 통제 및 국가 안보 임무를 위해 설계되었으며, 여러 로봇과 센서에 걸쳐 분산 엣지 네트워크로 작동할 수 있습니다[‘.CEO Fareed Aljawhari는 이러한 통합을 통해 Microspot이 “복잡한 AI 모델을 현장에서 즉시 안전하게 처리”할 수 있게 되어, 신뢰성이 타협될 수 없는 중요한 작전에서 실시간 의사결정을 지원한다고 말했습니다.
776 조회
0 추천
2025.11.20 등록
1950~60년대 미니컴퓨터 붐은 혁신적 반도체 기술의 발전과 소형화 바람을 타고 수많은 신생 기업과 투자 자본이 단일 산업으로 몰렸던 시기였다. 기업들은 앞다투어 성장했지만, 대부분은 처절한 실패로 끝났고 수십억 달러의 손실이 발생하면서 시장이 한 차례 정리되었다. 이 과정에서 궁극적으로 몇몇 상장기업이 20년 가까운 세월 동안 살아남아 산업을 대표하게 되었다.오늘날 AI 붐 역시 유사하게 폭발적 자본 유입과 스타트업 창업이 반복되고 있다. 하지만 과거와 달리 주요 AI 기업들은 IPO(상장) 대신 비상장 상태에서 거대 자본을 유치하며 급격한 가치 상승을 경험 중이다. 그 결과 일반 투자자들은 직접 투자할 기회가 적고, 기업가치 역시 6~9개월마다 두 배 가까이 오르는 등 민간 시장 중심의 과열 양상을 보인다.Commoncog는 단기 버블 여부를 논하기보다는, 기술 산업에서 반복되는 진입-도태 메커니즘과 시간이 걸리더라도 결국 산업 구조가 단단해지는 과정을 주목해야 한다고 강조한다. 미니컴퓨터 붐처럼, AI 붐도 필연적으로 실패와 도태, 점진적 구조 변화를 거치며 장기적으로는 견고한 성장 기반을 남길 것이라는 점이 반복적으로 제시된다.
774 조회
0 추천
2025.11.20 등록
MIT는 신경 활동이 주관적 의식 경험을 만들어내는 이유를 과학적으로 탐구하기 위해 MIT 의식 클럽을 출범시켰으며, 철학자 Matthias Michel과 신경과학자 Earl Miller를 한자리에 모아 철학과 인지신경과학을 연결하고 있다.이 이니셔티브는 뇌가 의식적 시각 시스템과 무의식적 시각 시스템이라는 두 가지 시각 시스템으로 작동한다는 발견을 바탕으로, 자극 제시와 의식적 인식 사이의 시간 지연을 측정하는 것과 같은 근본적인 질문들을 탐구한다의식 메커니즘에 대한 이해는 고령 환자의 수술 치료를 개선할 수 있으며, 이들 중 최대 10%가 전신 마취를 동반한 비심장 수술 후 장기적인 인지 기능 저하를 경험한다.
758 조회
0 추천
2025.11.20 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입