Loading...

AI 뉴스

딥시크, 알리바바 연구진, 중국 AI 규정의 투명성 촉구

페이지 정보

작성자 xtalfi
작성일 2025.11.29 17:57
502 조회
0 추천
0 비추천

본문

still-21325843-22315-still.jpg%3Fc%3D16x9%26q%3Dh_833%2Cw_1480%2Cc_fill

DeepSeek와 Alibaba의 연구원들이 Science 저널에 논문을 발표하며 중국의 빠르게 성장하는 규제 프레임워크에서 투명성 증대와 보다 체계적인 피드백을 요구한 후, 인공지능을 규제하려는 중국의 야심찬 노력이 국제적 관심을 다시 받고 있습니다. 불과 며칠 전 발표된 그들의 분석은 정책 입안자들에게 배포 전 신고의 명확성을 개선하고, 오픈소스 AI에 대한 감독을 강화하며, 중국의 AI 산업이 급속도로 확장됨에 따라 독립적인 검증 메커니즘을 구현할 것을 촉구합니다.​


확장되는 규칙들, 남아있는 불투명성

중국의 AI 규제 환경은 놀라운 속도로 발전해 왔습니다. 2025년 4월까지 중국 국가인터넷정보판공실(CAC)은 2,350개 이상의 기업으로부터 3,739개의 생성형 AI 도구를 등록했으며, 레지스트리는 매달 최대 300개씩 증가하고 있습니다. 그러나 이러한 성장에도 불구하고 AI 모델 신고 절차는 여전히 매우 불투명합니다. 신청이 거부된 개발자들은 거의 또는 전혀 설명을 받지 못하는 경우가 많으며, 승인된 모델은 통합 목록으로만 공개됩니다. 이러한 불투명성은 규정 준수를 복잡하게 만들어 AI 기업들이 규제 기대치를 이해하고 적응하기 어렵게 만듭니다.​

저자들은 "중국의 규정은 복잡한 모자이크를 형성했다"고 언급하며, 규제 프레임워크가 혁신과 연구를 가능하게 하지만, 중국의 국내 AI 시스템이 미국의 선도 모델에 필적하는 '최첨단' 역량을 개발함에 따라 당국의 더 명확한 소통과 투명성이 필수적이라고 덧붙였습니다.​


오픈 소스: 기회인가 위험인가?

중국 현 정권의 주요 특징 중 하나는 오픈소스 AI 모델과 과학 연구에 사용되는 도구에 대한 면제 조항입니다. 이는 미국과 유럽에서의 더 엄격한 접근 방식과 뚜렷한 대조를 이룹니다. 그러나 전문가들은 이러한 면제가 제대로 통제되지 않을 경우 “위험한 오용”을 초래할 수 있다고 경고합니다. “여론 속성 또는 사회적 동원 역량”을 가진 서비스의 정의가 모호하게 남아 있어, 면제 적용 범위가 얼마나 넓을지에 대한 우려를 불러일으키고 있습니다. DeepSeek와 알리바바 연구진은 이러한 모델이 악의적이거나 사회를 불안정하게 만드는 목적으로 악용되지 않도록 더 엄격한 경계와 독립적인 감독의 필요성을 주장합니다.​

한편, 베이징 컨설팅 기업 Concordia AI의 최근 검토에 따르면, 현재 중국의 주요 AI 시스템들은 미국과 유사한 수준의 위험성을 보이고 있어 더 견고한 준수 및 안전성 점검의 중요성이 더욱 커지고 있습니다.​


시장 영향과 향후 전망

중국의 규제 접근 방식은 여러 기둥 위에 세워져 있습니다: 배포 전 신고, 자체 평가, AI 생성 콘텐츠에 대한 라벨링 요구사항, 그리고 단계적이고 때로는 실험적인 새로운 규칙의 시행입니다. 중국은 포괄적인 AI 법안을 제정하지는 않았지만, 입법자들 사이에서 초안이 검토되고 있으며, 특히 2025년 중반 이후로 방대한 기술 표준이 계속 확대되고 있습니다.​

이러한 추진은 또한 기업들이 투명성과 안전성에 대한 새로운 기준을 충족하기 위해 노력하면서 규정 준수 도구, 모델 평가 소프트웨어, 그리고 독립적인 감사에 대한 수요를 촉진시켰습니다. DeepSeek와 Alibaba 논문은 추가적인 진전이 명확한 규제 지침과 제3자 검증에 달려 있음을 강조하는데, 이는 중국의 AI 생태계가 글로벌 무대에서 성숙해짐에 따라 책임 있는 성장을 유지하고 위험을 줄이는 데 필수적인 단계로 여겨집니다.​

"중국은 실제로 AI 거버넌스에서 추종자에서 선도자로 전환했으며, 이는 의미가 있습니다"라고 공동 저자이자 법학 교수인 Zhang Linghan은 말했지만, 현재 개발자와 정책 입안자 모두에게 도전이 되는 불투명성을 해소하는 것이 성공의 관건이 될 것이라고 언급했습니다.

댓글 0
전체 1,366 / 62 페이지
개발자 Simon Willison은 최상위 모델들이 현재 너무나 유사하게 작동하여 실제 작업에서는 기업들이 각 릴리스마다 개선을 주장함에도 불구하고 의미 있는 성능 차이를 드러내지 못하기 때문에, 최첨단 AI 모델 평가가 점점 더 어려워지고 있다고 주장한다.Willison은 Anthropic에서 새로 출시한 Claude Opus 4.5를 사용하여 이틀 동안 39개 파일에 걸쳐 2,022개의 코드 추가를 포함하는 광범위한 코딩 작업을 완료한 후, 이전 Claude Sonnet 4.5 모델로 다시 전환했을 때도 동일한 속도로 작업을 계속할 수 있었으며, 두 모델 간의 구체적인 성능 차이를 식별할 수 없었다고 밝혔다.Willison은 AI 연구소들이 새로운 모델을 출시할 때 이전 모델에서는 실패했지만 새 모델에서는 성공하는 프롬프트의 구체적인 예시를 함께 제공할 것을 요구하며, 이러한 시연이 MMLU나 GPQA Diamond와 같은 테스트에서 한 자릿수 백분율 포인트 개선을 보여주는 벤치마크보다 더 가치 있을 것이라고 주장한다—이는 최첨단 모델들이 전통적인 평가 지표를 점점 더 포화시키면서 업계 전반이 겪고 있는 어려움을 반영하는 과제이다.
628 조회
0 추천
2025.11.25 등록
VentureBeat기사는스스로를"AI우선"이라고선언하는대부분의기업들이진정한도입보다는형식적인혁신에몰두하고있다고주장하며,진정한AI도입은하향식기업지시가아닌호기심많은직원들이조용히실험하는과정에서자연스럽게나타난다고설명합니다.​이기사는직접프로토타입을만들고자신의실패를공유하는리더와금요일까지AI계획을요구하는Slack메시지로단순히규정준수를강요하는리더를구분하며,전자는실질적인추진력을조성하는반면후자는반감을낳는다고설명합니다.​기사는재무및운영부서의직원들이일반적으로이사회프레젠테이션에등장하는고가의엔터프라이즈플랫폼이아닌"그냥ChatGPT"를사용한다고인정한다고언급하며,최근설문조사에따르면광범위한도입의무에도불구하고직원의5%만이AI를최대한활용하여업무를혁신하고있다고밝힙니다.
607 조회
0 추천
2025.11.25 등록
Microsoft는사용자의PC에서직접시각적스크린샷을해석하고마우스및키보드동작을제어하여작업을수행하는70억개의매개변수를가진AI에이전트Fara-7B를공개했으며,이는데이터처리를로컬에유지하여개인정보보호를강화하고HIPAA및GLBA와같은규정을준수할수있는클라우드기반모델의대안을제공합니다.​WebVoyager웹탐색벤치마크에서Fara-7B는69.5%의작업성공률을달성하여GPT-4o의65.1%성능을능가했으며,유사한크기의모델이필요로하는41단계에비해약16단계만에작업을완료했습니다.​이모델은Microsoft의Magentic-One다중에이전트프레임워크에의해생성된145,000개의합성작업궤적을사용하여훈련되었으며,현재MIT라이선스하에HuggingFace에서사용할수있습니다.다만Microsoft는이모델이여전히실험적이며프로덕션배포보다는파일럿프로젝트에가장적합하다고주의를당부하고있습니다.
594 조회
0 추천
2025.11.25 등록
TheAIGRID비디오는TheInformation의보도를바탕으로OpenAICEOSamAltman이Google의부활한Gemini3모델이경쟁력을확보함에따라"험난한분위기"와일시적인경제적역풍에대해직원들에게경고한내부메모를분석합니다.​Anthropic은더늦게출시했음에도불구하고2025년동안API수익에서OpenAI를추월할것으로예상되며,OpenAI의생성형AI트래픽점유율은지난1년간Google이5.6%에서13.7%로상승하면서하락했습니다.​​SalesforceCEOMarcBenioff는3년간의일일사용끝에ChatGPT를포기하고Gemini3로전환한다고발표하며이를"놀라운"도약이라고평가했으며,OpenAI는2029년까지1,150억달러의현금소진이예상되는반면Google은연간700억달러의잉여현금흐름을보유하고있습니다.
596 조회
0 추천
2025.11.25 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입