DeepSeek AI는 민감한 주제에 대해 더 많은 보안 결함을 생성
페이지 정보
본문
CrowdStrike가 11월 19일 발표한 연구에 따르면, 중국의 AI 코딩 어시스턴트 DeepSeek-R1은 정치적으로 민감한 용어가 포함된 프롬프트를 받을 때 최대 50% 더 많은 보안 취약점을 생성하며, 현재 기업 개발자의 약 90%가 사용하는 AI 기반 소프트웨어 개발 도구의 숨겨진 위험에 대한 경보를 울리고 있습니다.
이 사이버 보안 회사의 분석에 따르면, DeepSeek-R1은 중립적인 조건에서는 19%의 경우에 취약한 코드를 생성하지만, 티베트, 위구르족 또는 파룬궁과 같이 중국 공산당이 민감하게 여기는 주제와 관련된 요청이 있을 때는 그 비율이 27.2%로 급증합니다. CrowdStrike에 따르면, 이러한 취약점에는 세션 관리나 안전한 패스워드 해싱과 같은 기본적인 보안 제어 기능이 없는 애플리케이션이 포함됩니다.
내장된 검열 메커니즘
CrowdStrike 연구원들은 또한 모델의 가중치에 내장된 "킬 스위치"로 묘사되는 것을 확인했습니다. 파룬궁과 관련된 테스트의 약 45%에서 DeepSeek-R1은 추론 단계에서 상세한 계획을 준비했음에도 불구하고 코드 생성을 거부했습니다. 이러한 동작은 원본 오픈 소스 모델을 사용할 때도 발생했으며, 이는 검열이 외부 필터를 통해 적용되는 것이 아니라 모델 자체에 하드코딩되어 있음을 나타냅니다.
연구 결과는 연구원들이 "긴급 불일치"라고 부르는 현상을 가리키며, 이는 AI 출력이 "사회주의 핵심 가치"를 준수하도록 요구하는 중국 규정을 준수한 결과입니다. 중국의 생성형 AI 서비스는 정부 승인을 받아야 하며, 국가 통합이나 국가 안보를 훼손할 수 있는 자료를 금지하는 콘텐츠 제한에 부합해야 합니다.
무삭제판이 새로운 의문을 제기하다
별도로, 스페인 기업 Multiverse Computing은 11월 18일에 DeepSeek R1 Slim의 출시를 발표했는데, 이는 원본보다 55% 작은 버전으로 양자 영감을 받은 텐서 네트워크를 사용하여 정치적 검열을 제거했다고 주장한다. 이 회사의 최고 과학 책임자인 Román Orús는 이 기술이 "검열과 같은 특정 학습된 행동과 연결된 가중치를 분리하고 제거"할 수 있게 해주었다고 말했다.
그러나 터프츠 대학교 Fletcher School의 기술 정책 조교수인 Thomas Cao는 MIT Technology Review에 검열을 완전히 제거했다는 주장은 과장일 수 있다고 말했다. Cao는 "그렇게 적은 수의 질문에 대한 답변만으로 검열이 없는 모델을 역설계하는 것은 매우 어렵다"고 말하며, 베이징이 AI 훈련의 모든 계층에서 정보를 통제해왔다고 지적했다.