앤트로픽, 미 국방부와 정면 충돌... AI 안전성의 딜레마
페이지 정보
본문

Executive Summary
• 미 국방부가 앤트로픽과의 2억 달러 계약 재검토에 착수, '공급망 위험' 지정까지 고려 중
• 앤트로픽은 AI 안전 원칙을 근거로 특정 치명적 군사 작전 참여를 거부한 것으로 알려짐
• 국방부는 AI 기업들에게 "전쟁에서 승리하기 위한 무조건적 협력"을 요구하고 있음
• 이 사태는 AI 안전성 추구와 국가 안보 요구 사이의 근본적 긴장을 드러내는 분수령적 사건
Background
앤트로픽은 지난해 미국 정부로부터 기밀 업무 승인을 받은 최초의 주요 AI 기업이 되었다. 회사는 미국 국가 안보 고객을 위한 맞춤형 'Claude Gov' 모델을 제공하면서도, 무기 설계나 자율 무기 시스템 참여를 금지하는 자체 안전 기준을 유지해왔다. 그러나 트럼프 행정부 하에서 국방부는 AI 기업들의 이러한 제한적 태도에 인내심을 잃어가고 있다.
Impact & Implications
AI 안전 연구의 존립 위기
앤트로픽은 창립 이래 AI 안전성을 핵심 가치로 내세워왔다. 아이작 아시모프의 로봇 3원칙처럼, AI가 인간에게 해를 끼치지 않도록 하는 가드레일을 모델에 깊이 통합하는 것이 회사의 사명이다. 그러나 국방부의 압박은 이러한 안전 중심 접근법 자체를 위협하고 있다. 국방부 CTO 에밀 마이클은 "드론 스웜이 군사 기지에서 출격할 때 인간의 반응 시간으로는 부족하다"며 AI의 자율적 치명력 사용 필요성을 주장했다. 이는 아시모프의 제1원칙에 대한 정면 도전이다.
AI 군비 경쟁의 가속화
미국이 베네수엘라처럼 기술적으로 열세인 국가를 상대할 때는 AI 군사력을 자유롭게 행사할 수 있을지 모른다. 그러나 첨단 기술을 보유한 적국들도 자국의 국가 안보 AI를 공격적으로 개발할 것이며, 결과적으로 전면적인 AI 군비 경쟁이 촉발될 것이다. 불과 몇 년 전만 해도 정부와 기술 경영진들은 AI의 해로운 사용을 모니터링하고 제한할 국제 기구 설립을 진지하게 논의했지만, 이제 그런 대화는 거의 들리지 않는다.
AI 산업 지형의 재편
OpenAI, xAI, 구글 등 다른 AI 기업들은 현재 기밀이 아닌 국방부 업무를 수행 중이며, 고위 보안 승인을 얻기 위한 절차를 밟고 있다. 팰런티어 CEO 알렉스 카프는 자사 제품이 "때때로 사람을 죽이는 데 사용된다"고 공공연히 자랑한다. 앤트로픽이 국방부와의 관계에서 후퇴하면, 안전성에 덜 민감한 경쟁사들이 그 자리를 차지하게 될 것이다. 이는 AI 산업 전체의 안전 기준을 하향 평준화시킬 수 있다.
Key Data & Facts
| 항목 | 수치/내용 |
|---|---|
| 위험에 처한 계약 규모 | 2억 달러 |
| 잠재적 제재 | '공급망 위험' 지정 |
| 관련 사건 | 베네수엘라 마두로 대통령 제거 작전에 Claude 사용 의혹 |
| 앤트로픽 입장 | 베네수엘라 작전 관련 항의 사실 부인 |
Key Quote
"우리 국가는 파트너들이 어떤 전투에서든 전투원들의 승리를 기꺼이 도울 것을 요구합니다. 궁극적으로 이것은 우리 군인들과 미국 국민의 안전에 관한 것입니다."
— 숀 파넬, 미 국방부 대변인