OpenAI, 군사 사용 금지했지만… 펜타곤은 마이크로소프트를 통해 이미 AI 모델을 테스트하고 있었다
페이지 정보
본문

Executive Summary
• OpenAI는 2023년 군사 사용을 명시적으로 금지했으나, 펜타곤은 마이크로소프트의 Azure OpenAI 서비스를 통해 이미 모델을 실험하고 있었다
• 2024년 1월 OpenAI는 군사 사용 전면 금지 조항을 삭제했으며, 같은 해 12월 안두릴(Anduril)과 국가안보 미션 파트너십을 체결했다
• 최근 미 국방부와의 직접 계약 체결 후 직원들의 강한 반발이 이어지고 있으며, 알트만 CEO는 NATO에도 AI 모델 판매에 관심을 표명했다
• 법률 전문가들은 이 계약이 합법적 대규모 감시 및 자율무기 개발에 여지를 남긴다고 경고하고 있다
Background
OpenAI는 설립 초기부터 AI의 안전한 발전을 기치로 내세웠으나, 최근 수년간 방위 산업과의 관계가 급속히 변화해왔다. 2023년까지만 해도 군사 사용을 사용정책에서 명시적으로 금지했던 OpenAI는, 최대 투자자인 마이크로소프트가 수십 년간 국방부와 계약 관계를 유지해온 상황에서 사실상 정책의 실효성에 의문이 제기돼왔다. 경쟁사 Anthropic이 약 2억 달러 규모의 펜타곤 계약이 무산된 직후 OpenAI가 국방부와 직접 계약을 체결하면서, AI 기업의 군사 활용을 둘러싼 윤리적 논쟁이 다시 불붙었다.
Impact & Implications
AI 윤리와 기업 정책의 한계
OpenAI의 사례는 AI 기업이 내세우는 사용 정책이 실질적으로 얼마나 집행 가능한지에 대한 근본적 질문을 던진다. 마이크로소프트의 Azure OpenAI 서비스는 OpenAI의 정책이 아닌 마이크로소프트의 서비스 약관을 따른다는 점에서, 기술 라이선스 구조가 원개발사의 윤리 기준을 우회하는 통로가 될 수 있음을 보여준다. 이는 AI 산업 전반에서 기술 제공자의 책임 범위를 어디까지로 설정할 것인지에 대한 중대한 선례가 된다.
국가안보와 AI 군비 경쟁
알트만 CEO가 NATO 판매에 관심을 표명한 것은 OpenAI가 더 이상 군사 활용을 예외적 사안이 아닌 핵심 사업 영역으로 인식하기 시작했음을 시사한다. "국방부가 우리 소프트웨어로 무엇을 할지 결정하는 것은 우리의 몫이 아니다"라는 알트만의 발언은, AI 기업이 기술의 최종 사용에 대한 책임에서 한발 물러서는 방향으로 나아가고 있음을 보여준다. 이는 AI 기술의 군사적 확산을 가속화할 가능성이 있다.
직원 반발과 내부 거버넌스
수십 명의 OpenAI 직원이 공개 Slack 채널에서 군사 파트너십에 우려를 표명한 것은 기업 내부에서도 이 문제에 대한 합의가 이루어지지 않았음을 보여준다. 일부 직원은 "사용자의 신용카드 정보도 안전하게 다루지 못하는 모델이 전장에서 쓰여도 되느냐"고 의문을 제기했다. 연구자 노암 브라운이 정책 참여를 선언한 것처럼, AI 기업 내부에서 기술자와 정책 결정자 간의 긴장이 고조되고 있다.
Key Data & Facts
| 항목 | 수치/내용 |
|---|---|
| 군사 사용 금지 정책 삭제 | 2024년 1월 |
| Anthropic 펜타곤 계약 | 약 2억 달러 (무산) |
| Anduril 파트너십 | 2024년 12월 체결 |
| Azure OpenAI 기밀 작업 승인 | 2025년 |
| 내부 반발 참여 직원 | 수십 명 (공개 Slack 채널) |
Key Quote
"The biggest losers in all of this are everyday people and civilians in conflict zones. Our ability to understand the effects of military AI in war is and will be severely hindered due to layers of opacity caused by technical design and policy. It's black boxes all the way down."
— Sarah Shoker, 전 OpenAI 지정학팀 총괄