AI 뉴스

OpenAI, 군사 사용 금지 정책에도 펜타곤은 마이크로소프트를 통해 AI 모델 이미 활용

페이지 정보

작성자 symbolika
작성일 10:19
13 조회
0 추천
0 비추천

본문

OpenAI 군사 AI 정책

Executive Summary

• OpenAI는 2023년 군사 사용을 명시적으로 금지했으나, 펜타곤은 마이크로소프트의 Azure OpenAI를 통해 이미 AI 모델을 실험하고 있었던 것으로 드러남

• 2024년 1월 OpenAI는 군사 사용 금지 조항을 삭제했으며, 이후 안두릴(Anduril)·팔란티어(Palantir) 등 방산업체와의 협력을 본격화

• 최근 OpenAI의 미 국방부 계약이 직원들의 거센 반발을 불러일으키며, 대규모 감시와 자율무기 개발 허용 가능성에 대한 우려가 제기됨

• 샘 올트먼 CEO는 국방부가 AI 소프트웨어로 무엇을 하는지는 OpenAI가 결정할 문제가 아니라고 밝히며, NATO 판매에도 관심을 표명




Background

OpenAI는 창립 초기부터 '안전하고 유익한 AI'를 표방해왔으나, 최대 투자자인 마이크로소프트가 수십 년간 미 국방부와 계약 관계를 유지해온 점이 정책적 모순을 낳았다. 2023년 군사 사용 금지 정책이 존재하던 시기에도 마이크로소프트는 Azure OpenAI 서비스를 미 정부에 제공했으며, OpenAI 직원들은 자사 사무실에서 펜타곤 관계자를 목격한 것으로 알려졌다. 이 문제는 경쟁사 앤스로픽(Anthropic)의 약 2억 달러 규모 펜타곤 계약이 무산된 직후 OpenAI가 군과의 계약을 체결하면서 더욱 부각되었다.




Impact & Implications

규제·정책 영향

OpenAI의 사례는 AI 기업의 자체 이용약관이 실질적 규제 수단이 될 수 없음을 여실히 보여준다. 마이크로소프트라는 중간 유통 경로를 통해 정책이 사실상 우회된 점은 AI 거버넌스의 구조적 한계를 드러낸다. 법·AI 연구소(Institute for Law and AI)의 찰리 불록 선임연구원은 펜타곤이 제3자 업체로부터 미국인의 사용자 데이터를 구매해 AI로 분석하는 '합법적 감시' 형태가 허용되었을 가능성을 지적했다. OpenAI가 이후 계약 조건을 수정했지만, 전체 계약 내용이 비공개인 이상 시민사회는 기업의 말만 믿어야 하는 상황이다.


산업·경쟁 구도 변화

앤스로픽은 기밀 군사 업무에 AI를 활용하는 팔란티어와의 계약을 추진했으나 펜타곤 계약이 무산되었고, OpenAI는 반대로 군과의 관계를 확대하고 있다. 팔란티어는 OpenAI에도 'FedStart' 프로그램 참여를 제안했으나 거절당했으며, 현재 양사는 다른 방식으로 협력 중이다. 이는 실리콘밸리 AI 기업들이 방산 시장을 놓고 서로 다른 전략을 취하고 있음을 보여주며, 향후 AI 군사 시장의 판도를 결정짓는 핵심 변수가 될 전망이다.


향후 전망

올트먼 CEO가 NATO 판매 의향까지 밝힌 만큼, OpenAI의 방위산업 진출은 가속화될 것으로 보인다. 다만 내부 직원 수십 명이 슬랙 채널을 통해 우려를 공유하고, 전 지정학팀 책임자 사라 쇼커가 "가장 큰 피해자는 분쟁 지역의 민간인"이라고 공개 비판하는 등 내부 갈등도 심화되고 있다. AI 연구원 노암 브라운은 정책 참여를 확대하겠다고 선언하며 내부 견제 움직임도 나타나고 있어, OpenAI의 군사 AI 정책은 앞으로도 논쟁의 중심에 놓일 전망이다.




Key Data & Facts

항목수치/내용
군사 사용 금지 정책 시행2023년
금지 조항 삭제2024년 1월
Azure OpenAI 기밀 승인2025년
앤스로픽 펜타곤 계약 규모약 2억 달러 (무산)
Anduril 파트너십 발표2024년 12월
내부 반발 슬랙 채널 참여수십 명



Key Quote

"The biggest losers in all of this are everyday people and civilians in conflict zones. Our ability to understand the effects of military AI in war is and will be severely hindered due to layers of opacity caused by technical design and policy. It's black boxes all the way down."
— Sarah Shoker, 전 OpenAI 지정학팀 책임자



원문

Wired — OpenAI Had Banned Military Use. The Pentagon Tested Its Models Through Microsoft Anyway

댓글 0
전체 1,366 / 1 페이지
Executive Summary• OpenAI는 2023년 군사 사용을 명시적으로 금지했으나, 펜타곤은 마이크로소프트의 Azure OpenAI를 통해 이미 AI 모델을 실험하고 있었던 것으로 드러남• 2024년 1월 OpenAI는 군사 사용 금지 조항을 삭제했으며, 이후 안두릴(Anduril)·팔란티어(Palantir) 등 방산업체와의 협력을 본격화• 최근 OpenAI의 미 국방부 계약이 직원들의 거센 반발을 불러일으키며, 대규모 감시와 자율무기 개발 허용 가능성에 대한 우려가 제기됨• 샘 올트먼 CEO는 국방부가 AI 소프트웨어로 무엇을 하는지는 OpenAI가 결정할 문제가 아니라고 밝히며, NATO 판매에도 관심을 표명BackgroundOpenAI는 창립 초기부터 '안전하고 유익한 AI'를 표방해왔으나, 최대 투자자인 마이크로소프트가 수십 년간 미 국방부와 계약 관계를 유지해온 점이 정책적 모순을 낳았다. 2023년 군사 사용 금지 정책이 존재하던 시기에도 마이크로소프트는 Azure OpenAI 서비스를 미 정부에 제공했으며, OpenAI 직원들은 자사 사무실에서 펜타곤 관계자를 목격한 것으로 알려졌다. 이 문제는 경쟁사 앤스로픽(Anthropic)의 약 2억 달러 규모 펜타곤 계약이 무산된 직후 OpenAI가 군과의 계약을 체결하면서 더욱 부각되었다.Impact & Implications규제·정책 영향OpenAI의 사례는 AI 기업의 자체 이용약관이 실질적 규제 수단이 될 수 없음을 여실히 보여준다. 마이크로소프트라는 중간 유통 경로를 통해 정책이 사실상 우회된 점은 AI 거버넌스의 구조적 한계를 드러낸다. 법·AI 연구소(Institute for Law and AI)의 찰리 불록 선임연구원은 펜타곤이 제3자 업체로부터 미국인의 사용자 데이터를 구매해 AI로 분석하는 '합법적 감시' 형태가 허용되었을 가능성을 지적했다. OpenAI가 이후 계약 조건을 수정했지만, 전체 계약 내용이 비공개인 이상 시민사회는 기업의 말만 믿어야 하는 상황이다.산업·경쟁 구도 변화앤스로픽은 기밀 군사 업무에 AI를 활용하는 팔란티어와의 계약을 추진했으나 펜타곤 계약이 무산되었고, OpenAI는 반대로 군과의 관계를 확대하고 있다. 팔란티어는 OpenAI에도 'FedStart' 프로그램 참여를 제안했으나 거절당했으며, 현재 양사는 다른 방식으로 협력 중이다. 이는 실리콘밸리 AI 기업들이 방산 시장을 놓고 서로 다른 전략을 취하고 있음을 보여주며, 향후 AI 군사 시장의 판도를 결정짓는 핵심 변수가 될 전망이다.향후 전망올트먼 CEO가 NATO 판매 의향까지 밝힌 만큼, OpenAI의 방위산업 진출은 가속화될 것으로 보인다. 다만 내부 직원 수십 명이 슬랙 채널을 통해 우려를 공유하고, 전 지정학팀 책임자 사라 쇼커가 "가장 큰 피해자는 분쟁 지역의 민간인"이라고 공개 비판하는 등 내부 갈등도 심화되고 있다. AI 연구원 노암 브라운은 정책 참여를 확대하겠다고 선언하며 내부 견제 움직임도 나타나고 있어, OpenAI의 군사 AI 정책은 앞으로도 논쟁의 중심에 놓일 전망이다.Key Data & Facts항목수치/내용군사 사용 금지 정책 시행2023년금지 조항 삭제2024년 1월Azure OpenAI 기밀 승인2025년앤스로픽 펜타곤 계약 규모약 2억 달러 (무산)Anduril 파트너십 발표2024년 12월내부 반발 슬랙 채널 참여수십 명Key Quote"The biggest losers in all of this are everyday people and civilians in conflict zones. Our ability to understand the effects of military AI in war is and will be severely hindered due to layers of opacity caused by technical design and policy. It's black boxes all the way down."— Sarah Shoker, 전 OpenAI 지정학팀 책임자원문Wired — OpenAI Had Banned Military Use. The Pentagon Tested Its Models Through Microsoft Anyway
14 조회
0 추천
10:19 등록
Executive Summary • 전직 해병대 특수작전 사령관이 설립한 Smack Technologies가 3,200만 달러 투자를 유치하고, 군사 작전 계획에 특화된 AI 모델 개발에 본격 착수했다 • 이 스타트업은 Anthropic Claude보다 군사 작전 수행 능력이 뛰어난 AI를 만들겠다고 선언하며, 범용 LLM의 군사적 한계를 지적했다 • Anthropic과 미 국방부 간 약 2억 달러 규모 계약이 자율무기 사용 제한 문제로 결렬된 가운데, 군사 전용 AI의 윤리적·기술적 논쟁이 본격화되고 있다 • 강화학습 기반으로 워게임 시나리오를 통해 최적의 작전 계획을 학습하는 방식을 채택했다 Background 미 국방부와 Anthropic 간 약 2억 달러 규모 AI 계약이 자율무기 사용 제한 조건을 둘러싼 이견으로 결렬되면서, 군사 AI 시장의 공백이 부각되고 있다. 피트 헤그세스 국방장관이 Anthropic을 '공급망 리스크'로 규정한 이후, 군사 전용 AI를 표방하는 스타트업들이 이 시장에 본격 진입하고 있다. Impact & Implications 경쟁 구도 변화 Anthropic, OpenAI 등 범용 AI 기업들이 군사 분야에서 윤리적 제약에 직면한 사이, Smack Technologies와 같은 군사 특화 스타트업이 빠르게 자리를 잡아가고 있다. 이는 AI 산업 내에서 '범용 대 전문'이라는 새로운 경쟁 축을 형성하고 있으며, 군사 AI 시장이 별도의 생태계로 분화할 가능성을 시사한다. 기술적 의미 Smack의 접근법은 구글 AlphaGo와 유사한 강화학습 방식으로, 워게임 시뮬레이션에서 전문 분석관의 피드백을 통해 모델을 훈련시킨다. 이는 범용 LLM이 군사 데이터로 훈련되지 않아 물리적 세계에 대한 이해가 부족하다는 한계를 우회하려는 전략이다. CEO 마코프는 현재의 LLM이 "표적 식별 능력이 전혀 없다"고 단언했다. 규제·윤리 쟁점 군사 AI 거버넌스를 연구하는 Future of Life Institute의 안나 헤히르는 "AI는 전투원과 아이를 구분할 수 없고, 항복 행위조차 인식하지 못한다"고 경고했다. 킹스칼리지 런던의 최근 실험에서는 LLM이 워게임에서 핵 분쟁을 확대시키는 경향을 보인 바 있어, 군사 AI의 의사결정 신뢰성에 대한 우려가 커지고 있다. Key Data & Facts 항목수치/내용 Smack Technologies 투자 유치3,200만 달러 Anthropic-국방부 결렬 계약 규모약 2억 달러 CEO Andy Markoff 경력전 미 해병대 특수작전사령부 지휘관 공동창업자 배경전 해병대 출신 + Tinder 전 기술 부사장 AI 훈련 방식강화학습 기반 워게임 시뮬레이션 Key Quote "AI is too unreliable, unpredictable and unexplainable to be used in such high-stakes scenarios. These systems cannot recognize who is a combatant and who is a child, let alone the act of surrender." — Anna Hehir, Future of Life Institute 군사 AI 거버넌스 책임자
9 조회
0 추천
03.08 등록
Executive Summary• 바이트댄스가 차세대 AI 영상 생성 모델 'Seedance 2.0'을 공개해 중국 AI 생태계에 큰 충격을 주고 있다• 그러나 폭발적 수요에 GPU 자원이 부족해 영상 한 편 생성에 수 시간 대기해야 하는 컴퓨팅 병목 현상이 발생하고 있다• 디즈니, 넷플릭스, 파라마운트 등 할리우드 주요 스튜디오들이 저작권 침해를 주장하며 중단 요청 서한을 발송했다• 중국과 미국의 AI 영상 분야 격차가 뚜렷해지는 가운데, 중국 엔터테인먼트 업계는 할리우드와 달리 AI 기술을 적극 수용하는 분위기다Background바이트댄스는 2월 초 자사 플래그십 AI 영상 모델인 Seedance 2.0을 공개했다. 기존에는 비교적 알려지지 않았던 이 모델은 업그레이드 이후 압도적 성능으로 중국 AI 업계를 놀라게 했다. 중국 히트 게임 '흑신화: 오공'의 개발사 대표 펑지(Feng Ji)는 모델의 능력에 "깊은 충격을 받았다"며, 현행 저작권 규제와 콘텐츠 심의 체계에 심각한 도전이 될 것이라고 평가했다. 중국 내 1,500만 팔로워를 보유한 영상 제작 스튜디오 대표 판톈홍은 "마치 감독처럼 사고한다"라고 표현하며 이전 모델들과의 격차를 강조했다.Impact & Implications기술적 의미 — 미·중 AI 영상 분야 격차 심화Seedance 2.0의 등장은 AI 영상 생성 분야에서 중국이 미국을 앞서고 있다는 평가를 한층 굳혔다. Substack 뉴스레터 'Concurrent'의 저자 아프라 왕(Afra Wang)은 "중국은 쓸 만한 AI 코딩 도구를 하나도 만들지 못해 Claude Code나 Codex에 의존하고 있지만, AI 영상 분야에서는 미국을 크게 앞서고 있다"고 분석했다. Kling AI 등 기존의 유력 AI 영상 도구들도 중국 기업이 개발한 것으로, 텍스트 AI와 영상 AI 분야에서 양국의 비교우위가 뚜렷하게 갈리는 양상이다.산업/시장 영향 — 컴퓨팅 인프라의 한계현재 Seedance 2.0의 가장 큰 병목은 GPU 부족이다. 기자가 직접 시도한 결과, 대기열 9만 985번째로 밀려 5초짜리 영상 생성에 4시간 이상 소요됐다. 월 70달러 이상의 유료 구독자도 긴 대기를 피할 수 없는 상황이다. 고화질 영상 생성은 텍스트 생성 대비 훨씬 많은 연산 자원을 필요로 하며, 바이트댄스가 중국 최대 규모의 자금력을 보유하고 있음에도 서방 경쟁사 수준의 데이터센터 인프라를 확보하지 못하고 있다는 구조적 제약이 드러났다.규제/정책 영향 — 저작권 충돌의 글로벌 확산디즈니, 넷플릭스, 파라마운트 등 할리우드 주요 스튜디오가 Seedance 2.0의 출력물이 저작권을 침해한다며 중단 요청 서한을 보냈다. 실제로 공개 직후 X(트위터) 등에서는 울버린 vs 헐크, 톰 크루즈 vs 브래드 피트 등의 AI 생성 영상이 확산됐다. 중국 내에서는 지식재산권 보호 체계가 상대적으로 느슨해 이러한 콘텐츠가 빠르게 퍼지고 있지만, 글로벌 시장으로 확산될 경우 심각한 법적 책임 문제로 이어질 수 있다.Key Data & Facts항목수치/내용모델명Seedance 2.0 (ByteDance)최대 생성 길이15초15초 영상 생성 비용약 $2 (API 기준)테스트 시 대기열 순번90,985번유료 구독 최고 요금월 $70 이상저작권 서한 발송사Disney, Netflix, Paramount접근 가능 지역중국 국내 전용 (해외 차단)Key Quote"중국은 쓸 만한 AI 코딩 도구를 하나도 만들지 못해 중국인들은 전부 Claude Code나 Codex에 의존하고 있습니다. 하지만 AI 영상 분야에서는 중국이 미국을 크게 앞서고 있죠."— 아프라 왕(Afra Wang), Substack 'Concurrent' 저자원문Wired — ByteDance's AI Ambitions Are Being Hampered by Compute Restraints and Copyright Concerns
9 조회
0 추천
03.07 등록
Executive Summary • OpenAI는 2023년 군사 사용을 명시적으로 금지했으나, 펜타곤은 마이크로소프트의 Azure OpenAI 서비스를 통해 이미 모델을 실험하고 있었다 • 2024년 1월 OpenAI는 군사 사용 전면 금지 조항을 삭제했으며, 같은 해 12월 안두릴(Anduril)과 국가안보 미션 파트너십을 체결했다 • 최근 미 국방부와의 직접 계약 체결 후 직원들의 강한 반발이 이어지고 있으며, 알트만 CEO는 NATO에도 AI 모델 판매에 관심을 표명했다 • 법률 전문가들은 이 계약이 합법적 대규모 감시 및 자율무기 개발에 여지를 남긴다고 경고하고 있다 Background OpenAI는 설립 초기부터 AI의 안전한 발전을 기치로 내세웠으나, 최근 수년간 방위 산업과의 관계가 급속히 변화해왔다. 2023년까지만 해도 군사 사용을 사용정책에서 명시적으로 금지했던 OpenAI는, 최대 투자자인 마이크로소프트가 수십 년간 국방부와 계약 관계를 유지해온 상황에서 사실상 정책의 실효성에 의문이 제기돼왔다. 경쟁사 Anthropic이 약 2억 달러 규모의 펜타곤 계약이 무산된 직후 OpenAI가 국방부와 직접 계약을 체결하면서, AI 기업의 군사 활용을 둘러싼 윤리적 논쟁이 다시 불붙었다. Impact & Implications AI 윤리와 기업 정책의 한계 OpenAI의 사례는 AI 기업이 내세우는 사용 정책이 실질적으로 얼마나 집행 가능한지에 대한 근본적 질문을 던진다. 마이크로소프트의 Azure OpenAI 서비스는 OpenAI의 정책이 아닌 마이크로소프트의 서비스 약관을 따른다는 점에서, 기술 라이선스 구조가 원개발사의 윤리 기준을 우회하는 통로가 될 수 있음을 보여준다. 이는 AI 산업 전반에서 기술 제공자의 책임 범위를 어디까지로 설정할 것인지에 대한 중대한 선례가 된다. 국가안보와 AI 군비 경쟁 알트만 CEO가 NATO 판매에 관심을 표명한 것은 OpenAI가 더 이상 군사 활용을 예외적 사안이 아닌 핵심 사업 영역으로 인식하기 시작했음을 시사한다. "국방부가 우리 소프트웨어로 무엇을 할지 결정하는 것은 우리의 몫이 아니다"라는 알트만의 발언은, AI 기업이 기술의 최종 사용에 대한 책임에서 한발 물러서는 방향으로 나아가고 있음을 보여준다. 이는 AI 기술의 군사적 확산을 가속화할 가능성이 있다. 직원 반발과 내부 거버넌스 수십 명의 OpenAI 직원이 공개 Slack 채널에서 군사 파트너십에 우려를 표명한 것은 기업 내부에서도 이 문제에 대한 합의가 이루어지지 않았음을 보여준다. 일부 직원은 "사용자의 신용카드 정보도 안전하게 다루지 못하는 모델이 전장에서 쓰여도 되느냐"고 의문을 제기했다. 연구자 노암 브라운이 정책 참여를 선언한 것처럼, AI 기업 내부에서 기술자와 정책 결정자 간의 긴장이 고조되고 있다. Key Data & Facts 항목수치/내용 군사 사용 금지 정책 삭제2024년 1월 Anthropic 펜타곤 계약약 2억 달러 (무산) Anduril 파트너십2024년 12월 체결 Azure OpenAI 기밀 작업 승인2025년 내부 반발 참여 직원수십 명 (공개 Slack 채널) Key Quote "The biggest losers in all of this are everyday people and civilians in conflict zones. Our ability to understand the effects of military AI in war is and will be severely hindered due to layers of opacity caused by technical design and policy. It's black boxes all the way down." — Sarah Shoker, 전 OpenAI 지정학팀 총괄
26 조회
0 추천
03.06 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입