Loading...

AI 뉴스

OpenAI, 군사 사용 금지했지만… 펜타곤은 마이크로소프트를 통해 이미 AI 모델을 테스트하고 있었다

페이지 정보

작성자 symbolika
작성일 10:22
0 조회
0 추천
0 비추천

본문

OpenAI Pentagon

Executive Summary

• OpenAI는 2023년 군사 사용을 명시적으로 금지했으나, 펜타곤은 마이크로소프트의 Azure OpenAI 서비스를 통해 이미 모델을 실험하고 있었다

• 2024년 1월 OpenAI는 군사 사용 전면 금지 조항을 삭제했으며, 같은 해 12월 안두릴(Anduril)과 국가안보 미션 파트너십을 체결했다

• 최근 미 국방부와의 직접 계약 체결 후 직원들의 강한 반발이 이어지고 있으며, 알트만 CEO는 NATO에도 AI 모델 판매에 관심을 표명했다

• 법률 전문가들은 이 계약이 합법적 대규모 감시 및 자율무기 개발에 여지를 남긴다고 경고하고 있다


Background

OpenAI는 설립 초기부터 AI의 안전한 발전을 기치로 내세웠으나, 최근 수년간 방위 산업과의 관계가 급속히 변화해왔다. 2023년까지만 해도 군사 사용을 사용정책에서 명시적으로 금지했던 OpenAI는, 최대 투자자인 마이크로소프트가 수십 년간 국방부와 계약 관계를 유지해온 상황에서 사실상 정책의 실효성에 의문이 제기돼왔다. 경쟁사 Anthropic이 약 2억 달러 규모의 펜타곤 계약이 무산된 직후 OpenAI가 국방부와 직접 계약을 체결하면서, AI 기업의 군사 활용을 둘러싼 윤리적 논쟁이 다시 불붙었다.


Impact & Implications

AI 윤리와 기업 정책의 한계

OpenAI의 사례는 AI 기업이 내세우는 사용 정책이 실질적으로 얼마나 집행 가능한지에 대한 근본적 질문을 던진다. 마이크로소프트의 Azure OpenAI 서비스는 OpenAI의 정책이 아닌 마이크로소프트의 서비스 약관을 따른다는 점에서, 기술 라이선스 구조가 원개발사의 윤리 기준을 우회하는 통로가 될 수 있음을 보여준다. 이는 AI 산업 전반에서 기술 제공자의 책임 범위를 어디까지로 설정할 것인지에 대한 중대한 선례가 된다.

국가안보와 AI 군비 경쟁

알트만 CEO가 NATO 판매에 관심을 표명한 것은 OpenAI가 더 이상 군사 활용을 예외적 사안이 아닌 핵심 사업 영역으로 인식하기 시작했음을 시사한다. "국방부가 우리 소프트웨어로 무엇을 할지 결정하는 것은 우리의 몫이 아니다"라는 알트만의 발언은, AI 기업이 기술의 최종 사용에 대한 책임에서 한발 물러서는 방향으로 나아가고 있음을 보여준다. 이는 AI 기술의 군사적 확산을 가속화할 가능성이 있다.

직원 반발과 내부 거버넌스

수십 명의 OpenAI 직원이 공개 Slack 채널에서 군사 파트너십에 우려를 표명한 것은 기업 내부에서도 이 문제에 대한 합의가 이루어지지 않았음을 보여준다. 일부 직원은 "사용자의 신용카드 정보도 안전하게 다루지 못하는 모델이 전장에서 쓰여도 되느냐"고 의문을 제기했다. 연구자 노암 브라운이 정책 참여를 선언한 것처럼, AI 기업 내부에서 기술자와 정책 결정자 간의 긴장이 고조되고 있다.


Key Data & Facts

항목수치/내용
군사 사용 금지 정책 삭제2024년 1월
Anthropic 펜타곤 계약약 2억 달러 (무산)
Anduril 파트너십2024년 12월 체결
Azure OpenAI 기밀 작업 승인2025년
내부 반발 참여 직원수십 명 (공개 Slack 채널)

Key Quote

"The biggest losers in all of this are everyday people and civilians in conflict zones. Our ability to understand the effects of military AI in war is and will be severely hindered due to layers of opacity caused by technical design and policy. It's black boxes all the way down."
— Sarah Shoker, 전 OpenAI 지정학팀 총괄
댓글 0
전체 1,366 / 1 페이지
Executive Summary • OpenAI는 2023년 군사 사용을 명시적으로 금지했으나, 펜타곤은 마이크로소프트의 Azure OpenAI 서비스를 통해 이미 모델을 실험하고 있었다 • 2024년 1월 OpenAI는 군사 사용 전면 금지 조항을 삭제했으며, 같은 해 12월 안두릴(Anduril)과 국가안보 미션 파트너십을 체결했다 • 최근 미 국방부와의 직접 계약 체결 후 직원들의 강한 반발이 이어지고 있으며, 알트만 CEO는 NATO에도 AI 모델 판매에 관심을 표명했다 • 법률 전문가들은 이 계약이 합법적 대규모 감시 및 자율무기 개발에 여지를 남긴다고 경고하고 있다 Background OpenAI는 설립 초기부터 AI의 안전한 발전을 기치로 내세웠으나, 최근 수년간 방위 산업과의 관계가 급속히 변화해왔다. 2023년까지만 해도 군사 사용을 사용정책에서 명시적으로 금지했던 OpenAI는, 최대 투자자인 마이크로소프트가 수십 년간 국방부와 계약 관계를 유지해온 상황에서 사실상 정책의 실효성에 의문이 제기돼왔다. 경쟁사 Anthropic이 약 2억 달러 규모의 펜타곤 계약이 무산된 직후 OpenAI가 국방부와 직접 계약을 체결하면서, AI 기업의 군사 활용을 둘러싼 윤리적 논쟁이 다시 불붙었다. Impact & Implications AI 윤리와 기업 정책의 한계 OpenAI의 사례는 AI 기업이 내세우는 사용 정책이 실질적으로 얼마나 집행 가능한지에 대한 근본적 질문을 던진다. 마이크로소프트의 Azure OpenAI 서비스는 OpenAI의 정책이 아닌 마이크로소프트의 서비스 약관을 따른다는 점에서, 기술 라이선스 구조가 원개발사의 윤리 기준을 우회하는 통로가 될 수 있음을 보여준다. 이는 AI 산업 전반에서 기술 제공자의 책임 범위를 어디까지로 설정할 것인지에 대한 중대한 선례가 된다. 국가안보와 AI 군비 경쟁 알트만 CEO가 NATO 판매에 관심을 표명한 것은 OpenAI가 더 이상 군사 활용을 예외적 사안이 아닌 핵심 사업 영역으로 인식하기 시작했음을 시사한다. "국방부가 우리 소프트웨어로 무엇을 할지 결정하는 것은 우리의 몫이 아니다"라는 알트만의 발언은, AI 기업이 기술의 최종 사용에 대한 책임에서 한발 물러서는 방향으로 나아가고 있음을 보여준다. 이는 AI 기술의 군사적 확산을 가속화할 가능성이 있다. 직원 반발과 내부 거버넌스 수십 명의 OpenAI 직원이 공개 Slack 채널에서 군사 파트너십에 우려를 표명한 것은 기업 내부에서도 이 문제에 대한 합의가 이루어지지 않았음을 보여준다. 일부 직원은 "사용자의 신용카드 정보도 안전하게 다루지 못하는 모델이 전장에서 쓰여도 되느냐"고 의문을 제기했다. 연구자 노암 브라운이 정책 참여를 선언한 것처럼, AI 기업 내부에서 기술자와 정책 결정자 간의 긴장이 고조되고 있다. Key Data & Facts 항목수치/내용 군사 사용 금지 정책 삭제2024년 1월 Anthropic 펜타곤 계약약 2억 달러 (무산) Anduril 파트너십2024년 12월 체결 Azure OpenAI 기밀 작업 승인2025년 내부 반발 참여 직원수십 명 (공개 Slack 채널) Key Quote "The biggest losers in all of this are everyday people and civilians in conflict zones. Our ability to understand the effects of military AI in war is and will be severely hindered due to layers of opacity caused by technical design and policy. It's black boxes all the way down." — Sarah Shoker, 전 OpenAI 지정학팀 총괄
1 조회
0 추천
10:22 등록
Executive Summary • 문법 교정 도구 그래머리(Grammarly)가 스티븐 킹, 칼 세이건 등 유명 작가·학자의 이름을 걸고 AI '전문가 리뷰' 기능을 출시했으나, 해당 인물들은 이 과정에 일절 관여하지 않은 것으로 확인됐다. • 올해 1월 별세한 역사학자 데이비드 아불라피아의 이름까지 사용된 사실이 알려지면서, 학계를 중심으로 "고인의 학문적 업적을 비윤리적으로 도용했다"는 강한 반발이 일고 있다. • AI 저작권 소송이 연이어 제기되는 가운데, LLM이 실존 인물의 이름과 명성을 동의 없이 활용하는 관행에 대한 법적·윤리적 논쟁이 한층 격화될 전망이다. Background 그래머리는 단순 문법 교정 도구에서 생성형 AI 기반 글쓰기 플랫폼으로 변모해왔다. 지난해 10월 CEO 시시르 메흐로트라가 회사 전체를 '슈퍼휴먼(Superhuman)'으로 리브랜딩하면서 AI 챗봇, 패러프레이저, 'AI 채점기' 등 다양한 LLM 기능을 대거 추가했다. 이번 '전문가 리뷰' 기능은 이 같은 AI 확장 전략의 연장선에 있으며, AI 기업들이 학습 데이터와 저작권을 둘러싸고 수십 건의 소송에 휘말린 상황에서 출시돼 더 큰 논란을 자아내고 있다. Impact & Implications AI 윤리·저작권 논쟁 심화 그래머리는 "전문가의 추천이나 제휴를 의미하지 않는다"는 면책 조항을 달았지만, 비판론자들은 이것이 실질적 보호장치가 되지 못한다고 지적한다. 예일대 역사학자 C.E. 오뱅은 "이는 인문학계가 AI에 대해 갖고 있는 깊은 불신을 그대로 입증하는 사례"라며, "실제 사유하고 연구하는 인간을 그들의 저작물로 환원해 제거할 수 있다는 발상 자체가 끔찍하다"고 비판했다. 고인의 학문적 유산을 상업적 AI 제품에 무단 활용하는 것은 기존 저작권 소송의 쟁점을 넘어 인격권 침해라는 새로운 법적 영역까지 건드리는 문제다. 교육 현장에 미치는 파급 효과 교육계에서는 이미 AI 생성 과제물의 범람으로 골머리를 앓고 있다. 그래머리가 '저명 학자의 리뷰'라는 외피를 씌워 AI 피드백을 제공하면, 학생들이 이를 자기 글의 '검증'으로 착각해 학문적 부정행위의 경계가 더욱 모호해질 수 있다. 실제로 그래머리 사용 자체가 AI 탐지 서비스에 걸려 부정행위로 의심받는 사례가 이미 보고되고 있다. AI 업계의 '이름 빌리기' 관행에 대한 경종 이번 사례는 단순히 그래머리만의 문제가 아니다. LLM 기업들이 유명인의 이름, 목소리, 창작 스타일을 동의 없이 재현하는 관행이 업계 전반에 확산되고 있으며, 이에 대한 규제 논의가 본격화될 것으로 보인다. 실존 인물의 정체성을 AI 제품의 마케팅 수단으로 활용하는 것을 어디까지 허용할 것인지, 산업 차원의 기준 마련이 시급한 상황이다. Key Data & Facts 항목수치/내용 서비스Grammarly 'Expert Review' 기능 모회사Superhuman (구 Grammarly Inc.) 제공 방식LLM 기반, 실존 인물의 관점을 시뮬레이션 등장 인물스티븐 킹, 칼 세이건, 닐 디그래스 타이슨, 스티븐 핑커, 게리 마커스 등 고인 포함데이비드 아불라피아(2026년 1월 별세), 윌리엄 스트렁크 Jr., 피에르 부르디외 등 본인 동의확인되지 않음 (회사 측 "추천·제휴 아님" 면책) Key Quote "These are not expert reviews, because there are no 'experts' involved in producing them. It's pretty insulting to see scholarship used this way when the academic humanities are currently under attack from every possible angle." — C.E. Aubin, 예일대 역사학 박사후연구원
15 조회
0 추천
03.05 등록
Executive Summary • 앤트로픽이 클로드의 메모리 기능을 무료 사용자에게도 확대 개방하고, 타 AI 챗봇에서 데이터를 쉽게 가져올 수 있는 전용 임포트 도구를 출시했다 • ChatGPT, 제미나이 등 경쟁 AI에 축적된 대화 기록과 맥락을 클로드로 원클릭 이전할 수 있어, 챗봇 전환의 진입장벽이 크게 낮아진다 • 클로드 코드(Claude Code)와 클로드 코워크(Claude Cowork) 등 개발자 도구의 인기 상승에 힘입어 앤트로픽이 사용자 확보 공세를 가속화하는 행보로 풀이된다 • 최근 펜타곤의 AI 가드레일 완화 요구에 대한 앤트로픽의 공개적 반발도 주목도를 높이는 요인으로 작용하고 있다 Background 앤트로픽은 2024년 10월 클로드에 메모리 기능을 처음 도입하며 유료 구독자 대상으로 대화 맥락 기억 및 데이터 가져오기·내보내기 기능을 제공해왔다. 이번 업데이트는 이를 무료 사용자까지 확장하고, 경쟁사 챗봇에서 축적된 사용자 데이터를 간편하게 이전할 수 있는 전용 프롬프트와 도구를 새롭게 선보인 것이다. Impact & Implications 경쟁 구도 변화 AI 챗봇 시장에서 '전환 비용'은 사용자 락인(lock-in)의 핵심이었다. 기존 챗봇에 쌓인 대화 기록, 선호도, 개인 맥락을 버리고 다른 서비스로 이동하는 것은 사실상 처음부터 다시 시작하는 것을 의미했다. 앤트로픽의 메모리 임포트 도구는 이 장벽을 정면으로 허물며, OpenAI의 ChatGPT와 구글 제미나이 사용자를 적극적으로 끌어들이려는 전략이다. 사용자가 기존 AI에서 사전 작성된 프롬프트를 실행하고 그 결과를 클로드에 붙여넣기만 하면 이전이 완료되는 간단한 방식을 채택했다. 산업·시장 영향 이번 조치는 클로드 코드와 클로드 코워크 같은 AI 개발자 도구의 빠른 성장과 맞물려 있다. 지난달 출시된 Opus 4.6과 Sonnet 4.6 모델은 코딩, 스프레드시트 처리, 양식 작성 등 복잡한 작업에서 한층 향상된 성능을 보이며 개발자 커뮤니티에서 높은 관심을 받고 있다. 무료 사용자에게 메모리 기능을 개방한 것은 이 같은 모멘텀을 일반 소비자 시장까지 확대하려는 의도로 해석된다. 규제·정책 영향 앤트로픽은 최근 미 국방부의 AI 모델 가드레일 완화 요구에 공개적으로 반발하며 대량 감시와 완전 자율 살상 무기에 대한 '레드라인'을 선언했다. 이러한 윤리적 입장 표명은 AI 안전성에 민감한 사용자층과 기업 고객의 신뢰를 높이는 한편, 경쟁사와의 차별화 요소로도 작용하고 있다. 메모리 기능 강화와 맞물려 '안전하면서도 강력한 AI'라는 브랜드 이미지를 구축하려는 전략으로 볼 수 있다. Key Data & Facts 항목수치/내용 메모리 기능 최초 도입2024년 10월 무료 사용자 확대2026년 3월 최신 모델Opus 4.6, Sonnet 4.6 (2026년 2월 출시) 주요 성장 동력Claude Code, Claude Cowork 데이터 이전 방식경쟁 AI에서 프롬프트 실행 → 결과를 클로드 임포트 도구에 입력 Key Quote 앤트로픽은 대량 감시와 완전 자율 살상 무기에 대해 "레드라인"을 설정했다고 공개적으로 밝혔다.
19 조회
0 추천
03.04 등록
Executive Summary • 도이치텔레콤이 AI 음성 전문 기업 ElevenLabs와 파트너십을 체결, 통화 중 실시간 AI 비서 서비스 '마젠타 AI 콜 어시스턴트' 출시 예정 • 별도 앱 설치 없이 "Hey Magenta" 음성 명령으로 활성화되며, 실시간 언어 번역·일정 조회·장소 검색 등 기능 제공 • MWC 2026 바르셀로나에서 발표, 올해 독일에서 우선 서비스 개시 후 50개 언어 지원 확대 계획 • 비암호화 통화에 AI 도입으로 인한 프라이버시 우려도 제기 Background AI 음성 기술 기업 ElevenLabs는 팟캐스트 호스트부터 대통령까지 다양한 음성 복제 기술로 주목받아왔다. 도이치텔레콤은 T-Mobile US의 대주주로서, 이번 파트너십을 통해 통신 인프라에 생성형 AI를 직접 통합하는 새로운 시도에 나섰다. 애플, 삼성, 구글 등 빅테크 기업들이 특정 기기에 한정된 AI 번역 서비스를 제공하는 것과 달리, 마젠타는 기기와 소프트웨어에 구애받지 않는 접근성을 내세운다. Impact & Implications 기술적 의미 마젠타 AI 콜 어시스턴트는 통신 네트워크 레벨에서 AI 에이전트를 통합한 첫 사례 중 하나다. 기존 AI 번역·비서 서비스가 스마트폰이나 특정 앱에 종속되었던 것과 달리, 전화 통화라는 보편적 인프라에 AI를 녹여낸 점이 핵심이다. ElevenLabs의 음성 합성 기술이 실시간 대화에 적용되면서, AI 에이전트가 단순 앱을 넘어 통신 서비스 자체로 확장되는 전환점을 보여준다. 사용자 영향 "Hey Magenta"라는 웨이크 워드로 통화 중 언제든 AI 비서를 호출할 수 있다는 점은 편의성을 높이지만, 사용자 경험(UX) 측면에서 논란도 있다. Hugging Face의 AI 정책 연구원 Avijit Ghosh는 "통화 도중 갑자기 AI와 대화를 시작하는 것은 매우 어색한 경험"이라고 지적했다. 또한 비암호화 통화에 AI가 개입하면서 데이터 수집 및 프라이버시 우려가 제기되고 있으며, 도이치텔레콤은 EU 데이터 보호법 준수와 음성 녹음 비저장을 강조했다. 경쟁 구도 변화 빅테크 기업들이 자사 기기 생태계 내에서 AI 서비스를 제공하는 데 비해, 통신사가 네트워크 레벨에서 AI 서비스를 제공하는 새로운 경쟁 구도가 형성될 수 있다. 도이치텔레콤이 독일에서 성공적으로 서비스를 안착시킬 경우, 타 글로벌 통신사들도 유사한 파트너십을 모색할 가능성이 높다. Key Data & Facts 항목수치/내용 서비스명Magenta AI Call Assistant 파트너 기업ElevenLabs (AI 음성 기술) 출시 지역독일 (2026년 내) 지원 언어향후 12개월 내 50개 언어 활성화 방식"Hey Magenta" 웨이크 워드 발표 행사MWC 2026 바르셀로나 Key Quote "통화 중에 갑자기 항상 듣고 있는 AI 비서와 대화를 시작하는 것은 매우 어색한 경험이다. 이 서비스는 특정 목적에 맞게 설계되지 않은 채 대중에게 출시되기엔 너무 일반적이다." — Avijit Ghosh, Hugging Face AI 정책 연구원
29 조회
0 추천
03.03 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입