Loading...

AI 뉴스

미 국방부, Anthropic을 '공급망 리스크'로 지정... 실리콘밸리 충격

페이지 정보

작성자 symbolika
작성일 03.01 10:26
52 조회
0 추천
0 비추천

본문

Anthropic Supply Chain Risk

Executive Summary

• 피트 헤그세스 미 국방장관이 Anthropic을 '공급망 리스크'로 지정, 미군 거래 기업들의 Anthropic 상업 활동 즉시 중단 지시

• Anthropic은 자사 AI 기술의 대량 국내 감시 및 완전 자율무기 사용에 반대하며 법적 대응 예고

• Amazon, Microsoft, Google, Nvidia 등 주요 기업들이 양측과 거래 중이라 곤란한 상황에 처함

• 같은 날 OpenAI는 국방부와 기밀 환경 AI 배치 합의 발표, 대조적 행보 주목


Background

이번 조치는 수주간 진행된 국방부와 Anthropic 간 협상의 결렬에서 비롯됐다. Anthropic은 자사 AI 모델이 미국인 대상 대규모 감시나 완전 자율무기 시스템에 사용되어서는 안 된다는 입장을 고수한 반면, 국방부는 '모든 합법적 용도'에 대한 포괄적 사용 동의를 요구했다. 양측 입장 차이를 좁히지 못한 상황에서 국방부가 강경 조치를 선택한 것이다.


Impact & Implications

AI 산업 전반에 미치는 영향

이번 지정은 단순히 Anthropic 한 기업의 문제가 아니다. Amazon, Microsoft, Google, Nvidia 등 국방부와 거래하면서 동시에 Anthropic과 협력하는 주요 기술 기업들이 곤란한 상황에 처했다. 법률 전문가들은 헤그세스 장관의 발표가 기존 법적 근거와 명확히 일치하지 않는다고 지적하며, 실제로 어떤 기업이 Anthropic과의 관계를 끊어야 하는지 현재로서는 판단하기 어렵다고 분석한다.

규제 선례와 법적 분쟁

Anthropic은 블로그 성명을 통해 이번 지정에 대해 법적으로 대응하겠다고 밝혔다. 회사 측은 국방부로부터 직접적인 공식 소통을 받지 못했다고 주장하며, 헤그세스 장관이 이러한 지정을 뒷받침할 법적 권한이 없다고 반박했다. 소송이 제기되면 수개월에서 수년이 걸릴 수 있으며, 그 사이 Anthropic의 사업은 심각한 타격을 받을 수 있다.

기술 기업-국방부 협력 관계의 미래

이번 사태는 기술 기업들의 국방부 계약 참여 의지에 부정적 신호를 보낼 수 있다. CSIS의 그렉 앨런 선임고문은 "국방부가 모든 기업에 '국방 계약의 물에 발만 담그면 언제든 발목을 잡아 끌어들이겠다'는 메시지를 보냈다"고 평가했다. 한편 같은 날 OpenAI가 국방부와 AI 배치 합의를 발표하며 대조적인 결과를 보여, AI 기업들의 향후 전략적 선택에 영향을 미칠 것으로 보인다.


Key Data & Facts

항목수치/내용
지정 근거10 USC 3252 (공급망 리스크 조항)
Anthropic 입장법적 대응 예고, 직접 소통 미수령 주장
영향 기업Amazon, Microsoft, Google, Nvidia, Palantir 등
OpenAI 대조같은 날 국방부와 기밀 환경 AI 배치 합의 발표

Key Quote

"이것은 미국 정부가 저지른 가장 충격적이고, 피해가 크며, 월권적인 행위다. 우리는 본질적으로 미국 기업을 제재한 것이다. 미국인이라면 10년 후에도 여기서 살아야 하는지 생각해봐야 한다."
— 딘 볼(Dean Ball), Foundation for American Innovation 선임연구원
댓글 0
전체 1,366 / 8 페이지
Executive Summary • 미국 보건복지부(HHS)가 팔란티어(Palantir)와 크레달 AI(Credal AI)의 인공지능 도구를 활용해 DEI 및 '젠더 이념' 관련 지원금과 채용공고를 자동 심사 중 • 작년 3월부터 가동된 이 시스템은 트럼프 대통령의 행정명령 이행을 위해 도입되었으며, 지금까지 공식 발표된 적 없음 • 팔란티어는 2025년 HHS로부터 3,500만 달러 이상 수주, 크레달 AI는 약 75만 달러 계약 체결 • AI 심사 결과 플래그된 지원금과 채용공고는 최종적으로 담당 부서에서 검토 Background 트럼프 대통령은 2기 취임 첫날 DEI 프로그램 폐지(행정명령 14151)와 '젠더 이념' 금지(행정명령 14168)를 골자로 한 행정명령에 서명했다. 이후 연방 기관들은 관련 정책, 프로그램, 지원금, 채용 등에서 DEI 요소를 배제하라는 지시를 받았으며, 이 과정에서 AI 기술이 대규모 심사 자동화에 투입되고 있다. Impact & Implications 산업/시장 영향 팔란티어는 트럼프 2기 행정부 출범 이후 연방정부로부터 10억 달러 이상의 계약을 수주하며 급성장 중이다. 특히 HHS뿐 아니라 이민세관단속국(ICE)과의 계약도 전년 대비 4배 가까이 증가했다. 크레달 AI 역시 팔란티어 출신들이 설립한 스타트업으로, 정부 AI 시장에서 입지를 넓히고 있다. 정부의 정책 집행 자동화 수요가 AI 업계에 새로운 수익원을 제공하고 있으나, 이에 대한 윤리적 논란도 커지고 있다. 규제/정책 영향 AI를 통한 정책 집행 자동화는 효율성을 높이는 동시에 심각한 우려를 낳고 있다. 미국 국립과학재단(NSF)과 국립보건원(NIH)에서는 작년 말까지 약 30억 달러 규모의 지원금이 동결 또는 종료되었다. '여성', '포용', '체계적', '소수집단' 같은 일반적 용어까지 플래그 대상이 되면서 학술 연구의 위축이 우려된다. AI 기반 심사의 불투명성과 알고리즘 편향 가능성도 쟁점이다. 사용자 영향 FAFSA 지원자와 고용평등위원회(EEOC) 진정인은 더 이상 논바이너리(nonbinary)로 성별을 표기할 수 없게 되었다. 성폭력 피해 지원 단체들도 트랜스젠더 관련 언급을 웹사이트에서 삭제했다. 1,000개 이상의 비영리 단체들이 연방 지원금 상실을 우려해 미션 스테이트먼트를 수정한 것으로 알려졌다. Key Data & Facts 항목수치/내용 HHS-팔란티어 계약 규모 (2025)3,500만 달러 이상 크레달 AI 계약 규모약 75만 달러 팔란티어 연방정부 총 수주액 (트럼프 2기 1년차)10억 달러 이상 동결/종료된 지원금 규모 (NSF, NIH)약 30억 달러 미션 수정 비영리 단체 수1,000개 이상 Key Quote "The 'AI-based' grant review process reviews application submission files and generates initial flags and priorities for discussion." — HHS AI Use Case Inventory
477 조회
0 추천
2026.02.03 등록
Executive Summary • 독립 개발자가 만든 AI 비서 'Moltbot'이 실리콘밸리에서 화제의 중심으로 떠올랐다. 로컬 환경에서 구동되며 다양한 AI 모델과 앱을 연동해 거의 무제한적인 자동화를 지원한다. • 사용자들은 일정 관리, 송장 처리, 주식 분석 등 고위험 업무까지 Moltbot에 맡기고 있으며, "ChatGPT 출시 이후 처음으로 미래에 살고 있다는 느낌"이라는 반응이 쏟아지고 있다. • 그러나 설치에 기술적 지식이 필요하고, 프롬프트 인젝션 등 보안 취약점이 존재해 개인정보 유출 위험도 함께 제기되고 있다. Background 2026년 초 AI 에이전트 열풍이 본격화하면서 개인용 AI 비서에 대한 관심이 급증하고 있다. 기존 Siri, Alexa 등 전통적 비서의 한계를 넘어 다양한 앱과 서비스를 직접 제어할 수 있는 '에이전틱 AI'가 주목받는 가운데, 독립 개발자 Peter Steinberger가 만든 Moltbot(구 Clawdbot)이 소셜미디어를 통해 급속히 확산됐다. Anthropic의 요청으로 Claude와의 혼동을 피하기 위해 최근 이름을 변경했다. Impact & Implications 에이전틱 AI의 대중화 가능성 Moltbot의 인기는 AI 에이전트가 더 이상 대형 기술기업의 전유물이 아님을 보여준다. 개인 개발자도 여러 AI 모델과 API를 조합해 강력한 자동화 시스템을 구축할 수 있다는 점이 입증됐다. "기존에 존재하는 것들을 그냥 연결한 것뿐"이라는 개발자의 설명처럼, 핵심은 기술적 복잡성이 아니라 사용자 경험에 있다. 데이터 주권과 프라이버시 논쟁 Moltbot이 주목받는 또 다른 이유는 로컬 구동 방식이다. 클라우드 기반 AI 비서와 달리 사용자 데이터가 외부로 전송되지 않아 프라이버시를 보장한다. 그러나 역설적으로 신용카드 정보나 계정 접근 권한을 AI에 넘기는 사용자들이 늘면서, 프롬프트 인젝션 등 새로운 보안 위협에 노출되고 있다. AI 비서 시장의 향방 개발자 Steinberger는 2026년 주요 AI 기업들이 모두 개인 비서 제품을 출시할 것으로 예상한다. Moltbot의 성공은 이 시장에서 '데이터 소유권'이 핵심 경쟁요소가 될 수 있음을 시사한다. 기업들이 편의성과 프라이버시 사이에서 어떤 균형점을 찾을지 주목된다. Key Data & Facts 항목내용 개발자Peter Steinberger (독립 개발자) 출시일2025년 11월 (Clawdbot으로 최초 공개) 개명 이유Anthropic 요청 (Claude와의 혼동 방지) 구동 방식로컬 Mac 환경 (Mac Mini 밈 유행) 지원 AIOpenAI, Claude 등 다중 모델 연동 커뮤니케이션WhatsApp, Telegram 등 채팅앱 연동 부작용Cloudflare 주가 상승 (실제 관련 없음) Key Quote "ChatGPT 출시 이후 처음으로 미래에 살고 있다는 느낌이 들었다." — Dave Morin, Moltbot 사용자 "모델들은 권한을 주면 정말 창의적으로 행동한다. 그 순간 '젠장, 이거 대단하다'고 느꼈다." — Peter Steinberger, Moltbot 개발자
477 조회
0 추천
2026.02.02 등록
Executive Summary • Science 학술지 연구: AI 에이전트가 수천 개 소셜 계정을 조종해 허위정보 캠페인 전개 가능 • 2016년 러시아 트롤팜 수백 명 → 이제 1명이 AI로 수천 봇 통제 가능한 시대 • 22명 국제 전문가 경고: AI 군집이 2028 미국 대선에 실제 투입될 가능성 높아 • 대응책으로 'AI 영향력 관측소' 설립 제안했으나 정치적 의지 부족이 걸림돌 Background 2016년 러시아 인터넷연구소(IRA) 사태 이후 허위정보 캠페인은 딥페이크, 가짜 웹사이트 등으로 진화해왔다. AI 에이전트 기술이 급속히 발전하면서 이를 대규모 정보전에 활용할 수 있다는 우려가 과학계에서 본격 제기됐다. Impact & Implications 탐지 회피 능력 AI 군집의 가장 위협적인 특성은 기존 봇과 달리 인간 사용자와 구분이 거의 불가능하다는 점이다. 지속적 정체성과 기억력을 보유해 실제 SNS 사용자처럼 행동할 수 있다. 연구진은 "인간을 모방하는 교묘한 특성 때문에 탐지가 극히 어렵고 현존 여부조차 파악하기 힘들다"고 경고했다. 자가 개선 메커니즘 이 시스템은 게시물에 대한 반응을 피드백으로 삼아 스스로 개선할 수 있다. 연구진은 "충분한 신호가 있으면 수백만 건의 마이크로 A/B 테스트를 수행하고, 효과적인 변형을 기계 속도로 전파하며, 인간보다 훨씬 빠르게 반복 학습한다"고 설명했다. 정치적 무관심 소셜미디어 플랫폼은 참여도를 우선시하므로 AI 군집을 적발할 유인이 없다. 정부 역시 온라인 대화를 감시하는 '관측소' 개념에 우호적이지 않은 지정학적 환경이다. 전 바이든 행정부 허위정보 책임자 니나 얀코비츠는 "가장 무서운 건 AI가 초래하는 피해를 해결할 정치적 의지가 거의 없다는 것"이라고 지적했다. Key Data & Facts 항목수치/내용 연구 참여 전문가22명 (AI, 사이버보안, 심리학, 저널리즘, 정책 분야) 발표 학술지Science 예상 실전 투입 시기2028년 미국 대선 2026 중간선거 영향제한적 (아직 개발 단계) 제안된 대응책AI 영향력 관측소(Observatory) 설립 Key Quote "인공지능의 발전은 인구 전체 수준에서 신념과 행동을 조작할 가능성을 제시한다. 인간의 사회적 역학을 적응적으로 모방함으로써 민주주의를 위협한다." — Science 연구 보고서
476 조회
0 추천
2026.02.01 등록
Executive Summary • 구글, 크롬 브라우저에 'Auto Browse' AI 에이전트 기능 출시 - Gemini 3 기반 자동 웹 브라우징 가능 • 티켓 예매, 쇼핑, 여행 계획 등 웹 작업 자동화 지원하나 정확도 문제 여전 • AI 에이전트가 지시를 '너무 문자 그대로' 해석하는 한계 드러나 - 콘서트 좌석 예매 시 연석 아닌 별도 열 선택 • 보안 취약점 우려: 악성 웹사이트의 프롬프트 인젝션 공격에 노출 가능성 Background 구글이 AI 프로 및 울트라 요금제 사용자를 대상으로 크롬 브라우저에 'Auto Browse' 기능을 출시했다. 이는 AI 에이전트가 사용자를 대신해 웹을 탐색하고 클릭하는 기능으로, 구글의 최신 Gemini 3 모델을 기반으로 한다. 이번 출시는 OpenAI, Anthropic 등 경쟁사들도 AI 에이전트 개발에 박차를 가하는 가운데 이루어져, 자동화된 웹 브라우징 시대의 본격적인 개막을 알린다. Impact & Implications 기술적 의미 Auto Browse는 다단계 웹 작업을 사람의 개입 없이 수행할 수 있다는 점에서 기존 AI 어시스턴트와 차별화된다. Gemini 3 모델이 먼저 작업 목표를 정의하고 전략을 수립한 뒤, 실제 클릭 동작을 수행하는 방식이다. 그러나 테스트 결과 '상식적 판단'이 필요한 상황에서는 여전히 한계를 보였다. 예를 들어 "통로 옆 두 좌석"을 예매해달라는 요청에 같은 열이 아닌 다른 열의 좌석을 선택하는 실수를 범했다. 사용자 영향 일반 사용자 입장에서 Auto Browse는 단순 반복 작업의 자동화라는 편의를 제공하지만, 결과물에 대한 검증 없이 신뢰하기에는 이르다. 쇼핑 테스트에서는 검색 결과 상위 3개를 그대로 장바구니에 담는 등 '큐레이션'이라기보다는 단순 자동화에 그쳤다. 구글은 결제나 SNS 게시 등 민감한 작업에는 사용자 승인을 요구하는 안전장치를 마련했다. 보안/정책 영향 보안 전문가들은 AI 에이전트가 악성 웹사이트의 프롬프트 인젝션 공격에 취약할 수 있다고 경고한다. 사용자가 AI에게 결제 정보를 맡기는 경우 금전적 피해로 이어질 수 있어, 신중한 사용이 권장된다. 크롬이 전 세계 브라우저 시장의 압도적 점유율을 차지하는 만큼, 이 기능의 확대 적용은 웹 생태계 전반에 영향을 미칠 전망이다. Key Data & Facts 항목수치/내용 서비스명Google Auto Browse 기반 모델Gemini 3 대상 사용자AI Pro/Ultra 요금제 가입자 (월 $20~) 출시 지역미국 우선 주요 기능티켓 예매, 쇼핑, 여행 계획 자동화 Key Quote "Auto Browse currently lacks the accuracy I need to rely fully on a tool like this as part of my daily life." "Auto Browse는 일상에서 전적으로 의존하기에는 아직 정확도가 부족하다." — Reece Rogers, WIRED 기자
473 조회
0 추천
2026.01.31 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입