Loading...

AI 뉴스

Meta, Nvidia, Microsoft AI 프레임워크에서 치명적인 결함 노출

페이지 정보

작성자 xtalfi
작성일 2025.11.16 17:41
1,345 조회
0 추천
0 비추천

본문

7b81c3169e75c22318d2f5c25c0e6692_1763282355_8208.png
(퍼플렉시티가 정리한 기사)


Meta, Nvidia, 그리고 Microsoft의 인공지능 추론 엔진에 영향을 미치는 심각한 보안 취약점이 사이버 보안 연구원들에 의해 발견되었으며, 광범위한 코드 재사용을 통해 AI 생태계 전반에 전파된 시스템적 결함을 노출시켰습니다.

보안 회사 Oligo Security가 목요일에 공개한 이 취약점들은 모두 연구원들이 “ShadowMQ”라고 부르는 패턴, 즉 ZeroMQ 메시징 라이브러리와 Python의 pickle 역직렬화 모듈의 안전하지 않은 사용에서 비롯되었습니다. 이 결함들은 네트워크 액세스 권한을 가진 공격자가 AI 추론 서버에서 임의의 코드를 실행할 수 있게 하여, 민감한 데이터를 침해하거나 독점 모델을 훔치거나 GPU 클러스터에 암호화폐 채굴 프로그램을 설치할 가능성이 있습니다.


코드 재사용은 위험을 증폭시킨다

보안 문제는 CVE-2024-50050으로 식별된 Meta의 Llama 대규모 언어 모델 프레임워크의 취약점으로 거슬러 올라가며, 회사는 10월에 이를 패치했습니다. 이 결함은 노출된 네트워크 소켓을 통해 Python의 pickle 모듈로 수신 데이터를 역직렬화하기 위해 ZeroMQ의 recv_pyobj() 메서드를 사용하는 것과 관련이 있었습니다. 이는 악의적인 데이터가 처리될 때 원격 코드 실행을 가능하게 하는 위험한 조합입니다.

Oligo Security 연구원 Avi Lumelsky는 동일한 안전하지 않은 패턴이 직접적인 코드 복사를 통해 여러 주요 AI 프레임워크로 확산되었음을 발견했습니다. “코드 파일이 프로젝트 간에 복사되었으며, 때로는 한 줄 한 줄 그대로 복사되어 한 저장소에서 다음 저장소로 위험한 패턴을 전달했습니다”라고 Lumelsky는 말했습니다. 예를 들어, SGLang의 취약한 코드는 vLLM에서 각색되었고, Modular Max Server는 두 프로젝트 모두에서 로직을 차용하여 코드베이스 전반에 걸쳐 결함을 효과적으로 영속시켰습니다.


광범위한 영향, 엇갈린 반응

이 취약점들은 영향을 받는 플랫폼 전반에 걸쳐 여러 CVE 식별자가 할당되었습니다. NVIDIA TensorRT-LLM(CVE-2025-23254, CVSS 점수 8.8)은 버전 0.18.2에서 수정되었습니다. vLLM 프로젝트(CVE-2025-30165, CVSS 점수 8.0)는 기본적으로 V1 엔진으로 전환하여 문제를 해결했지만, V0 엔진에서는 취약점이 여전히 수정되지 않았습니다. Modular Max Server(CVE-2025-60455)도 패치를 출시했습니다.

그러나 Oligo의 공개에 따르면, Microsoft의 Sarathi-Serve는 여전히 패치되지 않았으며, SGLang은 불완전한 수정만 구현했습니다. 이 취약점들은 다중 노드 배포에 영향을 미치며, 공격자가 주요 호스트를 침해할 경우 전체 AI 추론 클러스터로 확대될 수 있습니다.

Oligo는 공개 인터넷에서 수천 개의 노출된 ZeroMQ 소켓을 발견했으며, 그 중 일부는 취약한 추론 클러스터에 연결되어 있어 보안 공백의 긴급성을 강조하고 있습니다. Lumelsky는 “코드 재사용에 안전하지 않은 패턴이 포함되면, 그 결과는 빠르게 외부로 파급됩니다”라고 경고했습니다.

댓글 0
전체 1,366 / 5 페이지
Executive Summary • 구글, 크롬 브라우저에 'Auto Browse' AI 에이전트 기능 출시 - Gemini 3 기반 자동 웹 브라우징 가능 • 티켓 예매, 쇼핑, 여행 계획 등 웹 작업 자동화 지원하나 정확도 문제 여전 • AI 에이전트가 지시를 '너무 문자 그대로' 해석하는 한계 드러나 - 콘서트 좌석 예매 시 연석 아닌 별도 열 선택 • 보안 취약점 우려: 악성 웹사이트의 프롬프트 인젝션 공격에 노출 가능성 Background 구글이 AI 프로 및 울트라 요금제 사용자를 대상으로 크롬 브라우저에 'Auto Browse' 기능을 출시했다. 이는 AI 에이전트가 사용자를 대신해 웹을 탐색하고 클릭하는 기능으로, 구글의 최신 Gemini 3 모델을 기반으로 한다. 이번 출시는 OpenAI, Anthropic 등 경쟁사들도 AI 에이전트 개발에 박차를 가하는 가운데 이루어져, 자동화된 웹 브라우징 시대의 본격적인 개막을 알린다. Impact & Implications 기술적 의미 Auto Browse는 다단계 웹 작업을 사람의 개입 없이 수행할 수 있다는 점에서 기존 AI 어시스턴트와 차별화된다. Gemini 3 모델이 먼저 작업 목표를 정의하고 전략을 수립한 뒤, 실제 클릭 동작을 수행하는 방식이다. 그러나 테스트 결과 '상식적 판단'이 필요한 상황에서는 여전히 한계를 보였다. 예를 들어 "통로 옆 두 좌석"을 예매해달라는 요청에 같은 열이 아닌 다른 열의 좌석을 선택하는 실수를 범했다. 사용자 영향 일반 사용자 입장에서 Auto Browse는 단순 반복 작업의 자동화라는 편의를 제공하지만, 결과물에 대한 검증 없이 신뢰하기에는 이르다. 쇼핑 테스트에서는 검색 결과 상위 3개를 그대로 장바구니에 담는 등 '큐레이션'이라기보다는 단순 자동화에 그쳤다. 구글은 결제나 SNS 게시 등 민감한 작업에는 사용자 승인을 요구하는 안전장치를 마련했다. 보안/정책 영향 보안 전문가들은 AI 에이전트가 악성 웹사이트의 프롬프트 인젝션 공격에 취약할 수 있다고 경고한다. 사용자가 AI에게 결제 정보를 맡기는 경우 금전적 피해로 이어질 수 있어, 신중한 사용이 권장된다. 크롬이 전 세계 브라우저 시장의 압도적 점유율을 차지하는 만큼, 이 기능의 확대 적용은 웹 생태계 전반에 영향을 미칠 전망이다. Key Data & Facts 항목수치/내용 서비스명Google Auto Browse 기반 모델Gemini 3 대상 사용자AI Pro/Ultra 요금제 가입자 (월 $20~) 출시 지역미국 우선 주요 기능티켓 예매, 쇼핑, 여행 계획 자동화 Key Quote "Auto Browse currently lacks the accuracy I need to rely fully on a tool like this as part of my daily life." "Auto Browse는 일상에서 전적으로 의존하기에는 아직 정확도가 부족하다." — Reece Rogers, WIRED 기자
235 조회
0 추천
2026.01.31 등록
Executive Summary • 메타 전 수석 AI 과학자 얀 르쿤이 샌프란시스코 스타트업 Logical Intelligence의 이사회에 합류 • 이 회사는 LLM과 다른 접근법인 '에너지 기반 추론 모델(EBM)'을 개발, 자기 수정 능력과 낮은 연산량이 특징 • 첫 모델 Kona 1.0은 단일 H100 GPU로 작동하며, 스도쿠 풀이에서 주요 LLM보다 빠른 성능 시연 • CEO는 LLM, EBM, 월드 모델의 결합이 AGI로 가는 길이라고 주장 Background 얀 르쿤은 오랫동안 대형언어모델(LLM)만으로는 인공일반지능(AGI)에 도달할 수 없다고 주장해왔다. 지난해 11월 메타를 떠난 이후 그는 실리콘밸리의 "LLM 집착"을 공개적으로 비판하며 대안적 AI 아키텍처 연구를 지지해왔다. 이번 Logical Intelligence 이사회 합류는 그의 이론을 실제 제품으로 구현하려는 첫 상업적 시도다. Impact & Implications 기술적 의미 에너지 기반 추론 모델(EBM)은 LLM과 근본적으로 다른 접근법을 취한다. LLM이 다음 단어를 확률적으로 예측하는 반면, EBM은 주어진 제약조건(예: 스도쿠 규칙) 내에서 작업을 수행한다. CEO Eve Bodnia는 이를 에베레스트 등반에 비유했다. "LLM 등반가는 한 방향만 보고 계속 전진하다 구멍을 만나면 떨어진다. EBM은 여러 방향을 보고 경로를 수정할 수 있다." 이 자기 수정 능력이 할루시네이션 문제를 해결할 수 있다고 회사 측은 주장한다. 산업/시장 영향 Kona 1.0 모델은 2억 개 미만의 파라미터로 구성되어 단일 Nvidia H100 GPU에서 작동한다. 이는 수천 개의 GPU가 필요한 대형 LLM과 대조적이다. 회사는 에너지 그리드 최적화, 반도체 제조, 신약 개발 등 오류 허용도가 없는 분야를 목표로 하고 있다. 주요 칩 제조업체 및 데이터센터 기업들과 이미 협의 중이라고 밝혔다. 향후 전망 Logical Intelligence는 르쿤이 설립한 파리 기반 스타트업 AMI Labs와 협력할 예정이다. AMI Labs는 물리적 환경을 인식하고 행동 결과를 예측하는 '월드 모델'을 개발 중이다. Bodnia는 AGI가 단일 모델이 아닌 여러 AI 모델의 생태계가 될 것이라고 전망했다. "LLM은 인간과 자연어로 소통하고, EBM은 추론을 담당하며, 월드 모델은 로봇이 3D 공간에서 행동하도록 돕는다." Key Data & Facts 항목수치/내용 모델명Kona 1.0 파라미터 수2억 개 미만 필요 하드웨어단일 Nvidia H100 GPU 주요 협력자얀 르쿤 (이사회), AMI Labs 타겟 분야에너지 그리드, 반도체 제조, 신약 개발 오픈소스 여부비공개 (향후 검토 예정) Key Quote "LLM은 하나의 거대한 추측 게임이다. 신경망에 인터넷의 온갖 쓰레기를 먹이고 사람들이 어떻게 소통하는지 가르치려 한다. 하지만 언어는 지능의 발현일 뿐, 지능 자체가 아니다. 왜 언어와 무관한, 추측 게임이 아닌 AI에 집중하지 않는가?" — Eve Bodnia, Logical Intelligence CEO
248 조회
0 추천
2026.01.30 등록
Executive Summary • 구글이 크롬 브라우저에 'Auto Browse' 기능을 새롭게 도입했다. Gemini 3 모델 기반의 AI 에이전트로, 항공권 예약이나 아파트 검색 같은 온라인 작업을 사용자 대신 수행한다. • 현재 미국 내 AI Pro 및 AI Ultra 유료 구독자에게만 제공되며, 일반 사용자 및 타 국가로의 확대 일정은 미정이다. • AI 에이전트가 브라우저를 제어해 작업을 수행하지만, 구글은 에이전트의 행동에 대한 책임은 사용자에게 있다고 명시했다. Background 구글은 지난해 'Gemini in Chrome' 기능을 출시하며 웹페이지 내용을 요약하고 여러 탭의 정보를 종합하는 AI 기능을 선보인 바 있다. 이번 Auto Browse는 그 연장선에서 웹 브라우징의 자동화를 한 단계 더 진화시킨 것으로, OpenAI의 Atlas 브라우저 등 AI 기반 웹 서비스들과의 경쟁이 본격화되는 양상이다. Impact & Implications 기술적 의미 Auto Browse는 사용자의 명령을 받아 독립적으로 웹사이트를 탐색하고 클릭하며 작업을 완료하는 '에이전틱 AI'의 본격적인 상용화 사례다. 기존의 질의응답 수준을 넘어, AI가 실제로 사용자의 행동을 대리하는 단계로 진입했다는 점에서 기술적 이정표가 된다. 다만 악성 웹사이트의 프롬프트 인젝션 공격에 취약할 수 있어 보안 우려도 제기된다. 사용자 영향 구글은 소셜미디어 포스팅이나 결제 같은 민감한 작업에는 여전히 사용자 확인을 요구한다. 하지만 에이전트의 모든 행동에 대한 책임은 사용자에게 있다는 면책 조항이 명시되어 있어, 자동화의 편의성과 개인 책임 사이의 긴장이 존재한다. AI가 온라인에서 무엇을 하든 그 결과는 사용자가 감당해야 한다. 경쟁 구도 변화 실리콘밸리 전반에서 AI 기반 웹 브라우징이 대세로 자리 잡고 있다. OpenAI의 Atlas부터 기존 브라우저에 AI를 접목한 구글 크롬까지, 대부분의 브라우저가 AI 기능을 탑재하고 있다. AI를 원치 않는 사용자를 위한 선택지(예: Vivaldi 브라우저)는 점점 줄어드는 추세다. Key Data & Facts 항목수치/내용 기반 모델Gemini 3 출시 지역미국 한정 이용 대상AI Pro, AI Ultra 구독자 출시일2026년 1월 28일 Key Quote "Use Gemini carefully and take control if needed. You are responsible for Gemini's actions during tasks." — 구글 Auto Browse 데모 화면 안내문
262 조회
0 추천
2026.01.29 등록
Executive Summary • Anthropic이 MCP(Model Context Protocol) 확장 기능을 통해 Claude 챗봇 내에서 Slack, Canva, Figma 등 외부 앱을 직접 실행할 수 있는 기능 출시 • 기존에는 텍스트 응답만 가능했던 것에서 벗어나, 이제 사용자가 Claude 내에서 슬라이드 편집, 메시지 포맷팅, 차트 생성 등 시각적 작업 가능 • Asana, monday.com, Figma, Hex, Amplitude, Box, Clay 등 다양한 협업 도구 지원, Salesforce 연동도 곧 출시 예정 • MCP Apps 확장은 Claude뿐 아니라 MCP를 지원하는 모든 AI 제품에서 사용 가능한 개방형 표준 • AI 플랫폼이 단순 도구에서 '모든 것을 아우르는 앱' 형태의 운영체제로 진화하는 추세 반영 Background MCP(Model Context Protocol)는 2024년 Anthropic이 개발한 오픈소스 프로토콜로, AI 에이전트가 인터넷 전반의 도구와 데이터에 쉽게 접근할 수 있도록 설계되었다. 작년 말 Anthropic은 MCP를 리눅스 재단에 기증하고, OpenAI, Google, Microsoft, AWS, Block, Bloomberg, Cloudflare 등 주요 기술 기업들과 함께 'Agentic AI Foundation'을 설립하여 오픈소스 에이전틱 AI 발전을 위한 기반을 마련했다. 이번 MCP Apps 출시는 이러한 생태계 확장 전략의 일환이다. Impact & Implications 산업/시장 영향 AI 챗봇이 단순 질의응답 도구에서 종합 업무 플랫폼으로 진화하고 있다. Anthropic의 이번 발표는 ChatGPT가 작년 자체 앱 생태계를 구축한 것과 유사한 방향으로, AI 플랫폼 간 '슈퍼앱' 경쟁이 본격화되고 있음을 보여준다. 중국 텐센트의 WeChat처럼 하나의 앱에서 모든 업무를 처리하는 모델이 AI 분야에서도 표준이 될 가능성이 높다. 기술적 의미 MCP가 오픈소스 표준으로 자리잡으면서, 기업들이 각각 다른 인터페이스를 개발·유지할 필요가 줄어들었다. OpenAI, Google, Microsoft 등 주요 기업들이 이미 MCP를 채택했으며, 이번 MCP Apps 확장은 어느 AI 제품에서든 인터랙티브 앱 인터페이스를 제공할 수 있는 기반을 마련했다. 이는 AI 에이전트 생태계의 상호운용성을 크게 높일 전망이다. 경쟁 구도 변화 Anthropic은 Claude Code, Cowork 등 에이전틱 AI 기능을 연이어 출시하며 OpenAI와의 격차를 좁히고 있다. 특히 MCP를 개방형 표준으로 확립함으로써 플랫폼 종속 대신 생태계 주도권을 확보하는 전략을 취하고 있다. 이는 폐쇄형 생태계 구축에 집중하는 경쟁사들과 차별화되는 접근 방식이다. Key Data & Facts 항목내용 발표일2026년 1월 26일 핵심 기술MCP Apps (Model Context Protocol 확장) 지원 앱Slack, Canva, Figma, Asana, monday.com, Hex, Amplitude, Box, Clay 예정 연동Salesforce (Data 360, Agentforce, Customer 360) 주요 파트너OpenAI, Google, Microsoft, AWS, Block, Bloomberg, Cloudflare 관리 기관Linux Foundation (Agentic AI Foundation) Key Quote "Users will now be able to interact with apps directly inside the Claude chatbot, letting you draft and format Slack messages to colleagues and create presentations for clients in Canva without having to switch tabs."
267 조회
0 추천
2026.01.28 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입