AI 뉴스

Meta, Nvidia, Microsoft AI 프레임워크에서 치명적인 결함 노출

페이지 정보

작성자 xtalfi
작성일 2025.11.16 17:41
1,128 조회
0 추천
0 비추천

본문

7b81c3169e75c22318d2f5c25c0e6692_1763282355_8208.png
(퍼플렉시티가 정리한 기사)


Meta, Nvidia, 그리고 Microsoft의 인공지능 추론 엔진에 영향을 미치는 심각한 보안 취약점이 사이버 보안 연구원들에 의해 발견되었으며, 광범위한 코드 재사용을 통해 AI 생태계 전반에 전파된 시스템적 결함을 노출시켰습니다.

보안 회사 Oligo Security가 목요일에 공개한 이 취약점들은 모두 연구원들이 “ShadowMQ”라고 부르는 패턴, 즉 ZeroMQ 메시징 라이브러리와 Python의 pickle 역직렬화 모듈의 안전하지 않은 사용에서 비롯되었습니다. 이 결함들은 네트워크 액세스 권한을 가진 공격자가 AI 추론 서버에서 임의의 코드를 실행할 수 있게 하여, 민감한 데이터를 침해하거나 독점 모델을 훔치거나 GPU 클러스터에 암호화폐 채굴 프로그램을 설치할 가능성이 있습니다.


코드 재사용은 위험을 증폭시킨다

보안 문제는 CVE-2024-50050으로 식별된 Meta의 Llama 대규모 언어 모델 프레임워크의 취약점으로 거슬러 올라가며, 회사는 10월에 이를 패치했습니다. 이 결함은 노출된 네트워크 소켓을 통해 Python의 pickle 모듈로 수신 데이터를 역직렬화하기 위해 ZeroMQ의 recv_pyobj() 메서드를 사용하는 것과 관련이 있었습니다. 이는 악의적인 데이터가 처리될 때 원격 코드 실행을 가능하게 하는 위험한 조합입니다.

Oligo Security 연구원 Avi Lumelsky는 동일한 안전하지 않은 패턴이 직접적인 코드 복사를 통해 여러 주요 AI 프레임워크로 확산되었음을 발견했습니다. “코드 파일이 프로젝트 간에 복사되었으며, 때로는 한 줄 한 줄 그대로 복사되어 한 저장소에서 다음 저장소로 위험한 패턴을 전달했습니다”라고 Lumelsky는 말했습니다. 예를 들어, SGLang의 취약한 코드는 vLLM에서 각색되었고, Modular Max Server는 두 프로젝트 모두에서 로직을 차용하여 코드베이스 전반에 걸쳐 결함을 효과적으로 영속시켰습니다.


광범위한 영향, 엇갈린 반응

이 취약점들은 영향을 받는 플랫폼 전반에 걸쳐 여러 CVE 식별자가 할당되었습니다. NVIDIA TensorRT-LLM(CVE-2025-23254, CVSS 점수 8.8)은 버전 0.18.2에서 수정되었습니다. vLLM 프로젝트(CVE-2025-30165, CVSS 점수 8.0)는 기본적으로 V1 엔진으로 전환하여 문제를 해결했지만, V0 엔진에서는 취약점이 여전히 수정되지 않았습니다. Modular Max Server(CVE-2025-60455)도 패치를 출시했습니다.

그러나 Oligo의 공개에 따르면, Microsoft의 Sarathi-Serve는 여전히 패치되지 않았으며, SGLang은 불완전한 수정만 구현했습니다. 이 취약점들은 다중 노드 배포에 영향을 미치며, 공격자가 주요 호스트를 침해할 경우 전체 AI 추론 클러스터로 확대될 수 있습니다.

Oligo는 공개 인터넷에서 수천 개의 노출된 ZeroMQ 소켓을 발견했으며, 그 중 일부는 취약한 추론 클러스터에 연결되어 있어 보안 공백의 긴급성을 강조하고 있습니다. Lumelsky는 “코드 재사용에 안전하지 않은 패턴이 포함되면, 그 결과는 빠르게 외부로 파급됩니다”라고 경고했습니다.

댓글 0
전체 1,366 / 28 페이지
• 중국은 금요일 슝안신구에서 오픈소스 AI 기상 모델인 Fengyuan V1.0을 출시했으며, 이는 관측 데이터로부터 직접 전 지구 예보를 생성할 수 있는 독자적 지식재산권을 가진 중국 최초의 종단간(end-to-end) AI 기상 시스템을 의미한다[chinadaily +1].• 이번 출시는 NOAA가 AI 기반 예보 모델 3종을 공개한 지 불과 이틀 만에 이루어진 것으로, 더 빠르고 정확한 AI 기상 예측 시스템 개발 경쟁에서 미국과 중국 간 기상 기술 분야의 경쟁이 심화되고 있음을 보여준다[techspot +2].• 중국 기상국 관계자들은 Fengyuan이 극한 기상 현상 탐지에 중점을 두고 저고도 경제 및 에너지 공급을 포함한 특화 분야를 지원할 것이며, 일대일로 이니셔티브를 통해 국제 협력을 확대할 계획이라고 밝혔다[chinadaily +1].
525 조회
0 추천
2025.12.21 등록
• 라쿠텐 그룹인 [RKUNY +1.40%]는 일본어에 최적화된 7,000억 파라미터 대규모 언어 모델 Rakuten AI 3.0를 12월 18일 공개했다. 이 모델은 일본어 벤치마크에서 GPT-4o를 능가했으며, 유사 규모의 서드파티 AI 모델 대비 최대 90%의 비용 절감을 제공한다.[global.rakuten +1]• 이 모델은 일본 정부가 지원하는 GENIAC 프로젝트의 일환으로 개발되었으며, 일본 경제산업성 및 신에너지·산업기술종합개발기구(NEDO)가 주도하고, 이 이니셔티브를 통해 일부 학습 비용을 지원받았다.[global.rakuten +1]• 라쿠텐은 2026년 봄에 이 모델을 오픈 웨이트로 공개할 계획이며, Rakuten AI Gateway 플랫폼을 통해 전자상거래, 핀테크, 여행, 엔터테인먼트 서비스 등 자사 전체 에코시스템에 이를 통합하고 있다.[global.rakuten +1]
509 조회
0 추천
2025.12.21 등록
• 한국 정부는 19일 제22차 국가핵융합위원회에서 핵융합에너지 전력생산 실증 목표를 2050년대에서 2030년대로 20년 앞당기는 로드맵을 의결했다[mk +2].• 정부는 2030년까지 노심 플라즈마 제어, 초전도 자석 등 8대 핵심기술을 개발하고 2035년까지 실증을 완료하며, 전남 나주에 1조5000억원 규모의 한국형 혁신 핵융합로를 건설할 계획이다[mk +2].• AI 데이터센터의 전력 소비가 2030년까지 2배 이상 증가할 것으로 예상되면서[g-enews], 트럼프 미디어가 핵융합 기업 TAE테크놀로지스와 합병하는 등 글로벌 핵융합 개발 경쟁이 가속화되고 있다[mk +2].
511 조회
0 추천
2025.12.21 등록
구글이 빠른 속도와 낮은 비용을 갖춘 경량 인공지능(AI) 모델 '제미나이3 플래시'를 17일(현지시간) 공개했다. 이번 출시로 구글은 최상위 모델인 '딥싱크', 균형 모델인 '프로'와 함께 제미나이3 제품군의 삼각 편대를 완성했다.상위 모델 능가하는 성능, 4분의 1 가격제미나이3 플래시는 일부 벤치마크에서 상위 모델인 제미나이3 프로를 능가하는 성과를 보였다. 일반 지식을 측정하는 'MMLU-Pro'에서 81.2%, 코딩 능력을 재는 'SWE-벤치 베리파이드'에서 78%를 기록해 프로 모델의 각각 81%와 76.2%를 웃돌았다.​과학 지식 평가인 'GPQA 다이아몬드'와 인류의 마지막 시험으로 불리는 'HLE' 벤치마크에서도 각각 90.4%와 33.7%를 기록해 프로 모델(91.9%, 37.5%)과 큰 차이가 없는 수준을 보였다.​속도와 지능의 균형제미나이3 플래시는 제미나이 2.5 프로보다 3배 빠른 속도를 자랑하며, 일상적 작업에서 평균 30% 적은 토큰을 사용한다. API 요금은 토큰당 0.5∼3달러로 프로 모델(2∼12달러)의 4분의 1 수준이다.​조시 우드워드 구글랩스·제미나이 담당 부사장은 "오랫동안 AI는 비싸고 느린 대형 모델과 성능이 떨어지는 고속 모델 사이 선택을 강요했다"며 "제미나이3 플래시는 이와 같은 타협을 끝내고 지능과 속도를 모두 제공한다"고 밝혔다.​제미나이3 플래시는 무료 이용자를 포함해 전 세계에서 사용할 수 있으며, 구글은 제미나이 앱과 AI 모드에서 이를 기본 모델로 적용했다.경량 모델은 방대한 데이터로 학습한 상위 모델을 기반으로 '증류'라는 작업을 거쳐 만들어진다. 속도가 빠르면서도 상위 모델에 버금가는 성능을 내는 것이 특징이다.
543 조회
0 추천
2025.12.20 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입