AI 뉴스

Meta, Nvidia, Microsoft AI 프레임워크에서 치명적인 결함 노출

페이지 정보

작성자 xtalfi
작성일 2025.11.16 17:41
1,045 조회
0 추천
0 비추천

본문

7b81c3169e75c22318d2f5c25c0e6692_1763282355_8208.png
(퍼플렉시티가 정리한 기사)


Meta, Nvidia, 그리고 Microsoft의 인공지능 추론 엔진에 영향을 미치는 심각한 보안 취약점이 사이버 보안 연구원들에 의해 발견되었으며, 광범위한 코드 재사용을 통해 AI 생태계 전반에 전파된 시스템적 결함을 노출시켰습니다.

보안 회사 Oligo Security가 목요일에 공개한 이 취약점들은 모두 연구원들이 “ShadowMQ”라고 부르는 패턴, 즉 ZeroMQ 메시징 라이브러리와 Python의 pickle 역직렬화 모듈의 안전하지 않은 사용에서 비롯되었습니다. 이 결함들은 네트워크 액세스 권한을 가진 공격자가 AI 추론 서버에서 임의의 코드를 실행할 수 있게 하여, 민감한 데이터를 침해하거나 독점 모델을 훔치거나 GPU 클러스터에 암호화폐 채굴 프로그램을 설치할 가능성이 있습니다.


코드 재사용은 위험을 증폭시킨다

보안 문제는 CVE-2024-50050으로 식별된 Meta의 Llama 대규모 언어 모델 프레임워크의 취약점으로 거슬러 올라가며, 회사는 10월에 이를 패치했습니다. 이 결함은 노출된 네트워크 소켓을 통해 Python의 pickle 모듈로 수신 데이터를 역직렬화하기 위해 ZeroMQ의 recv_pyobj() 메서드를 사용하는 것과 관련이 있었습니다. 이는 악의적인 데이터가 처리될 때 원격 코드 실행을 가능하게 하는 위험한 조합입니다.

Oligo Security 연구원 Avi Lumelsky는 동일한 안전하지 않은 패턴이 직접적인 코드 복사를 통해 여러 주요 AI 프레임워크로 확산되었음을 발견했습니다. “코드 파일이 프로젝트 간에 복사되었으며, 때로는 한 줄 한 줄 그대로 복사되어 한 저장소에서 다음 저장소로 위험한 패턴을 전달했습니다”라고 Lumelsky는 말했습니다. 예를 들어, SGLang의 취약한 코드는 vLLM에서 각색되었고, Modular Max Server는 두 프로젝트 모두에서 로직을 차용하여 코드베이스 전반에 걸쳐 결함을 효과적으로 영속시켰습니다.


광범위한 영향, 엇갈린 반응

이 취약점들은 영향을 받는 플랫폼 전반에 걸쳐 여러 CVE 식별자가 할당되었습니다. NVIDIA TensorRT-LLM(CVE-2025-23254, CVSS 점수 8.8)은 버전 0.18.2에서 수정되었습니다. vLLM 프로젝트(CVE-2025-30165, CVSS 점수 8.0)는 기본적으로 V1 엔진으로 전환하여 문제를 해결했지만, V0 엔진에서는 취약점이 여전히 수정되지 않았습니다. Modular Max Server(CVE-2025-60455)도 패치를 출시했습니다.

그러나 Oligo의 공개에 따르면, Microsoft의 Sarathi-Serve는 여전히 패치되지 않았으며, SGLang은 불완전한 수정만 구현했습니다. 이 취약점들은 다중 노드 배포에 영향을 미치며, 공격자가 주요 호스트를 침해할 경우 전체 AI 추론 클러스터로 확대될 수 있습니다.

Oligo는 공개 인터넷에서 수천 개의 노출된 ZeroMQ 소켓을 발견했으며, 그 중 일부는 취약한 추론 클러스터에 연결되어 있어 보안 공백의 긴급성을 강조하고 있습니다. Lumelsky는 “코드 재사용에 안전하지 않은 패턴이 포함되면, 그 결과는 빠르게 외부로 파급됩니다”라고 경고했습니다.

댓글 0
전체 1,366 / 156 페이지
(퍼플렉시티가 정리한 기사)일론 머스크 테슬라 최고경영자(CEO)가 6일(현지시간) 연례 주주총회에서 차세대 인공지능(AI) 칩 AI5를 삼성전자 한국 공장과 TSMC 의 대만·텍사스·애리조나 공장 등 총 4곳에서 생산할 것이라고 밝혔다.머스크는 “AI5 칩은 기본적으로 4곳에서 만들어질 것”이라며 삼성전자와 TSMC 생산기지 3곳을 나열했다. 이번 발표는 지난 10월 테슬라 3분기 실적 발표 콘퍼런스콜에서 “AI5 칩은 TSMC와 삼성전자 모두 제조하게 될 것”이라고 밝힌 것을 재확인한 것이다.칩 생산 부족 우려에 자체 공장 건설 검토머스크는 “내가 고민 중인 것 중 하나는 어떻게 하면 충분한 칩을 확보할 수 있을지에 대한 것”이라며 칩 부족 문제를 언급했다. 그는 “테슬라의 파트너사인 TSMC와 삼성에 대해 충분히 존중하고 인텔 [INTC -2.97%]과도 뭔가 협업할 수 있겠지만, 공급사들로부터 최상의 시나리오로 칩 생산량을 추산해도 여전히 부족하다”고 말했다이어 머스크는 “테슬라 테라 팹(제조시설)을 건설해야 할 것”이라며 자체 반도체 칩 생산 공장 건립 계획을 시사했다. 주주총회에서 그는 “나는 지금 칩에 대해 극도로 집중하고 있다”며 칩 확보의 중요성을 강조했다.40배 빠른 성능, 2027년 대량 생산 목표AI5 칩은 현재 테슬라 차량에 탑재된 AI4 칩보다 최대 40배 빠른 성능을 제공할 것으로 예상된다. 머스크는 “AI5 칩은 일부 지표에서 AI4 칩보다 40배 빠르다. 40%가 아니라 40배”라고 설명했다. 칩은 8배의 원시 연산 능력, 9배의 메모리 용량, 5배의 메모리 대역폭, 그리고 와트당 3배의 효율성을 갖출 예정이다.TSMC는 3nm N3E 공정을 사용하고, 삼성전자는 2nm 공정으로 AI5를 생산할 것으로 알려졌다. 두 회사는 설계를 물리적 형태로 변환하는 방식이 다르기 때문에 약간 다른 버전의 AI5 칩을 만들게 되지만, 테슬라의 AI 소프트웨어는 동일하게 작동하도록 설계된다.머스크는 AI5 칩 샘플과 소량 생산이 2026년에 가능하지만, 대량 생산은 2027년에 시작될 것이라고 밝혔다. 한편, 테슬라는 지난 7월 삼성전자와 차세대 AI6 칩 생산을 위해 165억 달러(약 23조 원) 규모의 계약을 체결한 바 있으며, AI6는 내년 하반기 가동될 삼성전자 텍사스 테일러 공장에서 2028년경 생산을 시작할 예정이다.
1358 조회
0 추천
2025.11.07 등록
(퍼플렉시티가정리한기사)아마존이킨들작가를위한AI번역서비스‘킨들트랜스레이트’를출시하면서,인디작가들이언어장벽을넘어전세계독자들에게책을선보일수있는길이열렸습니다.현재베타단계인이서비스는킨들직판(KDP)플랫폼에서영어-스페인어,독일어-영어번역을지원하고있으며,앞으로지원언어를확대할계획입니다.서비스작동방식작가들은KDP포털에서번역대상언어를선택하고,번역판의가격을지정하며,번역결과를검토하거나자동으로출판할수있습니다.모든번역본은자동정확성평가를거치게되며,평가방식에대한상세내용은아직공개되지않았습니다.번역본에는‘KindleTranslate’라벨이붙고,독자들은구매전에샘플을미리볼수있습니다.번역본은KDP셀렉트및KindleUnlimited프로그램에등록될수있습니다.인디작가들은번역비용부담없이새로운시장에진출할수있게되어긍정적반응을보이고있습니다.AI번역논쟁AI기반번역도구는전문가대비약70~85%의정확도를보이지만,문화적뉘앙스나문체,관용어등의섬세한표현은아직부족하다는평가가많습니다.2025년연구에따르면AI는문학번역에서인간번역가만의해석적유연성과섬세함을구현하는데어려움을겪으며,2024년번역가대상설문에서도1/3이상이AI로인해일감이줄었다고답했습니다.반면AI자동번역과인간리뷰를결합하는하이브리드방식이확산되고있으며,아마존도번역결과에대한작가의사전검토기능을제공합니다.다만,작가가번역대상언어에익숙하지않을경우최종검수에는전문번역가의도움이필요할수있습니다.이번서비스는아마존이음성도서서비스오더블(Audible)에AI기반녹음·번역기능을도입한데이어,콘텐츠제작전반에AI를도입하려는전략의일환입니다.
1356 조회
0 추천
2025.11.07 등록
(퍼플렉시티가정리한기사)TeslaCEO일론머스크는11월6일주주총회에서전기차제조업체가AI및로보틱스프로세서생산을위해Intel과파트너십을맺을수있다고발표했으며,이에Intel주가는시간외거래에서2.2%상승한$38.06을기록했습니다.머스크는또한Tesla가로보택시및인간형로봇사업에서증가하는반도체수요를충족하기위해"테라-팹(tera-fab)"이라고부르는대규모칩제조시설을자체적으로건설할가능성을제기했습니다.​이잠재적거래는Intel에게중요한시기에이루어졌습니다.Intel은지난3년간경쟁사인Nvidia와AMD를새로운정점으로끌어올린AI칩붐을활용하는데어려움을겪어왔습니다.Intel의파운드리사업은2024회계연도에130억달러의영업손실을기록했으며,이는2023년의70억달러에서증가한수치로,회사가AI칩개발과첨단제조분야모두에서경쟁사들에뒤처졌기때문입니다.​테슬라의칩공급망다각화테슬라는현재자사의완전자율주행시스템과로보틱스플랫폼을구동하는AI시리즈칩제조를위해TaiwanSemiconductorManufacturingCompany및Samsung과파트너십을맺고있습니다.테슬라의차세대프로세서인AI5칩은TSMC와삼성의애리조나및텍사스시설에서각각생산될예정이며,2027년에대량생산이예상됩니다.​10월테슬라의3분기실적발표에서머스크는삼성이2033년까지진행되는165억달러규모의계약의일환으로차세대AI6칩을제조할것이라고확인했습니다.인텔을잠재적인세번째제조파트너로추가하는것은업계전반에걸쳐첨단반도체에대한수요가증가함에따라테슬라의공급망을더욱다각화할것입니다.​인텔의턴어라운드노력2025년초취임한립부탄(Lip-BuTan)CEO체제하에서인텔은제조역량을회복하고AI칩시장에서경쟁하려는시도를해왔습니다.회사는2025년10월애리조나에새로운Fab52시설을열어RibbonFET및PowerVia혁신기술이적용된첨단18A공정기술을사용하여칩을생산하고있습니다.인텔은마이크로소프트,아마존을포함한주요기술기업들과의관계를유지하고있으며,최근에는AI인프라및개인용컴퓨팅제품개발을목표로엔비디아로부터50억달러투자를발표했습니다.​이러한노력에도불구하고인텔은계속해서상당한어려움에직면하고있습니다.회사는2024년에188억달러의손실을기록했으며주요파운드리고객유치에어려움을겪고있고,2025년3분기실적은공급제약과경쟁역학으로인한지속적인압박을보여주었습니다.까다로운엔지니어링기준으로알려진테슬라와의파트너십은인텔이더넓은시장에제조역량을입증하는데필요한검증을제공할수있습니다.
1360 조회
0 추천
2025.11.07 등록
(퍼플렉시티가정리한기사)이번주에발표된두가지주요연구는인공지능시스템이구축되고평가되는방식의심각한약점을드러내며,AI능력이과장되어왔는지에대한의문을제기하고있다.SonyAI는11월5일컴퓨터비전모델의편향성을드러내기위해설계된데이터셋인FairHuman-CentricImageBenchmark를공개했으며,옥스퍼드인터넷연구소와영국정부의AI보안연구소연구원들은AI성능을측정하는데사용되는테스트의광범위한결함을밝히는연구를발표했다.이러한연구결과들은많은AI시스템이윤리적으로문제가있는데이터로훈련되고신뢰할수없는방법으로평가될수있음을시사한다.​훈련데이터에동의와다양성이부족함SonyAI가Nature에발표한새로운벤치마크는연구자들이컴퓨터비전시스템에서"편향되고윤리적으로문제가있는학습데이터의지속적인과제"라고부르는문제를다룹니다.이데이터셋은81개국1,981명의개인이찍힌10,318장의이미지로구성되어있으며,모두사전동의와공정한보상을받아수집되었습니다—이는업계관행과크게다른방식입니다.​SonyGroup의AI거버넌스글로벌책임자인AliceXiang은컴퓨터비전이객관적이지않다고강조했습니다."컴퓨터비전은학습데이터에반영된편향에따라사물을왜곡할수있습니다"라고그녀는말했습니다.데이터셋은기존AI모델중공정성테스트를완전히통과한모델이없다는것을보여주었습니다.일부모델은"she/her/hers"대명사를사용하는사람들에대해낮은정확도를보였으며,벤치마크는이를더큰헤어스타일변동성—이전에간과되었던요인—으로추적했습니다.직업에대한중립적인질문을받았을때,테스트된모델들은특정인구통계학적그룹에대해특히고정관념을강화했으며,때로는피사체를성매매종사자,마약상또는도둑으로묘사했습니다.​벤치마크테스트가신뢰할수없고오해의소지가있는것으로밝혀짐옥스퍼드연구팀은445개AI벤치마크를조사한결과,거의모든벤치마크에기술기업들이주장하는결과의신뢰성을"약화시키는결함"이있음을발견했습니다.벤치마크중통계적테스트를통해신뢰성을증명한것은16%에불과했습니다.​핵심적인문제는구성타당성(constructvalidity),즉테스트가실제로그들이측정한다고주장하는것을제대로측정하는지에관한것입니다.옥스퍼드인터넷연구소의수석연구원인아담마디(AdamMahdi)는NBC뉴스와의인터뷰에서,그레이드스쿨매스8K(GradeSchoolMath8K)벤치마크와같은테스트에서모델이좋은성과를거둔다고해서반드시추론능력을보여준다고할수는없다고말했습니다.그는"1학년학생에게'2더하기5가뭐야?'라고물었을때'7이에요'라고답하면,분명정답입니다.하지만이로부터5학년이수학적추론을완벽하게습득했다고결론지을수있을까요?"라고덧붙였습니다.​이번연구는데이터오염(datacontamination)을주요문제로지적했는데,이는테스트문항이모델의학습데이터셋에포함되어있어모델이답을추론하는것이아니라암기해서답을내는현상입니다.Mixtral,Phi-3,Gemma를포함한여러모델은GSM8K벤치마크와유사한신규문항으로평가할때성능이최대13%까지저하되는것으로나타났습니다.​옥스퍼드연구의수석저자인앤드루빈(AndrewBean)은업계에서내놓는주장들을그대로믿어서는안된다고경고했습니다."모델이박사수준의지능을가졌다는것같은이야기를볼때는한번쯤의심해볼필요가있습니다,"라고빈은NBC뉴스에말했습니다.이번연구결과는최근구글이자사의GemmaAI모델이미국상원의원에관한허위주장을생성한후에모델을철회한상황에서나왔습니다.
1230 조회
0 추천
2025.11.07 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입