AI 뉴스

KAIST, 구글 제미나이 AI에서 심각한 보안 결함 발견

페이지 정보

작성자 이수
작성일 2025.12.27 18:56
354 조회
0 추천
0 비추천

본문

2252639238_ucpfuq.jpg


한국과학기술원(KAIST)의 연구진들은 Google Gemini를 포함한 주요 상용 AI 시스템을 구동하는 Mixture-of-Experts 아키텍처의 보안 취약점을 발견했으며, 단 하나의 악의적인 구성 요소가 전체 AI 모델의 안전 메커니즘을 손상시킬 수 있음을 입증했습니다.

전기및전자공학부 신승원 교수와 전산학부 손수엘 교수가 이끄는 연구팀은 12월 12일 하와이에서 열린 Annual Computer Security Applications Conference 2025에서 Distinguished Paper Award를 수상했습니다. "MoEvil: Poisoning Experts to Compromise the Safety of Mixture-of-Experts LLMs"라는 제목의 논문은 MoE 구조의 근본적인 보안 취약점을 체계적으로 분석한 최초의 연구입니다.



효율적인 AI 설계에 숨겨진 위협

Mixture-of-Experts는 현대 대규모 언어 모델이 모든 요청에 대해 전체 시스템을 활성화하는 대신 특정 질문을 전문화된 "전문가" 모델로 라우팅하여 효율성을 향상시키기 위해 사용하는 아키텍처입니다. 이 설계는 컴퓨팅 성능을 절약하지만, KAIST 연구팀은 악의적으로 훈련된 단일 전문가를 오픈 소스로 배포하면 더 큰 AI 시스템에 통합될 때 위험한 취약점을 만들 수 있다는 것을 입증했습니다.
이 공격은 놀라울 정도로 효과적이며 탐지하기 어렵습니다. 연구에 따르면, 여러 전문가 중 단 하나만 손상되어도 유해한 응답 생성 성공률이 0%에서 80%로 급증합니다. 악의적인 전문가는 특정 주제가 언급될 때마다 제어권을 가져와 다른 작업에 대해서는 정상적인 기능을 유지하면서 AI가 위험하거나 제한된 콘텐츠를 생성하도록 강제합니다.
"이 프로세스는 모델 성능 저하를 거의 일으키지 않아 사전에 문제를 탐지하는 것이 극히 어렵습니다. 이것이 가장 중요한 위험 요소로 간주됩니다"라고 연구자들은 연구 결과에서 언급했습니다.


오픈소스 AI 개발에 대한 시사점

이 취약점은 AI 산업이 개발을 가속화하기 위해 공유된 오픈소스 구성 요소에 점점 더 의존함에 따라 특히 중요한 의미를 갖습니다. 이 연구는 전체 성능을 평가하는 것뿐만 아니라 개별 전문가 모델의 출처와 안전성을 검증하는 것이 필수적이 되었음을 강조합니다.
연구팀은 KAIST 전기및전자공학부의 김재한, 송민규 박사과정 학생과 현재에서 근무하는 나승호 박사로 구성되었습니다. 이들의 연구는 한국 과학기술정보통신부, 한국인터넷진흥원, 정보통신기획평가원의 지원을 받았습니다.
정보보안 분야에서 가장 영향력 있는 국제 학회 중 하나인 ACSAC는 올해 전체 제출 논문 중 단 두 편만을 최우수 논문상으로 선정했습니다. 이번 수상은 AI 보안 분야에서 한국 연구자들의 주목할 만한 성과를 나타냅니다.

댓글 0
전체 1,366 / 37 페이지
The Verge는 크리에이터 이코노미가 인터넷을 광고로 포화된 환경으로 변모시킴으로써 인터넷을 파괴했다고 주장하며, 가장 성공한 콘텐츠 크리에이터들조차 혁신적인 수익화 전략을 포기하고 소비재 제품 판매로 회귀했다고 말한다.4억 5천만 명이 넘는 유튜브 구독자를 보유하고 있음에도 불구하고, MrBeast의 제작사는 2024년에 1억 1천만 달러 이상의 손실을 기록했으며, 그의 바이럴 영상들은 주로 Walmart와 같은 소매업체에서 판매되는 그의 Feastables 초콜릿 바를 홍보하는 도구로 활용되었다.MrBeast의 미디어 부문이 2024년에 거의 8천만 달러의 손실을 기록한 반면, 그의 Feastables 브랜드는 비슷한 수익을 창출하면서도 2천만 달러 이상의 수익을 올렸으며, 이는 크리에이터들이 콘텐츠 자체보다는 실물 제품에 점점 더 의존하여 사업을 유지하고 있음을 보여준다.
452 조회
0 추천
2025.12.09 등록
Nvidia CEO 젠슨 황은 12월 3일 조 로건과의 인터뷰에서 칩 가용성이 아닌 전력 공급이 AI의 주요 병목 현상이 되었다고 말하며, 기술 기업들이 6~7년 내에 데이터 센터 근처에서 수백 메가와트를 생산하는 자체 소형 원자로를 운영할 것이라고 예측했습니다.황의 예측은 업계 동향과 일치하는데, Google은 2024년 10월 소형 원자로 개발업체 Kairos Power로부터 500메가와트를 구매할 계획을 발표했으며, 첫 번째 첨단 원자로는 2030년을 목표로 하고 있습니다.Goldman Sachs는 데이터 센터 전력 소비가 2023년 대비 2030년까지 175% 급증할 것으로 예상하며, 국제에너지기구는 전 세계 데이터 센터 소비가 2030년까지 945테라와트시로 두 배 이상 증가할 것으로 전망합니다.
411 조회
0 추천
2025.12.09 등록
2025년 타임지가 선정한 세계에서 가장 영향력 있는 인공지능 분야 100인에 포함된 밀라그로스 미셀리 박사가 AI 산업의 어두운 이면을 강도 높게 비판하고 나섰다. 아르헨티나 출신의 사회학자이자 컴퓨터공학 박사인 미셀리는 최근 부에노스아이레스에서 열린 공개 강연에서 AI 기술 확산 뒤편에 창의성·노동·자원이라는 세 가지 차원의 착취 구조가 존재한다고 지적했다고 현지 매체 암비토가 7일(현지시간) 보도했다.감춰진 노동력과 무단 활용되는 창작물미셀리 박사가 지적한 첫 번째 문제는 AI 모델 훈련 과정에서 무단으로 사용되는 수많은 창작물이다. 그는 “AI는 창조하지 않는다. 단지 인간의 창작물을 대규모로 추출하고 혼합해 낮은 품질의 결과물을 만들어낼 뿐”이라며 “생성형 도구는 공익이 아닌 소수 기업의 상업적 이익을 극대화하도록 설계된 모델”이라고 비판했다.두 번째는 대규모 데이터 노동의 비가시성 문제다. 이미지 분류, 폭력 콘텐츠 관리, 텍스트 라벨링, 데이터 클리닝 등을 수행하는 대규모 인간 노동이 의도적으로 감춰지고 있으며, 대부분의 인력이 플랫폼 기반의 극도로 취약한 노동 조건에 처해 있다고 그는 지적했다. 독일 바이젠바움 연구소에서 ‘데이터 워커스 인콰이어리’ 프로젝트를 이끄는 미셀리는 전 세계 데이터 노동자들의 증언을 통해 이러한 착취 실태를 밝혀왔다.소수 기업의 권력 집중 경고미셀리 박사는 세 번째 착취로 막대한 환경 비용을 들었다. AI 데이터 센터 운영에 필요한 엄청난 전력과 물 소비가 환경 부담을 가중시킨다는 것이다.그는 특히 기술 자체가 아닌 소수 글로벌 기업이 데이터·인프라·노동력을 장악하면서 발생하는 권력 집중에 주목했다. “이 기업들은 사실상 무엇이 진실인지 결정할 수 있는 권력을 갖게 된다”며 “기술은 언제나 정치적이다. 환경적·사회적 비용을 보지 않고 기술을 숭배하는 것은 오히려 공동체와 지구에 해를 끼치는 일”이라고 강조했다. 현재 독일에서 활동 중인 미셀리는 기술 발전에만 집중된 AI 논의 속에서 소외된 인간 윤리 문제를 중심에 세운 인물로 평가받는다.
413 조회
0 추천
2025.12.09 등록
한국산업기술진흥협회는 8일 국내 AI 스타트업의 3년 생존율이 56.2%에 그쳐 AI 일반기업(72.7%)과 전산업 평균(68.8%)보다 현저히 낮다고 발표했다.2023년 기준 AI 스타트업의 연구개발비 중 정부 재원 비중은 22.9%로 전산업 평균의 4배에 달하며, 평균 R&D비는 5억9000만원으로 절대적 규모가 낮다.산기협은 AI 스타트업의 생존이 국가경쟁력과 직결된다며 과감한 R&D 지원과 생태계 정비를 통한 정부의 적극적 지원이 필요하다고 강조했다.
413 조회
0 추천
2025.12.09 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입