Loading...

AI 뉴스

구글, 공격 중 스스로를 다시 쓰는 AI 악성코드 발견

페이지 정보

작성자 xtalfi
작성일 2025.11.06 14:23
1,524 조회
0 추천
0 비추천

본문

2240602901_yzmmnn.jpg

(퍼플렉시티가 정리한 기사)


구글의 위협 인텔리전스 그룹은 수요일, 인공지능을 이용하여 실제 사이버 공격 중에 동적으로 코드를 변경하는 악성코드 패밀리가 처음으로 확인되었다고 발표하면서 연구진이 이를 "보다 자율적이고 적응력이 뛰어난 악성코드로의 중요한 진전"이라고 평가했다.

PROMPTFLUX와 PROMPTSTEAL을 포함한 여러 AI 기반 악성코드 패밀리의 발견은 실험적 위협에서 국가 지원 그룹과 사이버 범죄자들이 실제 운영 단계에서 AI를 활용한 공격으로 전환되는 극적인 변화를 나타낸다. 구글의 최신 위협 인텔리전스 보고서에 따르면, 이번 발전은 공격자들이 "더 이상 단순히 인공지능을 생산성을 높이기 위한 용도로만 활용하는 것이 아니라, 실제 활동 중에 새로운 AI 기반 악성코드를 배포하고 있음"을 의미한다.​


AI 악성코드가 실시간으로 코드를 재작성합니다

2025년 6월에 발견된 PROMPTFLUX는 이 새로운 위협 범주에서 가장 우려스러운 발전을 나타냅니다. 이 실험적인 VBScript 드로퍼는 Google의 Gemini API를 사용하여 자체 소스 코드를 지속적으로 재작성하며, 연구자들은 이를 "적시(just-in-time)" 악성코드 수정이라고 설명합니다. 이 악성코드는 "Thinking Robot" 모듈을 포함하고 있으며, 이 모듈은 Gemini에게 질의하여 매시간 새롭게 난독화된 버전을 생성함으로써 전통적인 시그니처 기반 탐지를 잠재적으로 무용지물로 만들 수 있습니다.​

"PROMPTFLUX의 가장 새로운 구성 요소는 안티바이러스 소프트웨어를 회피하기 위한 새로운 코드를 얻기 위해 주기적으로 Gemini에게 질의하도록 설계된 'Thinking Robot' 모듈입니다"라고 Google의 연구자들은 설명했습니다. 이 악성코드는 안티바이러스 회피를 위해 특별히 설계된 VBScript 코드 변경을 요청하는 구조화된 프롬프트를 Gemini에게 전송한 후, 재작성된 버전을 지속성을 위해 Windows의 시작 프로그램 폴더에 저장합니다.​


러시아 군부대가 AI 기반 데이터 절취 작전 전개

글로벌 안보 측면에서 더욱 우려되는 점은, 구글이 러시아 정부 지원 해킹 그룹 APT28(일명 Fancy Bear)이 우크라이나를 대상으로 한 실제 작전에서 PROMPTSTEAL 악성코드를 배포하고 있음을 확인했다는 점이다. PROMPTFLUX가 실험적 단계에 머물러 있는 것과 달리, PROMPTSTEAL은 "실제 작전에서 LLM을 쿼리하는 악성코드가 처음으로 관찰된 사례"로, 사이버 전쟁의 새로운 국면을 의미한다.​

PROMPTSTEAL은 이미지 생성 도구처럼 위장하여, 실제로는 Hugging Face의 API를 통해 Qwen2.5-Coder-32B-Instruct 언어 모델에 쿼리를 보내 윈도우 명령어를 생성, 문서와 시스템 정보를 탈취한다. 우크라이나 당국은 7월에 이 AI 악성코드의 존재를 처음 확인했으며, 이를 러시아의 군사 방위 분야를 겨냥한 대규모 사이버 작전과 연관지었다.​


국가 지원 그룹, 공격 생명주기 전반에 걸쳐 AI 악용

Google의 조사에 따르면 중국, 이란, 북한의 국가 지원 그룹들이 AI 도구를 작전 전반에 걸쳐 체계적으로 악용하고 있는 것으로 드러났습니다. 중국과 연계된 행위자들은 사이버보안 학생으로 위장하여 "캡처 더 플래그" 경진대회에 참가하는 것처럼 행세하며 Gemini를 속여 제한된 취약점 공격 지침을 제공받았고, 이란 해커들은 대학 연구원이라고 주장하며 안전 가드레일을 우회했습니다.​

지하 사이버범죄 시장 또한 빠르게 성숙해졌으며, 연구자들은 피싱, 딥페이크 생성, 자동화된 멀웨어 개발을 위해 영어 및 러시아어 포럼에 광고된 수십 개의 AI 기반 도구를 발견했습니다. 이러한 제공물들은 합법적인 AI 마케팅을 반영하여 "워크플로우 효율성"을 강조하면서 기술력이 부족한 공격자들의 기술적 장벽을 낮추고 있습니다.​

Google은 이러한 악의적 활동과 관련된 계정 및 자산을 비활성화하고 악용에 대한 Gemini의 보호 장치를 강화했습니다. 그러나 회사는 위협 행위자들이 "AI를 예외적으로 사용하는 것에서 일상적으로 사용하는 것으로" 이동함에 따라 AI 통합 공격 추세가 가속화될 가능성이 높다고 경고합니다.

댓글 0
전체 1,366 / 42 페이지
• Anthropic의 연구원 Barry Zhang와 Mahesh Murag는 수많은 특수 목적 AI 에이전트를 계속 만들어 내기보다는, 재사용 가능한 “스킬(skills)”에 의해 구동되는 단일 범용 에이전트를 사용할 것을 기업들에게 촉구하고 있으며, 이 개념을 뉴욕에서 열린 AI Engineering Code Summit와 월요일에 공개된 강연에서 설명했다.• 이러한 **에이전트 스킬(Agent Skills)**은 절차적 지식, 지침, 스크립트를 정리한 폴더 형태로 구성되어 있으며, 에이전트가 도메인 전문성과 실제 세계 문맥을 결여한 부분을 보완하는 것을 목표로 한다. 이들은 이미 회계, 법률, 채용 등 다양한 분야에 도입되었고, 10월 16일 해당 기능이 출시된 이후 일부 포춘 100대 기업에서는 내부용 AI 플레이북으로 활용하고 있다.• 스킬 중심 모델은 AI 에이전트의 영향력을 둘러싸고 업계가 양분된 상황에서 등장했다. Sam Altman과 Microsoft의 AI 임원 Asha Sharma와 같은 리더들은 에이전트가 사무 업무를 혁신하고 조직의 위계를 평탄화할 것이라고 예측하는 반면, Guido Appenzeller와 같은 투자자들은 “에이전트”가 종종 더 높은 가격을 정당화하기 위해 단지 이름만 바꾼 챗봇에 불과하다고 경고한다.
848 조회
0 추천
2025.12.09 등록
The Verge는 크리에이터 이코노미가 인터넷을 광고로 포화된 환경으로 변모시킴으로써 인터넷을 파괴했다고 주장하며, 가장 성공한 콘텐츠 크리에이터들조차 혁신적인 수익화 전략을 포기하고 소비재 제품 판매로 회귀했다고 말한다.4억 5천만 명이 넘는 유튜브 구독자를 보유하고 있음에도 불구하고, MrBeast의 제작사는 2024년에 1억 1천만 달러 이상의 손실을 기록했으며, 그의 바이럴 영상들은 주로 Walmart와 같은 소매업체에서 판매되는 그의 Feastables 초콜릿 바를 홍보하는 도구로 활용되었다.MrBeast의 미디어 부문이 2024년에 거의 8천만 달러의 손실을 기록한 반면, 그의 Feastables 브랜드는 비슷한 수익을 창출하면서도 2천만 달러 이상의 수익을 올렸으며, 이는 크리에이터들이 콘텐츠 자체보다는 실물 제품에 점점 더 의존하여 사업을 유지하고 있음을 보여준다.
867 조회
0 추천
2025.12.09 등록
Nvidia CEO 젠슨 황은 12월 3일 조 로건과의 인터뷰에서 칩 가용성이 아닌 전력 공급이 AI의 주요 병목 현상이 되었다고 말하며, 기술 기업들이 6~7년 내에 데이터 센터 근처에서 수백 메가와트를 생산하는 자체 소형 원자로를 운영할 것이라고 예측했습니다.황의 예측은 업계 동향과 일치하는데, Google은 2024년 10월 소형 원자로 개발업체 Kairos Power로부터 500메가와트를 구매할 계획을 발표했으며, 첫 번째 첨단 원자로는 2030년을 목표로 하고 있습니다.Goldman Sachs는 데이터 센터 전력 소비가 2023년 대비 2030년까지 175% 급증할 것으로 예상하며, 국제에너지기구는 전 세계 데이터 센터 소비가 2030년까지 945테라와트시로 두 배 이상 증가할 것으로 전망합니다.
821 조회
0 추천
2025.12.09 등록
2025년 타임지가 선정한 세계에서 가장 영향력 있는 인공지능 분야 100인에 포함된 밀라그로스 미셀리 박사가 AI 산업의 어두운 이면을 강도 높게 비판하고 나섰다. 아르헨티나 출신의 사회학자이자 컴퓨터공학 박사인 미셀리는 최근 부에노스아이레스에서 열린 공개 강연에서 AI 기술 확산 뒤편에 창의성·노동·자원이라는 세 가지 차원의 착취 구조가 존재한다고 지적했다고 현지 매체 암비토가 7일(현지시간) 보도했다.감춰진 노동력과 무단 활용되는 창작물미셀리 박사가 지적한 첫 번째 문제는 AI 모델 훈련 과정에서 무단으로 사용되는 수많은 창작물이다. 그는 “AI는 창조하지 않는다. 단지 인간의 창작물을 대규모로 추출하고 혼합해 낮은 품질의 결과물을 만들어낼 뿐”이라며 “생성형 도구는 공익이 아닌 소수 기업의 상업적 이익을 극대화하도록 설계된 모델”이라고 비판했다.두 번째는 대규모 데이터 노동의 비가시성 문제다. 이미지 분류, 폭력 콘텐츠 관리, 텍스트 라벨링, 데이터 클리닝 등을 수행하는 대규모 인간 노동이 의도적으로 감춰지고 있으며, 대부분의 인력이 플랫폼 기반의 극도로 취약한 노동 조건에 처해 있다고 그는 지적했다. 독일 바이젠바움 연구소에서 ‘데이터 워커스 인콰이어리’ 프로젝트를 이끄는 미셀리는 전 세계 데이터 노동자들의 증언을 통해 이러한 착취 실태를 밝혀왔다.소수 기업의 권력 집중 경고미셀리 박사는 세 번째 착취로 막대한 환경 비용을 들었다. AI 데이터 센터 운영에 필요한 엄청난 전력과 물 소비가 환경 부담을 가중시킨다는 것이다.그는 특히 기술 자체가 아닌 소수 글로벌 기업이 데이터·인프라·노동력을 장악하면서 발생하는 권력 집중에 주목했다. “이 기업들은 사실상 무엇이 진실인지 결정할 수 있는 권력을 갖게 된다”며 “기술은 언제나 정치적이다. 환경적·사회적 비용을 보지 않고 기술을 숭배하는 것은 오히려 공동체와 지구에 해를 끼치는 일”이라고 강조했다. 현재 독일에서 활동 중인 미셀리는 기술 발전에만 집중된 AI 논의 속에서 소외된 인간 윤리 문제를 중심에 세운 인물로 평가받는다.
817 조회
0 추천
2025.12.09 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입