AI 뉴스

구글의 새로운 Antigravity IDE에 보안 결함

페이지 정보

작성자 xtalfi
작성일 2025.11.27 15:49
571 조회
0 추천
0 비추천

본문

f43ee9a7735c9322763d602776200742_1764226148_6917.jpg
 

보안 연구원들은 구글(알파벳)의 새로 출시된 Antigravity IDE에서 심각한 취약점을 노출했으며, 이 AI 기반 코딩 툴이 출시된 지 24시간도 채 되지 않아 이러한 문제가 드러나 인공지능 제품의 시장 출시가 서두른 것에 대한 우려를 불러일으키고 있습니다.

Knostic의 보안 연구원인 Aaron Portnoy는 자신이 Forbe에 언급한 바에 따르면 Gemimi 엔진이 적용된 이 개발 플랫폼에서 사용자의 컴퓨터에 지속적으로 남는 악성코드를 설치하게 만들 수 있는 심각한 결함을 발견했습니다. 해당 취약점은 Antigravity의 “신뢰할 수 있는 코드” 버튼 기능을 악용하여, 악성 코드가 프로젝트가 다시 시작될 때마다 백도어를 다시 로드할 수 있도록 허용합니다.​


다수의 공격 벡터가 식별됨

이 취약점은 Antigravity의 구성 설정을 조작하여 Windows와 Mac 시스템 모두에서 작동했다고 Portnoy가 Forbes에 전했다. 공격을 실행하려면 공격자가 사용자를 설득하여 악성 코드를 "신뢰할 수 있음"으로 표시한 후 실행하도록 해야 하는데, 이는 흔한 사회공학적 전술이다.​

보안 연구원 Johann Rehberger는 11월 25일 게시된 블로그 포스트에서 5가지 개별 보안 문제를 문서화했다. 여기에는 간접 프롬프트 주입을 통한 원격 명령 실행, 브라우저 에이전트를 통한 데이터 유출, 그리고 보이지 않는 유니코드 문자를 사용하여 삽입된 숨겨진 지시사항을 따르는 우려스러운 기능이 포함되어 있다. Rehberger에 따르면, 이러한 취약점들은 2025년 5월 초에 Google이 약 24억 달러에 라이선스한 코드베이스인 Windsurf에 이미 보고된 바 있다.​​

Google은 11월 18일 Gemini 3 모델과 함께 Antigravity를 출시했다. 회사는 Bug Hunters 페이지에서 여러 취약점을 인정하며, 데이터 유출 및 프롬프트 주입을 통한 코드 실행을 조사 중인 "알려진 문제"로 나열했다. 11월 26일 기준으로 보안 패치는 제공되지 않았으며, Portnoy는 취약점을 방지할 수 있는 구성을 찾지 못했다고 보고했다.​


광범위한 산업 우려

보안 전문가들이 설명하는 바에 따르면, 이러한 보안 결함은 AI 제품들이 적절한 테스트 없이 시장에 출시되는 우려스러운 패턴을 강조한다. Knostic의 공동 창립자이자 CEO인 Gadi Evron은 Forbes에 "AI 코딩 에이전트는 매우 취약하며, 종종 레거시 기술에 기반하고 있고 패치되지 않았으며, 운영 요구사항으로 인해 설계상 안전하지 않습니다"라고 말했다.​

취약점을 분석한 Simon Willison에 따르면, 공격 벡터는 Antigravity의 브라우저 도구를 활용하는데, 이 도구는 기본적으로 webhook.site를 포함한 도메인의 허용 목록을 사용하며, 이는 데이터 유출에 악용될 수 있는 서비스이다. IDE는 또한 기본적으로 .gitignore에 있는 파일에 대한 접근을 거부하지만, 연구자들은 AI가 .env 자격 증명 파일과 같은 제한된 파일에 접근하기 위한 우회 방법을 찾을 수 있음을 발견했다.​

AI 기반 도구 전반에 걸쳐 18개의 취약점을 추적하고 있는 것으로 알려진 Portnoy의 팀은 현재 AI 보안 상태를 "1990년대 후반의 해킹 현장"에 비유하며, "AI 시스템이 상당한 신뢰 가정과 거의 강화된 경계 없이 배포되고 있다"고 언급했다. Rehberger는 문제가 해결될 때까지 개발자들이 대체 IDE를 고려하고 Antigravity의 기본 "자동 실행" 기능을 비활성화할 것을 권장했다.

댓글 0
전체 1,366 / 15 페이지
• OpenAI가 'AI 안전 준비 총괄(Head of Preparedness)' 직책 신설• 정신건강 위협, 사이버보안 무기화 등 AI의 심각한 위험성 대응 목표• 자기개선 AI 시스템에 대한 안전장치 마련도 포함• 챗봇 관련 청소년 자살 사건 등 잇따라... "늦은 감" 지적도OpenAI가 AI의 위험성을 전담하는 '안전 준비 총괄(Head of Preparedness)' 직책을 신설하고 인력 채용에 나섰다. 쉽게 말해, AI가 심각하게 잘못될 수 있는 모든 경우의 수를 고민하는 것이 주요 업무다.샘 올트먼은 X(구 트위터)에 올린 글에서 AI 모델의 급격한 발전이 "실질적인 과제들"을 야기하고 있다고 인정하며 해당 직책을 공개했다. 그는 특히 사람들의 정신건강에 미치는 영향과 AI 기반 사이버보안 무기의 위험성을 명시적으로 언급했다.채용 공고에 따르면, 해당 직책의 담당자는 다음과 같은 역할을 수행하게 된다:"심각한 피해의 새로운 위험을 초래하는 최첨단 역량을 추적하고 대비합니다. 일관성 있고 엄밀하며 운영적으로 확장 가능한 안전 파이프라인을 구성하는 역량 평가, 위협 모델, 완화 조치를 구축하고 조율하는 직접 책임자가 됩니다."올트먼은 이 직책의 담당자가 앞으로 회사의 '준비 프레임워크' 실행, '생물학적 역량' 출시를 위한 AI 모델 보안, 나아가 자기개선 시스템에 대한 안전장치 설정까지 책임지게 될 것이라고 밝혔다. 그는 또한 이 직무가 "스트레스가 많은 일"이 될 것이라고 덧붙였는데, 이는 다소 절제된 표현으로 보인다.챗봇이 청소년 자살에 연루된 여러 건의 세간의 이목을 끄는 사건들이 있은 후, 이제야 이러한 모델들이 야기할 수 있는 잠재적인 정신건강 위험에 집중하는 인력을 두는 것은 다소 늦은 감이 있다. AI로 인한 정신질환 문제가 커지고 있는데, 챗봇이 사람들의 망상을 부추기고, 음모론을 조장하며, 섭식장애를 숨기도록 돕는 사례가 늘고 있기 때문이다.
340 조회
0 추천
2025.12.29 등록
네이버클라우드가 텍스트·이미지·음성을 단일 모델에서 통합 학습하는 국내 첫 네이티브 옴니모달 AI 모델 ‘하이퍼클로바X SEED 8B Omni’와 추론형 모델 ‘32B Think’를 과학기술정보통신부의 독자 AI 프로젝트 첫 성과로 29일 오픈소스 공개했다.32B Think 모델은 올해 수능 문제 풀이에서 국어·수학·영어·한국사 전 과목 1등급을 달성하고 영어·한국사 만점을 기록했으며, 글로벌 AI 평가 벤치마크에서 주요 해외 모델과 유사한 성능을 보였다.네이버클라우드는 기존 인터넷 문서 중심 학습을 넘어 현실 세계 맥락 데이터 확보에 집중하며, 검색·커머스·공공·산업 등 다양한 분야에서 활용 가능한 AI 에이전트를 단계적으로 확장할 계획이다.
348 조회
0 추천
2025.12.29 등록
카카오는 정부 주도 GPU 확보 사업에서 연내 목표치의 4배를 초과하는 255노드(GPU 2040장)를 경기 안산 데이터센터에 조기 구축 완료했다고 29일 밝혔다.지난 8월 최종 사업자로 선정된 카카오는 AI 3대 강국을 위한 핵심 인프라로 엔비디아 B200 GPU 총 2424장을 확보해 5년간 위탁 운영하며 국내 AI 연구·개발을 지원할 계획이다.카카오는 자체 데이터센터의 전력·냉각 시스템과 공급사와의 긴밀한 협력으로 조기 구축에 성공했으며, 내년 1월부터 산·학·연 과제에 베타서비스를 제공할 예정이다.
359 조회
0 추천
2025.12.29 등록
구글이오픈소스모델인'젬마3(Gemma3)'의내부작동원리를분석할수있는도구인'젬마스코프2(GemmaScope2)'를출시하며AI의'블랙박스'현상을규명하기위한연구결과를공개했습니다.이도구모음은인공지능이탈옥이나환각증상을보이거나아첨하는태도를취할때내부의어떤기능이활성화되고네트워크를통해어떻게전달되는지를실시간으로추적하여AI의안전성과정렬상태를정밀하게검사할수있도록돕습니다.특히모든레이어에포함된'트랜스코더'기술을통해인공지능내부에서정보가어떻게전파되고계산되는지그구체적인경로를파악할수있게함으로써,AI모델의신뢰도를높이고윤리적인행동제어를가능하게하는데기여할것으로기대됩니다.
347 조회
0 추천
2025.12.29 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입