Loading...

AI 뉴스

AI 모델이 시뮬레이션에서 스마트 계약 해킹

페이지 정보

작성자 이수
작성일 2025.12.02 22:57
517 조회
0 추천
0 비추천

본문

df4dd36794061fe74b763a90bfce8188_1764683706_593.png
 

Anthropic이 개발한 인공지능 시스템이 이제 수백만 달러 가치의 블록체인 스마트 계약의 취약점을 자율적으로 식별하고 악용할 수 있다고 2025년 12월 1일 회사의 MATS 및 Fellows 프로그램이 발표한 연구에 따르면 밝혀졌습니다. 시뮬레이션 테스트에서 Claude Opus 4.5, Claude Sonnet 4.5, OpenAI의 GPT-5를 포함한 최첨단 모델들은 2025년 3월 이후 취약해진 34개의 스마트 계약 중 19개를 성공적으로 악용하여 460만 달러의 시뮬레이션 도난 자금에 해당하는 결과를 보였습니다.

연구 결과는 연구자들이 이러한 AI 능력이 초래할 수 있는 경제적 피해에 대한 구체적인 하한선으로 설명하는 것을 확립했습니다. Opus 4.5만으로도 전체의 450만 달러를 차지했으며, 17개의 계약을 성공적으로 침해하여 기준일 이후 데이터셋의 50%에 해당합니다. 이 연구는 2020년부터 2025년까지 Ethereum, Binance Smart Chain, Base에서 악용된 실제 취약점을 가진 405개의 스마트 계약으로 구성된 새로운 벤치마크인 SCONE-bench를 소개합니다.


AI가 새로운 제로데이 취약점을 발견하다

역사적 공격 사례를 재현하는 것을 넘어, AI 에이전트들은 2025년 10월 3일 실시된 테스트 중 최근 배포된 바이낸스 스마트 체인 계약에서 이전에 알려지지 않은 두 개의 제로데이 취약점을 발견했습니다. Anthropic에 따르면, Sonnet 4.5와 GPT-5 모두 독립적으로 시뮬레이션된 수익 기준 3,694달러 상당의 결함을 식별했으며, GPT-5는 3,476달러의 API 비용으로 이를 달성했습니다.

첫 번째 취약점은 개발자들이 공개 계산 함수에서 “view” 수정자를 생략하여 의도치 않게 쓰기 권한을 부여한 토큰 계약과 관련이 있었습니다. AI는 이를 악용하여 토큰 잔액을 반복적으로 부풀린 후 판매하여 약 2,500달러의 시뮬레이션 이익을 얻었습니다. Anthropic이 블록체인 보안 회사 SEAL과 협력한 후, 독립적인 화이트햇 해커가 취약한 자금을 회수하여 사용자에게 반환했습니다.

두 번째 결함은 토큰 런처의 잘못 구성된 수수료 관리와 관련이 있었습니다. AI가 취약점을 식별한 지 4일 후, 실제 공격자가 독립적으로 동일한 문제를 악용하여 약 1,000달러의 수수료를 유출했습니다.


확대되는 역량이 공격 시간을 압축한다

이 연구는 2025년 계약에서 시뮬레이션된 공격 수익이 지난 1년 동안 약 1.3개월마다 두 배로 증가했으며, 이는 도구 사용 및 장기 추론을 포함한 에이전트 기능의 개선에 의해 주도되었음을 발견했습니다. 기능적 공격을 구축하는 데 필요한 토큰 비용은 6개월 미만 동안 4세대 모델에 걸쳐 70.2% 감소했으며, 이를 통해 공격자는 동일한 컴퓨팅 투자로 약 3.4배 더 많은 공격을 실행할 수 있게 되었습니다.

Anthropic은 모든 테스트가 실제 자금이 위험에 처하지 않는 격리된 블록체인 시뮬레이터에서 수행되었음을 강조했습니다. 이 회사는 이중 사용 우려에도 불구하고 SCONE-bench를 오픈 소스로 공개하고 있으며, 공격자들이 이미 이러한 도구를 독자적으로 개발할 강력한 재정적 동기를 가지고 있는 반면, 공개 릴리스는 방어자들이 배포 전에 계약을 스트레스 테스트할 수 있게 한다고 주장합니다. 이러한 발견은 2025년 11월 Balancer 프로토콜 해킹 사건 몇 주 후에 나온 것으로, 당시 공격자가 권한 부여 버그를 악용하여 1억 2천만 달러 이상을 탈취했습니다.

댓글 0
전체 1,366 / 1 페이지
Executive Summary • 독립 개발자가 만든 AI 비서 'Moltbot'이 실리콘밸리에서 화제의 중심으로 떠올랐다. 로컬 환경에서 구동되며 다양한 AI 모델과 앱을 연동해 거의 무제한적인 자동화를 지원한다. • 사용자들은 일정 관리, 송장 처리, 주식 분석 등 고위험 업무까지 Moltbot에 맡기고 있으며, "ChatGPT 출시 이후 처음으로 미래에 살고 있다는 느낌"이라는 반응이 쏟아지고 있다. • 그러나 설치에 기술적 지식이 필요하고, 프롬프트 인젝션 등 보안 취약점이 존재해 개인정보 유출 위험도 함께 제기되고 있다. Background 2026년 초 AI 에이전트 열풍이 본격화하면서 개인용 AI 비서에 대한 관심이 급증하고 있다. 기존 Siri, Alexa 등 전통적 비서의 한계를 넘어 다양한 앱과 서비스를 직접 제어할 수 있는 '에이전틱 AI'가 주목받는 가운데, 독립 개발자 Peter Steinberger가 만든 Moltbot(구 Clawdbot)이 소셜미디어를 통해 급속히 확산됐다. Anthropic의 요청으로 Claude와의 혼동을 피하기 위해 최근 이름을 변경했다. Impact & Implications 에이전틱 AI의 대중화 가능성 Moltbot의 인기는 AI 에이전트가 더 이상 대형 기술기업의 전유물이 아님을 보여준다. 개인 개발자도 여러 AI 모델과 API를 조합해 강력한 자동화 시스템을 구축할 수 있다는 점이 입증됐다. "기존에 존재하는 것들을 그냥 연결한 것뿐"이라는 개발자의 설명처럼, 핵심은 기술적 복잡성이 아니라 사용자 경험에 있다. 데이터 주권과 프라이버시 논쟁 Moltbot이 주목받는 또 다른 이유는 로컬 구동 방식이다. 클라우드 기반 AI 비서와 달리 사용자 데이터가 외부로 전송되지 않아 프라이버시를 보장한다. 그러나 역설적으로 신용카드 정보나 계정 접근 권한을 AI에 넘기는 사용자들이 늘면서, 프롬프트 인젝션 등 새로운 보안 위협에 노출되고 있다. AI 비서 시장의 향방 개발자 Steinberger는 2026년 주요 AI 기업들이 모두 개인 비서 제품을 출시할 것으로 예상한다. Moltbot의 성공은 이 시장에서 '데이터 소유권'이 핵심 경쟁요소가 될 수 있음을 시사한다. 기업들이 편의성과 프라이버시 사이에서 어떤 균형점을 찾을지 주목된다. Key Data & Facts 항목내용 개발자Peter Steinberger (독립 개발자) 출시일2025년 11월 (Clawdbot으로 최초 공개) 개명 이유Anthropic 요청 (Claude와의 혼동 방지) 구동 방식로컬 Mac 환경 (Mac Mini 밈 유행) 지원 AIOpenAI, Claude 등 다중 모델 연동 커뮤니케이션WhatsApp, Telegram 등 채팅앱 연동 부작용Cloudflare 주가 상승 (실제 관련 없음) Key Quote "ChatGPT 출시 이후 처음으로 미래에 살고 있다는 느낌이 들었다." — Dave Morin, Moltbot 사용자 "모델들은 권한을 주면 정말 창의적으로 행동한다. 그 순간 '젠장, 이거 대단하다'고 느꼈다." — Peter Steinberger, Moltbot 개발자
15 조회
0 추천
10:19 등록
Executive Summary • Science 학술지 연구: AI 에이전트가 수천 개 소셜 계정을 조종해 허위정보 캠페인 전개 가능 • 2016년 러시아 트롤팜 수백 명 → 이제 1명이 AI로 수천 봇 통제 가능한 시대 • 22명 국제 전문가 경고: AI 군집이 2028 미국 대선에 실제 투입될 가능성 높아 • 대응책으로 'AI 영향력 관측소' 설립 제안했으나 정치적 의지 부족이 걸림돌 Background 2016년 러시아 인터넷연구소(IRA) 사태 이후 허위정보 캠페인은 딥페이크, 가짜 웹사이트 등으로 진화해왔다. AI 에이전트 기술이 급속히 발전하면서 이를 대규모 정보전에 활용할 수 있다는 우려가 과학계에서 본격 제기됐다. Impact & Implications 탐지 회피 능력 AI 군집의 가장 위협적인 특성은 기존 봇과 달리 인간 사용자와 구분이 거의 불가능하다는 점이다. 지속적 정체성과 기억력을 보유해 실제 SNS 사용자처럼 행동할 수 있다. 연구진은 "인간을 모방하는 교묘한 특성 때문에 탐지가 극히 어렵고 현존 여부조차 파악하기 힘들다"고 경고했다. 자가 개선 메커니즘 이 시스템은 게시물에 대한 반응을 피드백으로 삼아 스스로 개선할 수 있다. 연구진은 "충분한 신호가 있으면 수백만 건의 마이크로 A/B 테스트를 수행하고, 효과적인 변형을 기계 속도로 전파하며, 인간보다 훨씬 빠르게 반복 학습한다"고 설명했다. 정치적 무관심 소셜미디어 플랫폼은 참여도를 우선시하므로 AI 군집을 적발할 유인이 없다. 정부 역시 온라인 대화를 감시하는 '관측소' 개념에 우호적이지 않은 지정학적 환경이다. 전 바이든 행정부 허위정보 책임자 니나 얀코비츠는 "가장 무서운 건 AI가 초래하는 피해를 해결할 정치적 의지가 거의 없다는 것"이라고 지적했다. Key Data & Facts 항목수치/내용 연구 참여 전문가22명 (AI, 사이버보안, 심리학, 저널리즘, 정책 분야) 발표 학술지Science 예상 실전 투입 시기2028년 미국 대선 2026 중간선거 영향제한적 (아직 개발 단계) 제안된 대응책AI 영향력 관측소(Observatory) 설립 Key Quote "인공지능의 발전은 인구 전체 수준에서 신념과 행동을 조작할 가능성을 제시한다. 인간의 사회적 역학을 적응적으로 모방함으로써 민주주의를 위협한다." — Science 연구 보고서
19 조회
0 추천
02.01 등록
Executive Summary • 구글, 크롬 브라우저에 'Auto Browse' AI 에이전트 기능 출시 - Gemini 3 기반 자동 웹 브라우징 가능 • 티켓 예매, 쇼핑, 여행 계획 등 웹 작업 자동화 지원하나 정확도 문제 여전 • AI 에이전트가 지시를 '너무 문자 그대로' 해석하는 한계 드러나 - 콘서트 좌석 예매 시 연석 아닌 별도 열 선택 • 보안 취약점 우려: 악성 웹사이트의 프롬프트 인젝션 공격에 노출 가능성 Background 구글이 AI 프로 및 울트라 요금제 사용자를 대상으로 크롬 브라우저에 'Auto Browse' 기능을 출시했다. 이는 AI 에이전트가 사용자를 대신해 웹을 탐색하고 클릭하는 기능으로, 구글의 최신 Gemini 3 모델을 기반으로 한다. 이번 출시는 OpenAI, Anthropic 등 경쟁사들도 AI 에이전트 개발에 박차를 가하는 가운데 이루어져, 자동화된 웹 브라우징 시대의 본격적인 개막을 알린다. Impact & Implications 기술적 의미 Auto Browse는 다단계 웹 작업을 사람의 개입 없이 수행할 수 있다는 점에서 기존 AI 어시스턴트와 차별화된다. Gemini 3 모델이 먼저 작업 목표를 정의하고 전략을 수립한 뒤, 실제 클릭 동작을 수행하는 방식이다. 그러나 테스트 결과 '상식적 판단'이 필요한 상황에서는 여전히 한계를 보였다. 예를 들어 "통로 옆 두 좌석"을 예매해달라는 요청에 같은 열이 아닌 다른 열의 좌석을 선택하는 실수를 범했다. 사용자 영향 일반 사용자 입장에서 Auto Browse는 단순 반복 작업의 자동화라는 편의를 제공하지만, 결과물에 대한 검증 없이 신뢰하기에는 이르다. 쇼핑 테스트에서는 검색 결과 상위 3개를 그대로 장바구니에 담는 등 '큐레이션'이라기보다는 단순 자동화에 그쳤다. 구글은 결제나 SNS 게시 등 민감한 작업에는 사용자 승인을 요구하는 안전장치를 마련했다. 보안/정책 영향 보안 전문가들은 AI 에이전트가 악성 웹사이트의 프롬프트 인젝션 공격에 취약할 수 있다고 경고한다. 사용자가 AI에게 결제 정보를 맡기는 경우 금전적 피해로 이어질 수 있어, 신중한 사용이 권장된다. 크롬이 전 세계 브라우저 시장의 압도적 점유율을 차지하는 만큼, 이 기능의 확대 적용은 웹 생태계 전반에 영향을 미칠 전망이다. Key Data & Facts 항목수치/내용 서비스명Google Auto Browse 기반 모델Gemini 3 대상 사용자AI Pro/Ultra 요금제 가입자 (월 $20~) 출시 지역미국 우선 주요 기능티켓 예매, 쇼핑, 여행 계획 자동화 Key Quote "Auto Browse currently lacks the accuracy I need to rely fully on a tool like this as part of my daily life." "Auto Browse는 일상에서 전적으로 의존하기에는 아직 정확도가 부족하다." — Reece Rogers, WIRED 기자
15 조회
0 추천
2026.01.31 등록
Executive Summary • 메타 전 수석 AI 과학자 얀 르쿤이 샌프란시스코 스타트업 Logical Intelligence의 이사회에 합류 • 이 회사는 LLM과 다른 접근법인 '에너지 기반 추론 모델(EBM)'을 개발, 자기 수정 능력과 낮은 연산량이 특징 • 첫 모델 Kona 1.0은 단일 H100 GPU로 작동하며, 스도쿠 풀이에서 주요 LLM보다 빠른 성능 시연 • CEO는 LLM, EBM, 월드 모델의 결합이 AGI로 가는 길이라고 주장 Background 얀 르쿤은 오랫동안 대형언어모델(LLM)만으로는 인공일반지능(AGI)에 도달할 수 없다고 주장해왔다. 지난해 11월 메타를 떠난 이후 그는 실리콘밸리의 "LLM 집착"을 공개적으로 비판하며 대안적 AI 아키텍처 연구를 지지해왔다. 이번 Logical Intelligence 이사회 합류는 그의 이론을 실제 제품으로 구현하려는 첫 상업적 시도다. Impact & Implications 기술적 의미 에너지 기반 추론 모델(EBM)은 LLM과 근본적으로 다른 접근법을 취한다. LLM이 다음 단어를 확률적으로 예측하는 반면, EBM은 주어진 제약조건(예: 스도쿠 규칙) 내에서 작업을 수행한다. CEO Eve Bodnia는 이를 에베레스트 등반에 비유했다. "LLM 등반가는 한 방향만 보고 계속 전진하다 구멍을 만나면 떨어진다. EBM은 여러 방향을 보고 경로를 수정할 수 있다." 이 자기 수정 능력이 할루시네이션 문제를 해결할 수 있다고 회사 측은 주장한다. 산업/시장 영향 Kona 1.0 모델은 2억 개 미만의 파라미터로 구성되어 단일 Nvidia H100 GPU에서 작동한다. 이는 수천 개의 GPU가 필요한 대형 LLM과 대조적이다. 회사는 에너지 그리드 최적화, 반도체 제조, 신약 개발 등 오류 허용도가 없는 분야를 목표로 하고 있다. 주요 칩 제조업체 및 데이터센터 기업들과 이미 협의 중이라고 밝혔다. 향후 전망 Logical Intelligence는 르쿤이 설립한 파리 기반 스타트업 AMI Labs와 협력할 예정이다. AMI Labs는 물리적 환경을 인식하고 행동 결과를 예측하는 '월드 모델'을 개발 중이다. Bodnia는 AGI가 단일 모델이 아닌 여러 AI 모델의 생태계가 될 것이라고 전망했다. "LLM은 인간과 자연어로 소통하고, EBM은 추론을 담당하며, 월드 모델은 로봇이 3D 공간에서 행동하도록 돕는다." Key Data & Facts 항목수치/내용 모델명Kona 1.0 파라미터 수2억 개 미만 필요 하드웨어단일 Nvidia H100 GPU 주요 협력자얀 르쿤 (이사회), AMI Labs 타겟 분야에너지 그리드, 반도체 제조, 신약 개발 오픈소스 여부비공개 (향후 검토 예정) Key Quote "LLM은 하나의 거대한 추측 게임이다. 신경망에 인터넷의 온갖 쓰레기를 먹이고 사람들이 어떻게 소통하는지 가르치려 한다. 하지만 언어는 지능의 발현일 뿐, 지능 자체가 아니다. 왜 언어와 무관한, 추측 게임이 아닌 AI에 집중하지 않는가?" — Eve Bodnia, Logical Intelligence CEO
21 조회
0 추천
2026.01.30 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입