Loading...

AI 뉴스

단 250개의 문서만으로도 AI 모델을 오염시킬 수 있다는 것이 밝혀져

페이지 정보

작성자 xtalfi
작성일 2025.10.11 17:41
697 조회
0 추천
0 비추천

본문

b27e432f54add201fb3b50116cb05a4cqaye.png

(퍼플렉시티가 정리한 기사)

Anthropic의 새로운 연구는 인공지능 시스템의 놀라운 취약점을 밝혀냈습니다: 신중하게 제작된 악의적인 문서 250개만으로도 크기에 관계없이 대규모 언어 모델을 손상시킬 수 있으며, 이는 AI 보안에 대한 근본적인 가정에 도전하고 고객 서비스 챗봇부터 엔터프라이즈 소프트웨어까지 모든 것을 구동하는 시스템의 안전성에 대한 긴급한 질문을 제기합니다.


10월 8일 영국 AI 보안 연구소 및 앨런 튜링 연구소와의 공동 연구로 발표된 이 연구는 지금까지 진행된 가장 큰 규모의 데이터 중독 조사를 나타내며, 이미 보안 문제로 고심하고 있는 업계에 충격적인 소식을 전달합니다. 연구 결과에 따르면 130억 개의 매개변수를 가진 모델—6억 개 매개변수를 가진 더 작은 모델보다 20배 이상 많은 데이터로 훈련된—도 동일한 소수의 중독된 문서에 의해 손상될 수 있음을 보여줍니다.

 

모델 규모 전반에 걸친 지속적인 위협


이전 연구에서는 공격자가 학습 데이터의 일정 비율을 제어해야 한다고 제안한 것과 달리, Anthropic의 연구 결과에 따르면 데이터 오염 공격은 “모델 크기와 관계없이 거의 일정한 수의 문서가 필요하다”고 나타났다. 연구진은 ““와 같은 트리거 문구를 사용해 모델이 활성화되었을 때 의미 없는 텍스트를 생성하도록 백도어를 성공적으로 만들었으며, 이를 통해 공격자가 AI 시스템을 조작해 해로운 결과물을 만들어낼 수 있음을 보여줬다.


Anthropic는 연구 논문에서 “우리의 결과는 공격자가 학습 데이터의 일정 비율을 제어해야 한다는 일반적인 가정을 뒤집는다. 오히려 소량의 정해진 데이터만 필요할 수 있다”고 밝혔다. 그 영향은 매우 크며, 대부분의 대형 언어 모델이 공개된 인터넷 데이터를 대량으로 학습하기 때문에, “말 그대로 누구나 모델의 학습 데이터에 포함될 수 있는 콘텐츠를 만들 수 있다”고 설명했다.


토론토대학교 Citizen Lab의 선임 연구원 John Scott-Railton은 해당 위협의 확장성을 강조하며 다음과 같이 말했다: “LLM 학습 데이터 세트 내에서는, 희석이 오염에 대한 해결책이 아니다. 사이버보안 전문가라면 직관적으로 알 수 있을 것이다: 공격은 대량 확장될 수 있지만 방어책은 대부분 그렇지 않다”.

 

산업 영향 및 시장 우려사항


이 연구는 인공지능에 대한 열기로 주요 지수들이 신기록을 달성하며 AI 주식이 전례 없는 고점에 계속 도달하고 있는 가운데 나타났다. 그러나 증가하는 보안 취약점이 잠재적 시장 과대평가에 대한 이미 가열된 논쟁에 복잡성을 더하고 있다. JPMorgan Chase CEO인 제이미 다이먼은 최근 “AI는 실재한다”면서도 현재의 많은 투자들이 “아마도” 낭비될 수 있다고 경고하며, 앞으로 6개월에서 2년 내에 상당한 주가 하락에 대한 우려를 표명했다.


특히 S&P 500 기업의 72%가 올해 규제 서류에서 AI를 “중대한 위험”으로 공시했다는 점에서 이 시점은 특별히 의미가 있다. 한편, OpenAI와 Anthropic은 훈련 데이터에 대한 저작권 주장과 관련된 수십억 달러 규모의 잠재적 소송을 해결하기 위해 투자자 자금을 사용하는 방안을 모색하고 있는 것으로 알려졌다.


악의적 행위자들을 부추길 수 있는 연구 결과를 공개했음에도 불구하고, Anthropic은 “이러한 결과를 공개하는 것의 이익이 이러한 우려를 능가한다”고 믿으며, 취약점을 이해하는 것이 더 나은 방어 체계를 개발하는 데 중요하다고 주장했다. 회사는 공격자들이 실제로 독성 데이터를 훈련 세트에 삽입하는 데 여전히 상당한 어려움에 직면하고 있다고 언급했지만, 이 연구는 AI 업계 전반에 걸친 개선된 보안 조치의 긴급한 필요성을 부각시킨다고 했다.

댓글 0
전체 834 / 122 페이지
(퍼플렉시티가 정리한 기사)유럽연합 집행위원회는 중요한 산업 전반에 인공지능 도입을 가속화하기 위한 종합적인 10억 유로(11억 달러) 전략을 발표했으며, 이는 미국과 중국과의 경쟁이 심화되는 가운데 유럽 기술 주권을 위한 중대한 추진을 의미합니다.우르줄라 폰 데어 라이엔 위원장은 오늘 이중 전략을 발표하며 유럽이 글로벌 AI 경쟁을 선도하려는 야망을 강조했습니다. 폰 데어 라이엔은 "나는 AI의 미래가 유럽에서 만들어지길 원한다"고 선언하며 로봇공학, 의료, 에너지, 자동차를 포함한 주요 산업 전반에 걸쳐 'AI 우선' 접근법을 촉진한다고 밝혔습니다.AI 독립성을 위한 전략적 추진Apply AI 전략은 의료, 제약, 에너지, 모빌리티, 제조, 건설, 농식품, 방위, 통신, 문화 등 10개 전략 분야를 대상으로 하며, AI 기반 첨단 선별 센터를 설립하고 유럽의 요구에 맞춘 전문 AI 모델을 개발할 계획이다. 10억 유로의 투자는 Horizon Europe 및 Digital Europe Programme과 같은 기존 EU 프로그램에서 조달되며, 회원국과 민간 부문이 이에 상응하는 투자를 제공할 것으로 기대된다.유럽 기술 주권 담당 헨나 비르쿠넨 위원은 주권 측면을 강조하며 기업들이 "가능한 경우 EU 솔루션을 선호해야 한다"고 말했다. 이 전략은 브뤼셀에서 "AI 스택의 외부 의존성"이라고 부르는 문제를 다루며, 외국 AI 인프라에 대한 의존은 국가 및 비국가 행위자에 의해 "무기로 사용될 수 있다"고 경고하고 있다.현재 유럽 기업 중 AI를 사용하는 비율은 13%에 불과해 2030년까지 75% 도입 목표에 크게 못 미친다. 이 이니셔티브는 이 격차를 해소하고 미국 및 중국 AI 기술에 대한 유럽의 의존도를 줄이는 것을 목표로 한다.보완 과학 전략 출시산업 중심 전략과 함께, 위원회는 AI 과학 전략을 도입하여 RAISE(Resource for AI Science in Europe)를 설립했으며, 이는 과학 연구를 위한 유럽 AI 자원을 모으는 분산 가상 연구소입니다. 이 "AI를 위한 CERN" 개념은 유럽 전역의 기존 인프라와 계획된 AI 기가팩토리를 연결하며, 연구자들의 계산 접근성을 향상시키기 위해 Horizon Europe에서 6억 유로가 할당되었습니다.과학 전략에는 Horizon Europe의 연간 AI 투자를 30억 유로 이상으로 두 배로 늘리는 계획이 포함되어 있으며, 최고의 AI 인재를 유치하고 유지하기 위해 탁월성 네트워크 및 박사 과정 네트워크에 5,800만 유로를 제공합니다. 첫 번째 RAISE 행사는 2025년 11월 3일부터 4일까지 코펜하겐에서 개최될 예정입니다.거버넌스 및 실행 프레임워크이러한 노력을 조율하기 위해 위원회는 Apply AI Alliance를 출범시켜 산업 리더, 학계 및 시민 사회를 하나로 모으는 중앙 조정 포럼을 만들었습니다. AI 관측소는 AI 동향을 모니터링하고 대륙 전역의 부문별 영향을 평가할 것입니다.이번 발표는 2025년 4월 위원회의 AI 대륙 행동 계획에 기반하며, 프랑스 스타트업 Mistral AI가 최근 140억 달러의 기업 가치 평가에서 20억 달러의 자금 조달 라운드를 확보하는 등 유럽 AI 투자가 탄력을 받고 있는 시점에 나왔습니다. 위원회는 또한 세계 최초의 포괄적인 AI 법률의 원활한 시행을 보장하기 위해 AI 법률 서비스 데스크를 설립했습니다.
725 조회
0 추천
2025.10.09 등록
(퍼플렉시티가 정리한 기사)옥스퍼드 대학교와 구글 클라우드의 천문학자들이 과학자들이 우주 현상을 탐지하는 방식을 혁신할 수 있는 돌파구를 마련했습니다. 이들은 인공지능이 초신성이나 소행성 이동과 같은 천문 현상을 최소한의 훈련 데이터만으로도 놀라울 만큼 정확하게 식별할 수 있음을 증명했습니다.오늘자 Nature Astronomy에 게재된 연구에 따르면, 구글의 Gemini AI는 단 15장의 예시 이미지만을 사용해 실제 우주 현상과 오신호를 약 93%의 정확도로 구별할 수 있었습니다. 이는 고급 천문학 도구를 광범위한 기계 학습 전문 지식 없이도 연구자들이 이용할 수 있게 하는 데 있어 중요한 진전을 의미합니다.천문학적 데이터 폭증에 대응하기현대의 망원경은 밤마다 하늘에서 일어날 수 있는 잠재적 변화에 대해 수백만 건의 경고를 생성하지만, 대다수는 위성 흔적, 우주선 충돌 또는 기기 이상에 의해 발생한 "가짜" 신호입니다. 차세대 기구가 도입되면 이 문제는 더욱 심각해집니다. 다가오는 베라 C. 루빈 천문대는 매 24시간마다 약 20테라바이트의 데이터를 생성하고, 밤마다 최대 1,000만 건의 경고를 보내게 됩니다."몇 개의 예시와 명확한 텍스트 지침만으로도 이러한 정확도가 나온다는 것은 놀라운 일입니다,"라고 옥스퍼드 대학교 물리학과의 공동 책임 저자인 피오렌조 스토파 박사는 말했습니다. "이는 다양한 분야의 과학자들이 신경망 훈련에 대한 깊은 전문지식 없이도 분류기를 자신만의 방식으로 개발할 수 있게 해줍니다. 필요한 것은 오직 하나를 만들고자 하는 의지뿐입니다."연구팀은 Gemini를 ATLAS, MeerLICHT, Pan-STARRS라는 세 가지 주요 천문학 조사에 걸쳐 테스트했습니다. 전통적인 '블랙 박스' 머신러닝 시스템이 단순히 '실제' 혹은 '가짜' 분류만을 제공하는 것과 달리, Gemini는 모든 결정에 대해 일반 영어로 설명을 생성하여 인공지능의 추론 과정을 투명하고 신뢰성 있게 만들었습니다.단순 분류를 넘어서이 접근 방식을 돋보이게 하는 점은 AI가 스스로 신뢰 수준을 평가할 수 있다는 것입니다. 팀이 젬니(Gemini)에게 자신의 분류를 검토하도록 했을 때, 모델의 신뢰도가 정확성의 강력한 지표라는 사실을 발견했습니다. 즉, 일관성이 낮은 결과는 훨씬 더 오류가 있을 가능성이 높았습니다. 이러한 자기 평가 기능은 신뢰할 수 있는 '인간-중재' 워크플로우를 구현하여, 확신이 없는 사례를 인간 검토를 위해 자동으로 표시할 수 있습니다.이 피드백 메커니즘을 사용해, 팀은 한 데이터셋에서 모델의 성능을 약 93.4%에서 96.7%로 향상시켰습니다. AI의 설명을 검토한 12명의 천문학자 패널은 이 설명들이 매우 일관성 있고 유용하다고 평가했습니다."천문학에 대한 공식적인 교육은 없지만 이 연구는 매우 흥미롭습니다."라고 Google Cloud의 공동 저자 투란 불무스는 말했습니다. "이것은 범용 LLM이 과학적 발견을 민주화할 수 있음을 보여줍니다. 호기심이 있다면 누구나 전통적인 배경이 없는 분야에도 의미 있는 기여를 할 수 있게 해줍니다."옥스포드 대학 물리학과의 스티븐 스마트 교수는 실질적인 영향에 대해 강조했습니다. "저는 10년 넘게 하늘 조사에서 생성되는 데이터를 신속하게 처리하는 문제에 관여해 왔는데, 실제 사건과 잘못된 신호를 구분하는 일이 항상 어려웠습니다. LLM이 최소한의 안내로 소스를 인식하는 정확도는 과제-특화된 훈련 없이도 놀라웠어요. 만약 우리가 이 기술을 대규모로 적용할 수 있다면, 분야에 엄청난 변화를 가져올 수 있을 것입니다".팀은 이 기술이 과학 분야에서 자율적인 '에이전틱 어시스턴트'의 기반이 될 것으로 보고 있습니다. 이러한 에이전트는 여러 가지 데이터 소스를 통합하고, 자신의 신뢰 수준을 점검하며, 로봇 망원경에 후속 관측을 자동으로 요청하고, 가장 유망한 발견만 인간 과학자에게 보고할 수 있습니다.
733 조회
0 추천
2025.10.09 등록
(퍼플렉시티가 정리한 기사)구글 딥마인드(DeepMind)가 소프트웨어 취약점을 자동으로 감지하고 수정하는 인공지능 에이전트인 코드멘더(CodeMender)를 공개했습니다. 이는 기업들이 확대되는 공격 표면에 대응해야 하는 가운데, AI 기반 사이버보안 분야에서 중요한 진전을 의미합니다.10월 6일 발표된 코드멘더는 구글의 첨단 제미니 딥싱크(Gemini Deep Think) 모델을 활용하여 보안 결함을 자율적으로 식별하고, 근본 원인을 분석하며, 인간의 개입 없이 수정 방안을 생성합니다. 이 시스템은 이미 실제로도 성과를 보였으며, 내부 테스트 6개월 만에 450만 줄 이상의 코드를 포함하는 오픈소스 프로젝트에 72건의 보안 패치를 제출했습니다.대규모 자동화된 보안CodeMender는 반응적으로도, 그리고 선제적으로도 작동하여 새롭게 발견된 취약점을 즉시 패치하고, 기존 코드를 재작성하여 전체적인 보안 위험군을 제거합니다. 이 AI 에이전트는 정적 및 동적 분석, 퍼징, 차분 테스트, 심볼릭 리즈닝 등 포괄적인 분석 도구 세트를 활용하여 취약점의 근본 원인을 파악합니다.“고품질의 보안 패치를 자동으로 생성·적용함으로써, CodeMender의 AI 기반 에이전트는 개발자와 유지보수 담당자가 본연의 역할인 훌륭한 소프트웨어 구축에 집중할 수 있도록 돕습니다,”라고 Google DeepMind 연구원 Raluca Ada Popa와 Four Flynn은 말했습니다.이 시스템은 제안된 수정 사항이 회귀 문제나 기존 기능 손상을 유발하지 않도록, 사람의 리뷰 전 자동 검증 메커니즘이 내장되어 있습니다. 한 시연에서는, CodeMender가 2023년 제로 클릭 iOS 공격에 악용된 것과 동일한 libwebp 이미지 압축 라이브러리에 보안 어노테이션을 적용하여, 유사한 버퍼 오버플로 취약점을 영구적으로 예방할 가능성을 보였습니다.산업 환경 및 광범위한 이니셔티브이번 출시는 사이버 보안 전문가들이 AI가 생성한 코드가 사람이 작성한 코드보다 보안 취약성이 더 많다는 경고와 맞물려 이뤄졌습니다. 초기 연구에 따르면 AI 코딩 보조 도구를 사용하는 개발자는 80%의 경우 덜 안전한 코드를 작성하며, 본인의 코드가 안전하다고 믿을 가능성도 3.5배 더 높다고 합니다.구글은 동시에 AI 관련 보안 결함을 신고할 경우 최대 3만 달러의 보상을 제공하는 AI 취약점 보상 프로그램을 확대해 발표했으며, 자율 AI 에이전트 보안에 중점을 둔 Secure AI Framework 2.0 버전도 출시했습니다. 구글은 이전 AI 관련 취약점 보상 프로그램을 통해 43만 달러 이상을 지급한 바 있습니다.이 이니셔티브는 인공지능을 악의적으로 활용한 정교한 공격이 증가함에 따라, 구글이 AI를 방어적으로 활용하겠다는 더 넓은 전략을 반영합니다. 구글은 “AI를 활용해 보안과 안전을 강화하고, 이 기술이 방어자들에게 우위를 제공할 수 있도록 하겠다”고 밝혔습니다.
743 조회
0 추천
2025.10.09 등록
(퍼플렉시티가 정리한 기사)Google의는 Gemini 2.5 Computer Use 모델을 출시했습니다. 이 모델은 웹사이트를 탐색하고 인간 사용자처럼 디지털 인터페이스와 상호작용할 수 있는 정교한 AI 시스템입니다. 2025년 10월 7일에 출시된 이 전문화된 모델은 AI 자동화 분야에서 중요한 진전을 이루었으며, 빠르게 발전하는 브라우저 에이전트 시장에서 경쟁사들과의 경쟁을 촉진하고 있습니다.Computer Use 모델은 시각적 이해와 추론 역량을 활용하여 AI 에이전트가 버튼 클릭, 텍스트 입력, 페이지 스크롤, 양식 작성 등 복잡한 웹 작업을 수행할 수 있습니다. 기존의 구조화된 API에 의존하는 전통적인 자동화와 달리, 이 시스템은 그래픽 사용자 인터페이스(GUI)에서 작동하기 때문에 레이아웃이 바뀌는 동적 웹사이트 및 애플리케이션도 처리할 수 있습니다.구글의 인공지능 에이전트 경쟁에 대한 전략적 대응구글의 이번 발표 시점은 오픈AI의 ChatGPT 에이전트 개발과 Anthropic이 지난해 선보인 컴퓨터 사용 기능 이후에 이뤄진 것으로, 이들 흐름을 기반으로 한다. 경쟁사들은 전체 데스크톱 제어 기능을 제공하는 반면, 구글의 모델은 브라우저 기반 상호작용에 초점을 두고 있으며, 웹 탐색, 텍스트 입력, 드래그 앤 드롭 기능을 포함해 총 13가지의 개별 작업을 지원한다.구글의 접근 방식은 여러 웹 및 모바일 벤치마크에서 선도적인 대안들을 능가하는 우수한 성능과 낮은 지연 시간을 보여준다. Online-Mind2Web 벤치마크에서 Gemini 2.5 Computer Use는 76.7%의 정확도를 기록해 Claude Sonnet(61.9%)와 OpenAI(44.3%)를 앞섰다. 또한, WebVoyager 테스트에서도 79.9%의 성능을 보여 경쟁사들의 69.5% 및 61.0% 대비 뛰어난 결과를 나타냈다.이 모델은 Project Mariner와 검색 내 AI 모드 등 구글의 기존 제품에 이미 적용되고 있다. 내부 테스트 결과 역시 유망하며, 구글 결제팀은 본 모델이 과거 해결까지 수일이 걸렸던 실패 테스트 케이스 중 60% 이상을 해결했다고 보고했다.시장 영향 및 개발자 접근Google AI Studio와 Vertex AI를 통해 제공되는 Computer Use 모델은 Gemini 2.5 Pro와 유사한 토큰 기반 요금제를 따르며, 20만 토큰 미만의 프롬프트에 대해 입력 토큰 100만 개당 $1.25의 비용이 부과됩니다. 표준 Gemini 모델의 무료 요금제와 달리, Computer Use는 처음부터 유료 이용이 필요합니다.이 출시는 2023년 37억 달러 규모였고 2025년에는 73억 8천만 달러에 이를 것으로 예상되는 AI 에이전트 시장에서 경쟁을 더욱 치열하게 만듭니다. Google은 검색, Android, YouTube, Workspace 등 전방위적 생태계 통합을 통해 순수 AI 제공업체 대비 전략적 이점을 확보하고 있으며, 2025년 상반기에만 Google Workspace에서 23억 건 이상의 문서 상호작용이 이루어졌습니다.Google은 액션별 안전성 검토와 개발자 제어 등 다중 보호막을 도입해 무단 행위를 방지하는 등 안전을 최우선으로 하고 있습니다. 이 모델은 구매와 같은 민감한 행동에 대해 사용자 확인을 요구하며, 보안 침해 방지를 위한 보호 조치도 포함하고 있습니다.
768 조회
0 추천
2025.10.09 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입