Loading...

AI 뉴스

크랙된 AI 해킹 도구가 2026년 사이버 공격을 촉진할 것으로 예상

페이지 정보

작성자 xtalfi
작성일 2025.11.23 17:40
608 조회
0 추천
0 비추천

본문

5bfb56478fc804c6e81be0e9345447f9_1763887113_6317.png
 

보안 연구원들은 이번 주 AI 기반 침투 테스트 도구의 크랙 버전이 2026년 사이버 범죄 포럼에서 확산될 것으로 예상되며, 이를 통해 공격자들이 전례 없는 속도로 취약점을 발견하고 악용할 수 있게 될 것이라는 강력한 경고를 발표했습니다. 목요일에 게시된 이 경고는 정당한 보안 도구가 Cobalt Strike와 유사하게 무기화될 수 있다는 우려가 커지고 있음을 강조하며, 이는 위협 행위자들이 공격 일정을 며칠에서 몇 분으로 단축할 수 있게 할 가능성이 있습니다.


AI 도구가 인간 해커를 앞지르다

AI 기반 침투 테스트 플랫폼은 취약점 발견에서 인간 보안 전문가를 능가하는 능력을 입증했습니다. 주요 버그 바운티 플랫폼에서 1위를 차지한 Xbow 도구는 주요 시스템 전반에 걸쳐 원격 코드 실행 및 SQL 인젝션 취약점을 포함한 수많은 보안 결함을 발견했습니다. ReliaQuest 위협 연구원에 따르면 온라인 포럼의 증거는 사이버 범죄자들이 이미 불법 AI 도구를 구축하기 위해 개발자를 모집하고 있음을 나타냅니다.

크랙 버전이 온라인에 등장한 후 광범위하게 악용된 합법적인 레드팀 도구인 Cobalt Strike가 설정한 선례는 이러한 신흥 AI 제품에 대해 유사한 궤적을 시사합니다. 연구원들은 크랙 복사본을 통해 고급 AI 도구가 널리 사용 가능해지면 공격이 빠르게 전개될 수 있다고 경고합니다. 최근 데이터에 따르면 랜섬웨어 서비스형(ransomware-as-a-service) 그룹이 AI 기반 기능을 통합함에 따라 공격자의 “탈출 시간”은 이미 2024년 48분에서 2025년 중반 단 18분으로 급감했습니다.


코드 보안 우려 증가

이러한 위협들이 가중되는 가운데, 연구에 따르면 AI가 생성한 코드의 최대 45%가 보안 취약점을 포함하고 있는 것으로 나타났습니다. 80개의 코딩 작업에 걸쳐 100개 이상의 대규모 언어 모델을 분석한 Veracode 연구에서는 안전한 방법과 안전하지 않은 방법 중 선택해야 할 때 AI 모델이 45%의 경우에 안전하지 않은 옵션을 선택한 것으로 밝혀졌습니다. Java는 72%의 보안 실패율로 가장 높은 위험도를 보였으며, Python, C# 및 JavaScript는 38-45%의 실패율을 나타냈습니다.

보안 전문가들은 또한 오픈소스 소프트웨어에 대한 위험이 증가하고 있다고 경고했는데, 약 1,200만 개에 달하는 프로젝트 중 절반 이상이 단일 자원봉사자에 의해 관리되고 있습니다. 2025년의 주목할 만한 사건들에서는 유지관리자들이 피싱 사기의 희생양이 되어 범죄자들이 널리 사용되는 리포지토리에 악성 코드를 게시할 수 있게 되었으며, 이는 수백 개의 애플리케이션과 수백만 명의 사용자에게 잠재적으로 영향을 미쳤습니다.

이러한 경고는 Qilin, Akira, DragonForce를 포함한 랜섬웨어 그룹들이 운영을 강화하는 가운데 나왔으며, 일부는 시끄럽고 공격적인 전술을 수용하는 반면 다른 그룹들은 법 집행 기관의 개입을 피하기 위해 은밀한 접근 방식을 유지하고 있습니다.

댓글 0
전체 1,366 / 71 페이지
Matthew Harris는 AI 개발이 순수한 스케일링에서 벗어나 토큰당 비용을 우선시하는 효율성 중심 아키텍처로 전환되고 있으며, 하이브리드 어텐션 메커니즘이 전통적인 단일 어텐션 접근 방식을 대체하고 있다고 주장합니다.Qwen3 Next와 Kimi Linear 같은 모델은 Gated DeltaNet을 전체 어텐션 블록과 3:1 비율로 사용하여 메모리 및 KV-캐시 사용량을 최대 75%까지 줄이면서 수십만 토큰의 컨텍스트 윈도우를 가능하게 합니다.이러한 아키텍처 변화는 AI 토큰 비용이 1년 만에 백만 토큰당 $10에서 $2.50로 75% 하락한 것을 보여주는 광범위한 업계 트렌드와 일치하며, 이는 모델 효율성을 최적화하려는 경쟁 압력에 의해 주도되었습니다.
599 조회
0 추천
2025.11.23 등록
콘텐츠 크리에이터 Matthew Berman은 절차적으로 생성된 복셀 아트 로봇부터 레이 트레이싱 시뮬레이터, 중력 기반 태양계, 골프 스윙 분석기까지—대화형 프롬프트를 사용하여 12개 이상의 인터랙티브 애플리케이션을 구축함으로써 Gemini 3의 코딩 역량을 시연했다.실험 결과 이 모델은 비교적 적은 프롬프트로 기능적이고 물리적으로 정확한 애플리케이션을 생성할 수 있으며, 협상이 가능한 AI 상대가 있는 모노폴리 보드 게임 생성기와 경제 데이터를 분석하여 AI 버블 위험을 평가하는 버블 시뮬레이션을 포함한다.Gemini 3는 2025년 11월 17일에 출시되었으며, Google이 설명하는 최첨단 멀티모달 추론과 프레임별 비디오 분석 기능을 갖추고 있다—Berman은 골프 스윙 분석기에서 이 기능을 활용하여 개별 비디오 프레임에 걸쳐 성능을 수집하고 평가했다.
571 조회
0 추천
2025.11.23 등록
Figure AI는 390억 달러 가치의 휴머노이드 로봇 스타트업으로, 회사의 로봇이 인간의 두개골을 골절시킬 수 있고 작업자에게 심각한 부상 위험을 초래한다고 경영진에게 경고한 후 해고되었다고 주장하는 전 제품 안전 책임자로부터 연방 소송에 직면해 있습니다.아마존과 그 로봇 부서에서 6년 이상의 경력을 가진 로봇 안전 엔지니어인 Robert Gruendel은 금요일 캘리포니아 북부 지방 연방 지방법원에 소송을 제기했습니다. 고소장은 그가 회사의 휴머노이드 로봇에 대한 “가장 직접적이고 문서화된 안전 불만”을 제기한 지 며칠 후인 9월에 해고되었다고 주장합니다.소송에 따르면, Gruendel은 7월에 충격 테스트를 실시했으며, 로봇이 “초인적인 속도”로 움직이고 “통증 역치의 20배”에 달하는 힘을 발생시킨다는 사실을 발견했습니다. 이는 성인 인간의 두개골을 골절시키는 데 필요한 힘의 두 배 이상입니다. 소송은 또한 오작동하는 로봇이 직원이 근처에 서 있는 동안 “강철 냉장고 문에 ¼인치 깊이의 상처를 새긴” 사건을 설명합니다.안전 계획 하향 조정 의혹소송은 Gruendel이 두 주요 투자자로부터 투자를 확보하는 데 도움이 된 포괄적인 안전 로드맵을 개발했지만, 자금 조달 라운드가 종료된 후 회사 경영진에 의해 이 계획이 “무용지물이 되었다”고 주장합니다. Gruendel은 이것이 “사기로 해석될 수 있다”고 경영진에게 경고한 것으로 알려졌습니다.고소장은 또한 Gruendel이 CEO Brett Adcock과 수석 엔지니어 Kyle Edelberg에게 보낸 메시지에서 로봇의 능력에 대한 우려를 제기했을 때, 그의 경고가 무시되었다고 주장합니다. 소송에 따르면, Gruendel의 안전 지침은 “의무가 아닌 장애물”로 취급되었으며, 그는 해고되기 전에 회사가 “모호한 ‘사업 방향 전환’“을 겪고 있다는 말을 들었습니다.회사, 주장 부인Figure AI는 혐의를 부인하며 CNBC에 Gruendel이 “낮은 업무 성과로 해고되었다”고 밝혔고, 그의 주장은 “Figure가 법정에서 철저히 반박할 허위 사실”이라고 말했다. 회사 대변인은 추가 논평 요청에 즉각 응답하지 않았다.이 소송은 Figure가 9월에 Parkway Venture Capital이 주도하고 Nvidia, Microsoft, Intel Capital 및 기타 주요 투자자들이 참여한 10억 달러 규모의 시리즈 C 펀딩 라운드를 완료한 지 두 달 후에 제기되었다. 이번 라운드는 산호세 소재 회사의 기업 가치를 390억 달러로 평가했으며, 이는 Jeff Bezos, Nvidia, Microsoft로부터 투자를 받았던 2024년 초 기업 가치 대비 15배 증가한 것이다.Gruendel의 변호사는 CNBC에 캘리포니아 법이 안전하지 않은 관행을 보고하는 직원을 보호한다고 말하며, 이것이 휴머노이드 로봇 안전과 관련된 최초의 내부고발 소송 중 하나가 될 수 있다고 언급했다. Gruendel은 배심원 재판과 함께 경제적, 보상적, 징벌적 손해배상을 요구하고 있다.
584 조회
0 추천
2025.11.23 등록
Linus Tech Tips는 딥페이크 기술이 지난 5년 동안 제작이 훨씬 쉬워지고 더욱 그럴듯해졌음을 보여주며, 이 기술이 취약 계층을 노린 사기 등에 악용될 수 있다는 시급한 우려를 제기합니다.팀은 DeepFaceLab을 사용하여 라이너스 세바스찬의 얼굴 사진 7,000장으로 훈련된 딥페이크를 매우 그럴듯하게 제작했으며, 이 과정은 5년 전 시도에 비해 “적어도 100배는 더 쉬웠다”고 밝히기도 했습니다. 또한 일반 하드웨어와 상업용 도구만으로 완전히 AI 기반의 영상을 만들어냈습니다.2024년 전 세계 온라인 사기 피해액은 1조 달러를 넘어섰고, 북미 지역의 딥페이크 사기 사례는 2022년부터 2023년까지 1,740% 급증했으며, 이 영상은 시청자들이 이러한 빠르게 증가하는 위협을 인식하고 피할 수 있도록 돕는 것을 목표로 합니다.
571 조회
0 추천
2025.11.23 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입