Loading...

AI 뉴스

크랙된 AI 해킹 도구가 2026년 사이버 공격을 촉진할 것으로 예상

페이지 정보

작성자 xtalfi
작성일 2025.11.23 17:40
748 조회
0 추천
0 비추천

본문

5bfb56478fc804c6e81be0e9345447f9_1763887113_6317.png
 

보안 연구원들은 이번 주 AI 기반 침투 테스트 도구의 크랙 버전이 2026년 사이버 범죄 포럼에서 확산될 것으로 예상되며, 이를 통해 공격자들이 전례 없는 속도로 취약점을 발견하고 악용할 수 있게 될 것이라는 강력한 경고를 발표했습니다. 목요일에 게시된 이 경고는 정당한 보안 도구가 Cobalt Strike와 유사하게 무기화될 수 있다는 우려가 커지고 있음을 강조하며, 이는 위협 행위자들이 공격 일정을 며칠에서 몇 분으로 단축할 수 있게 할 가능성이 있습니다.


AI 도구가 인간 해커를 앞지르다

AI 기반 침투 테스트 플랫폼은 취약점 발견에서 인간 보안 전문가를 능가하는 능력을 입증했습니다. 주요 버그 바운티 플랫폼에서 1위를 차지한 Xbow 도구는 주요 시스템 전반에 걸쳐 원격 코드 실행 및 SQL 인젝션 취약점을 포함한 수많은 보안 결함을 발견했습니다. ReliaQuest 위협 연구원에 따르면 온라인 포럼의 증거는 사이버 범죄자들이 이미 불법 AI 도구를 구축하기 위해 개발자를 모집하고 있음을 나타냅니다.

크랙 버전이 온라인에 등장한 후 광범위하게 악용된 합법적인 레드팀 도구인 Cobalt Strike가 설정한 선례는 이러한 신흥 AI 제품에 대해 유사한 궤적을 시사합니다. 연구원들은 크랙 복사본을 통해 고급 AI 도구가 널리 사용 가능해지면 공격이 빠르게 전개될 수 있다고 경고합니다. 최근 데이터에 따르면 랜섬웨어 서비스형(ransomware-as-a-service) 그룹이 AI 기반 기능을 통합함에 따라 공격자의 “탈출 시간”은 이미 2024년 48분에서 2025년 중반 단 18분으로 급감했습니다.


코드 보안 우려 증가

이러한 위협들이 가중되는 가운데, 연구에 따르면 AI가 생성한 코드의 최대 45%가 보안 취약점을 포함하고 있는 것으로 나타났습니다. 80개의 코딩 작업에 걸쳐 100개 이상의 대규모 언어 모델을 분석한 Veracode 연구에서는 안전한 방법과 안전하지 않은 방법 중 선택해야 할 때 AI 모델이 45%의 경우에 안전하지 않은 옵션을 선택한 것으로 밝혀졌습니다. Java는 72%의 보안 실패율로 가장 높은 위험도를 보였으며, Python, C# 및 JavaScript는 38-45%의 실패율을 나타냈습니다.

보안 전문가들은 또한 오픈소스 소프트웨어에 대한 위험이 증가하고 있다고 경고했는데, 약 1,200만 개에 달하는 프로젝트 중 절반 이상이 단일 자원봉사자에 의해 관리되고 있습니다. 2025년의 주목할 만한 사건들에서는 유지관리자들이 피싱 사기의 희생양이 되어 범죄자들이 널리 사용되는 리포지토리에 악성 코드를 게시할 수 있게 되었으며, 이는 수백 개의 애플리케이션과 수백만 명의 사용자에게 잠재적으로 영향을 미쳤습니다.

이러한 경고는 Qilin, Akira, DragonForce를 포함한 랜섬웨어 그룹들이 운영을 강화하는 가운데 나왔으며, 일부는 시끄럽고 공격적인 전술을 수용하는 반면 다른 그룹들은 법 집행 기관의 개입을 피하기 위해 은밀한 접근 방식을 유지하고 있습니다.

댓글 0
전체 1,366 / 25 페이지
MIT연구진은생성형AI를이용해에세이를쓸때인지처리와관련된뇌활동이줄어들고내용기억력도감퇴한다는연구결과를발표했습니다.뇌파검사결과AI도구에의존할수록뇌의활동량이적게나타났으며,이는학습능력감소로이어질수있다는우려를낳고있습니다.카네기멜론대와마이크로소프트의연구에따르면AI에대한신뢰도가높을수록사용자가비판적사고에들이는노력은오히려감소하는경향을보였습니다.이러한현상은업무효율을높일수는있지만,장기적으로는독립적인문제해결능력을약화시키고AI에과도하게의존하게만드는부작용을초래할수있습니다.전문가들은AI를무조건배척하기보다사용자가명확한목표를가지고결과물을직접검증하며비판적으로관여해야한다고강조합니다.AI가제공하는정보의추론방식과데이터처리과정을이해함으로써스스로정보에근거한결정을내리는능력을유지하는것이중요합니다.
391 조회
0 추천
2025.12.21 등록
철학자 Matthew Harris는 의식이 본질적으로 기질 의존적(substrate-dependent)이라고 주장한다—즉, 어떤 매체에서든 복제될 수 있는 계산적 패턴이라기보다는 특정한 생물학적 물질과 진화적 역사로부터 발생한다는 것이다.Harris는 인간의 의식이 호르몬 시스템, 감각 통합, 그리고 결정적으로 생각을 자아와 구별되는 것으로 인식할 수 있게 하는 메타인지적 자기 참조를 포함한 진화된 생물학적 과정들로부터 출현하며, 이는 AI에 의한 기능적 모방을 실제 주관적 경험과 근본적으로 다르게 만든다고 주장한다.이 논쟁은 심화되는 학계의 분열을 반영하고 있으며, Anil Seth와 같은 신경과학자들은 생물학적 기질에 연결된 체화된 예측적 처리를 강조하는 반면, David Chalmers와 같은 기능주의자들은 의식이 기질 독립적이라고 주장하고 있다. 연구자들은 급속한 AI 발전 속에서 의식에 대한 이해가 시급해졌다고 경고하고 있다.
394 조회
0 추천
2025.12.21 등록
OpenAI는 이번 주에 ChatGPT 사용자가 AI 어시스턴트의 대화 스타일을 미세 조정할 수 있는 새로운 맞춤화 기능을 출시했습니다. 여기에는 따뜻함, 열정, 이모지 사용에 대한 조정이 포함됩니다. 앱의 개인화 설정을 통해 사용할 수 있는 이 컨트롤은 사용자가 자신의 선호도에 맞게 상호작용을 조정할 수 있도록 하는 회사의 최신 노력을 나타냅니다.이번 업데이트를 통해 사용자는 특정 특성을 “더 많이” 또는 “더 적게” 원하는지 선택하거나 표준 기본 설정을 유지할 수 있습니다. 사용자는 또한 ChatGPT가 헤더나 목록과 같은 서식 요소를 응답에 얼마나 자주 포함하는지 제어할 수 있습니다. 새로운 기능에 액세스하려면 사용자는 메뉴로 이동하여 프로필을 선택한 다음 개인화를 선택하고 “특성 추가”를 선택합니다.향상된 이메일 작성 기능성격 제어 기능과 함께 OpenAI는 채팅 인터페이스 내에서 이메일 작성 기능을 개선했습니다. 이제 사용자는 텍스트의 특정 부분을 강조 표시하고 별도의 프롬프트를 통해 어시스턴트를 안내할 필요 없이 AI 기반 변경 사항을 직접 요청할 수 있습니다. 이 기능은 사용자가 이메일 클라이언트로 초안을 내보내기 전에 ChatGPT 내에서 이메일 텍스트를 업데이트하고 서식을 지정할 수 있는 작성 블록을 도입합니다.맥락과 경쟁개인화 기능은 OpenAI가 2025년 11월 GPT-5.1을 출시하면서 “전문적,” “친근한,” “독특한”과 같은 옵션과 함께 도입한 성격 프리셋에 대한 초기 작업을 기반으로 합니다. 11월 업데이트에서는 이전 버전이 너무 형식적이라는 사용자 피드백에 따라 모델의 기본 톤을 더 따뜻하고 대화적으로 만들었습니다.이번 출시 시점은 OpenAI가 Google 및 Anthropic과 같은 경쟁사들로부터 치열한 경쟁에 직면하고 있는 시기와 맞물려 있으며, 이로 인해 CEO Sam Altman은 이달 초 “코드 레드”를 선언하고 ChatGPT 개선을 위해 자원을 재배치했습니다. 회사는 최근 Google의 Gemini 3에 대응하기 위해 12월 11일 GPT-5.2를 출시했습니다.
435 조회
0 추천
2025.12.21 등록
이번 주에 발표된 획기적인 연구에 따르면, 기술이 빠르게 발전하고 있음에도 불구하고 ChatGPT와 같은 인공지능 시스템은 인간의 글쓰기를 완전히 모방할 수 없는 것으로 드러났다. 인지 능력에 대한 AI의 영향에 대한 우려가 커지는 가운데 발표된 이 연구는, AI가 생성한 산문이 인간 작가와 구별되는 고유한 “스타일 지문(stylistic fingerprint)”을 지니고 있음을 보여준다.유니버시티 칼리지 코크의 제임스 오설리번(Dr. James O’Sullivan)이 이끄는 이번 연구는, 전통적으로 필자 식별에 사용되던 계산 기반 방법인 문체 통계 분석(literary stylometry)을 인간과 AI의 창작 글쓰기를 체계적으로 비교하는 데 처음으로 적용한 사례다. 수백 편의 단편소설을 분석한 결과, 연구진은 AI가 매끄럽고 유창한 문장을 생성하긴 하지만, 매우 좁고 균질한 패턴을 따른다는 사실을 발견했다. 이에 반해 인간 작가들은 개인적 목소리, 창작 의도, 개별적 경험에 의해 형성된 훨씬 더 넓은 문체적 스펙트럼을 보여준다.오설리번은 “ChatGPT가 인간처럼 들리려고 할 때조차 그 글에는 여전히 탐지 가능한 지문이 남아 있으며, 이는 컴퓨터와 사람이 아직은 완전히 같은 스타일로 글을 쓰지 않는다는 점을 시사한다”고 말했다. 네이처(Nature)의 『Humanities and Social Sciences Communications』에 실린 이번 연구 결과에 따르면, GPT-3.5, GPT-4, Llama 70B를 포함한 AI 시스템이 생성한 텍스트는 균질한 패턴을 반영하는 촘촘한 군집으로 모이는 반면, 인간이 쓴 텍스트는 훨씬 더 큰 변이와 개성을 드러낸다.인지 영향에 대한 우려 증가스타일로메트리 연구 결과는 AI가 인간 인지에 미치는 영향에 대한 우려스러운 연구들과 함께 제시되고 있다. 매사추세츠 공과대학교(MIT)가 6월에 발표한 한 연구는 54명의 참가자를 대상으로, 에세이를 작성할 때 ChatGPT, 구글 검색, 혹은 어떠한 도움 없이 쓰도록 나누어 살펴보았다. 뇌 스캔 결과, ChatGPT를 사용한 참가자들은 신경 연결성이 가장 약하게 나타났고, 자신이 쓴 글을 기억하는 데 어려움을 겪었다. ChatGPT 사용자 중 83%가 자신의 에세이를 정확히 인용하지 못한 반면, 독립적으로 작성한 그룹에서는 그 비율이 11%에 불과했다.MIT 연구진은 이 현상을 “인지 부채(cognitive debt)“라고 명명하며, 단기적인 편의를 위해 미래의 인지 능력을 선(先)차입하는 것이라고 설명했다. 뇌만 활용한(도구를 사용하지 않은) 그룹은 창의성, 기억력, 의미 처리와 연관된 주파수 대역에서 가장 강한 신경 네트워크를 보여주었다.카네기멜론대학교와 마이크로소프트의 별도 연구에서는 319명의 지식 노동자를 대상으로 설문을 진행한 결과, AI 능력에 대한 신뢰도가 높을수록 비판적 사고 노력은 감소하는 경향이 있다는 사실을 밝혀냈다. 이 연구는 실제 AI 보조 과제 936건을 분석했으며, 생성형 AI가 효율성을 높여 주는 동시에 비판적 개입을 약화시키고 독립적인 문제 해결 능력을 떨어뜨릴 수 있다고 결론지었다.학생들의 우려가 고조되다옥스퍼드 대학 출판부(Oxford University Press)가 13-18세 영국 학생 2,000명을 대상으로 실시한 설문조사에 따르면, 80%가 학업에 AI를 정기적으로 사용하지만, 62%는 AI가 자신의 기술 개발에 부정적인 영향을 미친다고 생각하는 것으로 나타났다. 학생 4명 중 1명은 AI가 “스스로 과제를 수행하지 않고도 답을 찾는 것을 너무 쉽게 만든다”고 답했으며, 12%는 AI가 창의적 사고를 제한한다고 보고했다.광범위한 도입에도 불구하고, 학생들은 지침을 요구하고 있다. 옥스퍼드 보고서의 공동 저자인 에리카 갈레아(Erika Galea)는 “오늘날의 학생들은 기계와 함께 사고하기 시작하고 있습니다. 아이디어를 처리하는 데 유창함과 속도를 얻고 있지만, 때때로 멈추고, 질문하고, 독립적으로 사고하는 것에서 오는 깊이를 잃고 있습니다”라고 말했다.
399 조회
0 추천
2025.12.21 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입