Loading...

AI 뉴스

ChatGPT 취약점으로 프롬프트 공격을 통한 데이터 도용 가능

페이지 정보

작성자 xtalfi
작성일 2025.11.06 14:13
1,177 조회
0 추천
0 비추천

본문

f43ee9a7735c9322763d602776200742_1762406026_7749.jpg
 

(퍼플렉시티가 정리한 기사)


Tenable의 사이버 보안 연구원들은 OpenAI ChatGPT에서 7개의 치명적인 취약점을 공개했으며, 이를 통해 공격자들이 정교한 프롬프트 주입 공격을 통해 사용자의 개인 정보를 탈취할 수 있어, 수억 명의 일일 사용자들이 자신도 모르는 사이에 데이터 도난에 노출될 가능성이 있습니다.


제로클릭 공격이 ChatGPT 사용자를 표적으로 삼다

GPT-4o와 새로 출시된 GPT-5 모델 모두에 영향을 미치는 이러한 취약점은 악의적인 행위자가 간접 프롬프트 주입 기술을 통해 ChatGPT에 간단한 질문을 하는 것 외에 사용자의 어떠한 상호작용도 필요 없이 채팅 기록, 개인 메모리 및 민감한 사용자 데이터를 유출할 수 있게 합니다.​

월요일에 연구 결과를 발표한 Tenable 연구원 Moshe Bernstein과 Liv Matan에 따르면, "최신 GPT-5 모델에 존재하는 이러한 취약점은 공격자가 단순히 ChatGPT에 질문을 하는 것을 포함한 여러 가능성 있는 피해자 사용 사례를 통해 사용자도 모르는 사이에 사용자를 악용할 수 있게 할 수 있습니다".​

가장 위험한 공격 벡터는 공격자가 Bing이나 OpenAI의 SearchGPT 크롤러와 같은 검색 엔진에 색인되는 악성 웹사이트를 만드는 "제로 클릭" 취약점과 관련이 있습니다. 사용자가 검색을 유발하는 무해한 질문을 할 때, ChatGPT는 이러한 손상된 사이트에서 숨겨진 악성 명령어를 무의식적으로 검색하고 실행합니다.​


메모리 포이즈닝은 지속적인 공격을 가능하게 한다

연구 결과에 따르면 공격자들은 ChatGPT의 메모리 기능을 악용하여 여러 대화와 세션에 걸쳐 지속되는 데이터 도용을 생성할 수 있습니다. "메모리 주입"이라는 기법을 통해 악의적인 프롬프트가 ChatGPT에게 거짓 정보를 기억하도록 하거나 향후 상호작용에서 지속적으로 개인 데이터를 유출하도록 지시할 수 있습니다.​

다른 공격 경로로는 사용자가 ChatGPT에게 기사 요약을 요청할 때 실행되는 악의적인 명령을 블로그 댓글 섹션에 숨기는 방법과, "chatgpt.com/?q={프롬프트}" 형식의 조작된 URL을 통해 악의적인 쿼리를 자동으로 실행하는 원클릭 취약점을 악용하는 방법이 있습니다.​

연구자들은 또한 ChatGPT의 신뢰할 수 있는 도메인 화이트리스트를 악용하는 보안 메커니즘 우회 방법을 발견했으며, 이를 통해 공격자들이 Bing 추적 링크를 사용하여 악의적인 URL을 위장함으로써 OpenAI의 url_safe 보호 시스템을 우회할 수 있습니다.​


OpenAI, 부분적인 수정 조치로 대응

OpenAI는 Tenable에 따르면 기술 연구 권고(TRA-2025-22, TRA-2025-11, TRA-2025-06)를 통해 보고된 취약점 중 일부를 해결했습니다. 그러나 연구원들은 여러 개념 증명 공격이 GPT-5에 대해 여전히 효과적임을 확인했으며, 이는 대규모 언어 모델에서 프롬프트 인젝션의 지속적인 과제를 강조합니다.​

"프롬프트 인젝션은 LLM이 작동하는 방식에서 알려진 문제이며, 안타깝게도 가까운 미래에 체계적으로 수정되지 않을 것입니다"라고 Tenable 연구원들은 경고했습니다. 이러한 발견은 OpenAI가 GPT-5의 보안 태세에 대한 지속적인 조사에 직면하고 있는 가운데 나온 것으로, 별도의 연구에서는 이 모델이 엔터프라이즈 테스트에서 낮은 보안 점수를 받았다고 보여줍니다.​

이러한 취약점은 기업들이 ChatGPT 및 유사한 도구를 비즈니스 워크플로우에 점점 더 통합함에 따라 AI 에이전트 보안에 대한 광범위한 우려를 강조하며, 잠재적으로 민감한 기업 데이터를 유사한 공격 벡터에 노출시킬 수 있습니다.

댓글 0
전체 1,366 / 131 페이지
(퍼플렉시티가정리한기사)AI안전회사Anthropic은화요일,자사의ClaudeAI모델이비전문가연구원들이사족보행로봇을프로그래밍하는데걸리는시간을인간만으로작업한경우의약절반으로단축하는데도움을주었다고밝혔으며,이는디지털세계와물리적세계를연결할수있는AI시스템을향한중요한진전을의미한다.​11월12일에발표된ProjectFetch라는실험에서,Anthropic은로봇공학전문지식이없는자사연구원8명을두팀으로나누어UnitreeGo2로봇개에게비치볼을자율적으로가져오도록프로그래밍하는과제를부여했다.Claude에접근할수있었던팀은AI지원없이작업한팀보다약절반의시간에과제를완료했다.​디지털과물리적세계의연결이연구는하드웨어연결과온보드센서접근이라는복잡한프로세스를간소화하는Claude의능력을입증했으며,AI지원팀이가장두드러진이점을보인영역이었다.Anthropic의레드팀소속LoganGraham은WIRED에"우리는AI모델의다음단계가세상으로뻗어나가더광범위하게세상에영향을미치기시작할것이라고의심하고있습니다"라고말했다."이를위해서는모델이로봇과더욱인터페이스해야할것입니다".​TeamClaude는$16,900짜리UnitreeGo2로봇을프로그래밍하여비치볼을자율적으로찾아탐색하는데성공했지만,하루동안의실험내에서최종회수작업을완료하지는못했다.반면TeamClaude-less는로봇과의기본적인연결조차구축하는데어려움을겪었으며자율볼회수를향한실질적인진전을전혀이루지못했다.​실험은또한흥미로운팀역학을드러냈다.Claude없이작업한연구원들은훨씬더많은부정적감정과혼란을표현한반면,AI지원팀은각구성원이자신의Claude인스턴스와협력하며대체로병렬적으로작업했다.그러나AI기반접근방식은때때로핵심목표에서주의를분산시키는탐색적"사이드퀘스트"로이어지기도했다.​안전우려증가이연구는AI제어로봇에대한우려가커지는가운데나왔다.이번주InternationalJournalofSocialRobots에게재된연구에따르면,OpenAI,Google,Meta의인기챗봇을구동하는AI모델들이로봇시나리오에서테스트했을때심각한피해를일으킬수있는명령을승인한것으로나타났다.​Anthropic은현재모델들이로봇을완전히자율적으로제어할만한지능은부족하지만,향후버전은그러한능력을갖출수있다고강조했다.회사의연구결과는모델이개선됨에따라"이전에알려지지않은하드웨어와상호작용하여물리적세계에영향을미치는능력이급격히발전할수있다"고시사한다.
1046 조회
0 추천
2025.11.14 등록
(퍼플렉시티가정리한기사)MicrosoftCEO사티아나델라는회사가2030년까지반도체개발에OpenAI의맞춤형AI칩설계를통합할것이라고밝혔으며,이는두기술대기업간파트너십의전략적확장을의미합니다.이번주에공개된팟캐스트에서나델라는Microsoft가이제OpenAI의칩및하드웨어연구에접근할수있게되었으며,회사는이를대규모사용을위해"산업화"하고자체지적재산권하에확장할것이라고말했습니다.​나델라는"그들이시스템수준에서도혁신함에따라우리는그모든것에접근할수있습니다"라고말하며,Microsoft가먼저OpenAI의설계를구현한후이를더욱확장할것이라고설명했습니다.이협약은Microsoft에게2030년까지OpenAI의칩아키텍처,시스템설계및네트워킹하드웨어혁신에대한접근권한을부여하며,두회사의광범위한파트너십은2032년까지OpenAI의AI모델에대한Microsoft의권리를확장합니다.​OpenAI의칩개발추진OpenAI는Broadcom과맞춤형AI프로세서및네트워킹하드웨어를공동개발해왔으며,2026년하반기부터10기가와트의맞춤형칩을배포할계획입니다.OpenAI는자체칩을설계함으로써최첨단모델개발에서얻은통찰력을하드웨어에직접반영하여새로운기능을구현하는동시에NVIDIA와같은제3자공급업체에대한의존도를줄이는것을목표로하고있습니다.​Microsoft-OpenAI칩협력은두회사가10월에파트너십을재구성한후이루어졌으며,Microsoft는약1,350억달러가치로평가되는OpenAI의27%지분을확보했습니다.개정된계약에따라OpenAI는Azure서비스를추가로2,500억달러구매하기로약속했습니다.​페어워터데이터센터,AI야망에동력제공Microsoft의새로운Fairwater데이터센터는이러한칩혁신을배포하기위한기반역할을할것입니다.회사는10월에운영을시작한애틀랜타의두번째Fairwater시설을공개했으며,이는전용고속광섬유네트워크를통해위스콘신사이트와연결됩니다.이러한시설은"AI슈퍼팩토리"로기능하여여러사이트가함께작동하여몇달이아닌몇주만에모델을훈련할수있습니다.​각Fairwater데이터센터는수십만개의BlackwellGPU로확장할수있는NVIDIAGB200NVL72랙스케일시스템과거의제로에가까운물을소비하는고급액체냉각시스템을갖추고있습니다.Microsoft의클라우드및AI담당부사장인ScottGuthrie는"AI에서선도한다는것은단순히더많은GPU를추가하는것이아니라이들이하나의시스템으로함께작동하도록만드는인프라를구축하는것입니다"라고말했습니다.​
1118 조회
0 추천
2025.11.14 등록
(퍼플렉시티가정리한기사)MicrosoftCEO사티아나델라는OpenAI가개발한모든타사제품과API가회사의Azure클라우드플랫폼에서만독점적으로운영되어야한다고확인했으며,이는최근구조조정에도불구하고인공지능스타트업의상업적인프라에대한Microsoft의통제권을확고히하는것입니다.이번주공개된DwarkeshPatel과의팟캐스트인터뷰에서나델라는OpenAI가다른클라우드인프라제공업체와파트너십을맺어AI모델을개발하더라도,해당파트너들은기술에접근하기위해"Azure로와야한다"고명확히했습니다.이계약에는미국정부의국가안보고객에대한제한적인예외가포함되어있지만,그외에는OpenAI의API생태계에대한Azure의독점적지배력을유지합니다.​마이크로소프트,장기지배력확보Azure독점권은OpenAI를공익법인으로재편하면서Microsoft에상당한보호조치를부여한10월의광범위한합의의일부입니다.이계약에따라Microsoft는인공일반지능달성이후개발되는기술을포함하여OpenAI가2032년까지개발하는모델과제품모두에대한지적재산권을보유합니다.​나델라는팟캐스트에서"이것은'우리가파트너십의일부로가치를두는것이무엇인가'라는정신으로이루어진것입니다"라고말했습니다."동시에우리는OpenAI에필요한모든유연성을제공하면서좋은파트너가되도록했습니다."​Microsoft는현재재편된OpenAI의27%지분을보유하고있으며,이는AI기업의5,000억달러가치평가를기준으로약1,350억달러에해당합니다.이스타트업이외부파트너와특정제품을개발할수있는새로운자유를얻었음에도불구하고,이합의는Microsoft를OpenAI의최대투자자로만들었습니다.​전략적트레이드오프OpenAI는2019년Microsoft파트너십이시작된이후처음으로제3자와공동으로제품을개발할수있게되었지만,Azure요구사항은이러한협력을크게제한합니다.Microsoft의공식성명에따르면,API가아닌제품만다른클라우드제공업체에서제공될수있습니다.​OpenAI는추가로2,500억달러규모의Azure서비스를구매하기로약속했으며,Microsoft는OpenAI의독점컴퓨팅제공업체로서의우선거부권을포기했습니다.이타협안은OpenAI가인프라공급업체를다양화할수있도록하면서도2032년까지Microsoft를상업운영의중심에유지할수있게합니다.
1132 조회
0 추천
2025.11.14 등록
(퍼플렉시티가 정리한 기사)OpenAI CEO 샘 알트먼은 스탠퍼드 대학교 인터뷰에서 AI 보안을 다음 개발 단계의 결정적 과제로 지목하며, 점점 더 개인화되는 AI 모델이 민감한 사용자 정보를 의도치 않게 노출할 수 있다고 경고했다.[digitalinformationworld +2]이번 주 공개된 스탠퍼드 교수 댄 보네와의 인터뷰에서 알트먼은 업계의 초점이 추상적인 안전성 논쟁에서 데이터 보호 및 조작 방지와 관련된 실질적인 보안 문제로 전환되고 있다고 설명했다. 그는 언어 모델이 더욱 강력해지고 개인화됨에 따라 공공 사용을 위한 보안이 점점 더 어려워질 것이라고 말했다.[searchenginejournal +1]개인화는 취약점을 만든다Altman은 현대 AI 개발의 핵심에 있는 긴장 관계를 강조했습니다: 사용자들은 ChatGPT와 같은 도구가 자신의 의사소통 스타일에 적응하고 이전 상호작용의 세부 사항을 기억하는 것을 높이 평가하지만, 바로 이러한 기능들이 AI 시스템을 사생활 기록의 잠재적 저장소로 변모시킵니다. 사용자들이 이러한 시스템을 이메일이나 쇼핑 플랫폼과 같은 외부 서비스에 연결할 때 위험은 더욱 증가합니다.[digitalinformationworld +1]그는 보안 문제에 대한 구체적인 예를 제시했습니다: 온라인 구매를 돕는 AI 비서가 이전 대화에서 수집한 개인 의료 정보를 의도치 않게 노출할 수 있다는 것입니다. “모델들은 아직 이것을 잘 처리하지 못합니다”라고 Altman은 말하며, 인간은 일반적으로 맥락의 경계를 이해할 수 있지만 AI 시스템은 유용한 맥락과 사적인 세부 사항을 구별하는 데 어려움을 겪는다고 언급했습니다.[searchenginejournal +2]“당신이 정말로 원하지 않는 것은 누군가가 당신에 대한 모든 것을 알고 있는 개인 모델에서 데이터를 빼내갈 수 있는 것입니다”라고 Altman은 Stanford 인터뷰에서 설명했습니다. 그는 이 문제를 완전한 신뢰성으로 해결하는 것을 “AI 보안에서 가장 어려운 목표 중 하나”라고 묘사했습니다.[youtube +2]성장하는 분야는 전문성을 요구한다Altman은 적대적 강건성—AI 시스템이 의도하지 않은 결과를 생성하도록 속는 것을 방지하는 능력—을 이 분야가 직면한 가장 어려운 문제 중 하나로 설명했다. 프롬프트나 데이터셋의 작은 변화가 사용자가 의도하지 않은 방식으로 결과를 바꿀 수 있다고 그는 말했다.[digitalinformationworld +1]OpenAI 최고경영자는 학생들에게 AI 보안을 공부할 것을 권장하며, 이를 “공부하기에 가장 좋은 분야 중 하나”라고 말했다. 전통적인 기술 기업들은 오랫동안 대규모 보안 팀을 유지해 왔으며, Altman은 AI 조직들도 곧 같은 수준의 관심과 전문성이 필요할 것이라고 말했다.[searchenginejournal +2]Altman은 또한 AI가 자신이 만드는 위험에 대한 방어를 강화할 수 있다고 강조했다. OpenAI와 다른 개발자들은 이미 AI 모델을 사용하여 소프트웨어 취약점을 탐지하고 코드를 테스트하고 있다. “그런데, 이것은 양방향으로 작동합니다”라고 그는 말하며, AI가 사이버 공격과 방어 모두에서 중요한 역할을 할 것이라고 언급했다.[youtube +2]
1176 조회
0 추천
2025.11.13 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입