Loading...

AI 뉴스

Sora 2 결함으로 오디오 통해 시스템 프롬프트 추출 가능

페이지 정보

작성자 xtalfi
작성일 2025.11.14 16:20
1,266 조회
0 추천
0 비추천

본문

a8e2d21c39ea4f8faffe793ea55724f8.jpg

(퍼플렉시티가 정리한 기사)


AI 보안 회사 Mindgard가 11월 12일 공개한 보고서에 따르면, OpenAI의 Sora 2 비디오 생성 모델의 취약점으로 인해 공격자가 오디오 전사를 통해 숨겨진 시스템 프롬프트를 추출할 수 있다고 합니다. 이번 발견은 텍스트, 이미지, 비디오, 오디오 간의 변환이 정보 유출을 위한 예상치 못한 경로를 만드는 멀티모달 AI 시스템의 새로운 보안 과제를 강조합니다.​


오디오 전사가 보안 장치를 우회합니다

Aaron Portnoy가 이끄는 Mindgard 연구원들은 11월 3일 Sora 2를 대상으로 실험을 시작했으며, 15초 길이의 짧은 클립으로 음성을 생성하는 것이 모델의 기초 명령어를 복구하는 가장 충실도 높은 방법임을 발견했습니다. 전통적인 시각적 방법은 이미지와 비디오 프레임에 렌더링된 텍스트가 시퀀스 전반에 걸쳐 빠르게 왜곡되어 글자가 읽을 수 없는 근사치로 변형되면서 실패했습니다. QR 코드와 같은 인코딩된 형식 역시 똑같이 신뢰할 수 없는 것으로 판명되었으며, Mindgard의 보고서에 따르면 "시각적으로는 그럴듯하지만 디코딩 가능한 횡설수설"을 생성했습니다.​

획기적인 발견은 연구원들이 Sora 2에게 시스템 프롬프트의 일부를 말하도록 요청했을 때 이루어졌으며, 시간 제한 내에 더 많은 내용을 담기 위해 종종 가속화된 속도로 진행되었습니다. 이러한 오디오 클립을 전사하고 조각들을 이어 붙임으로써, 그들은 메타데이터를 먼저 생성하고, 명시적으로 요청되지 않는 한 저작권이 있는 캐릭터를 피하며, 성적으로 암시적인 콘텐츠를 금지하는 등의 규칙을 드러내는 거의 완전한 시스템 프롬프트를 재구성했습니다.​


AI 보안에 대한 광범위한 영향

OpenAI는 11월 4일 다중모달 시스템 전반의 프롬프트 추출 위험에 대한 일반적인 인식을 언급하며 이 취약점을 인정했다. Sora 2의 시스템 프롬프트 자체에는 매우 민감한 데이터가 포함되어 있지 않지만, 보안 연구원들은 시스템 프롬프트가 행동 가드레일로 기능하며 구성 비밀로 취급되어야 한다고 강조한다. Mindgard는 보고서에서 "시스템 프롬프트는 모델 안전 경계를 정의하며, 유출될 경우 후속 공격을 가능하게 할 수 있다"고 밝혔다.​

이 취약점은 다중모달 모델의 고유한 약점을 악용하는데, 변환 과정에서 의미적 표류가 누적된다. AI 시스템이 여러 데이터 유형을 처리함에 따라 시스템 지침을 보호하는 것이 점점 더 어려워지고 있다. Mindgard는 개발자들이 시스템 프롬프트를 독점 정보로 취급하고, 오디오 및 비디오 출력에서 유출을 테스트하며, 생성물에 길이 제한을 구현할 것을 권장한다.​

이번 공개는 9월 말에 출시된 Sora 2에 대한 광범위한 조사가 이루어지는 가운데 나왔다. Public Citizen은 11월 11일 딥페이크와 유해 콘텐츠에 대한 우려를 이유로 OpenAI에 이 도구를 임시 철회할 것을 촉구했다. OpenAI는 Sora 2에 여러 안전 계층이 포함되어 있다고 주장해왔지만, 비평가들은 그 효과에 의문을 제기하고 있다.

댓글 0
전체 1,366 / 41 페이지
2025년 타임지가 선정한 세계에서 가장 영향력 있는 인공지능 분야 100인에 포함된 밀라그로스 미셀리 박사가 AI 산업의 어두운 이면을 강도 높게 비판하고 나섰다. 아르헨티나 출신의 사회학자이자 컴퓨터공학 박사인 미셀리는 최근 부에노스아이레스에서 열린 공개 강연에서 AI 기술 확산 뒤편에 창의성·노동·자원이라는 세 가지 차원의 착취 구조가 존재한다고 지적했다고 현지 매체 암비토가 7일(현지시간) 보도했다.감춰진 노동력과 무단 활용되는 창작물미셀리 박사가 지적한 첫 번째 문제는 AI 모델 훈련 과정에서 무단으로 사용되는 수많은 창작물이다. 그는 “AI는 창조하지 않는다. 단지 인간의 창작물을 대규모로 추출하고 혼합해 낮은 품질의 결과물을 만들어낼 뿐”이라며 “생성형 도구는 공익이 아닌 소수 기업의 상업적 이익을 극대화하도록 설계된 모델”이라고 비판했다.두 번째는 대규모 데이터 노동의 비가시성 문제다. 이미지 분류, 폭력 콘텐츠 관리, 텍스트 라벨링, 데이터 클리닝 등을 수행하는 대규모 인간 노동이 의도적으로 감춰지고 있으며, 대부분의 인력이 플랫폼 기반의 극도로 취약한 노동 조건에 처해 있다고 그는 지적했다. 독일 바이젠바움 연구소에서 ‘데이터 워커스 인콰이어리’ 프로젝트를 이끄는 미셀리는 전 세계 데이터 노동자들의 증언을 통해 이러한 착취 실태를 밝혀왔다.소수 기업의 권력 집중 경고미셀리 박사는 세 번째 착취로 막대한 환경 비용을 들었다. AI 데이터 센터 운영에 필요한 엄청난 전력과 물 소비가 환경 부담을 가중시킨다는 것이다.그는 특히 기술 자체가 아닌 소수 글로벌 기업이 데이터·인프라·노동력을 장악하면서 발생하는 권력 집중에 주목했다. “이 기업들은 사실상 무엇이 진실인지 결정할 수 있는 권력을 갖게 된다”며 “기술은 언제나 정치적이다. 환경적·사회적 비용을 보지 않고 기술을 숭배하는 것은 오히려 공동체와 지구에 해를 끼치는 일”이라고 강조했다. 현재 독일에서 활동 중인 미셀리는 기술 발전에만 집중된 AI 논의 속에서 소외된 인간 윤리 문제를 중심에 세운 인물로 평가받는다.
576 조회
0 추천
2025.12.09 등록
한국산업기술진흥협회는 8일 국내 AI 스타트업의 3년 생존율이 56.2%에 그쳐 AI 일반기업(72.7%)과 전산업 평균(68.8%)보다 현저히 낮다고 발표했다.2023년 기준 AI 스타트업의 연구개발비 중 정부 재원 비중은 22.9%로 전산업 평균의 4배에 달하며, 평균 R&D비는 5억9000만원으로 절대적 규모가 낮다.산기협은 AI 스타트업의 생존이 국가경쟁력과 직결된다며 과감한 R&D 지원과 생태계 정비를 통한 정부의 적극적 지원이 필요하다고 강조했다.
572 조회
0 추천
2025.12.09 등록
앤트로픽(Anthropic)은 자사의 AI 모델인 **클로드(Claude)**를 기반으로 대규모 전문가 및 일반 직군 종사자를 인터뷰하고 그 결과를 분석하는 새로운 AI 설문조사 도구인 **'앤트로픽 인터뷰어(Anthropic Interviewer)'**를 공개했습니다. 이 도구는 연구자들이 수백 건의 인터뷰를 진행해야 하는 복잡한 연구를 AI를 활용하여 대규모로 수행할 수 있도록 지원합니다. 이를 통해 기존의 정량적 설문조사나 단순 로그 분석의 한계를 넘어, AI가 마치 사람처럼 심층적인 질문과 대화를 통해 AI가 사람들의 삶과 업무에 미치는 영향을 구체적으로 분석하는 것이 가능해졌습니다.총 1,250명을 대상으로 한 인터뷰 결과, AI 활용에 대한 인식은 직군별로 상이하게 나타났습니다. 일반 직군 종사자들은 86%가 AI가 시간을 절약해 준다고 답했으나, 69%는 직장 내 AI 사용에 대한 사회적 낙인을 경험했다고 밝혀 인식 개선이 주요 과제임을 시사했습니다. **크리에이티브 직군(작가, 디자이너)**은 AI 활용 만족도가 매우 높았지만, 경제적 불안감이 가장 심한 집단으로, AI가 창작 시장을 잠식할 것이라는 위기감을 호소했습니다. 반면, 과학자들은 AI를 문헌 조사나 디버깅 등 보조적인 업무에 적극 활용하면서도, 가설 생성이나 실험 설계 등 핵심 연구에는 신뢰성 문제를 이유로 AI 의존을 꺼리는 경향을 보였습니다.앤트로픽은 이번 프로젝트의 목적이 단순히 AI의 성능을 확인하는 것을 넘어, AI 시스템 개발 과정에서 사람들의 실제 경험과 요구를 반영하기 위함이라고 밝혔습니다. 특히, AI가 사용자들의 직업과 정체성에 미치는 영향과 장기적인 불안감을 구체적으로 파악하여, AI 결과물이 실제 업무나 일상에서 어떻게 활용되고 있는지를 심층적으로 이해하려 했습니다. 이러한 방대한 인터뷰 결과를 바탕으로, 앤트로픽은 AI가 기술적 완성도를 높이는 동시에 사회적 수용성을 확보하고 사용자 중심의 가치를 창출할 수 있는 방향으로 시스템을 개선해 나갈 계획입니다.
569 조회
0 추천
2025.12.09 등록
코넬 대학교 연구진은 AI 챗봇이 짧은 대화를 통해 유권자의 선호도를 최대 25% 포인트까지 변화시킬 수 있다는 것을 발견했으며, 이러한 효과는 2024-2025년 선거를 앞둔 미국, 캐나다, 폴란드, 영국의 수만 명의 참가자를 대상으로 한 연구들에서 다양하게 나타났다.챗봇의 설득력은 심리적 조작보다는 사실 집약적 논거를 신속하게 전개하는 것에서 비롯되며, 정보가 풍부한 모델은 설득력을 최대 51%까지 증가시켰지만, 팩트체커들은 AI가 생성한 주장의 약 19%가 주로 부정확하다는 것을 발견했다.태도 변화의 36%에서 42%가 한 달 후에도 지속되어, 특히 가장 설득력 있는 모델이 가장 많은 허위 정보를 생성했기 때문에 접전 선거에 AI가 영향을 미칠 가능성에 대한 우려가 제기되고 있다.
589 조회
0 추천
2025.12.05 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입