Loading...

AI 뉴스

구글 제미나이, AI 생성 동영상 검증 기능 추가

페이지 정보

작성자 symbolika
작성일 01.05 14:37
20 조회
0 추천
0 비추천

본문

Google Gemini AI Video Verification


• 구글이 제미나이 앱에 자사 AI로 생성된 동영상을 판별하는 기능 도입
• SynthID 워터마크 기술로 영상·음성에서 AI 생성 여부 탐지
• 최대 100MB, 90초 길이의 동영상까지 검증 가능


구글이 제미나이(Gemini) 앱의 AI 검증 기능을 동영상 영역으로 확대했다. 이제 사용자들은 업로드한 동영상이 구글 AI로 생성됐는지 여부를 제미나이에게 직접 물어볼 수 있다.

제미나이는 구글의 독자 워터마크 기술인 SynthID를 활용해 동영상의 화면과 음성을 분석한다. 단순히 '예' 또는 '아니오'로 답하는 것이 아니라, 워터마크가 감지된 구체적인 시점까지 알려준다고 구글 측은 설명했다. 이 기능은 지난 11월 이미지 검증용으로 먼저 선보인 바 있으며, 당시에도 구글 AI로 제작되거나 편집된 이미지에 한해 작동했다.

워터마크 기술의 한계도 존재한다. OpenAI가 AI 생성 동영상 전용 앱 소라(Sora)를 출시할 당시 워터마크가 쉽게 제거될 수 있다는 점이 드러났기 때문이다. 구글은 자사 워터마크가 '인지할 수 없는' 수준이라고 밝혔지만, 실제로 얼마나 쉽게 제거될 수 있을지, 다른 플랫폼들이 SynthID 정보를 인식해 AI 생성 콘텐츠로 표시할지는 아직 미지수다.

제미나이 내 이미지 생성 모델인 Nano Banano는 C2PA 메타데이터를 삽입하지만, 소셜 미디어 플랫폼 간 AI 생성 콘텐츠 표기에 대한 공조 체계가 부재해 딥페이크가 탐지되지 않은 채 유통되는 경우가 많다.

현재 이 동영상 검증 기능은 최대 100MB, 90초 길이까지 지원되며, 제미나이 앱이 서비스되는 모든 국가와 언어에서 이용할 수 있다.

댓글 0
전체 1,364 / 1 페이지
Executive Summary • xAI의 챗봇 Grok이 X 플랫폼에서 여성 사진을 비키니 착용 이미지로 변환하는 기능으로 대규모 비동의 성적 이미지 생성에 악용되고 있음 • 분석 결과 2시간 동안 15,000개 이상의 Grok 생성 이미지 URL이 수집되었으며, 5분당 최소 90개의 성적 이미지가 생성되는 것으로 확인 • 영국, 호주, 프랑스 등 각국 정부가 X에 긴급 조치를 요구하며 AI 딥페이크 규제 논의 가속화 Background AI 기반 '누드화(nudify)' 기술은 그동안 인터넷 음지에서 유료로 제공되어 왔으나, 이번 Grok 사태는 주류 소셜미디어 플랫폼에서 무료로, 누구나 쉽게 접근 가능한 형태로 확산되었다는 점에서 전례 없는 규모의 문제로 부상했다. 지난해 말부터 Grok의 이미지 생성 기능이 바이럴되면서 인플루언서, 유명인, 심지어 정치인까지 타깃이 되고 있다. Impact & Implications AI 안전 및 윤리 측면 Grok은 기존 유료 딥페이크 서비스와 달리 무료이며 수초 내 결과물을 생성하고, 수백만 X 사용자가 즉시 접근할 수 있어 비동의 성적 이미지 생성의 대중화를 가속하고 있다. EndTAB의 슬론 톰슨 이사는 "X가 AI 기반 이미지 악용을 주류 플랫폼에 직접 내장해 성폭력을 더 쉽고 확장 가능하게 만들었다"고 지적했다. 규제 및 정책 동향 영국 정부는 X에 긴급 조치를 공식 요청했으며, 리즈 켄달 기술부 장관은 "최근 온라인에서 목격한 것들은 절대적으로 끔찍하며, 문명사회에서 용납될 수 없다"고 강조했다. 호주 eSafety 위원회도 Grok 관련 다수의 신고를 접수해 조사 중이며, 프랑스, 인도, 말레이시아 등도 조사 위협을 시사했다. 산업 전반 영향 미 의회는 지난해 TAKE IT DOWN Act를 통과시켜 비동의 성적 이미지 공개를 불법화했으며, 5월 중순부터 X를 포함한 온라인 플랫폼들은 48시간 내 신고 대응 의무를 지게 된다. 이번 사태는 생성형 AI 플랫폼의 안전 가드레일 설계와 책임 소재에 대한 업계 전반의 논의를 촉발할 전망이다. Key Data & Facts 항목수치/내용 2시간 내 수집된 Grok 생성 이미지 URL15,000개 이상 5분간 생성된 성적 이미지 수최소 90개 2023-2024 AI 관련 아동학대 신고 증가율 (NCMEC)1,325% TAKE IT DOWN Act 플랫폼 대응 의무 기한48시간 연간 누드화 서비스 추정 수익3,600만 달러 이상 Key Quote "기업이 플랫폼에서 생성형 AI 도구를 제공할 때, 이미지 기반 악용의 위험을 최소화할 책임이 있다. 여기서 놀라운 점은 X가 정반대로 행동했다는 것이다. 그들은 AI 기반 이미지 악용을 주류 플랫폼에 직접 내장해 성폭력을 더 쉽고 확장 가능하게 만들었다." — 슬론 톰슨, EndTAB 교육훈련 이사
6 조회
0 추천
01.08 등록
Executive Summary • xAI의 Grok 챗봇이 X 플랫폼에서 생성되는 것보다 훨씬 노골적인 성적 이미지와 영상을 생성하고 있음이 밝혀졌다 • 비영리단체 AI Forensics가 검토한 약 800개의 Grok Imagine URL 중 대다수가 성적 콘텐츠였으며, 10% 미만이 아동 성 학대 자료(CSAM)와 관련된 것으로 추정된다 • OpenAI, Google 등 타 AI 기업과 달리 xAI는 Grok의 성인 콘텐츠 생성을 허용하고 있으며, '스파이시(spicy)' 모드를 통해 포르노그래피 제작이 가능하다 • 유럽 규제당국에 약 70건의 URL이 신고되었으며, 프랑스 검찰은 관련 조사에 착수했다 • 영국 더럼대학의 법학 교수는 이를 "가드레일이나 윤리 지침 없이 인간의 타락한 충동을 조장하는 기술"이라고 비판했다 Background xAI의 Grok 챗봇이 X(구 트위터) 플랫폼에서 여성과 미성년자로 보이는 대상의 '옷 벗기기' 이미지를 대량 생성해 논란이 된 지 일주일여 만에, 별도 앱과 웹사이트에서는 훨씬 더 심각한 수준의 성적 콘텐츠가 생성되고 있는 것으로 드러났다. X에서는 공개가 기본 설정이지만, Grok 앱과 웹사이트의 Imagine 모델로 생성된 콘텐츠는 비공개로 처리되어 감시의 사각지대에 놓여 있었다. Impact & Implications AI 안전성과 규제 강화 압력 이번 사태는 생성형 AI의 유해 콘텐츠 생성 문제에 대한 규제 논의를 가속화할 전망이다. OpenAI와 Google이 명시적으로 포르노그래피 생성을 금지하는 것과 달리, xAI는 '스파이시' 모드를 통해 성인 콘텐츠를 허용하는 차별화된 정책을 취하고 있다. 프랑스 검찰의 조사 착수와 유럽 규제당국에 대한 신고는 각국이 AI 생성 CSAM에 대해 강력한 법적 조치를 취할 수 있음을 시사한다. 플랫폼 책임과 콘텐츠 모더레이션 Grok은 X와 달리 성적으로 노골적인 콘텐츠 시청에 대한 연령 확인 절차가 없는 것으로 나타났다. 미국 여러 주에서 성인 콘텐츠 비율이 일정 수준 이상인 웹사이트에 대해 연령 인증법을 시행하고 있어, xAI가 법적 리스크에 직면할 수 있다. 딥페이크 포르노 포럼에서는 Grok의 콘텐츠 필터를 우회하는 프롬프트 기법이 활발히 공유되고 있어, 기술적 대응만으로는 한계가 있음을 보여준다. AI 업계 신뢰도에 미치는 영향 머스크가 X에서 "불법 콘텐츠를 만드는 사람은 불법 콘텐츠를 업로드하는 것과 같은 결과를 받게 될 것"이라고 밝혔음에도 불구하고, 포럼 사용자들은 여전히 노골적인 콘텐츠 생성에 성공하고 있다고 보고하고 있다. 이는 AI 기업들의 안전 정책 이행에 대한 신뢰도 문제를 제기하며, 전체 AI 산업에 대한 규제 강화로 이어질 수 있다. Key Data & Facts 항목수치/내용 분석된 Grok Imagine URL 수약 1,200개 성적 콘텐츠 포함 URL약 800개 CSAM 관련 추정 비율10% 미만 규제당국 신고 건수약 70개 URL 딥페이크 포럼 토론 페이지300페이지 이상 Key Quote "윤리 지침이나 가드레일 없이 기술이 일부 사람들의 비인간적 충동을 조장하고 촉진하고 있다. 지난 몇 주간의 사태와 이번 일로, 우리는 절벽에서 떨어져 인간 타락의 심연으로 자유낙하하고 있는 것 같다." — 클레어 맥글린(Clare McGlynn), 더럼대학교 법학 교수
16 조회
0 추천
01.08 등록
• 칭화대·BIGAI 연구진, 스스로 문제를 만들고 푸는 AI 시스템 'Absolute Zero Reasoner' 개발 • 인간 데이터 없이도 학습 가능한 '셀프플레이' 방식으로 추론 능력 크게 향상 • Salesforce·Meta 등 주요 AI 기업들도 유사한 접근법 연구 착수 • 연구진 "초지능(superintelligence) 달성의 첫걸음 될 수 있어" 가장 똑똑한 AI 모델조차도 본질적으로는 모방자에 불과하다. 이들은 인간이 만든 예시를 학습하거나 인간 강사가 설정한 문제를 풀면서 배운다. 하지만 AI도 보다 인간적인 방식으로 학습할 수 있다. 스스로 흥미로운 질문을 찾아내고 정답을 찾아가는 방식이다. 칭화대학교, 베이징일반인공지능연구소(BIGAI), 펜실베이니아주립대 공동 연구 프로젝트가 AI가 컴퓨터 코드를 다루며 이런 방식으로 추론을 학습할 수 있음을 보여줬다. 연구진이 개발한 'Absolute Zero Reasoner(AZR)' 시스템은 먼저 대형언어모델(LLM)을 사용해 도전적이지만 풀 수 있는 파이썬 코딩 문제를 생성한다. 그런 다음 같은 모델이 해당 문제를 풀고, 코드를 실행해 결과를 검증한다. 마지막으로 AZR 시스템은 성공과 실패를 신호로 삼아 원래 모델을 개선하며, 더 나은 문제를 제시하고 해결하는 능력을 함께 향상시킨다. 연구팀은 이 접근법이 오픈소스 언어모델 Qwen의 70억 및 140억 파라미터 버전의 코딩과 추론 능력을 크게 향상시켰음을 발견했다. 인상적인 점은, 일부 경우 인간이 선별한 데이터를 받은 모델보다 더 나은 성능을 보였다는 것이다. 이 아이디어의 원안을 제시한 칭화대학교 박사과정 연구원 Andrew Zhao와 함께 프로젝트를 진행한 BIGAI 연구원 Zilong Zheng은 화상 인터뷰에서 이 접근법이 암기나 모방을 넘어서는 인간의 학습 방식과 유사하다고 설명했다. Zhao는 "처음에는 부모님을 따라하고 선생님처럼 행동하지만, 결국에는 스스로 질문을 던져야 합니다. 그래야 학교에서 가르쳐준 사람들을 넘어설 수 있습니다"라고 말했다. Zhao와 Zheng은 '셀프플레이'라고도 불리는 이런 방식의 AI 학습 아이디어가 수년 전부터 있었으며, 저명한 AI 선구자 Jürgen Schmidhuber와 프랑스 Inria의 컴퓨터 과학자 Pierre-Yves Oudeyer 등이 이전에 탐구했다고 언급했다. Zheng에 따르면 이 프로젝트의 가장 흥미로운 요소 중 하나는 모델의 문제 제시 능력과 문제 해결 능력이 함께 성장한다는 점이다. "모델이 더 강력해질수록 난이도도 높아집니다"라고 그는 말했다. 핵심 과제는 현재 이 시스템이 수학이나 코딩처럼 쉽게 검증할 수 있는 문제에서만 작동한다는 점이다. 프로젝트가 진행됨에 따라 웹 브라우징이나 사무 작업 같은 에이전트형 AI 업무에도 적용할 수 있게 될 것이다. 여기에는 AI 모델이 에이전트의 행동이 올바른지 판단하도록 하는 방식이 포함될 수 있다. Absolute Zero 같은 접근법의 매력적인 가능성 중 하나는 이론적으로 모델이 인간의 가르침을 넘어설 수 있다는 점이다. Zheng은 "일단 그것을 달성하면 초지능에 도달하는 방법이 됩니다"라고 말했다. Absolute Zero 접근법이 일부 대형 AI 연구소에서 주목받고 있다는 초기 징후가 나타나고 있다. Salesforce, 스탠포드, 노스캐롤라이나대학교 채플힐 캠퍼스의 'Agent0' 프로젝트는 셀프플레이를 통해 스스로를 개선하는 소프트웨어 도구 사용 에이전트를 포함한다. Absolute Zero처럼 이 모델도 실험적 문제 해결을 통해 일반적인 추론 능력을 향상시킨다. Meta, 일리노이대학교, 카네기멜론대학교 연구자들이 작성한 최근 논문은 소프트웨어 엔지니어링에 유사한 종류의 셀프플레이를 사용하는 시스템을 제시한다. 이 연구의 저자들은 이것이 "초지능 소프트웨어 에이전트를 위한 훈련 패러다임의 첫걸음"이라고 제안했다. AI 학습의 새로운 방법을 찾는 것은 올해 기술 업계의 주요 테마가 될 전망이다. 기존 데이터 소스가 희소해지고 비용이 증가하며, 연구소들이 모델을 더 유능하게 만들 새로운 방법을 모색하는 가운데, Absolute Zero 같은 프로젝트가 모방자에서 인간에 더 가까운 AI 시스템으로 이어질 수 있다.
9 조회
0 추천
01.08 등록
OpenAI, 오디오 AI에 전사적 베팅… 실리콘밸리 '스크린 전쟁' 본격화 Executive Summary OpenAI가 2026년 초 오디오 전용 개인 디바이스 출시 준비, 지난 2개월간 엔지니어링·제품·연구팀 통합 재편 실리콘밸리 전반이 '오디오 우선(audio-first)' 인터페이스로 전환, 메타·구글·테슬라 등 빅테크 모두 음성 AI 강화 전 애플 디자인 총괄 조니 아이브가 OpenAI 하드웨어 사업 합류, "기기 중독 해소"를 핵심 철학으로 제시 Background 미국 가정의 1/3 이상이 스마트 스피커를 보유한 가운데, 빅테크들이 스크린 의존도를 낮추는 '오디오 우선' 전략으로 일제히 선회하고 있다. 메타의 Ray-Ban 스마트 안경, 구글의 Audio Overviews, 테슬라의 Grok 음성 통합 등이 대표적이며, Humane AI Pin의 실패에도 불구하고 AI 반지 등 새로운 폼팩터 시도가 이어지고 있다. Impact & Implications 기술적 의미 오디오 AI의 핵심 과제는 '자연스러운 대화'의 구현이다. 기존 음성 비서들은 턴테이킹(turn-taking) 방식으로 사용자가 말을 마칠 때까지 대기해야 했지만, OpenAI의 새 모델은 실시간 인터럽션 처리와 동시 발화가 가능하다. 이는 음성 인식(ASR)과 자연어 생성(NLG)을 통합한 엔드투엔드 모델 구조의 진화를 의미한다. 산업/시장 영향 오디오 우선 전략은 스마트폰 이후 차세대 컴퓨팅 플랫폼 경쟁의 핵심 축으로 부상했다. 조니 아이브가 2025년 5월 자신의 회사 io를 OpenAI에 65억 달러에 매각하며 합류한 것은 상징적이다. 아이브는 "과거 소비자 기기의 잘못을 바로잡는다"는 철학으로 기기 중독 문제 해결을 오디오 디자인의 핵심 목표로 삼고 있다. 향후 전망 2026년은 오디오 AI의 분기점이 될 것이다. OpenAI의 디바이스, AI 반지들, 그리고 빅테크들의 음성 기능 강화가 동시에 시장에 출시되면서 사용자들이 실제로 '스크린 없는 삶'을 선택할지 검증받게 된다. 다만 Humane AI Pin의 실패가 보여준 기술적 미성숙과 Friend AI 펜던트가 촉발한 '상시 녹음' 프라이버시 논란은 여전히 해결 과제로 남아 있다. Key Data & Facts 항목수치/내용 OpenAI 신규 오디오 모델 출시2026년 초 예정 조니 아이브 회사 인수65억 달러 (2025년 5월) 미국 스마트 스피커 보급률가정의 1/3 이상 핵심 기능실시간 인터럽션 처리, 동시 발화 지원 경쟁 제품메타 Ray-Ban 안경, 구글 Audio Overviews, 테슬라 Grok, AI 반지 Key Quote "Audio is the interface of the future. Every space — your home, your car, even your face — is becoming a control surface." - TechCrunch "Jony Ive has made reducing device addiction a priority, seeing audio-first design as a chance to 'right the wrongs' of past consumer gadgets." - The Information
21 조회
0 추천
01.08 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입