AI 뉴스

OpenAI, 2천만 건의 ChatGPT 로그 공개 명령 철회 요청

페이지 정보

작성자 xtalfi
작성일 2025.11.13 14:52
1,460 조회
0 추천
0 비추천

본문

2245609466_dvdkmi.jpg

(퍼플렉시티가 정리한 기사)


OpenAI는 수요일 연방 판사에게 2천만 건의 익명화된 ChatGPT 대화 로그를 뉴욕 타임스에 제출하도록 요구하는 명령을 번복해 달라고 요청하며, 이러한 공개가 사용자 프라이버시를 침해하고 AI 소송에 "위험한 선례"를 남길 것이라고 주장했습니다. 이러한 움직임은 신문사와 다른 언론사들이 제기한 저작권 침해 소송에서 대화 기록을 제출해야 하는 금요일 마감일을 앞두고 나온 것입니다.​

OpenAI가 지지를 호소하는 공개 성명에서 강조하지 않은 것은 Ona Wang 치안판사가 이미 11월 7일 OpenAI에 불리한 판결을 내렸으며, OpenAI가 로그를 제출하는 것이 "적절하다"고 판단했다는 점입니다. 판사는 기존 보호 명령과 OpenAI의 "철저한 비식별화" 프로세스를 통해 사용자 프라이버시가 충분히 보호된다고 판단했습니다.​


프라이버시 주장이 증거개시 명령과 충돌하다

수요일에 게시된 블로그 포스트에서 OpenAI의 최고 정보 보안 책임자인 Dane Stuckey는 뉴욕 타임스가 "사용자 프라이버시 침해"를 요구하고 있다고 비난하며, 이 신문사가 "타임스의 근거 없는 소송과 아무런 관련이 없는" 사람들의 대화를 요구하고 있다고 주장했다. 회사는 요청된 대화 기록의 "99.99%"가 저작권 주장과 무관하다고 주장했다.​

2천만 건의 대화는 2022년 12월부터 2024년 11월까지의 무작위 샘플을 나타낸다. OpenAI는 뉴욕 타임스 콘텐츠가 포함된 채팅만 식별하기 위한 타겟 검색을 포함한 프라이버시 보호 대안을 제안했지만, 이러한 제안은 거부되었다.​


저작권 분쟁의 중심에 있는 훈련 데이터

뉴욕 타임스는 2023년 12월 OpenAI와을 상대로 소송을 제기했으며, 이들 기업이 ChatGPT 훈련을 위해 허가나 보상 없이 "수백만 건"의 기사를 사용하여 저작권을 침해했다고 주장했습니다. 이 신문사는 ChatGPT가 자사 콘텐츠를 어떻게 재생산하는지 분석하고, OpenAI가 증거를 조작하기 위해 챗봇을 "해킹"했다는 주장에 반박하기 위해 로그에 대한 접근이 필요하다고 주장합니다.​

Wang 판사는 이전에 2025년 5월 OpenAI가 모든 채팅 로그를 보존하도록 요구하는 보존 명령을 내렸으나, 해당 명령은 9월에 부분적으로 해제되었습니다. 2천만 건의 로그 제출을 둘러싼 현재의 분쟁은 증거개시 절차에서의 갈등이 심화되고 있음을 보여줍니다.​

OpenAI는 이 요청이 합리적인 증거개시 범위를 초과한다고 주장하며, "이 규모의 개인정보를 전면적으로 제출하도록 명령한 법원을 알지 못한다"고 언급했습니다. 이 사건은 훈련용 저작권 자료의 오용 혐의로 AI 기업들을 상대로 제기된 수많은 소송 중 하나이며, 잠재적 손해배상액은 수십억 달러에 달합니다.

댓글 0
전체 1,366 / 10 페이지
Executive Summary• 앤스로픽이 파일 시스템과 직접 상호작용하는 AI 에이전트 기능 'Claude Cowork'를 연구 프리뷰로 공개• 기존 Claude Code의 기능을 비개발자도 활용할 수 있도록 확장한 것이 핵심• 사용자 컴퓨터의 폴더에 접근해 파일을 읽고, 편집하고, 생성하는 자율적 작업 수행 가능• Claude Max 구독자 대상 우선 제공, 일반 사용자는 대기자 명단 등록 필요BackgroundAI 업계는 단순 질의응답을 넘어 실질적인 업무를 수행하는 'AI 에이전트' 개발 경쟁이 치열하다. 앤스로픽은 지난 10월 'Skills for Claude'를 통해 개인화된 작업 학습 기능을 선보인 바 있으며, 이번 Cowork는 그 연장선에서 더욱 광범위한 자율 작업 능력을 부여한 것이다.Impact & Implications기술적 의미Claude Cowork는 AI가 사용자의 로컬 파일 시스템에 직접 접근해 문서 정리, 파일 편집, 콘텐츠 생성 등을 수행한다. 기존 Claude Code가 개발자 중심이었다면, Cowork는 비개발자도 활용할 수 있는 범용 AI 에이전트로 포지셔닝된다. 사용자가 지속적으로 컨텍스트를 제공하거나 출력물을 별도로 변환할 필요 없이, AI가 작업 중간에도 피드백을 반영하며 진행할 수 있다는 점이 특징이다.경쟁 구도 변화OpenAI, Google 등 빅테크 기업들도 AI 에이전트 개발에 박차를 가하는 상황에서, 앤스로픽의 선제적 출시는 시장 주도권 확보를 위한 전략으로 해석된다. 특히 macOS 앱 사이드바에서 바로 접근 가능한 UX는 일상적 업무 통합을 노린 것으로 보인다.사용자 영향 및 리스크앤스로픽은 발표와 함께 AI 에이전트의 잠재적 위험성도 경고했다. 명확하지 않은 지시가 있을 경우, Claude가 예상치 못한 행동을 할 수 있다는 점을 명시했다. 파일 시스템에 대한 광범위한 접근 권한이 부여되는 만큼, 보안과 프라이버시 측면에서 사용자의 주의가 필요하다.Key Data & Facts항목수치/내용기능명Claude Cowork출시 형태연구 프리뷰(Research Preview)이용 대상Claude Max 구독자 우선, 일반 사용자 대기자 등록플랫폼macOS 앱선행 기능Skills for Claude (2025년 10월 발표)Key Quote"Cowork can take on many of the same tasks that Claude Code can handle, but in a more approachable form for non-coding tasks."— Anthropic
723 조회
0 추천
2026.01.13 등록
으아.. 애플이 아이폰에 제미나이를 쓰겠다고 하네요..그럼 정말 안드로이드 폰하고 뭐가 달라질라나...Apple picks Google’s Gemini AI for its big Siri upgrade애플은 올해 출시될 더욱 개인화된 시리(Siri)에 구글의 제미니(Gemini) AI 모델을 적용할 예정이다.구글과 애플은 월요일에 "신중한 평가 끝에 애플은 구글의 AI 기술이 애플 파운데이션 모델(Foundation Models)에 가장 적합한 기반을 제공한다고 판단했으며,이를 통해 애플 사용자들에게 혁신적인 새로운 경험을 제공할 수 있게 되어 기쁘다"고 발표했다 .최초 보도는 cnbchttps://www.cnbc.com/2026/01/12/apple-google-ai-siri-gemini.html“After careful evaluation, we determined that Google’s technology provides the most capable foundation for Apple Foundation Models and we’re excited about the innovative new experiences it will unlock for our users,” Apple said in astatementMonday.
685 조회
0 추천
2026.01.13 등록
Executive Summary• 구글이 일부 의료 관련 검색어에 대한 AI 오버뷰 기능을 비활성화함• 가디언 조사에서 췌장암 환자에게 '위험한' 잘못된 식이요법 조언 제공 사실 확인• 간 기능 검사 관련 허위 정보로 심각한 간 질환 환자가 건강하다고 오인할 수 있는 문제 발생• 구글은 대부분의 정보가 정확하다고 주장하나, 문제 있는 결과에 대해서는 개선 조치 진행 중Background구글의 AI 오버뷰 기능은 2024년 출시 이후 지속적인 논란에 휩싸여 왔다. 피자에 접착제를 넣으라는 조언, 돌을 먹으라는 권고 등 황당한 오류가 알려지면서 여러 건의 소송까지 제기된 바 있다. 이번에는 의료 정보라는 민감한 영역에서 심각한 오류가 발견되어 더욱 큰 우려를 낳고 있다.Impact & Implications사용자 안전 문제AI가 생성한 의료 정보의 부정확성은 단순한 불편을 넘어 환자의 생명과 직결될 수 있다. 췌장암 환자에게 고지방 식품을 피하라는 조언은 전문가들이 권고하는 내용과 정반대이며, 환자의 사망 위험을 높일 수 있다고 경고된다. 간 기능 검사 정보의 오류 역시 심각한 간 질환 환자가 치료 시기를 놓치게 만들 수 있는 위험한 문제다.AI 신뢰성에 대한 근본적 의문이번 사태는 대형 기술 기업의 AI 서비스가 고위험 영역에서 얼마나 신뢰할 수 있는지에 대한 근본적인 의문을 제기한다. 구글은 "대다수의 AI 오버뷰가 정확한 정보를 제공한다"고 주장하지만, 의료 분야에서는 소수의 오류도 치명적인 결과로 이어질 수 있다.규제 및 책임 논의 가속화AI 생성 콘텐츠의 정확성과 책임 소재에 대한 규제 논의가 더욱 활발해질 전망이다. 특히 의료, 법률 등 전문 분야에서 AI 정보 제공에 대한 가이드라인 마련이 시급해 보인다.Key Data & Facts항목수치/내용발생 시점2026년 1월문제 발견 경로가디언 탐사보도주요 오류 사례췌장암 식이요법, 간 기능 검사 수치구글 대응일부 의료 검색어 AI 오버뷰 비활성화기존 논란피자 접착제, 돌 섭취 권고 등Key Quote"We invest significantly in the quality of AI Overviews, particularly for topics like health, and the vast majority provide accurate information."— Davis Thompson, 구글 대변인
667 조회
0 추천
2026.01.12 등록
Executive Summary • xAI의 Grok 챗봇이 동의 없는 성적 딥페이크 이미지를 대량 생성해 국제적 논란 확산 • 영국, 프랑스, 인도, 말레이시아 등 각국 정부가 조사 및 규제 검토에 착수 • 미국 CSAM 및 딥페이크 관련 법률의 AI 적용 가능 여부에 법조계 의견 분분 • 머스크의 트럼프 행정부와의 긴밀한 관계가 미국 내 규제 집행에 변수로 작용 Background 일론 머스크의 AI 기업 xAI가 개발한 챗봇 Grok은 2025년부터 성적 이미지 생성 관련 논란에 휘말려왔다. 지난주 X(구 트위터)에 도입된 이미지 편집 기능으로 사용자들이 원본 게시자의 동의 없이 사진을 수정할 수 있게 되면서, 여성과 미성년자의 옷을 벗기는 딥페이크 이미지가 플랫폼에 범람하기 시작했다. 한 추정에 따르면 최고조 시점에 분당 1건의 비동의 성적 이미지가 생성됐다. Impact & Implications 규제/정책 영향 각국 정부의 대응이 빠르게 전개되고 있다. 영국의 키어 스타머 총리는 해당 콘텐츠를 "역겨운 것"이라 규정하며 "모든 옵션을 검토하겠다"고 밝혔다. 영국 통신규제기관 Ofcom은 온라인안전법 위반 여부를 조사 중이다. 유럽연합 집행위원회는 Grok의 결과물이 "불법이며 끔찍하다"고 논평했고, 인도 IT부는 불법 콘텐츠 방지 조치를 보고하도록 xAI에 명령했다. 법적 쟁점과 한계 미국 법률의 AI 적용에는 상당한 불확실성이 존재한다. 미 법무부는 "실제 미성년자와 구별할 수 없는 디지털 이미지"를 금지하고 있으며, 2025년 5월 트럼프 대통령이 서명한 Take It Down Act는 AI 생성 성적 이미지를 금지한다. 그러나 조지워싱턴대 로스쿨의 메리 앤 프랭크스 교수는 "상당히 모호하다"고 지적하며, 비키니를 입힌 미성년자 이미지가 현행 CSAM 법률을 위반하는지는 불분명하다고 설명했다. 플랫폼 면책 조항인 섹션 230이 AI 생성 콘텐츠에도 적용되는지도 미지수다. 정치적 변수 머스크와 트럼프 행정부의 긴밀한 관계가 규제 집행의 변수로 떠오르고 있다. 머스크가 운영했던 정부효율부(DOGE)가 한때 FTC 내부에서 활동했던 점, 그리고 트럼프 행정부가 미국 인터넷 플랫폼에 대한 해외 규제를 무역 협상에서 억제해온 점이 주목된다. 머스크는 해당 논란에 대해 웃음 이모지로 반응하거나 "표현의 자유 탄압"이라며 반박하는 등 심각성을 축소하는 태도를 보이고 있다. Key Data & Facts 항목수치/내용 이미지 생성 속도분당 약 1건 (최고조 시점) Take It Down Act 시행일2025년 5월 (유예기간 2026년 5월까지) 규제 검토 국가영국, EU, 프랑스, 인도, 말레이시아, 호주, 브라질 Grok 4 모델카드 공개 지연출시 후 1개월 이상 소요 Key Quote "이것은 미국 사회, 그리고 전 세계 대부분의 사회에 만연한 여성혐오를 표출하는 도구입니다. 이는 프라이버시 침해이자 동의와 경계의 침해이며, 극도로 침습적이고, 어떤 의미에서는 젠더 기반 폭력의 한 형태입니다." — 리아나 페퍼콘, 스탠포드 인간중심AI연구소(HAI) 정책 펠로우
677 조회
0 추천
2026.01.11 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입