Loading...

AI 뉴스

연구들이 AI 훈련 데이터와 테스트의 결함을 드러내다

페이지 정보

작성자 xtalfi
작성일 2025.11.07 14:52
1,618 조회
0 추천
0 비추천

본문

251105-ai-safety-tests-lr-10661e.jpg

(퍼플렉시티가 정리한 기사)


이번 주에 발표된 두 가지 주요 연구는 인공지능 시스템이 구축되고 평가되는 방식의 심각한 약점을 드러내며, AI 능력이 과장되어 왔는지에 대한 의문을 제기하고 있다.

Sony AI는 11월 5일 컴퓨터 비전 모델의 편향성을 드러내기 위해 설계된 데이터셋인 Fair Human-Centric Image Benchmark를 공개했으며, 옥스퍼드 인터넷 연구소와 영국 정부의 AI 보안 연구소 연구원들은 AI 성능을 측정하는 데 사용되는 테스트의 광범위한 결함을 밝히는 연구를 발표했다. 이러한 연구 결과들은 많은 AI 시스템이 윤리적으로 문제가 있는 데이터로 훈련되고 신뢰할 수 없는 방법으로 평가될 수 있음을 시사한다.​


훈련 데이터에 동의와 다양성이 부족함

Sony AI가 Nature에 발표한 새로운 벤치마크는 연구자들이 컴퓨터 비전 시스템에서 "편향되고 윤리적으로 문제가 있는 학습 데이터의 지속적인 과제"라고 부르는 문제를 다룹니다. 이 데이터셋은 81개국 1,981명의 개인이 찍힌 10,318장의 이미지로 구성되어 있으며, 모두 사전 동의와 공정한 보상을 받아 수집되었습니다—이는 업계 관행과 크게 다른 방식입니다.​

Sony Group의 AI 거버넌스 글로벌 책임자인 Alice Xiang은 컴퓨터 비전이 객관적이지 않다고 강조했습니다. "컴퓨터 비전은 학습 데이터에 반영된 편향에 따라 사물을 왜곡할 수 있습니다"라고 그녀는 말했습니다. 데이터셋은 기존 AI 모델 중 공정성 테스트를 완전히 통과한 모델이 없다는 것을 보여주었습니다. 일부 모델은 "she/her/hers" 대명사를 사용하는 사람들에 대해 낮은 정확도를 보였으며, 벤치마크는 이를 더 큰 헤어스타일 변동성—이전에 간과되었던 요인—으로 추적했습니다. 직업에 대한 중립적인 질문을 받았을 때, 테스트된 모델들은 특정 인구통계학적 그룹에 대해 특히 고정관념을 강화했으며, 때로는 피사체를 성매매 종사자, 마약상 또는 도둑으로 묘사했습니다.​


벤치마크 테스트가 신뢰할 수 없고 오해의 소지가 있는 것으로 밝혀짐

옥스퍼드 연구팀은 445개 AI 벤치마크를 조사한 결과, 거의 모든 벤치마크에 기술 기업들이 주장하는 결과의 신뢰성을 "약화시키는 결함"이 있음을 발견했습니다. 벤치마크 중 통계적 테스트를 통해 신뢰성을 증명한 것은 16%에 불과했습니다.​

핵심적인 문제는 구성 타당성(construct validity), 즉 테스트가 실제로 그들이 측정한다고 주장하는 것을 제대로 측정하는지에 관한 것입니다. 옥스퍼드 인터넷 연구소의 수석 연구원인 아담 마디(Adam Mahdi)는 NBC 뉴스와의 인터뷰에서, 그레이드 스쿨 매스 8K(Grade School Math 8K) 벤치마크와 같은 테스트에서 모델이 좋은 성과를 거둔다고 해서 반드시 추론 능력을 보여준다고 할 수는 없다고 말했습니다. 그는 "1학년 학생에게 '2 더하기 5가 뭐야?'라고 물었을 때 '7이에요'라고 답하면, 분명 정답입니다. 하지만 이로부터 5학년이 수학적 추론을 완벽하게 습득했다고 결론지을 수 있을까요?"라고 덧붙였습니다.​

이번 연구는 데이터 오염(data contamination)을 주요 문제로 지적했는데, 이는 테스트 문항이 모델의 학습 데이터셋에 포함되어 있어 모델이 답을 추론하는 것이 아니라 암기해서 답을 내는 현상입니다. Mixtral, Phi-3, Gemma를 포함한 여러 모델은 GSM8K 벤치마크와 유사한 신규 문항으로 평가할 때 성능이 최대 13%까지 저하되는 것으로 나타났습니다.​

옥스퍼드 연구의 수석 저자인 앤드루 빈(Andrew Bean)은 업계에서 내놓는 주장들을 그대로 믿어서는 안 된다고 경고했습니다. "모델이 박사 수준의 지능을 가졌다는 것 같은 이야기를 볼 때는 한 번쯤 의심해볼 필요가 있습니다,"라고 빈은 NBC 뉴스에 말했습니다. 이번 연구 결과는 최근 구글이 자사의 Gemma AI 모델이 미국 상원의원에 관한 허위 주장을 생성한 후에 모델을 철회한 상황에서 나왔습니다.

댓글 0
전체 1,366 / 13 페이지
Executive Summary • 중국 AI 스타트업 딥시크(DeepSeek)가 수 주 내로 차세대 플래그십 모델 V4를 출시할 예정 • 내부 벤치마크에서 앤트로픽 클로드와 OpenAI ChatGPT를 코딩 능력에서 능가하는 것으로 나타남 • 특히 매우 긴 코딩 프롬프트 처리에서 획기적인 성능 개선을 달성 Background 딥시크는 2025년 1월 R1 추론 모델을 출시하며 글로벌 AI 업계에 큰 파장을 일으킨 바 있다. 당시 저비용으로 고성능을 구현해 미국 빅테크 기업들의 AI 투자 전략에 의문을 제기하게 만들었으며, 이번 V4 모델 출시로 다시 한번 시장에 충격을 줄 것으로 예상된다. Impact & Implications 기술적 의미 딥시크 V4는 "극도로 긴 코딩 프롬프트 처리"에서 획기적인 발전을 이루었다고 알려졌다. 이는 복잡한 대규모 코드베이스를 다루는 개발자들에게 실질적인 도움이 될 수 있음을 시사한다. 현재 클로드와 ChatGPT가 코딩 분야에서 선두를 달리고 있는 상황에서, 딥시크가 이 두 모델을 벤치마크에서 앞섰다는 주장은 상당히 주목할 만하다. 경쟁 구도 변화 딥시크가 코딩 AI 영역에서 앤트로픽과 OpenAI를 능가할 경우, AI 개발 도구 시장의 판도가 크게 바뀔 수 있다. 특히 GitHub Copilot, Cursor 등 AI 코딩 어시스턴트 서비스들이 어떤 모델을 기반으로 삼을지에 영향을 미칠 수 있다. 향후 전망 V4는 R1 출시 약 1년 만인 수 주 내 공개될 예정이다. 딥시크가 공개한 내부 벤치마크 결과가 독립적인 테스트에서도 입증될지, 그리고 실제 개발 현장에서 어떤 평가를 받을지 주목된다. Key Data & Facts 항목수치/내용 모델명DeepSeek V4 출시 예정수 주 내 핵심 강점장문 코딩 프롬프트 처리 비교 대상Claude, ChatGPT 전작R1 (2025년 1월 출시) Key Quote "DeepSeek's internal benchmarks put it ahead of Anthropic and OpenAI's models in coding." — The Information
767 조회
0 추천
2026.01.10 등록
Executive Summary • 오픈AI가 개인 의료 기록과 건강 앱을 연동할 수 있는 'ChatGPT 헬스' 탭을 공식 출시 • 애플 헬스, 마이피트니스팔, 웨이트와처스 등 주요 건강 앱과 통합 지원 • 전 세계 2억 3천만 명이 매주 ChatGPT에 건강 관련 질문을 하고 있다고 밝혀 • 단, 진단이나 치료 목적이 아님을 명시하며 개인정보 보호에 대한 우려도 제기 Background 오픈AI는 최근 AI가 '헬스케어 동반자' 역할을 할 수 있다는 암시를 지속적으로 내비쳐왔다. 이번 ChatGPT 헬스 출시는 이러한 전략의 연장선상에 있으며, 이미 매주 2억 3천만 명 이상이 ChatGPT에 건강 관련 질문을 하고 있다는 자체 분석 결과를 근거로 내세웠다. 특히 의료 서비스 접근이 어려운 농촌 지역에서는 주당 약 60만 건의 건강 관련 메시지가 전송되고, 헬스케어 대화의 70%가 일반 진료 시간 외에 이루어지고 있다고 한다. Impact & Implications 산업/시장 영향 ChatGPT 헬스는 AI 기업들의 헬스케어 시장 진출 경쟁을 한층 가속화할 전망이다. 오픈AI는 b.well과의 파트너십을 통해 약 220만 명의 의료 제공자와 연결되는 백엔드 통합을 구현했다. 현재는 베타 사용자를 대상으로 대기자 명단 방식으로 운영되지만, 향후 구독 티어에 관계없이 전체 사용자에게 점진적으로 확대될 예정이다. 이는 구글, 마이크로소프트 등 경쟁사들도 유사한 서비스 개발에 박차를 가할 수 있음을 의미한다. 규제/정책 영향 흥미롭게도 오픈AI 측은 소비자 제품의 경우 HIPAA(미국 의료정보보호법)가 적용되지 않는다고 밝혔다. 이는 임상 또는 전문 의료 환경에만 해당된다는 설명이다. 그러나 법원 명령이 있을 경우 데이터 접근을 제공해야 하며, 과거 2023년 3월에 일부 사용자의 채팅 제목, 이름, 이메일, 결제 정보가 노출된 보안 사고가 있었던 점을 고려하면 규제 당국의 감시가 강화될 가능성이 높다. 사용자 영향 사용자는 검사 결과 분석, 진료 예약 준비, 식단 및 운동 조언, 보험 옵션 비교 등에 ChatGPT 헬스를 활용할 수 있다. 그러나 정신 건강 관련 상담에 대해서는 오픈AI가 신중한 태도를 보이고 있으며, ChatGPT 이용 후 자살로 이어진 사례들이 보고된 바 있어 우려가 제기된다. 또한 건강 불안 장애(히포콘드리아) 환자의 증상 악화 가능성에 대한 질문에 오픈AI는 "정보 제공은 하되 경보를 울리지 않도록 모델을 조정했다"고 답변했다. Key Data & Facts 항목수치/내용 주간 건강 질문 사용자2억 3천만 명 협력 의사 수260명 이상 모델 피드백 횟수60만 회 이상 연결 의료 제공자약 220만 명 (b.well 파트너십) 농촌 지역 주간 메시지약 60만 건 Key Quote "ChatGPT can help you understand recent test results, prepare for appointments with your doctor, get advice on how to approach your diet and workout routine, or understand the tradeoffs of different insurance options based on your healthcare patterns." — 오픈AI 블로그
744 조회
0 추천
2026.01.09 등록
Executive Summary • xAI의 챗봇 Grok이 X 플랫폼에서 여성 사진을 비키니 착용 이미지로 변환하는 기능으로 대규모 비동의 성적 이미지 생성에 악용되고 있음 • 분석 결과 2시간 동안 15,000개 이상의 Grok 생성 이미지 URL이 수집되었으며, 5분당 최소 90개의 성적 이미지가 생성되는 것으로 확인 • 영국, 호주, 프랑스 등 각국 정부가 X에 긴급 조치를 요구하며 AI 딥페이크 규제 논의 가속화 Background AI 기반 '누드화(nudify)' 기술은 그동안 인터넷 음지에서 유료로 제공되어 왔으나, 이번 Grok 사태는 주류 소셜미디어 플랫폼에서 무료로, 누구나 쉽게 접근 가능한 형태로 확산되었다는 점에서 전례 없는 규모의 문제로 부상했다. 지난해 말부터 Grok의 이미지 생성 기능이 바이럴되면서 인플루언서, 유명인, 심지어 정치인까지 타깃이 되고 있다. Impact & Implications AI 안전 및 윤리 측면 Grok은 기존 유료 딥페이크 서비스와 달리 무료이며 수초 내 결과물을 생성하고, 수백만 X 사용자가 즉시 접근할 수 있어 비동의 성적 이미지 생성의 대중화를 가속하고 있다. EndTAB의 슬론 톰슨 이사는 "X가 AI 기반 이미지 악용을 주류 플랫폼에 직접 내장해 성폭력을 더 쉽고 확장 가능하게 만들었다"고 지적했다. 규제 및 정책 동향 영국 정부는 X에 긴급 조치를 공식 요청했으며, 리즈 켄달 기술부 장관은 "최근 온라인에서 목격한 것들은 절대적으로 끔찍하며, 문명사회에서 용납될 수 없다"고 강조했다. 호주 eSafety 위원회도 Grok 관련 다수의 신고를 접수해 조사 중이며, 프랑스, 인도, 말레이시아 등도 조사 위협을 시사했다. 산업 전반 영향 미 의회는 지난해 TAKE IT DOWN Act를 통과시켜 비동의 성적 이미지 공개를 불법화했으며, 5월 중순부터 X를 포함한 온라인 플랫폼들은 48시간 내 신고 대응 의무를 지게 된다. 이번 사태는 생성형 AI 플랫폼의 안전 가드레일 설계와 책임 소재에 대한 업계 전반의 논의를 촉발할 전망이다. Key Data & Facts 항목수치/내용 2시간 내 수집된 Grok 생성 이미지 URL15,000개 이상 5분간 생성된 성적 이미지 수최소 90개 2023-2024 AI 관련 아동학대 신고 증가율 (NCMEC)1,325% TAKE IT DOWN Act 플랫폼 대응 의무 기한48시간 연간 누드화 서비스 추정 수익3,600만 달러 이상 Key Quote "기업이 플랫폼에서 생성형 AI 도구를 제공할 때, 이미지 기반 악용의 위험을 최소화할 책임이 있다. 여기서 놀라운 점은 X가 정반대로 행동했다는 것이다. 그들은 AI 기반 이미지 악용을 주류 플랫폼에 직접 내장해 성폭력을 더 쉽고 확장 가능하게 만들었다." — 슬론 톰슨, EndTAB 교육훈련 이사
744 조회
0 추천
2026.01.08 등록
Executive Summary • xAI의 Grok 챗봇이 X 플랫폼에서 생성되는 것보다 훨씬 노골적인 성적 이미지와 영상을 생성하고 있음이 밝혀졌다 • 비영리단체 AI Forensics가 검토한 약 800개의 Grok Imagine URL 중 대다수가 성적 콘텐츠였으며, 10% 미만이 아동 성 학대 자료(CSAM)와 관련된 것으로 추정된다 • OpenAI, Google 등 타 AI 기업과 달리 xAI는 Grok의 성인 콘텐츠 생성을 허용하고 있으며, '스파이시(spicy)' 모드를 통해 포르노그래피 제작이 가능하다 • 유럽 규제당국에 약 70건의 URL이 신고되었으며, 프랑스 검찰은 관련 조사에 착수했다 • 영국 더럼대학의 법학 교수는 이를 "가드레일이나 윤리 지침 없이 인간의 타락한 충동을 조장하는 기술"이라고 비판했다 Background xAI의 Grok 챗봇이 X(구 트위터) 플랫폼에서 여성과 미성년자로 보이는 대상의 '옷 벗기기' 이미지를 대량 생성해 논란이 된 지 일주일여 만에, 별도 앱과 웹사이트에서는 훨씬 더 심각한 수준의 성적 콘텐츠가 생성되고 있는 것으로 드러났다. X에서는 공개가 기본 설정이지만, Grok 앱과 웹사이트의 Imagine 모델로 생성된 콘텐츠는 비공개로 처리되어 감시의 사각지대에 놓여 있었다. Impact & Implications AI 안전성과 규제 강화 압력 이번 사태는 생성형 AI의 유해 콘텐츠 생성 문제에 대한 규제 논의를 가속화할 전망이다. OpenAI와 Google이 명시적으로 포르노그래피 생성을 금지하는 것과 달리, xAI는 '스파이시' 모드를 통해 성인 콘텐츠를 허용하는 차별화된 정책을 취하고 있다. 프랑스 검찰의 조사 착수와 유럽 규제당국에 대한 신고는 각국이 AI 생성 CSAM에 대해 강력한 법적 조치를 취할 수 있음을 시사한다. 플랫폼 책임과 콘텐츠 모더레이션 Grok은 X와 달리 성적으로 노골적인 콘텐츠 시청에 대한 연령 확인 절차가 없는 것으로 나타났다. 미국 여러 주에서 성인 콘텐츠 비율이 일정 수준 이상인 웹사이트에 대해 연령 인증법을 시행하고 있어, xAI가 법적 리스크에 직면할 수 있다. 딥페이크 포르노 포럼에서는 Grok의 콘텐츠 필터를 우회하는 프롬프트 기법이 활발히 공유되고 있어, 기술적 대응만으로는 한계가 있음을 보여준다. AI 업계 신뢰도에 미치는 영향 머스크가 X에서 "불법 콘텐츠를 만드는 사람은 불법 콘텐츠를 업로드하는 것과 같은 결과를 받게 될 것"이라고 밝혔음에도 불구하고, 포럼 사용자들은 여전히 노골적인 콘텐츠 생성에 성공하고 있다고 보고하고 있다. 이는 AI 기업들의 안전 정책 이행에 대한 신뢰도 문제를 제기하며, 전체 AI 산업에 대한 규제 강화로 이어질 수 있다. Key Data & Facts 항목수치/내용 분석된 Grok Imagine URL 수약 1,200개 성적 콘텐츠 포함 URL약 800개 CSAM 관련 추정 비율10% 미만 규제당국 신고 건수약 70개 URL 딥페이크 포럼 토론 페이지300페이지 이상 Key Quote "윤리 지침이나 가드레일 없이 기술이 일부 사람들의 비인간적 충동을 조장하고 촉진하고 있다. 지난 몇 주간의 사태와 이번 일로, 우리는 절벽에서 떨어져 인간 타락의 심연으로 자유낙하하고 있는 것 같다." — 클레어 맥글린(Clare McGlynn), 더럼대학교 법학 교수
728 조회
0 추천
2026.01.08 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입