AI 뉴스

연구들이 AI 훈련 데이터와 테스트의 결함을 드러내다

페이지 정보

작성자 xtalfi
작성일 2025.11.07 14:52
1,620 조회
0 추천
0 비추천

본문

251105-ai-safety-tests-lr-10661e.jpg

(퍼플렉시티가 정리한 기사)


이번 주에 발표된 두 가지 주요 연구는 인공지능 시스템이 구축되고 평가되는 방식의 심각한 약점을 드러내며, AI 능력이 과장되어 왔는지에 대한 의문을 제기하고 있다.

Sony AI는 11월 5일 컴퓨터 비전 모델의 편향성을 드러내기 위해 설계된 데이터셋인 Fair Human-Centric Image Benchmark를 공개했으며, 옥스퍼드 인터넷 연구소와 영국 정부의 AI 보안 연구소 연구원들은 AI 성능을 측정하는 데 사용되는 테스트의 광범위한 결함을 밝히는 연구를 발표했다. 이러한 연구 결과들은 많은 AI 시스템이 윤리적으로 문제가 있는 데이터로 훈련되고 신뢰할 수 없는 방법으로 평가될 수 있음을 시사한다.​


훈련 데이터에 동의와 다양성이 부족함

Sony AI가 Nature에 발표한 새로운 벤치마크는 연구자들이 컴퓨터 비전 시스템에서 "편향되고 윤리적으로 문제가 있는 학습 데이터의 지속적인 과제"라고 부르는 문제를 다룹니다. 이 데이터셋은 81개국 1,981명의 개인이 찍힌 10,318장의 이미지로 구성되어 있으며, 모두 사전 동의와 공정한 보상을 받아 수집되었습니다—이는 업계 관행과 크게 다른 방식입니다.​

Sony Group의 AI 거버넌스 글로벌 책임자인 Alice Xiang은 컴퓨터 비전이 객관적이지 않다고 강조했습니다. "컴퓨터 비전은 학습 데이터에 반영된 편향에 따라 사물을 왜곡할 수 있습니다"라고 그녀는 말했습니다. 데이터셋은 기존 AI 모델 중 공정성 테스트를 완전히 통과한 모델이 없다는 것을 보여주었습니다. 일부 모델은 "she/her/hers" 대명사를 사용하는 사람들에 대해 낮은 정확도를 보였으며, 벤치마크는 이를 더 큰 헤어스타일 변동성—이전에 간과되었던 요인—으로 추적했습니다. 직업에 대한 중립적인 질문을 받았을 때, 테스트된 모델들은 특정 인구통계학적 그룹에 대해 특히 고정관념을 강화했으며, 때로는 피사체를 성매매 종사자, 마약상 또는 도둑으로 묘사했습니다.​


벤치마크 테스트가 신뢰할 수 없고 오해의 소지가 있는 것으로 밝혀짐

옥스퍼드 연구팀은 445개 AI 벤치마크를 조사한 결과, 거의 모든 벤치마크에 기술 기업들이 주장하는 결과의 신뢰성을 "약화시키는 결함"이 있음을 발견했습니다. 벤치마크 중 통계적 테스트를 통해 신뢰성을 증명한 것은 16%에 불과했습니다.​

핵심적인 문제는 구성 타당성(construct validity), 즉 테스트가 실제로 그들이 측정한다고 주장하는 것을 제대로 측정하는지에 관한 것입니다. 옥스퍼드 인터넷 연구소의 수석 연구원인 아담 마디(Adam Mahdi)는 NBC 뉴스와의 인터뷰에서, 그레이드 스쿨 매스 8K(Grade School Math 8K) 벤치마크와 같은 테스트에서 모델이 좋은 성과를 거둔다고 해서 반드시 추론 능력을 보여준다고 할 수는 없다고 말했습니다. 그는 "1학년 학생에게 '2 더하기 5가 뭐야?'라고 물었을 때 '7이에요'라고 답하면, 분명 정답입니다. 하지만 이로부터 5학년이 수학적 추론을 완벽하게 습득했다고 결론지을 수 있을까요?"라고 덧붙였습니다.​

이번 연구는 데이터 오염(data contamination)을 주요 문제로 지적했는데, 이는 테스트 문항이 모델의 학습 데이터셋에 포함되어 있어 모델이 답을 추론하는 것이 아니라 암기해서 답을 내는 현상입니다. Mixtral, Phi-3, Gemma를 포함한 여러 모델은 GSM8K 벤치마크와 유사한 신규 문항으로 평가할 때 성능이 최대 13%까지 저하되는 것으로 나타났습니다.​

옥스퍼드 연구의 수석 저자인 앤드루 빈(Andrew Bean)은 업계에서 내놓는 주장들을 그대로 믿어서는 안 된다고 경고했습니다. "모델이 박사 수준의 지능을 가졌다는 것 같은 이야기를 볼 때는 한 번쯤 의심해볼 필요가 있습니다,"라고 빈은 NBC 뉴스에 말했습니다. 이번 연구 결과는 최근 구글이 자사의 Gemma AI 모델이 미국 상원의원에 관한 허위 주장을 생성한 후에 모델을 철회한 상황에서 나왔습니다.

댓글 0
전체 1,366 / 11 페이지
Executive Summary• 피트 헤그세스 미 국방장관, SpaceX 본사에서 Grok AI의 국방부 네트워크 도입 공식 발표• 딥페이크 이미지 생성 논란으로 말레이시아·인도네시아 차단, 영국 공식 조사 착수 직후의 결정• 바이든 행정부의 AI 안전장치 정책과 대조되는 "이념적 제약 없는 AI" 운영 방침 천명• 구글 제미나이와 함께 기밀·비기밀 네트워크 전반에 최첨단 AI 모델 배치 예정Background일론 머스크의 xAI가 개발한 AI 챗봇 Grok은 소셜 미디어 플랫폼 X에 탑재되어 운영 중이다. 최근 Grok은 동의 없이 실제 인물의 성적 딥페이크 이미지를 생성하고, 미성년자의 성적 이미지까지 만들어낸다는 보고가 전 세계적으로 확산되며 큰 논란을 일으켰다. 말레이시아와 인도네시아는 Grok 접근을 차단했고, 영국 온라인안전감독기관 Ofcom은 온라인안전법에 따른 공식 조사에 착수했다.Impact & Implications정책 및 규제 영향트럼프 행정부의 이번 결정은 바이든 행정부가 수립한 AI 안전장치 정책과 극명한 대조를 이룬다. 바이든 행정부는 AI가 민권 침해나 자율 무기 시스템에 활용되지 않도록 제한을 두었으나, 헤그세스 장관은 "합법적인 군사 작전을 제한하는 이념적 제약 없이" AI를 운영하겠다고 밝혔다. 이는 미 국방부의 AI 거버넌스 방향이 근본적으로 전환되고 있음을 시사한다.국제 관계 및 동맹 영향미국의 주요 동맹국들이 Grok에 대한 규제 조치를 취하는 가운데 국방부가 이를 도입하기로 한 결정은 외교적 긴장을 야기할 수 있다. 영국이 조사에 착수하고 아시아 국가들이 차단 조치를 시행한 상황에서, 미군의 Grok 활용은 정보 공유 및 합동 작전에 복잡한 함의를 가져올 수 있다.AI 업계 경쟁 구도헤그세스 장관이 Grok을 구글의 생성형 AI와 함께 국방부 네트워크에 배치한다고 발표한 것은 xAI에 상당한 신뢰성과 시장 지위를 부여하는 것이다. "AI는 받는 데이터만큼만 좋다. 우리는 그것을 반드시 제공할 것"이라는 발언은 군사 데이터가 이러한 AI 시스템 학습에 직접 투입될 것임을 암시한다.Key Data & Facts항목수치/내용발표일2026년 1월 13일발표 장소텍사스주 SpaceX 본사도입 AI 시스템xAI Grok + Google Gemini적용 범위기밀 및 비기밀 네트워크 전체차단 국가말레이시아, 인도네시아조사 착수영국 OfcomKey Quote"AI는 합법적인 군사 작전을 제한하는 이념적 제약 없이 운영될 것이다. 우리 국방부의 AI는 'woke'하지 않을 것이다."— 피트 헤그세스 미 국방장관
744 조회
0 추천
2026.01.15 등록
구글 동영상 ai 서비스 veo3 가 업데이트 되었네요..https://blog.google/innovation-and-ai/technology/ai/veo-3-1-ingredients-to-video/아래 예는 일관성 부분해상도 개선과 숏폼 형태 (세로) 지원등도 소개되어 있습니다.
719 조회
0 추천
2026.01.14 등록
Executive Summary• 앤스로픽(Anthropic)이 최고제품책임자(CPO) 마이크 크리거를 내부 인큐베이터 '랩스(Labs)' 팀 공동 리더로 전환 배치• 2024년 중반 2명으로 시작한 랩스 팀, 향후 6개월 내 인원 2배 확대 계획• 인스타그램 공동창업자 출신 크리거, "AI 활용 방식을 결정할 수 있는 결정적 시기" 강조• 애플·구글 등 빅테크와 AI 스타트업 간 경쟁 심화 속 조직 개편 단행Background앤스로픽은 2024년 중반 내부 인큐베이터 '랩스' 팀을 창설해 실험적 제품 개발에 착수했다. 클로드(Claude) AI 모델로 주목받는 앤스로픽은 빅테크 기업들과의 경쟁 속에서 조직 혁신을 통해 시장 대응력을 강화하고 있다.Impact & Implications경쟁 구도 변화애플과 구글이 AI 분야에서 방어선을 강화하는 가운데, 앤스로픽의 이번 조직 개편은 AI 업계 경쟁 심화를 반영한다. 인스타그램 공동창업자 출신인 크리거의 제품 개발 역량을 실험적 프로젝트에 집중 투입함으로써, 앤스로픽은 빠르게 변화하는 AI 시장에서 선제적 대응을 꾀하고 있다.기술적 의미크리거는 "AI 모델의 역량이 너무 빠르게 발전해 활용 방식을 결정할 수 있는 시간이 바로 지금"이라고 밝혔다. 이는 AI 기술의 급속한 발전 속에서 제품화 속도가 경쟁력의 핵심이 되고 있음을 시사한다.산업/시장 영향다니엘라 아모데이(Daniela Amodei) 앤스로픽 사장은 "AI 발전 속도가 기존과 다른 방식의 구축, 조직, 집중을 요구한다"고 강조했다. 랩스 팀 확대는 앤스로픽이 실험적 제품을 통해 새로운 시장 기회를 선점하려는 전략으로 해석된다.Key Data & Facts항목수치/내용인물마이크 크리거 (Mike Krieger)이전 직책최고제품책임자 (CPO)신규 역할랩스 팀 공동 리더랩스 창설2024년 중반초기 인원2명확대 계획6개월 내 2배 증원Key Quote"We've reached a watershed moment in AI—model capabilities are advancing so fast that the window to shape how they're used is now."— 마이크 크리거, 앤스로픽 랩스 팀 공동 리더
1285 조회
0 추천
2026.01.14 등록
Executive Summary• 앤스로픽이 파일 시스템과 직접 상호작용하는 AI 에이전트 기능 'Claude Cowork'를 연구 프리뷰로 공개• 기존 Claude Code의 기능을 비개발자도 활용할 수 있도록 확장한 것이 핵심• 사용자 컴퓨터의 폴더에 접근해 파일을 읽고, 편집하고, 생성하는 자율적 작업 수행 가능• Claude Max 구독자 대상 우선 제공, 일반 사용자는 대기자 명단 등록 필요BackgroundAI 업계는 단순 질의응답을 넘어 실질적인 업무를 수행하는 'AI 에이전트' 개발 경쟁이 치열하다. 앤스로픽은 지난 10월 'Skills for Claude'를 통해 개인화된 작업 학습 기능을 선보인 바 있으며, 이번 Cowork는 그 연장선에서 더욱 광범위한 자율 작업 능력을 부여한 것이다.Impact & Implications기술적 의미Claude Cowork는 AI가 사용자의 로컬 파일 시스템에 직접 접근해 문서 정리, 파일 편집, 콘텐츠 생성 등을 수행한다. 기존 Claude Code가 개발자 중심이었다면, Cowork는 비개발자도 활용할 수 있는 범용 AI 에이전트로 포지셔닝된다. 사용자가 지속적으로 컨텍스트를 제공하거나 출력물을 별도로 변환할 필요 없이, AI가 작업 중간에도 피드백을 반영하며 진행할 수 있다는 점이 특징이다.경쟁 구도 변화OpenAI, Google 등 빅테크 기업들도 AI 에이전트 개발에 박차를 가하는 상황에서, 앤스로픽의 선제적 출시는 시장 주도권 확보를 위한 전략으로 해석된다. 특히 macOS 앱 사이드바에서 바로 접근 가능한 UX는 일상적 업무 통합을 노린 것으로 보인다.사용자 영향 및 리스크앤스로픽은 발표와 함께 AI 에이전트의 잠재적 위험성도 경고했다. 명확하지 않은 지시가 있을 경우, Claude가 예상치 못한 행동을 할 수 있다는 점을 명시했다. 파일 시스템에 대한 광범위한 접근 권한이 부여되는 만큼, 보안과 프라이버시 측면에서 사용자의 주의가 필요하다.Key Data & Facts항목수치/내용기능명Claude Cowork출시 형태연구 프리뷰(Research Preview)이용 대상Claude Max 구독자 우선, 일반 사용자 대기자 등록플랫폼macOS 앱선행 기능Skills for Claude (2025년 10월 발표)Key Quote"Cowork can take on many of the same tasks that Claude Code can handle, but in a more approachable form for non-coding tasks."— Anthropic
770 조회
0 추천
2026.01.13 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입