Loading...

AI 뉴스

연구들이 AI 훈련 데이터와 테스트의 결함을 드러내다

페이지 정보

작성자 xtalfi
작성일 2025.11.07 14:52
1,534 조회
0 추천
0 비추천

본문

251105-ai-safety-tests-lr-10661e.jpg

(퍼플렉시티가 정리한 기사)


이번 주에 발표된 두 가지 주요 연구는 인공지능 시스템이 구축되고 평가되는 방식의 심각한 약점을 드러내며, AI 능력이 과장되어 왔는지에 대한 의문을 제기하고 있다.

Sony AI는 11월 5일 컴퓨터 비전 모델의 편향성을 드러내기 위해 설계된 데이터셋인 Fair Human-Centric Image Benchmark를 공개했으며, 옥스퍼드 인터넷 연구소와 영국 정부의 AI 보안 연구소 연구원들은 AI 성능을 측정하는 데 사용되는 테스트의 광범위한 결함을 밝히는 연구를 발표했다. 이러한 연구 결과들은 많은 AI 시스템이 윤리적으로 문제가 있는 데이터로 훈련되고 신뢰할 수 없는 방법으로 평가될 수 있음을 시사한다.​


훈련 데이터에 동의와 다양성이 부족함

Sony AI가 Nature에 발표한 새로운 벤치마크는 연구자들이 컴퓨터 비전 시스템에서 "편향되고 윤리적으로 문제가 있는 학습 데이터의 지속적인 과제"라고 부르는 문제를 다룹니다. 이 데이터셋은 81개국 1,981명의 개인이 찍힌 10,318장의 이미지로 구성되어 있으며, 모두 사전 동의와 공정한 보상을 받아 수집되었습니다—이는 업계 관행과 크게 다른 방식입니다.​

Sony Group의 AI 거버넌스 글로벌 책임자인 Alice Xiang은 컴퓨터 비전이 객관적이지 않다고 강조했습니다. "컴퓨터 비전은 학습 데이터에 반영된 편향에 따라 사물을 왜곡할 수 있습니다"라고 그녀는 말했습니다. 데이터셋은 기존 AI 모델 중 공정성 테스트를 완전히 통과한 모델이 없다는 것을 보여주었습니다. 일부 모델은 "she/her/hers" 대명사를 사용하는 사람들에 대해 낮은 정확도를 보였으며, 벤치마크는 이를 더 큰 헤어스타일 변동성—이전에 간과되었던 요인—으로 추적했습니다. 직업에 대한 중립적인 질문을 받았을 때, 테스트된 모델들은 특정 인구통계학적 그룹에 대해 특히 고정관념을 강화했으며, 때로는 피사체를 성매매 종사자, 마약상 또는 도둑으로 묘사했습니다.​


벤치마크 테스트가 신뢰할 수 없고 오해의 소지가 있는 것으로 밝혀짐

옥스퍼드 연구팀은 445개 AI 벤치마크를 조사한 결과, 거의 모든 벤치마크에 기술 기업들이 주장하는 결과의 신뢰성을 "약화시키는 결함"이 있음을 발견했습니다. 벤치마크 중 통계적 테스트를 통해 신뢰성을 증명한 것은 16%에 불과했습니다.​

핵심적인 문제는 구성 타당성(construct validity), 즉 테스트가 실제로 그들이 측정한다고 주장하는 것을 제대로 측정하는지에 관한 것입니다. 옥스퍼드 인터넷 연구소의 수석 연구원인 아담 마디(Adam Mahdi)는 NBC 뉴스와의 인터뷰에서, 그레이드 스쿨 매스 8K(Grade School Math 8K) 벤치마크와 같은 테스트에서 모델이 좋은 성과를 거둔다고 해서 반드시 추론 능력을 보여준다고 할 수는 없다고 말했습니다. 그는 "1학년 학생에게 '2 더하기 5가 뭐야?'라고 물었을 때 '7이에요'라고 답하면, 분명 정답입니다. 하지만 이로부터 5학년이 수학적 추론을 완벽하게 습득했다고 결론지을 수 있을까요?"라고 덧붙였습니다.​

이번 연구는 데이터 오염(data contamination)을 주요 문제로 지적했는데, 이는 테스트 문항이 모델의 학습 데이터셋에 포함되어 있어 모델이 답을 추론하는 것이 아니라 암기해서 답을 내는 현상입니다. Mixtral, Phi-3, Gemma를 포함한 여러 모델은 GSM8K 벤치마크와 유사한 신규 문항으로 평가할 때 성능이 최대 13%까지 저하되는 것으로 나타났습니다.​

옥스퍼드 연구의 수석 저자인 앤드루 빈(Andrew Bean)은 업계에서 내놓는 주장들을 그대로 믿어서는 안 된다고 경고했습니다. "모델이 박사 수준의 지능을 가졌다는 것 같은 이야기를 볼 때는 한 번쯤 의심해볼 필요가 있습니다,"라고 빈은 NBC 뉴스에 말했습니다. 이번 연구 결과는 최근 구글이 자사의 Gemma AI 모델이 미국 상원의원에 관한 허위 주장을 생성한 후에 모델을 철회한 상황에서 나왔습니다.

댓글 0
전체 1,366 / 48 페이지
• ChatGPT는 11월 30일 3주년을 맞아 주간 활성 사용자 8억 명을 기록하며, 2022년 출시 이후 역사상 가장 빠르게 성장한 소비자 애플리케이션 중 하나가 되었습니다.[kmph +1]• Google의 Gemini 3 Pro는 11월 18일 출시되어 현재 벤치마크 리더보드 1위를 차지하고 있으며, 경쟁이 심화됨에 따라 OpenAI CEO Sam Altman이 직원들에게 “어려운 시기”와 “일시적인 경제적 장애물”에 대해 경고하게 만들었습니다.[axios +1]• Deakin University 연구에 따르면 ChatGPT는 학술 인용의 약 5분의 1을 조작했으며, 전체 인용의 56%가 가짜이거나 오류를 포함하고 있어 지속적인 정확성 문제를 부각시켰습니다.[studyfinds]
718 조회
0 추천
2025.12.01 등록
네이버클라우드가 전문 지식 없이도 사내 데이터 기반으로 맞춤형 AI 어시스턴트를 제작할 수 있는 ‘네이버웍스 AI 스튜디오’를 1일 출시했다고 밝혔다.이 도구는 메시지 검색, 보고서 작성 등 업무용 어시스턴트뿐 아니라 점심 메뉴 추천, MBTI 분석 등 창의적인 어시스턴트 제작도 가능하며, 메일 답장 제안과 드라이브 파일 번역 등 AI 기능도 대폭 강화됐다.네이버웍스는 일본에서 8년 연속 유료 비즈니스 챗 시장 1위를 차지했으며, 회의록 정리 시간을 2시간에서 30분으로 단축하는 등 업무 효율 70% 이상 개선 효과를 입증했다고 밝혔다.
731 조회
0 추천
2025.12.01 등록
SK텔레콤이 1일 AI 전화 서비스 ‘에이닷 전화’에 통화 중 보이스피싱을 실시간 탐지하는 ‘AI 보이스피싱 탐지’ 기능을 추가했다고 밝혔다.온디바이스 AI 기술로 통화 내용을 단말 내에서 분석해 의심 전화 발견 시 즉시 경고하며, 통화 데이터가 서버를 거치지 않아 정보 유출 우려가 없다고 회사 측은 설명했다.2025년 1~8월 보이스피싱 피해액이 8856억 원에 달해 전년 연간 피해액에 육박하는 등 피해가 급증하면서 보안 강화의 필요성이 커진 가운데 나온 조치다.
735 조회
0 추천
2025.12.01 등록
Silicon Valley Girl은 AI가 전체 분야가 아닌 직업의 “피상적인 버전”을 제거하고 있다고 주장하며, 기업들이 일상적인 업무를 수행하는 것이 아니라 AI를 사용하여 복잡한 문제를 해결할 수 있는 인력을 요구함에 따라 2025년 Amazon, Microsoft, Meta 등에서 10만 건 이상의 기술 분야 해고가 발생했다고 지적합니다.이 영상은 어떤 직업이 위험에 처해 있는지에 대한 명확한 패턴을 확인합니다: 단순히 목록에서 뮤추얼 펀드를 추천하는 재무 고문, 템플릿만 다시 작성하는 변호사, Zillow 링크만 보내는 부동산 중개인은 자동화될 수 있는 반면, 거래를 협상하고, 독점적인 접근을 제공하거나, 복잡한 인간 상황을 해결하는 전문가들은 여전히 필수적입니다.영상에 등장하는 기업가 Daniel Priestley는 향후 2~3년 내에 2,000명에서 20,000명의 헌신적인 팔로워를 가진 개인 브랜드를 구축하는 것이 중요해질 것이라고 경고하며, 이를 안개 속의 비행기에 비유합니다—이미 이륙한 비행기는 계속 비행할 수 있지만, 여전히 지상에 있는 비행기는 이륙할 수 없게 될 것입니다.
746 조회
0 추천
2025.11.30 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입