Loading...

AI 뉴스

연구들이 AI 훈련 데이터와 테스트의 결함을 드러내다

페이지 정보

작성자 xtalfi
작성일 2025.11.07 14:52
1,571 조회
0 추천
0 비추천

본문

251105-ai-safety-tests-lr-10661e.jpg

(퍼플렉시티가 정리한 기사)


이번 주에 발표된 두 가지 주요 연구는 인공지능 시스템이 구축되고 평가되는 방식의 심각한 약점을 드러내며, AI 능력이 과장되어 왔는지에 대한 의문을 제기하고 있다.

Sony AI는 11월 5일 컴퓨터 비전 모델의 편향성을 드러내기 위해 설계된 데이터셋인 Fair Human-Centric Image Benchmark를 공개했으며, 옥스퍼드 인터넷 연구소와 영국 정부의 AI 보안 연구소 연구원들은 AI 성능을 측정하는 데 사용되는 테스트의 광범위한 결함을 밝히는 연구를 발표했다. 이러한 연구 결과들은 많은 AI 시스템이 윤리적으로 문제가 있는 데이터로 훈련되고 신뢰할 수 없는 방법으로 평가될 수 있음을 시사한다.​


훈련 데이터에 동의와 다양성이 부족함

Sony AI가 Nature에 발표한 새로운 벤치마크는 연구자들이 컴퓨터 비전 시스템에서 "편향되고 윤리적으로 문제가 있는 학습 데이터의 지속적인 과제"라고 부르는 문제를 다룹니다. 이 데이터셋은 81개국 1,981명의 개인이 찍힌 10,318장의 이미지로 구성되어 있으며, 모두 사전 동의와 공정한 보상을 받아 수집되었습니다—이는 업계 관행과 크게 다른 방식입니다.​

Sony Group의 AI 거버넌스 글로벌 책임자인 Alice Xiang은 컴퓨터 비전이 객관적이지 않다고 강조했습니다. "컴퓨터 비전은 학습 데이터에 반영된 편향에 따라 사물을 왜곡할 수 있습니다"라고 그녀는 말했습니다. 데이터셋은 기존 AI 모델 중 공정성 테스트를 완전히 통과한 모델이 없다는 것을 보여주었습니다. 일부 모델은 "she/her/hers" 대명사를 사용하는 사람들에 대해 낮은 정확도를 보였으며, 벤치마크는 이를 더 큰 헤어스타일 변동성—이전에 간과되었던 요인—으로 추적했습니다. 직업에 대한 중립적인 질문을 받았을 때, 테스트된 모델들은 특정 인구통계학적 그룹에 대해 특히 고정관념을 강화했으며, 때로는 피사체를 성매매 종사자, 마약상 또는 도둑으로 묘사했습니다.​


벤치마크 테스트가 신뢰할 수 없고 오해의 소지가 있는 것으로 밝혀짐

옥스퍼드 연구팀은 445개 AI 벤치마크를 조사한 결과, 거의 모든 벤치마크에 기술 기업들이 주장하는 결과의 신뢰성을 "약화시키는 결함"이 있음을 발견했습니다. 벤치마크 중 통계적 테스트를 통해 신뢰성을 증명한 것은 16%에 불과했습니다.​

핵심적인 문제는 구성 타당성(construct validity), 즉 테스트가 실제로 그들이 측정한다고 주장하는 것을 제대로 측정하는지에 관한 것입니다. 옥스퍼드 인터넷 연구소의 수석 연구원인 아담 마디(Adam Mahdi)는 NBC 뉴스와의 인터뷰에서, 그레이드 스쿨 매스 8K(Grade School Math 8K) 벤치마크와 같은 테스트에서 모델이 좋은 성과를 거둔다고 해서 반드시 추론 능력을 보여준다고 할 수는 없다고 말했습니다. 그는 "1학년 학생에게 '2 더하기 5가 뭐야?'라고 물었을 때 '7이에요'라고 답하면, 분명 정답입니다. 하지만 이로부터 5학년이 수학적 추론을 완벽하게 습득했다고 결론지을 수 있을까요?"라고 덧붙였습니다.​

이번 연구는 데이터 오염(data contamination)을 주요 문제로 지적했는데, 이는 테스트 문항이 모델의 학습 데이터셋에 포함되어 있어 모델이 답을 추론하는 것이 아니라 암기해서 답을 내는 현상입니다. Mixtral, Phi-3, Gemma를 포함한 여러 모델은 GSM8K 벤치마크와 유사한 신규 문항으로 평가할 때 성능이 최대 13%까지 저하되는 것으로 나타났습니다.​

옥스퍼드 연구의 수석 저자인 앤드루 빈(Andrew Bean)은 업계에서 내놓는 주장들을 그대로 믿어서는 안 된다고 경고했습니다. "모델이 박사 수준의 지능을 가졌다는 것 같은 이야기를 볼 때는 한 번쯤 의심해볼 필요가 있습니다,"라고 빈은 NBC 뉴스에 말했습니다. 이번 연구 결과는 최근 구글이 자사의 Gemma AI 모델이 미국 상원의원에 관한 허위 주장을 생성한 후에 모델을 철회한 상황에서 나왔습니다.

댓글 0
전체 1,366 / 28 페이지
Nvidia는 40,000시간의 게임플레이 영상으로 학습된 오픈소스 AI 모델 NitroGen을 공개했으며, 이는 1,000개 이상의 비디오 게임을 플레이할 수 있고 처음 보는 게임에서 처음부터 학습된 모델 대비 작업 성공률이 52% 향상되었습니다.이 모델은 Nvidia의 GROOT N1.5 로봇공학 아키텍처를 기반으로 구축되었으며, 연구진은 이 기술이 예측 불가능한 환경에서 작동하는 로봇을 포함한 실제 응용 분야를 발전시킬 수 있다고 말하며, 모든 데이터셋, 코드 및 모델 가중치를 공개적으로 공개했습니다.이 발표는 게임 커뮤니티에서 경쟁적인 온라인 게임에서의 잠재적 오용에 대한 우려를 불러일으켰으며, 업계 데이터에 따르면 게이머의 80%가 이미 치팅을 경험하고 있고 이 AI는 인간 플레이어와 봇을 구별하기 어렵게 만들 수 있습니다.
796 조회
0 추천
2025.12.22 등록
• 아마존의 차세대 음성 비서 '알렉사 플러스'가 기존 에코 기기 사용자에게도 확대 적용• 프라임 회원은 "알렉사, 업그레이드"라고 말하면 알렉사 플러스로 전환 가능• 신형 에코 기기와 웹에서 순차적으로 출시 중이나, 과연 진정한 '업그레이드'인지는 의문아마존의 차세대 음성 비서가 서서히 보급되고 있다. 신형 에코 기기에 탑재되어 출시되고 있으며, 일부 사용자들에게는 웹을 통해서도 제공되고 있다. 이제 기존 에코 기기를 보유한 프라임 회원들도 "알렉사, 업그레이드"라고 말하면 알렉사 플러스를 이용할 수 있게 되었다. 다만 남은 질문은 하나다. 이것이 과연 진정한 업그레이드인가?
776 조회
0 추천
2025.12.22 등록
앤트로픽은AI에이전트가특정작업을효율적으로수행하도록돕는‘에이전트스킬’을오픈소스로공개하며기업용AI시장의표준선점에나섰습니다.이는에이전트가업무에필요한지침과리소스를동적으로불러와사용할수있도록지원하는기술적저장소역할을합니다.이기술은대형언어모델의한계인절차적지식부족을보완하며,필요한경우에만세부정보를로드하는방식을통해시스템의효율성을극대화했습니다.사용자는복잡한프롬프트작성없이도데이터분석이나문서작성같은전문워크플로우를모듈형태로간편하게재사용할수있습니다.아틀라시안과피그마등주요글로벌IT기업들이이미도입을시작했으며,이는개별맞춤형모델구축보다훨씬효율적인에이전트생태계를형성할것으로기대됩니다.앤트로픽은이번오픈소스화를통해기술주도권을확보하고,기업들이범용적으로사용할수있는AI에이전트환경을구축하는데집중하고있습니다.
803 조회
0 추천
2025.12.21 등록
MIT연구진은생성형AI를이용해에세이를쓸때인지처리와관련된뇌활동이줄어들고내용기억력도감퇴한다는연구결과를발표했습니다.뇌파검사결과AI도구에의존할수록뇌의활동량이적게나타났으며,이는학습능력감소로이어질수있다는우려를낳고있습니다.카네기멜론대와마이크로소프트의연구에따르면AI에대한신뢰도가높을수록사용자가비판적사고에들이는노력은오히려감소하는경향을보였습니다.이러한현상은업무효율을높일수는있지만,장기적으로는독립적인문제해결능력을약화시키고AI에과도하게의존하게만드는부작용을초래할수있습니다.전문가들은AI를무조건배척하기보다사용자가명확한목표를가지고결과물을직접검증하며비판적으로관여해야한다고강조합니다.AI가제공하는정보의추론방식과데이터처리과정을이해함으로써스스로정보에근거한결정을내리는능력을유지하는것이중요합니다.
781 조회
0 추천
2025.12.21 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입