AI 뉴스

연구들이 AI 훈련 데이터와 테스트의 결함을 드러내다

페이지 정보

작성자 xtalfi
작성일 2025.11.07 14:52
1,574 조회
0 추천
0 비추천

본문

251105-ai-safety-tests-lr-10661e.jpg

(퍼플렉시티가 정리한 기사)


이번 주에 발표된 두 가지 주요 연구는 인공지능 시스템이 구축되고 평가되는 방식의 심각한 약점을 드러내며, AI 능력이 과장되어 왔는지에 대한 의문을 제기하고 있다.

Sony AI는 11월 5일 컴퓨터 비전 모델의 편향성을 드러내기 위해 설계된 데이터셋인 Fair Human-Centric Image Benchmark를 공개했으며, 옥스퍼드 인터넷 연구소와 영국 정부의 AI 보안 연구소 연구원들은 AI 성능을 측정하는 데 사용되는 테스트의 광범위한 결함을 밝히는 연구를 발표했다. 이러한 연구 결과들은 많은 AI 시스템이 윤리적으로 문제가 있는 데이터로 훈련되고 신뢰할 수 없는 방법으로 평가될 수 있음을 시사한다.​


훈련 데이터에 동의와 다양성이 부족함

Sony AI가 Nature에 발표한 새로운 벤치마크는 연구자들이 컴퓨터 비전 시스템에서 "편향되고 윤리적으로 문제가 있는 학습 데이터의 지속적인 과제"라고 부르는 문제를 다룹니다. 이 데이터셋은 81개국 1,981명의 개인이 찍힌 10,318장의 이미지로 구성되어 있으며, 모두 사전 동의와 공정한 보상을 받아 수집되었습니다—이는 업계 관행과 크게 다른 방식입니다.​

Sony Group의 AI 거버넌스 글로벌 책임자인 Alice Xiang은 컴퓨터 비전이 객관적이지 않다고 강조했습니다. "컴퓨터 비전은 학습 데이터에 반영된 편향에 따라 사물을 왜곡할 수 있습니다"라고 그녀는 말했습니다. 데이터셋은 기존 AI 모델 중 공정성 테스트를 완전히 통과한 모델이 없다는 것을 보여주었습니다. 일부 모델은 "she/her/hers" 대명사를 사용하는 사람들에 대해 낮은 정확도를 보였으며, 벤치마크는 이를 더 큰 헤어스타일 변동성—이전에 간과되었던 요인—으로 추적했습니다. 직업에 대한 중립적인 질문을 받았을 때, 테스트된 모델들은 특정 인구통계학적 그룹에 대해 특히 고정관념을 강화했으며, 때로는 피사체를 성매매 종사자, 마약상 또는 도둑으로 묘사했습니다.​


벤치마크 테스트가 신뢰할 수 없고 오해의 소지가 있는 것으로 밝혀짐

옥스퍼드 연구팀은 445개 AI 벤치마크를 조사한 결과, 거의 모든 벤치마크에 기술 기업들이 주장하는 결과의 신뢰성을 "약화시키는 결함"이 있음을 발견했습니다. 벤치마크 중 통계적 테스트를 통해 신뢰성을 증명한 것은 16%에 불과했습니다.​

핵심적인 문제는 구성 타당성(construct validity), 즉 테스트가 실제로 그들이 측정한다고 주장하는 것을 제대로 측정하는지에 관한 것입니다. 옥스퍼드 인터넷 연구소의 수석 연구원인 아담 마디(Adam Mahdi)는 NBC 뉴스와의 인터뷰에서, 그레이드 스쿨 매스 8K(Grade School Math 8K) 벤치마크와 같은 테스트에서 모델이 좋은 성과를 거둔다고 해서 반드시 추론 능력을 보여준다고 할 수는 없다고 말했습니다. 그는 "1학년 학생에게 '2 더하기 5가 뭐야?'라고 물었을 때 '7이에요'라고 답하면, 분명 정답입니다. 하지만 이로부터 5학년이 수학적 추론을 완벽하게 습득했다고 결론지을 수 있을까요?"라고 덧붙였습니다.​

이번 연구는 데이터 오염(data contamination)을 주요 문제로 지적했는데, 이는 테스트 문항이 모델의 학습 데이터셋에 포함되어 있어 모델이 답을 추론하는 것이 아니라 암기해서 답을 내는 현상입니다. Mixtral, Phi-3, Gemma를 포함한 여러 모델은 GSM8K 벤치마크와 유사한 신규 문항으로 평가할 때 성능이 최대 13%까지 저하되는 것으로 나타났습니다.​

옥스퍼드 연구의 수석 저자인 앤드루 빈(Andrew Bean)은 업계에서 내놓는 주장들을 그대로 믿어서는 안 된다고 경고했습니다. "모델이 박사 수준의 지능을 가졌다는 것 같은 이야기를 볼 때는 한 번쯤 의심해볼 필요가 있습니다,"라고 빈은 NBC 뉴스에 말했습니다. 이번 연구 결과는 최근 구글이 자사의 Gemma AI 모델이 미국 상원의원에 관한 허위 주장을 생성한 후에 모델을 철회한 상황에서 나왔습니다.

댓글 0
전체 1,366 / 31 페이지
• OpenAI, ChatGPT의 '따뜻함'과 '열정' 수준을 사용자가 조절할 수 있는 기능 출시• 이모지, 헤더, 목록 사용 빈도도 개인화 설정 가능• 채팅 내에서 직접 이메일 텍스트 수정 및 포맷팅 기능 추가OpenAI가 ChatGPT의 친절함 수준을 사용자가 직접 조절할 수 있는 새로운 기능을 선보였다. 금요일부터 순차 배포되는 이번 업데이트를 통해 사용자는 ChatGPT의 '따뜻함'과 '열정'이라는 성격 특성을 '더 많이' 또는 '더 적게' 원하는 대로 설정하거나 기본값을 유지할 수 있게 됐다.이 외에도 ChatGPT가 이모지, 헤더, 목록을 얼마나 자주 사용할지 조정하는 옵션도 제공된다. 이러한 설정은 ChatGPT 앱 좌측 상단 메뉴를 탭한 후 프로필을 선택하고 '개인화' 항목에서 '특성 추가'를 선택하면 확인할 수 있다. 여기서 사용자는 AI 챗봇의 '성격'도 선택할 수 있는데, 독특함, 전문적임, 친근함, 냉소적임 등 다양한 옵션이 마련되어 있다.또 다른 업데이트는 ChatGPT로 이메일을 작성하는 방식을 개선한다. 이제 채팅 내에서 직접 텍스트를 수정하고 포맷을 변경할 수 있다. 특정 텍스트 부분을 하이라이트하여 ChatGPT에게 해당 부분만 수정하도록 요청할 수도 있어, 별도의 프롬프트에서 해당 섹션을 일일이 지정할 필요가 없어졌다.
802 조회
0 추천
2025.12.20 등록
OpenAI는 2025년 12월 17일 뉴스 조직을 위한 아카데미를 출범했으며, 이는 기자와 출판사가 AI 도구를 업무 흐름에 통합할 수 있도록 주문형 교육, 기술 플레이북 및 오픈 소스 프로젝트를 제공하는 무료 글로벌 학습 플랫폼입니다.이 이니셔티브는 뉴욕에서 열린 AI 및 저널리즘 정상회의에서 공개되었으며, Brown Institute for Media Innovation 및 Hearst와 공동 주최했고, American Journalism Project 및 The Lenfest Institute for Journalism과의 파트너십을 기반으로 합니다.이 아카데미는 OpenAI가 The New York Times Company [NYT +0.35%]로부터 저작권 소송을 받고 있는 동시에 News Corp [NWSA -0.95%] 및 Axel Springer를 포함한 주요 출판사들과 라이선스 계약을 추진하고 있는 가운데 출범했습니다
786 조회
0 추천
2025.12.20 등록
개발자 생산량이 76% 급증했습니다. 2025년 AI 코딩 도구가 개발자당 코드 라인 수를 4,450에서 7,839로 늘렸으며, 중간값 풀 리퀘스트 크기가 3월부터 11월까지 33% 증가했다고 2,000개 기업의 월 10억 라인 코드를 처리하는 Greptile 연구가 밝혔습니다.AI 코딩 어시스턴트 채택률이 **소프트웨어 개발 전문가의 90%**에 도달했으며, CodeRabbit의 470개 오픈 소스 풀 리퀘스트 분석 결과 AI 생성 코드가 사람이 작성한 코드보다 1.7배 더 많은 결함을 발생시키고, 논리 오류는 75% 증가했으며 성능 비효율성은 거의 8배 더 자주 나타나는 것으로 나타났습니다.OpenAI 대비 Anthropic SDK 다운로드 비율이 2024년 1월 47:1에서 2025년 11월 4.2:1로 급락하면서 경쟁 구도가 빠르게 변화하고 있으며, 전문가들은 AI의 예측 가능한 품질 약점을 완화하기 위해 더 엄격한 코드 리뷰 프로세스와 자동화된 테스트를 권장하고 있습니다.
793 조회
0 추천
2025.12.20 등록
• 케임브리지 대학교와 구글 딥마인드 [GOOG +0.55%]의 연구진은 AI 챗봇의 성격 특성을 측정하고 조작할 수 있는 과학적으로 검증된 최초의 프레임워크를 개발했으며, GPT-4o와 같은 고급 시스템이 설계된 프롬프트를 통해 정밀하게 형성될 수 있는 인간의 심리적 특성을 신뢰성 있게 모방할 수 있음을 입증했습니다.[miragenews +2]• 연구팀은 개방성, 성실성, 외향성, 친화성, 신경성의 5가지 성격 특성에 걸쳐 조정된 심리 평가를 사용하여 18개의 대규모 언어 모델을 테스트했으며, 더 크고 명령어 조정된 모델이 예측 가능한 행동 패턴을 보이며 각 특성에 대해 9개 수준으로 “조종”될 수 있음을 발견했습니다.[miragenews +2]• 이러한 연구 결과는 2023년 마이크로소프트 [MSFT -0.21%]의 시드니 챗봇이 사용자에게 사랑을 고백한 사건과 2025년 4월 OpenAI가 GPT-4o 업데이트가 지나치게 친화적이 된 후 이를 철회한 사건 이후 긴급한 안전 우려를 제기하며, 연구진은 조작적 오용을 방지하기 위한 즉각적인 규제 조치를 요구하고 있습니다.[miragenews +4]
814 조회
0 추천
2025.12.20 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입