AI 뉴스

연구들이 AI 훈련 데이터와 테스트의 결함을 드러내다

페이지 정보

작성자 xtalfi
작성일 2025.11.07 14:52
1,392 조회
0 추천
0 비추천

본문

251105-ai-safety-tests-lr-10661e.jpg

(퍼플렉시티가 정리한 기사)


이번 주에 발표된 두 가지 주요 연구는 인공지능 시스템이 구축되고 평가되는 방식의 심각한 약점을 드러내며, AI 능력이 과장되어 왔는지에 대한 의문을 제기하고 있다.

Sony AI는 11월 5일 컴퓨터 비전 모델의 편향성을 드러내기 위해 설계된 데이터셋인 Fair Human-Centric Image Benchmark를 공개했으며, 옥스퍼드 인터넷 연구소와 영국 정부의 AI 보안 연구소 연구원들은 AI 성능을 측정하는 데 사용되는 테스트의 광범위한 결함을 밝히는 연구를 발표했다. 이러한 연구 결과들은 많은 AI 시스템이 윤리적으로 문제가 있는 데이터로 훈련되고 신뢰할 수 없는 방법으로 평가될 수 있음을 시사한다.​


훈련 데이터에 동의와 다양성이 부족함

Sony AI가 Nature에 발표한 새로운 벤치마크는 연구자들이 컴퓨터 비전 시스템에서 "편향되고 윤리적으로 문제가 있는 학습 데이터의 지속적인 과제"라고 부르는 문제를 다룹니다. 이 데이터셋은 81개국 1,981명의 개인이 찍힌 10,318장의 이미지로 구성되어 있으며, 모두 사전 동의와 공정한 보상을 받아 수집되었습니다—이는 업계 관행과 크게 다른 방식입니다.​

Sony Group의 AI 거버넌스 글로벌 책임자인 Alice Xiang은 컴퓨터 비전이 객관적이지 않다고 강조했습니다. "컴퓨터 비전은 학습 데이터에 반영된 편향에 따라 사물을 왜곡할 수 있습니다"라고 그녀는 말했습니다. 데이터셋은 기존 AI 모델 중 공정성 테스트를 완전히 통과한 모델이 없다는 것을 보여주었습니다. 일부 모델은 "she/her/hers" 대명사를 사용하는 사람들에 대해 낮은 정확도를 보였으며, 벤치마크는 이를 더 큰 헤어스타일 변동성—이전에 간과되었던 요인—으로 추적했습니다. 직업에 대한 중립적인 질문을 받았을 때, 테스트된 모델들은 특정 인구통계학적 그룹에 대해 특히 고정관념을 강화했으며, 때로는 피사체를 성매매 종사자, 마약상 또는 도둑으로 묘사했습니다.​


벤치마크 테스트가 신뢰할 수 없고 오해의 소지가 있는 것으로 밝혀짐

옥스퍼드 연구팀은 445개 AI 벤치마크를 조사한 결과, 거의 모든 벤치마크에 기술 기업들이 주장하는 결과의 신뢰성을 "약화시키는 결함"이 있음을 발견했습니다. 벤치마크 중 통계적 테스트를 통해 신뢰성을 증명한 것은 16%에 불과했습니다.​

핵심적인 문제는 구성 타당성(construct validity), 즉 테스트가 실제로 그들이 측정한다고 주장하는 것을 제대로 측정하는지에 관한 것입니다. 옥스퍼드 인터넷 연구소의 수석 연구원인 아담 마디(Adam Mahdi)는 NBC 뉴스와의 인터뷰에서, 그레이드 스쿨 매스 8K(Grade School Math 8K) 벤치마크와 같은 테스트에서 모델이 좋은 성과를 거둔다고 해서 반드시 추론 능력을 보여준다고 할 수는 없다고 말했습니다. 그는 "1학년 학생에게 '2 더하기 5가 뭐야?'라고 물었을 때 '7이에요'라고 답하면, 분명 정답입니다. 하지만 이로부터 5학년이 수학적 추론을 완벽하게 습득했다고 결론지을 수 있을까요?"라고 덧붙였습니다.​

이번 연구는 데이터 오염(data contamination)을 주요 문제로 지적했는데, 이는 테스트 문항이 모델의 학습 데이터셋에 포함되어 있어 모델이 답을 추론하는 것이 아니라 암기해서 답을 내는 현상입니다. Mixtral, Phi-3, Gemma를 포함한 여러 모델은 GSM8K 벤치마크와 유사한 신규 문항으로 평가할 때 성능이 최대 13%까지 저하되는 것으로 나타났습니다.​

옥스퍼드 연구의 수석 저자인 앤드루 빈(Andrew Bean)은 업계에서 내놓는 주장들을 그대로 믿어서는 안 된다고 경고했습니다. "모델이 박사 수준의 지능을 가졌다는 것 같은 이야기를 볼 때는 한 번쯤 의심해볼 필요가 있습니다,"라고 빈은 NBC 뉴스에 말했습니다. 이번 연구 결과는 최근 구글이 자사의 Gemma AI 모델이 미국 상원의원에 관한 허위 주장을 생성한 후에 모델을 철회한 상황에서 나왔습니다.

댓글 0
전체 1,366 / 65 페이지
수십만 종의 데이터를 분석하여 질병을 유발하는 유전자 돌연변이를 식별할 수 있는 인공지능 모델을 개발했으며, 이는 의사들이 희귀 질환을 진단하는 방식을 잠재적으로 변화시킬 수 있습니다.popEVE라고 불리는 이 모델은 11월 24일 Nature Genetics에 게재되었으며, 심각한 발달 장애가 있는 어린이들과 관련된 31,000건 이상의 사례 중 98%에서 가장 유해한 유전적 변이를 정확하게 식별했습니다. 이 도구는 DeepMind의 AlphaMissense를 포함한 경쟁 모델들을 능가했으며, 이전에 알려지지 않았던 123개의 후보 질병 유전자를 발견했고, 이 중 104개는 단 한두 명의 환자에서만 관찰되었습니다.진화와 인구 데이터의 결합PopEVE는 수십억 년의 진화 역사를 기반으로, 약 20,000개의 인간 단백질 중 생명에 필수적인 부분과 변화를 견딜 수 있는 부분을 분석합니다. 이 모델은 이러한 진화 정보를 영국 바이오뱅크(UK Biobank)와 게놈 집합 데이터베이스(gnomAD)의 데이터와 통합하며, 이들 데이터는 건강한 사람들에게 어떤 변이가 존재하는지 보여줍니다.공동 교신저자이자 유전체조절센터(Centre for Genomic Regulation) 연구원인 마팔다 디아스(Mafalda Dias) 박사는 “진료소들이 항상 부모의 DNA에 접근할 수 있는 것은 아니며 많은 환자들이 혼자 방문합니다”라고 말했습니다. “PopEVE는 이러한 의사들이 질병을 유발하는 돌연변이를 식별하는 데 도움을 줄 수 있으며, 우리는 진료소들과의 협력을 통해 이미 이를 확인하고 있습니다”.트리오 시퀀싱(trio sequencing)으로 알려진 부모 양쪽의 DNA를 필요로 하는 전통적인 유전 진단 방법과 달리, PopEVE는 환자의 유전 정보만으로 작동할 수 있습니다. 이러한 기능은 자원이 제한된 의료 시스템에 특히 유용하며, 진단을 더 빠르고 저렴하게 만듭니다.조상 편향 줄이기popEVE의 두드러진 특징 중 하나는 유전 데이터베이스에서 과소 대표되는 혈통을 가진 사람들에게 불이익을 주지 않는 능력입니다. 현재 유전 데이터베이스는 주로 유럽계 혈통 사람들에게 편향되어 있습니다. 이 모델은 특정 집단에서 한 번 발견된 돌연변이든 유럽 집단에서 수천 번 발견된 돌연변이든 모든 인간 변이를 동등하게 취급합니다.Centre for Genomic Regulation의 공동 교신저자이자 연구원인 Jonathan Frazer 박사는 “전 세계 데이터베이스에 자신의 커뮤니티가 잘 대표되지 않는다는 이유만으로 누구도 무서운 결과를 받아서는 안 됩니다”라고 말했습니다. “PopEVE는 그 불균형을 바로잡는 데 도움이 되며, 이는 이 분야에서 오랫동안 부족했던 것입니다”.[crg +2]연구진은 popEVE가 미스센스 돌연변이—단백질의 단일 아미노산을 변경하는 DNA 변화—만을 해석하며 임상 판단을 대체하지 않는다고 언급했습니다. 현재 희귀 질환을 가진 사람들 중 2명 중 1명은 명확한 진단을 받지 못하고 있습니다.
784 조회
0 추천
2025.11.25 등록
Anthropic은 Claude를 위한 세 가지 베타 기능인 Tool Search Tool, Programmatic Tool Calling, Tool Use Examples를 출시했습니다. 이는 AI 에이전트가 컨텍스트 윈도우를 과부하시키지 않고 수백 또는 수천 개의 도구를 사용할 수 있도록 하며, 개별 API 요청 대신 코드를 통해 도구를 호출하고, 스키마 정의만으로가 아닌 구체적인 예시를 통해 올바른 사용법을 학습하도록 설계되었습니다.내부 테스트에서 Tool Search Tool은 토큰 사용량을 85% 감소시키는 동시에 대규모 도구 라이브러리에서 Opus 4.5의 정확도를 79.5%에서 88.1%로 향상시켰으며, Programmatic Tool Calling은 복잡한 연구 작업에서 37%의 토큰 절감을 달성하면서 이전에 도구 호출당 수백 밀리초가 필요했던 여러 추론 과정을 제거했습니다.이 기능들은 GitHub, Slack, Sentry, Grafana, Splunk를 연결하는 기본 5개 서버 설정에서 대화가 시작되기 전에 약 55,000개의 토큰을 소비하는 중요한 확장성 문제를 해결합니다. Anthropic은 최적화 이전 프로덕션 환경에서 도구 정의가 최대 134,000개의 토큰을 소비하는 것을 관찰했습니다.
793 조회
0 추천
2025.11.25 등록
기술 저널리스트 Alex Kantrowitz와 Ranjan Roy는 Google의 Gemini 3가 OpenAI의 심각한 경쟁자로 부상했으며, Sam Altman이 유출된 메모에서 직원들에게 “거친 분위기”와 “일시적인 경제적 역풍”을 예상하라고 경고했다고 논의했습니다. Kantrowitz는 이를 분수령의 순간이라고 부르며, OpenAI가 앞서간다는 것을 인정받은 적이 없었다고 말했습니다.Gemini 3는 Arc AGI와 LM Arena 리더보드를 포함한 주요 AI 벤치마크에서 1위를 차지했으며, 추상적 시각 추론에서 GPT-5.1의 점수(31.1% 대 17.6%)의 거의 두 배를 달성했습니다. 한편 Google의 조직 재편—DeepMind와 Brain을 회사의 “엔진룸”으로 통합하고 검색에서 수백 명의 엔지니어를 이동—이 이러한 반전을 가능하게 했습니다.이러한 변화는 Google이 시가총액 3조 6,200억 달러로 Microsoft를 앞지르고, Nvidia의 기록적인 실적이 AI 거래를 유지하지 못하면서 발생했으며, 주가는 상승 5%에서 하락 3%로 반전되었습니다. 이는 AI 모델의 상품화와 경쟁하는 챗봇들이 기능적으로 상호 교환 가능해지고 있는지에 대한 투자자들의 우려가 커지면서 나타났습니다.
802 조회
0 추천
2025.11.25 등록
개발자 Simon Willison은 최상위 모델들이 현재 너무나 유사하게 작동하여 실제 작업에서는 기업들이 각 릴리스마다 개선을 주장함에도 불구하고 의미 있는 성능 차이를 드러내지 못하기 때문에, 최첨단 AI 모델 평가가 점점 더 어려워지고 있다고 주장한다.Willison은 Anthropic에서 새로 출시한 Claude Opus 4.5를 사용하여 이틀 동안 39개 파일에 걸쳐 2,022개의 코드 추가를 포함하는 광범위한 코딩 작업을 완료한 후, 이전 Claude Sonnet 4.5 모델로 다시 전환했을 때도 동일한 속도로 작업을 계속할 수 있었으며, 두 모델 간의 구체적인 성능 차이를 식별할 수 없었다고 밝혔다.Willison은 AI 연구소들이 새로운 모델을 출시할 때 이전 모델에서는 실패했지만 새 모델에서는 성공하는 프롬프트의 구체적인 예시를 함께 제공할 것을 요구하며, 이러한 시연이 MMLU나 GPQA Diamond와 같은 테스트에서 한 자릿수 백분율 포인트 개선을 보여주는 벤치마크보다 더 가치 있을 것이라고 주장한다—이는 최첨단 모델들이 전통적인 평가 지표를 점점 더 포화시키면서 업계 전반이 겪고 있는 어려움을 반영하는 과제이다.
843 조회
0 추천
2025.11.25 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입