Loading...

AI 뉴스

연구들이 AI 훈련 데이터와 테스트의 결함을 드러내다

페이지 정보

작성자 xtalfi
작성일 2025.11.07 14:52
1,601 조회
0 추천
0 비추천

본문

251105-ai-safety-tests-lr-10661e.jpg

(퍼플렉시티가 정리한 기사)


이번 주에 발표된 두 가지 주요 연구는 인공지능 시스템이 구축되고 평가되는 방식의 심각한 약점을 드러내며, AI 능력이 과장되어 왔는지에 대한 의문을 제기하고 있다.

Sony AI는 11월 5일 컴퓨터 비전 모델의 편향성을 드러내기 위해 설계된 데이터셋인 Fair Human-Centric Image Benchmark를 공개했으며, 옥스퍼드 인터넷 연구소와 영국 정부의 AI 보안 연구소 연구원들은 AI 성능을 측정하는 데 사용되는 테스트의 광범위한 결함을 밝히는 연구를 발표했다. 이러한 연구 결과들은 많은 AI 시스템이 윤리적으로 문제가 있는 데이터로 훈련되고 신뢰할 수 없는 방법으로 평가될 수 있음을 시사한다.​


훈련 데이터에 동의와 다양성이 부족함

Sony AI가 Nature에 발표한 새로운 벤치마크는 연구자들이 컴퓨터 비전 시스템에서 "편향되고 윤리적으로 문제가 있는 학습 데이터의 지속적인 과제"라고 부르는 문제를 다룹니다. 이 데이터셋은 81개국 1,981명의 개인이 찍힌 10,318장의 이미지로 구성되어 있으며, 모두 사전 동의와 공정한 보상을 받아 수집되었습니다—이는 업계 관행과 크게 다른 방식입니다.​

Sony Group의 AI 거버넌스 글로벌 책임자인 Alice Xiang은 컴퓨터 비전이 객관적이지 않다고 강조했습니다. "컴퓨터 비전은 학습 데이터에 반영된 편향에 따라 사물을 왜곡할 수 있습니다"라고 그녀는 말했습니다. 데이터셋은 기존 AI 모델 중 공정성 테스트를 완전히 통과한 모델이 없다는 것을 보여주었습니다. 일부 모델은 "she/her/hers" 대명사를 사용하는 사람들에 대해 낮은 정확도를 보였으며, 벤치마크는 이를 더 큰 헤어스타일 변동성—이전에 간과되었던 요인—으로 추적했습니다. 직업에 대한 중립적인 질문을 받았을 때, 테스트된 모델들은 특정 인구통계학적 그룹에 대해 특히 고정관념을 강화했으며, 때로는 피사체를 성매매 종사자, 마약상 또는 도둑으로 묘사했습니다.​


벤치마크 테스트가 신뢰할 수 없고 오해의 소지가 있는 것으로 밝혀짐

옥스퍼드 연구팀은 445개 AI 벤치마크를 조사한 결과, 거의 모든 벤치마크에 기술 기업들이 주장하는 결과의 신뢰성을 "약화시키는 결함"이 있음을 발견했습니다. 벤치마크 중 통계적 테스트를 통해 신뢰성을 증명한 것은 16%에 불과했습니다.​

핵심적인 문제는 구성 타당성(construct validity), 즉 테스트가 실제로 그들이 측정한다고 주장하는 것을 제대로 측정하는지에 관한 것입니다. 옥스퍼드 인터넷 연구소의 수석 연구원인 아담 마디(Adam Mahdi)는 NBC 뉴스와의 인터뷰에서, 그레이드 스쿨 매스 8K(Grade School Math 8K) 벤치마크와 같은 테스트에서 모델이 좋은 성과를 거둔다고 해서 반드시 추론 능력을 보여준다고 할 수는 없다고 말했습니다. 그는 "1학년 학생에게 '2 더하기 5가 뭐야?'라고 물었을 때 '7이에요'라고 답하면, 분명 정답입니다. 하지만 이로부터 5학년이 수학적 추론을 완벽하게 습득했다고 결론지을 수 있을까요?"라고 덧붙였습니다.​

이번 연구는 데이터 오염(data contamination)을 주요 문제로 지적했는데, 이는 테스트 문항이 모델의 학습 데이터셋에 포함되어 있어 모델이 답을 추론하는 것이 아니라 암기해서 답을 내는 현상입니다. Mixtral, Phi-3, Gemma를 포함한 여러 모델은 GSM8K 벤치마크와 유사한 신규 문항으로 평가할 때 성능이 최대 13%까지 저하되는 것으로 나타났습니다.​

옥스퍼드 연구의 수석 저자인 앤드루 빈(Andrew Bean)은 업계에서 내놓는 주장들을 그대로 믿어서는 안 된다고 경고했습니다. "모델이 박사 수준의 지능을 가졌다는 것 같은 이야기를 볼 때는 한 번쯤 의심해볼 필요가 있습니다,"라고 빈은 NBC 뉴스에 말했습니다. 이번 연구 결과는 최근 구글이 자사의 Gemma AI 모델이 미국 상원의원에 관한 허위 주장을 생성한 후에 모델을 철회한 상황에서 나왔습니다.

댓글 0
전체 1,366 / 26 페이지
2025년 말, 음악 산업의 지형도를 뒤흔드는 상징적인 사건이 발생했습니다. 세계적인 거대 레이블 워너 뮤직 그룹(WMG)이 생성형 AI 음악 플랫폼 수노(Suno)와 극적인 합의에 도달하며, 적대적 소송 관계를 끝내고 공식적인 파트너십을 체결한 것입니다. 이번 합의는 기술적 혁신과 저작권 보호라는 팽팽한 갈등 사이에서 음악 산업이 나아갈 새로운 공존의 길을 제시하고 있습니다.이번 파트너십의 핵심은 아티스트의 권리를 철저히 보장하는 ‘선택적 참여(Opt-in)’ 모델에 있습니다. 과거 AI 기업들이 저작물을 무단으로 학습시키며 비판을 받았던 것과 달리, 이제 워너 뮤직 소속 아티스트들은 자신의 목소리와 음악적 자산을 AI 학습에 제공할지 여부를 스스로 결정하게 됩니다. 이는 아티스트의 고유한 정체성을 데이터 자산으로 인정하고, 그 활용 과정에서 발생하는 수익을 정당하게 배분하겠다는 의지의 표명입니다.수노는 이번 합의를 기점으로 단순한 생성 도구를 넘어 종합적인 음악 생태계로의 진화를 꾀하고 있습니다. 특히 공연 정보 플랫폼 ‘송킥(Songkick)’을 인수하며 온라인의 AI 창작물과 오프라인의 라이브 공연 경험을 연결하려는 행보는 주목할 만합니다. 또한 무료 사용자의 무분별한 콘텐츠 생성을 제한하고 유료 모델을 강화함으로써, 이른바 ‘AI 슬롭(Slop)’이라 불리는 저품질 콘텐츠의 범람을 막고 시장의 질서를 잡으려는 노력도 병행하고 있습니다.이러한 변화는 음악 산업에 깊은 통찰을 던져줍니다. 무엇보다 이번 사건은 AI 기술의 흐름을 법적으로 막아설 수 없다는 현실을 인정한 레이블들이, 기술을 제도권 안으로 끌어들여 새로운 ‘라이선스 수익 모델’을 창출하는 실리를 택했음을 보여줍니다. 이제 음악은 완성된 결과물을 소비하는 단계를 넘어, 아티스트의 목소리와 스타일 자체가 거래되는 새로운 가치 사슬을 형성하게 되었습니다.결국 이번 합의는 AI가 음악적 영감을 훼손하는 위협이 아니라, 팬들이 아티스트의 자산을 활용해 상호작용할 수 있는 새로운 창작의 도구가 될 수 있음을 시사합니다. 기술의 풍요로움이 인간의 창의성과 결합하여 음악 산업의 가치를 높일 수 있을지, 아니면 단순한 상업적 도구로 전락할지는 향후 구축될 투명한 보상 체계와 윤리적 운영에 달려 있습니다.
769 조회
0 추천
2025.12.26 등록
OpenAI는 “hazelnuts”라는 코드명의 새로운 “Skills” 기능을 ChatGPT에 테스트 중이며, 이를 통해 사용자는 슬래시 명령어를 통해 맞춤 지시사항에 액세스할 수 있고, Skills 편집기와 맞춤 GPT를 스킬로 변환하는 옵션이 제공되며, 2026년 1월에 출시될 것으로 예상됩니다.Skills는 AI 시스템에 특정 능력과 워크플로우를 가르치는 폴더 기반 지시사항으로, 12월 18일 agentskills.io에서 Anthropic이 공개한 오픈 스탠다드를 따르며, OpenAI는 이미 지난주 자사의 Codex 코딩 에이전트에 이를 조용히 도입했습니다.Microsoft, GitHub, 그리고 Cursor와 Goose를 포함한 인기 있는 코딩 에이전트들은 이미 Agent Skills 표준을 통합했으며, 이는 여러 스킬을 효율적으로 함께 쌓을 수 있는 이 접근 방식의 광범위한 업계 채택을 나타냅니다.
786 조회
0 추천
2025.12.25 등록
OpenAI의 GPT-5.2는 실제 테스트에서 이전 버전 대비 미미한 개선만을 제공한 반면, Google의 Gemini 3는 Nano Banana Pro 모델을 통해 속도, 창의적 글쓰기, 이미지 생성에서 명확하게 눈에 띄는 발전을 보여주었습니다.경쟁 압박으로 인해 OpenAI CEO Sam Altman은 Gemini 3의 출시가 다양한 성능 지표에서 GPT-5.1을 능가한 후, 직원들에게 즉각적인 ChatGPT 개선을 우선시하도록 지시하는 “코드 레드” 지침을 발령했습니다.GPT-5.2의 API 가격은 GPT-5.1 대비 40% 인상된 반면, Gemini 3는 더 저렴한 가격을 유지하면서 일반 사용자들이 더 쉽게 알아차릴 수 있는 복잡한 추론 작업에서 일관되게 더 빠르고 정확한 응답을 제공했습니다.
754 조회
0 추천
2025.12.25 등록
OpenAI는 화요일에 2026년까지 인공 일반 지능에 도달하는 것은 더 강력한 모델을 개발하는 것만큼이나 사용자가 AI를 효과적으로 채택하도록 돕는 것에 달려 있다고 발표했으며, AI가 할 수 있는 것과 대부분의 사람들이 실제로 사용하는 것 사이에 “능력 격차”가 있다고 지적했다.이 회사의 전환은 조사 대상 근로자의 75%가 AI가 속도나 품질을 향상시켜 매일 40~60분을 절약한다고 보고하는 데이터 가운데 이루어졌지만, 일반 직원보다 6배 많은 AI 메시지를 보내는 “선도” 사용자들과의 격차가 존재한다.OpenAI의 2026년 로드맵은 이제 의료, 비즈니스 운영 및 일상생활에서 “배포 격차”를 줄이는 것을 강조하며, 케냐 파트너십과 같은 실제 배포를 통해 39,849건의 환자 방문에서 진단 오류를 16% 감소시켰다.
776 조회
0 추천
2025.12.25 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입