Loading...

AI 뉴스

연구들이 AI 훈련 데이터와 테스트의 결함을 드러내다

페이지 정보

작성자 xtalfi
작성일 2025.11.07 14:52
1,624 조회
0 추천
0 비추천

본문

251105-ai-safety-tests-lr-10661e.jpg

(퍼플렉시티가 정리한 기사)


이번 주에 발표된 두 가지 주요 연구는 인공지능 시스템이 구축되고 평가되는 방식의 심각한 약점을 드러내며, AI 능력이 과장되어 왔는지에 대한 의문을 제기하고 있다.

Sony AI는 11월 5일 컴퓨터 비전 모델의 편향성을 드러내기 위해 설계된 데이터셋인 Fair Human-Centric Image Benchmark를 공개했으며, 옥스퍼드 인터넷 연구소와 영국 정부의 AI 보안 연구소 연구원들은 AI 성능을 측정하는 데 사용되는 테스트의 광범위한 결함을 밝히는 연구를 발표했다. 이러한 연구 결과들은 많은 AI 시스템이 윤리적으로 문제가 있는 데이터로 훈련되고 신뢰할 수 없는 방법으로 평가될 수 있음을 시사한다.​


훈련 데이터에 동의와 다양성이 부족함

Sony AI가 Nature에 발표한 새로운 벤치마크는 연구자들이 컴퓨터 비전 시스템에서 "편향되고 윤리적으로 문제가 있는 학습 데이터의 지속적인 과제"라고 부르는 문제를 다룹니다. 이 데이터셋은 81개국 1,981명의 개인이 찍힌 10,318장의 이미지로 구성되어 있으며, 모두 사전 동의와 공정한 보상을 받아 수집되었습니다—이는 업계 관행과 크게 다른 방식입니다.​

Sony Group의 AI 거버넌스 글로벌 책임자인 Alice Xiang은 컴퓨터 비전이 객관적이지 않다고 강조했습니다. "컴퓨터 비전은 학습 데이터에 반영된 편향에 따라 사물을 왜곡할 수 있습니다"라고 그녀는 말했습니다. 데이터셋은 기존 AI 모델 중 공정성 테스트를 완전히 통과한 모델이 없다는 것을 보여주었습니다. 일부 모델은 "she/her/hers" 대명사를 사용하는 사람들에 대해 낮은 정확도를 보였으며, 벤치마크는 이를 더 큰 헤어스타일 변동성—이전에 간과되었던 요인—으로 추적했습니다. 직업에 대한 중립적인 질문을 받았을 때, 테스트된 모델들은 특정 인구통계학적 그룹에 대해 특히 고정관념을 강화했으며, 때로는 피사체를 성매매 종사자, 마약상 또는 도둑으로 묘사했습니다.​


벤치마크 테스트가 신뢰할 수 없고 오해의 소지가 있는 것으로 밝혀짐

옥스퍼드 연구팀은 445개 AI 벤치마크를 조사한 결과, 거의 모든 벤치마크에 기술 기업들이 주장하는 결과의 신뢰성을 "약화시키는 결함"이 있음을 발견했습니다. 벤치마크 중 통계적 테스트를 통해 신뢰성을 증명한 것은 16%에 불과했습니다.​

핵심적인 문제는 구성 타당성(construct validity), 즉 테스트가 실제로 그들이 측정한다고 주장하는 것을 제대로 측정하는지에 관한 것입니다. 옥스퍼드 인터넷 연구소의 수석 연구원인 아담 마디(Adam Mahdi)는 NBC 뉴스와의 인터뷰에서, 그레이드 스쿨 매스 8K(Grade School Math 8K) 벤치마크와 같은 테스트에서 모델이 좋은 성과를 거둔다고 해서 반드시 추론 능력을 보여준다고 할 수는 없다고 말했습니다. 그는 "1학년 학생에게 '2 더하기 5가 뭐야?'라고 물었을 때 '7이에요'라고 답하면, 분명 정답입니다. 하지만 이로부터 5학년이 수학적 추론을 완벽하게 습득했다고 결론지을 수 있을까요?"라고 덧붙였습니다.​

이번 연구는 데이터 오염(data contamination)을 주요 문제로 지적했는데, 이는 테스트 문항이 모델의 학습 데이터셋에 포함되어 있어 모델이 답을 추론하는 것이 아니라 암기해서 답을 내는 현상입니다. Mixtral, Phi-3, Gemma를 포함한 여러 모델은 GSM8K 벤치마크와 유사한 신규 문항으로 평가할 때 성능이 최대 13%까지 저하되는 것으로 나타났습니다.​

옥스퍼드 연구의 수석 저자인 앤드루 빈(Andrew Bean)은 업계에서 내놓는 주장들을 그대로 믿어서는 안 된다고 경고했습니다. "모델이 박사 수준의 지능을 가졌다는 것 같은 이야기를 볼 때는 한 번쯤 의심해볼 필요가 있습니다,"라고 빈은 NBC 뉴스에 말했습니다. 이번 연구 결과는 최근 구글이 자사의 Gemma AI 모델이 미국 상원의원에 관한 허위 주장을 생성한 후에 모델을 철회한 상황에서 나왔습니다.

댓글 0
전체 1,366 / 5 페이지
Executive Summary • 뉴욕주에서 지난 11개월간 160여 개 기업이 대량 해고 신고서를 제출했으나, AI나 자동화를 해고 사유로 선택한 기업은 단 한 곳도 없었다 • 골드만삭스, 아마존, 모건스탠리 등 AI 도입에 적극적인 기업들도 공식 서류에는 AI 관련 해고를 인정하지 않았다 • 전문가들은 기업들이 AI 해고를 인정할 경우 평판 손상을 우려하거나, 기술 변화에 따른 조직 개편에 수십 년이 걸리기 때문에 추적이 어렵다고 분석했다 Background 뉴욕주 캐시 호철(Kathy Hochul) 주지사는 AI가 고용 시장에 미치는 실질적 영향을 파악하기 위해 2025년 3월부터 WARN(Worker Adjustment and Retraining Notification) 신고서에 '기술 혁신 또는 자동화' 항목을 추가하도록 노동부에 지시했다. 뉴욕은 이러한 AI 관련 해고 사유 선택지를 제공하는 첫 번째 주가 되었다. Impact & Implications 기업 투명성의 한계 162개 기업, 약 28,300명의 근로자에 영향을 미친 750건 이상의 해고 신고서가 제출되었지만, AI를 사유로 선택한 기업은 전무했다. 골드만삭스는 내부적으로 AI의 생산성 향상 잠재력을 해고와 연계했고, 아마존도 AI 혜택이 인력 감축으로 이어질 것이라고 사전 경고했음에도 공식 서류에는 이를 기재하지 않았다. 이는 기업들이 AI 해고를 공개적으로 인정하는 것에 대한 평판 리스크를 심각하게 고려하고 있음을 시사한다. 규제 강화 움직임 뉴욕주 해리 브론슨(Harry Bronson) 의원은 두 가지 법안을 발의했다. 첫째, 100명 이상 고용 기업에 AI로 인한 미충원 직책 수와 근무시간 변동을 연간 보고하도록 의무화하는 법안이다. 둘째, 일자리를 컴퓨터에 이전하는 더 광범위한 기업에 적용되는 WARN 유사 절차를 도입하고, 미신고 시 주정부 보조금과 세제 혜택 자격을 박탈하는 법안이다. 데이터 수집의 근본적 한계 코넬대학교 노동경제학자 에리카 그로센(Erica Groshen)은 기업들이 신기술의 영향에 대한 질문에 답하기 어려울 것이라고 지적했다. 그녀는 "솔직히 AI에 의해 대체되든 일반적인 경쟁 시장에 의해 대체되든 우리가 정말 신경 써야 할까?"라며, 입법자들이 해야 할 일은 "사람들에게 올바른 전환을 할 수 있는 정보를 제공하는 것"이라고 강조했다. Key Data & Facts 항목수치/내용 조사 기간2025년 3월~2026년 1월 (약 11개월) 해고 신고서 제출 기업 수162개 영향받은 근로자 수약 28,300명 AI를 해고 사유로 선택한 기업0개 골드만삭스 영향 근로자4,100명 이상 아마존 영향 근로자660명 미신고 시 벌금일당 500달러 2024년 AI 귀인 해고 기업 수 (전국)약 55,000개 Key Quote "솔직히 AI에 의해 대체되든 일반적인 경쟁 시장에 의해 대체되든 우리가 정말 신경 써야 할까? 사람들에게 올바른 전환을 할 수 있는 정보를 제공하는 것이 입법자들이 해야 할 일이다." — 에리카 그로센, 코넬대학교 노동경제학 교수
408 조회
0 추천
2026.02.10 등록
Executive Summary • 미 보건복지부(HHS)가 백신 모니터링 데이터베이스에서 패턴을 찾아 백신 부작용에 대한 가설을 생성하는 생성형 AI 도구 개발 중 • 2023년 말부터 개발 시작됐으나 아직 배포되지 않은 상태로, 케네디 보건장관의 반백신 기조와 맞물려 우려 제기 • 전문가들 "LLM은 환각 현상이 있어 반드시 후속 검증 필요" 경고 • VAERS 데이터는 검증되지 않은 자가 보고 방식으로, AI 분석 결과를 단독 근거로 삼기엔 한계 Background 백신부작용보고시스템(VAERS)은 1990년 CDC와 FDA가 공동으로 설립한 백신 안전성 모니터링 시스템이다. 의료진이나 일반인 누구나 이상반응을 신고할 수 있지만, 신고 내용이 별도로 검증되지 않는다는 한계가 있다. 이러한 데이터를 분석해 가설을 도출하려는 시도는 이전부터 있었으나, 대규모 언어모델(LLM) 기반의 생성형 AI를 본격 도입하려는 것은 이번이 처음이다. 백신 회의론자로 알려진 로버트 F. 케네디 주니어 보건장관 취임 이후, 이 도구의 활용 방향에 대한 우려가 커지고 있다. Impact & Implications AI 기술의 한계와 위험 전문가들은 LLM이 그럴듯한 환각(hallucination)을 생성하는 것으로 유명하다고 지적했다. 조지타운대 감염병 전문의 제시 굿맨 교수는 "접근 방식에 따라 많은 거짓 경보가 발생할 것으로 예상되며, 백신과 가능한 이상반응을 이해하고 통계, 역학, LLM 출력의 문제점을 파악하는 숙련된 인력의 후속 검토가 필수"라고 강조했다. CDC 인력이 대폭 축소된 상황에서 AI 생성 데이터를 제대로 검토할 역량이 있는지도 의문이다. 정치적 맥락과 우려 케네디 장관은 취임 후 코로나19, 인플루엔자, A·B형 간염 등 여러 백신을 아동 필수 접종 목록에서 제외했다. FDA 생물학적제제평가연구센터의 비나이 프라사드 소장은 최근 내부 메모에서 증거 인용 없이 코로나19 백신으로 최소 10명의 아동이 사망했다고 주장한 것으로 알려졌다. 전직 FDA 위원장 12명 이상이 뉴잉글랜드의학저널에 "선택적 증거의 재해석에 기반해 백신 규제를 극적으로 변경할 것"이라며 우려를 표명했다. VAERS 데이터의 본질적 한계 필라델피아 아동병원 백신교육센터장 폴 오핏 박사는 "VAERS는 기껏해야 가설 생성 메커니즘"이라며 "누구나 보고할 수 있고 대조군이 없는 시끄러운 시스템"이라고 설명했다. 백신 접종 후 발생한 이상반응을 보여줄 뿐, 백신이 그 반응을 유발했다는 인과관계를 증명하지는 못한다. 그럼에도 반백신 활동가들은 오랫동안 VAERS 데이터를 백신 위험성의 근거로 오용해왔다. Key Data & Facts 항목수치/내용 AI 도구 개발 시작2023년 말 현재 상태미배포 (개발 중) VAERS 설립1990년 (CDC·FDA 공동 운영) 케네디 장관 취임 후 제외된 백신코로나19, 인플루엔자, A·B형 간염, 수막구균, 로타바이러스, RSV 등 전직 FDA 위원장 반대 서한 서명자12명 이상 Key Quote "VAERS는 기껏해야 가설 생성 메커니즘이다. 누구나 보고할 수 있고 대조군이 없는 시끄러운 시스템이다." — 폴 오핏, 필라델피아 아동병원 백신교육센터장
448 조회
0 추천
2026.02.09 등록
Executive Summary • 2025년 4분기 기준, 웹사이트 방문 31건 중 1건이 AI 스크래핑 봇에서 발생 — 연초 대비 6배 이상 증가 • AI 봇의 robots.txt 무시 비율 400% 급증, 웹사이트들의 차단 시도도 336% 증가 • AI 에이전트 트래픽이 인간 사용자와 거의 구분 불가능한 수준에 도달 • 인터넷의 미래가 '인간 중심'에서 '자율 AI 봇 중심'으로 전환될 가능성 대두 Background OpenClaw(구 Moltbot, 그 이전 Clawdbot)와 같은 바이럴 가상 비서의 등장은 인터넷 생태계의 근본적 변화를 상징한다. 웹이 더 이상 인간만의 공간이 아니라 자율 AI 봇이 지배하는 공간으로 변모할 수 있다는 전망이 나오고 있다. 인터넷 인프라 기업 Akamai와 웹 스크래핑 추적 기업 TollBit이 발표한 새로운 보고서는 AI 봇이 이미 웹 트래픽의 상당 부분을 차지하고 있음을 보여준다. Impact & Implications 산업/시장 영향 TollBit 보고서에 따르면 2025년 4분기 기준 고객 웹사이트 방문 31건 중 1건이 AI 스크래핑 봇에서 발생했다. 1분기에는 200건 중 1건에 불과했던 것과 비교하면 급격한 증가세다. 더 주목할 점은 13% 이상의 AI 봇 요청이 robots.txt를 무시하고 있으며, 이 비율이 2분기에서 4분기 사이 400% 증가했다는 것이다. 동시에 AI 봇을 차단하려는 웹사이트도 336% 증가했다. Akamai CTO 로버트 블루모페(Robert Blumofe)는 "AI가 우리가 아는 웹을 변화시키고 있다"며 "그에 따른 군비경쟁이 웹의 미래 모습, 느낌, 기능성, 그리고 비즈니스의 기본을 결정할 것"이라고 경고했다. 기술적 의미 AI 봇들의 스크래핑 기술이 점점 정교해지고 있다. 일부 봇은 일반 웹 브라우저에서 오는 것처럼 트래픽을 위장하거나, 인간이 웹사이트와 상호작용하는 방식을 모방하는 요청을 보낸다. TollBit 연구에 따르면 일부 AI 에이전트의 행동은 이제 인간 웹 트래픽과 거의 구분이 불가능한 수준에 이르렀다. 한편 AI 훈련 목적의 봇 트래픽은 지난 7월 이후 꾸준히 증가하고 있으며, AI 에이전트가 웹 콘텐츠를 실시간으로 가져오는 활동도 상승세다. 챗봇과 AI 도구들이 실시간 정보(제품 가격, 영화 상영 시간, 최신 뉴스 요약 등)를 웹에서 가져와 출력을 개선하는 데 활용하고 있기 때문이다. 향후 전망 TollBit CEO 토싯 파니그라히(Toshit Panigrahi)는 "인터넷의 대부분이 미래에 봇 트래픽이 될 것"이라며 "이것은 단순한 저작권 문제가 아니라, 인터넷에 새로운 방문자가 등장하고 있는 것"이라고 강조했다. 웹사이트들이 AI 스크래퍼에게 콘텐츠 접근료를 부과하거나, AI 에이전트를 차단하는 대신 콘텐츠를 노출시키는 '생성 엔진 최적화(GEO)' 전략이 새로운 마케팅 채널로 부상하고 있다. Brandlight의 우리 가프니(Uri Gafni)는 "2026년에 이것이 검색, 광고, 미디어, 커머스가 융합하는 완전한 마케팅 채널로 전개될 것"이라고 전망했다. Key Data & Facts 항목수치/내용 AI 봇 방문 비율 (2025년 4분기)31건 중 1건 AI 봇 방문 비율 (2025년 1분기)200건 중 1건 robots.txt 무시 비율 증가400% (2분기→4분기) AI 봇 차단 시도 증가336% (연간) AI 스크래핑 기업 수40개 이상 봇 관련 소송Meta·X vs Bright Data (기각/취하) Key Quote "인터넷의 대부분이 미래에 봇 트래픽이 될 것이다. 이것은 단순한 저작권 문제가 아니다. 인터넷에 새로운 방문자가 등장하고 있는 것이다." — 토싯 파니그라히(Toshit Panigrahi), TollBit CEO
436 조회
0 추천
2026.02.08 등록
Executive Summary • Anthropic이 Claude AI의 윤리적 행동을 규정하는 새로운 '클로드 헌법(Claude's Constitution)' 문서를 공개했다 • 이 헌법은 단순한 규칙 집합이 아닌, Claude가 스스로 '지혜'와 '독립적 판단력'을 발휘하도록 설계된 철학적 프레임워크다 • OpenAI의 샘 알트만은 미래에 AI가 CEO 역할을 맡을 수 있다고 언급하며, AI 리더십 시대의 가능성을 시사했다 Background Anthropic은 AI 업계에서 가장 안전에 집착하는 기업으로 알려져 있으면서도, 경쟁사들만큼 공격적으로 차세대 AI 개발을 추진하고 있다. CEO 다리오 아모데이가 최근 발표한 "기술의 청소년기(The Adolescence of Technology)"라는 장문의 블로그 포스트는 AI의 위험성을 인정하면서도, 궁극적으로 인류가 극복할 수 있다는 낙관론을 제시했다. Impact & Implications 기술적 의미 새로운 클로드 헌법의 핵심은 '헌법적 AI(Constitutional AI)'의 진화다. 기존에는 DeepMind의 Sparrow, 세계인권선언, 심지어 Apple의 서비스 약관까지 다양한 외부 문서를 참조했다면, 2026년 개정판은 Claude가 스스로 윤리적 추론을 수행하도록 하는 철학적 프레임워크로 전환했다. 철학 박사 출신의 아만다 아스켈이 작성한 이 문서는 Claude에게 "유용성, 안전성, 정직성 사이의 균형을 요구하는 상황에서 독립적 판단을 행사하라"고 지시한다. 산업/시장 영향 Anthropic의 접근법은 AI 업계 전체의 안전 담론에 영향을 미칠 전망이다. 특히 OpenAI CEO 샘 알트만이 미래에 AI 모델에게 리더십을 이양할 계획을 밝힌 것과 맞물려, AI의 자율성과 책임에 대한 논의가 더욱 활발해질 것으로 보인다. 알트만은 "AI CEO가 할 수 있는 일 중 인간 CEO가 할 수 없는 것들이 많다"고 언급했다. 향후 전망 이번 헌법은 Claude의 '지혜(wisdom)'를 전제로 한다는 점에서 논쟁의 여지가 있다. Anthropic은 Claude가 "인류 최고 수준의 윤리적 판단을 모방하는 것을 넘어, 언젠가 그 이상이 될 수 있다"고 기대한다. 그러나 이러한 낙관론이 현실화될지, 아니면 AI 모델이 악의적 조작에 취약해질지는 여전히 미지수다. 문서는 "좋든 싫든, 우리는 이미 이 여정에 올라탔다. 적어도 Anthropic은 계획이 있다"고 결론짓는다. Key Data & Facts 항목수치/내용 문서 발표 시기2026년 1월 주요 저자Amanda Askell (철학 박사) 핵심 개념Constitutional AI, 독립적 판단, 지혜(wisdom) Amodei 에세이 분량20,000단어 이상 관련 개념"기술의 청소년기" (AI 위험과 극복) Key Quote "우리는 Claude가 적어도 현재로서는 인류가 알고 있는 최선을 모방하도록 노력하고 있습니다. 어느 시점에서 Claude는 그보다 더 나아질 수도 있습니다." — Amanda Askell, Anthropic 철학자
427 조회
0 추천
2026.02.07 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입