Loading...

AI 뉴스

연구들이 AI 훈련 데이터와 테스트의 결함을 드러내다

페이지 정보

작성자 xtalfi
작성일 2025.11.07 14:52
1,274 조회
0 추천
0 비추천

본문

251105-ai-safety-tests-lr-10661e.jpg

(퍼플렉시티가 정리한 기사)


이번 주에 발표된 두 가지 주요 연구는 인공지능 시스템이 구축되고 평가되는 방식의 심각한 약점을 드러내며, AI 능력이 과장되어 왔는지에 대한 의문을 제기하고 있다.

Sony AI는 11월 5일 컴퓨터 비전 모델의 편향성을 드러내기 위해 설계된 데이터셋인 Fair Human-Centric Image Benchmark를 공개했으며, 옥스퍼드 인터넷 연구소와 영국 정부의 AI 보안 연구소 연구원들은 AI 성능을 측정하는 데 사용되는 테스트의 광범위한 결함을 밝히는 연구를 발표했다. 이러한 연구 결과들은 많은 AI 시스템이 윤리적으로 문제가 있는 데이터로 훈련되고 신뢰할 수 없는 방법으로 평가될 수 있음을 시사한다.​


훈련 데이터에 동의와 다양성이 부족함

Sony AI가 Nature에 발표한 새로운 벤치마크는 연구자들이 컴퓨터 비전 시스템에서 "편향되고 윤리적으로 문제가 있는 학습 데이터의 지속적인 과제"라고 부르는 문제를 다룹니다. 이 데이터셋은 81개국 1,981명의 개인이 찍힌 10,318장의 이미지로 구성되어 있으며, 모두 사전 동의와 공정한 보상을 받아 수집되었습니다—이는 업계 관행과 크게 다른 방식입니다.​

Sony Group의 AI 거버넌스 글로벌 책임자인 Alice Xiang은 컴퓨터 비전이 객관적이지 않다고 강조했습니다. "컴퓨터 비전은 학습 데이터에 반영된 편향에 따라 사물을 왜곡할 수 있습니다"라고 그녀는 말했습니다. 데이터셋은 기존 AI 모델 중 공정성 테스트를 완전히 통과한 모델이 없다는 것을 보여주었습니다. 일부 모델은 "she/her/hers" 대명사를 사용하는 사람들에 대해 낮은 정확도를 보였으며, 벤치마크는 이를 더 큰 헤어스타일 변동성—이전에 간과되었던 요인—으로 추적했습니다. 직업에 대한 중립적인 질문을 받았을 때, 테스트된 모델들은 특정 인구통계학적 그룹에 대해 특히 고정관념을 강화했으며, 때로는 피사체를 성매매 종사자, 마약상 또는 도둑으로 묘사했습니다.​


벤치마크 테스트가 신뢰할 수 없고 오해의 소지가 있는 것으로 밝혀짐

옥스퍼드 연구팀은 445개 AI 벤치마크를 조사한 결과, 거의 모든 벤치마크에 기술 기업들이 주장하는 결과의 신뢰성을 "약화시키는 결함"이 있음을 발견했습니다. 벤치마크 중 통계적 테스트를 통해 신뢰성을 증명한 것은 16%에 불과했습니다.​

핵심적인 문제는 구성 타당성(construct validity), 즉 테스트가 실제로 그들이 측정한다고 주장하는 것을 제대로 측정하는지에 관한 것입니다. 옥스퍼드 인터넷 연구소의 수석 연구원인 아담 마디(Adam Mahdi)는 NBC 뉴스와의 인터뷰에서, 그레이드 스쿨 매스 8K(Grade School Math 8K) 벤치마크와 같은 테스트에서 모델이 좋은 성과를 거둔다고 해서 반드시 추론 능력을 보여준다고 할 수는 없다고 말했습니다. 그는 "1학년 학생에게 '2 더하기 5가 뭐야?'라고 물었을 때 '7이에요'라고 답하면, 분명 정답입니다. 하지만 이로부터 5학년이 수학적 추론을 완벽하게 습득했다고 결론지을 수 있을까요?"라고 덧붙였습니다.​

이번 연구는 데이터 오염(data contamination)을 주요 문제로 지적했는데, 이는 테스트 문항이 모델의 학습 데이터셋에 포함되어 있어 모델이 답을 추론하는 것이 아니라 암기해서 답을 내는 현상입니다. Mixtral, Phi-3, Gemma를 포함한 여러 모델은 GSM8K 벤치마크와 유사한 신규 문항으로 평가할 때 성능이 최대 13%까지 저하되는 것으로 나타났습니다.​

옥스퍼드 연구의 수석 저자인 앤드루 빈(Andrew Bean)은 업계에서 내놓는 주장들을 그대로 믿어서는 안 된다고 경고했습니다. "모델이 박사 수준의 지능을 가졌다는 것 같은 이야기를 볼 때는 한 번쯤 의심해볼 필요가 있습니다,"라고 빈은 NBC 뉴스에 말했습니다. 이번 연구 결과는 최근 구글이 자사의 Gemma AI 모델이 미국 상원의원에 관한 허위 주장을 생성한 후에 모델을 철회한 상황에서 나왔습니다.

댓글 0
전체 1,366 / 78 페이지
블룸버그 통신은 21일(현지시간) 트럼프 행정부가 엔비디아의 H200 AI 칩의 중국 수출 허용을 검토 중이라고 보도했다. 이는 2022년부터 시행해온 첨단 반도체 수출 규제의 부분적 완화 가능성을 시사하는 것으로, 세계 최대 AI 칩 제조업체인 엔비디아에게는 주요 호재로 평가된다.익명을 요구한 소식통들에 따르면 트럼프 행정부는 최근 며칠간 H200 칩의 중국 수출에 대해 내부 논의를 진행했으나 아직 최종 결정은 내려지지 않았다. H200 칩은 최신 사양인 블랙웰(Blackwell) 아키텍처를 적용한 B200보다는 성능이 낮지만, 현재 중국 수출이 가능한 H20보다는 우수한 성능을 갖추고 있다. H200은 141GB의 HBM3e 메모리와 초당 4.8테라바이트의 메모리 대역폭을 제공해 H100 대비 약 76% 더 많은 메모리를 탑재했다.젠슨 황의 지속적 로비와 업계 반응엔비디아의 젠슨 황 최고경영자(CEO)는 미국의 AI 기술이 세계 표준이 되기 위해서는 중국 시장 접근이 필수적이라며 트럼프 행정부 관계자들을 지속적으로 설득해왔다. 황 CEO는 최근 인터뷰에서 중국이 연간 약 500억 달러 규모의 AI 칩 시장을 형성하고 있으며, 2030년까지 2,000억 달러로 성장할 것으로 전망했다.그러나 AI 거품 우려가 지속되면서 엔비디아 주가는 21일 0.97% 하락한 178.88달러를 기록했다. 이로써 시가총액도 4조 3,480억 달러로 줄었다. 같은 날 뉴욕 증시는 존 윌리엄스 뉴욕 연방준비은행 총재의 금리인하 시사 발언에 힘입어 다우지수가 1.1%, S&P500이 1%, 나스닥이 0.9% 상승 마감했다.AI 거품 우려 속 구글의 공격적 투자보스턴 소재 글로벌 자산운용사 GMO는 “AI는 지금 가격도 너무 높고 투기적 움직임도 뚜렷해 전형적인 거품처럼 보인다”며 인공지능 거품을 거듭 경고했다. 한편 구글 클라우드의 아민 바흐다트 부사장은 AI 수요에 대응하기 위해 AI 컴퓨팅 용량을 6개월마다 2배씩 늘려야 한다고 밝혔다. 순다 피차이 구글 CEO는 “이런 시기에는 투자 부족의 위험이 매우 크다”며 과잉 투자 우려를 일축했다.
863 조회
0 추천
2025.11.22 등록
오픈AI는 금요일 오후, 과거 ‘Stop AI’라는 활동가 단체와 연관됐던 개인으로부터 신뢰할 만한 협박을 받은 뒤 샌프란시스코 본사를 봉쇄 조치했으며, 이는 인공지능 기업들과 개발 속도의 감속을 요구하는 시위대 간 긴장이 고조되고 있음을 보여주는 사건이다.오전 11시경, 샌프란시스코 경찰은 범죄 추적 앱 시티즌(Citizen)의 데이터에 따르면, 오픈AI의 미션 베이 사무실 인근인 테리 프랑수아 대로 550번지에서 한 남성이 협박을 하고 있다는 911 전화를 접수했다. 경찰 무전기 녹음에서는 용의자의 이름이 언급되었고, 그가 추가적인 오픈AI 지점을 노릴 계획으로 무기를 구매했을 가능성이 제기됐다.보안 프로토콜 및 직원 경고OpenAI의 내부 커뮤니케이션 팀은 해당 인물이 “OpenAI 직원들에게 물리적 위해를 가하는 데 관심을 보였다”고 경고하는 긴급 Slack 메시지를 보냈으며, 그가 이전에 회사의 샌프란시스코 시설을 방문한 적이 있다고 밝혔다. 팀은 용의자로 지목된 인물의 사진 세 장을 직원들에게 배포했다.직원들은 건물 안에 머물고, 건물을 나갈 때는 신분증 배지를 제거하며, OpenAI 로고가 표시된 옷을 착용하지 말라는 지시를 받았다. 이후 글로벌 보안 팀의 한 고위 관계자는 “현재로서는 적극적인 위협 활동의 징후는 없으며, 상황은 계속 진행 중이고 평가가 이어지는 동안 우리는 신중한 예방 조치를 취하고 있다”고 밝혔다.사건이 발생하기 몇 시간 전, 그는 자신이 더 이상 Stop AI와 관련이 없다고 소셜 미디어에서 공개적으로 선언했다. 작년 Stop AI가 발표한 보도자료에 따르면, 그는 과거에 AI 기술이 과학적 발견과 고용에서 인간을 대체한다면 “삶이 살아갈 가치가 없을 것”이라고 말한 조직자로 묘사된 바 있다.고조되는 행동주의자 갈등이번 봉쇄 조치는 샌프란시스코에서 벌어지고 있는 AI 안전 활동가들의 점점 더 대담해지는 시위들에 뒤이어 이루어진 것이다. 2월에는 ‘Stop AI’ 시위대 3명이 OpenAI 정문을 신체적으로 가로막고 문을 쇠사슬로 잠갔다가 체포됐다. 이달 초에는 샌프란시스코 공공변호인실 소속 조사관이 한 공개 행사 도중 무대 위에서 CEO 샘 올트먼에게 소환장을 직접 전달하며, Stop AI의 다가오는 재판과 관련된 형사 사건의 증인으로 출석할 것을 요구했다.Stop AI와 Pause AI를 포함한 관련 단체들은 2025년 내내 OpenAI와 다른 인공지능 기업들의 사무실 앞에서 시위를 벌이며, 통제되지 않은 AI 개발이 인류에 실존적 위협을 초래할 수 있다는 우려를 표명해왔다. 이 단체들은 인공지능 일반지능(AGI)을 개발하는 기업들에 대해 정부 차원의 셧다운을 요구해 왔다.샌프란시스코 경찰과 OpenAI는 기사 마감 전까지 별도의 입장을 내지 않았다.
835 조회
0 추천
2025.11.22 등록
Meta Platforms는 Facebook 사용자를 위한 AI 기반 일일 브리핑 기능을 테스트하고 있으며, 이는 ChatGPT의 유사한 서비스에 대한 직접적인 도전으로, 소셜 미디어 거대 기업이 수십억 사용자들에게 인공지능을 일상적 습관으로 만들기 위한 노력을 강화하고 있습니다.내부적으로 Project Luna라고 불리는 이 프로젝트는 Facebook 콘텐츠와 외부 소스를 모두 분석하여 사용자에게 개인화된 아침 업데이트를 제공할 예정이라고 The Washington Post가 검토한 문서에 따르면 밝혀졌습니다. 회사는 뉴욕과 샌프란시스코를 포함한 미국 일부 도시의 소규모 Facebook 사용자 그룹을 대상으로 이 기능을 시범 운영할 계획입니다.이 기능은 OpenAI가 월 200달러 Pro 구독자를 위해 2025년 9월에 출시한 일일 연구 요약 도구인 ChatGPT의 Pulse와 경쟁하도록 설계되었습니다. Pulse는 채팅 상호작용, 사용자 피드백 및 캘린더 활동을 기반으로 개인화된 업데이트를 제공합니다. Meta의 버전은 OpenAI와 Alphabet Google의 주요 AI 챗봇에 맞서 회사를 포지셔닝하는 것을 목표로 합니다.AI 추진 과정에서의 리더십 혼란이번 개발은 Meta의 AI 부서가 대대적인 변화를 겪고 있는 시기에 이루어졌습니다. Meta의 수석 AI 과학자이자 딥러닝 분야의 선구자인 Yann LeCun은 이번 주 12년간의 재직 후 Meta를 떠나 자신의 AI 스타트업을 설립할 계획이라고 발표했습니다. 2019년 튜링상을 수상한 LeCun은 연말에 떠날 예정이지만, Meta는 그의 새로운 벤처와 파트너십을 맺을 계획입니다.그의 퇴사는 Meta가 2025년 10월 AI 부서 내에서 약 600개의 일자리를 감축한 이후에 이루어졌습니다. 이번 감축은 올해 초 Meta가 자신의 회사인 Scale AI에 143억 달러를 투자한 후 수석 AI 책임자로 합류한 Alexandr Wang이 발표했습니다. Wang은 직원들에게 이번 정리해고가 의사결정을 간소화하고 영향력을 높이는 데 도움이 될 것이라고 말했습니다.대규모 AI 투자 베팅메타는 투자자들의 우려에도 불구하고 AI에 막대한 투자를 하고 있습니다. 회사는 2025년 자본 지출을 640억 달러에서 720억 달러로 예상하고 있으며, 이는 주로 AI 인프라와 데이터 센터를 위한 것입니다. 이는 2024년의 380억 달러에서 400억 달러에 비해 상당한 증가입니다.CEO 마크 저커버그는 인간의 능력을 뛰어넘을 수 있는 AI인 “초지능” 구축에 대한 회사의 투자가 과잉 투자의 위험을 정당화한다고 말했습니다. 그러나 메타의 주가는 AI 지출과 수익성에 대한 우려가 커지면서 21일 동안 18.4% 하락하는 등 압박을 받고 있습니다.월간 활성 사용자 30억 명의 페이스북을 보유한 메타는 테스트가 성공적으로 진행되고 기능이 초기 시장을 넘어 확장될 경우 프로젝트 루나를 위한 광범위한 잠재 고객을 확보하고 있습니다.
852 조회
0 추천
2025.11.22 등록
AI 기반 영양 추적 앱들이 음식 기록을 간소화하겠다는 약속에도 불구하고 매우 부정확한 칼로리 및 다량 영양소 계산 결과를 제공하고 있다고 오늘 The Verge가 발표한 종합 리뷰에서 밝혔다.이번 조사는 Ladder, Oura Advisor, January, MyFitnessPal을 포함한 주요 피트니스 및 건강 플랫폼의 AI 기능을 테스트했으며, 음식 식별, 분량 추정, 재료 대체 인식에서 일관된 오류를 발견했다. 한 사례에서 Ladder의 AI는 신중하게 측정된 355칼로리 아침 식사를 780칼로리로 잘못 계산하여 실제 칼로리의 두 배 이상으로 추산했다. 이 앱은 4인치 프로틴 와플을 두 개의 7인치 일반 와플로 잘못 식별했으며, 블랙으로 마신 커피에 크림과 설탕을 추가했다.The Verge의 선임 리뷰어이자 Optimizer 뉴스레터의 저자인 Victoria Song은 “항목을 찾아 기록하는 데 절약한 시간은 AI 오류를 수정하고 검증하는 데 소비된다”고 썼다.AI가 부족한 부분테스트 결과 민족 음식과 혼합 요리가 AI 인식 시스템에 특히 어려운 과제임이 드러났습니다. Oura Advisor는 말차 프로틴 쉐이크를 그린 스무디로 반복적으로 혼동했으며, Ladder는 달 마카니 카레를 치킨 수프로, 고추장 소스를 곁들인 한국 떡을 토마토 소스를 곁들인 리가토니로 잘못 식별했습니다. January 앱은 닭고기는 정확히 식별했지만 바비큐 소스를 데리야키로 잘못 분류했고 요리에 들어있는 버섯을 감지하지 못했습니다.테스트된 앱 중 어느 것도 더 건강한 재료 대체물을 인식하지 못했습니다. Song이 에다마메, 퀴노아, 현미의 혼합물을 기록했을 때, Oura의 AI는 이를 으깬 감자와 백미로 표시했습니다.이러한 발견은 AI가 통합된 음식 앱이 쌀국수(beef pho)의 칼로리를 49% 과대평가하고 펄 밀크티 칼로리를 최대 76%까지 과소평가한다는 2024년 시드니 대학교 연구와 일치합니다. “AI가 통합된 영양 앱은 일반적으로 접시에 분리되어 있는 개별 서양 음식을 감지하는 데 더 뛰어납니다”라고 연구의 주 저자인 Dr. Juliana Chen은 말했습니다. “그러나 스파게티 볼로네제나 햄버거와 같은 혼합 요리에는 종종 어려움을 겪습니다.”진짜 문제The Verge의 분석은 AI 식품 추적이 식단 변화의 근본적인 과제를 놓치고 있다고 주장하는데, 그 과제는 지식 격차가 아니라 행동 수정에 있다는 것입니다. “우리 모두는 기본적인 것들을 이해하고 있습니다”라고 Song은 썼습니다. “진짜 어려움은 그 지식을 당신의 삶에 일관되게 적용하는 데 있습니다. 그것은 당신의 감정과 행동을 재조건화하는 것에 관한 것입니다”.연구는 식품 기록이 체중 관리와 근육 형성에서 더 큰 성공과 상관관계가 있음을 지속적으로 보여줍니다. 그러나 AI가 생성한 항목을 검증하고 수정해야 하는 끊임없는 필요성은 지루한 과정을 단순화한다는 기술의 핵심 약속을 약화시킵니다.Chen 박사의 연구는 앱 개발자들이 개발 과정에 영양사를 참여시키고, 다양한 음식 이미지—특히 혼합 요리와 문화적으로 다양한 요리—로 AI 모델을 훈련시키며, 식품 성분 데이터베이스를 확장할 것을 권장합니다.
856 조회
0 추천
2025.11.22 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입