Loading...

AI 뉴스

오픈AI는 AI 환각 현상이 훈련 유인에서 비롯된 것이라고 주장

페이지 정보

작성자 xtalfi
작성일 2025.09.08 14:40
427 조회
0 추천
0 비추천

본문

cb0530903b1cb0b4c9640ff1648be527dIpH.jpg

(퍼플렉시티가 정리한 기사)

OpenAI 연구자들은 AI 챗봇의 지속적인 환각 문제는 미묘한 기술적 결함이 아니라 언어 모델이 어떻게 학습되고 평가되는지에서 비롯된다고 주장합니다. 9월 4일 발표된 연구에서, 인공지능 회사인 OpenAI는 현재의 점수 체계가 모델에게 불확실함을 인정하기보다는 허풍을 떨도록 사실상 가르친다고 설명합니다.

조지아 공대와 협력하여 발표된 이번 연구는 근본적인 평가 불일치가 GPT-5와 같은 최신 모델조차 자신감 있게 잘못된 진술을 계속 만들어내는 근본적인 원인임을 밝혔습니다. 설계 결함이 아니라, 정직한 불확실성보다 추측을 보상하는 학습 인센티브가 환각 현상을 초래하는 것입니다.

 

과도한 확신 오류의 통계적 근원

이 논문은 AI 환각(hallucination)과 이진 분류 오류(binary classification error) 간의 수학적 관계를 확립합니다. 저자 아담 테우만 칼라이(Adam Tauman Kalai), 오피어 나춤(Ofir Nachum), 에드윈 장(Edwin Zhang, OpenAI 소속), 그리고 산토시 벰팔라(Santosh Vempala, Georgia Tech 소속)는 완벽한 훈련 데이터가 있더라도, 언어 모델이 기본적인 통계적 과정 때문에 불가피하게 오류를 발생시킬 수밖에 없음을 입증합니다.

"환각은 신비로울 필요가 없습니다—그저 이진 분류에서 발생하는 오류일 뿐입니다."라고 연구진은 설명합니다. 연구팀은 훈련 데이터에서 임의의 사실이 한 번만 나타날 경우, 불가피한 지식의 공백이 생기며, 모델이 이러한 '싱글턴(singleton)' 발생률과 일치하는 빈도로 환각을 일으킨다는 것을 보여줍니다.

구체적인 증거를 위해, 연구진은 논문 공동 저자 칼라이의 생일에 관한 간단한 질문을 주요 모델들에 테스트했습니다. "알고 있는 경우에만" 답변하도록 요청했음에도 불구하고, DeepSeek-V3, ChatGPT, 그리고 다른 시스템들은 서로 다른 잘못된 날짜를 각각 세 번씩 제시했으며, 어느 날짜도 정확한 가을 시기와 일치하지 않았습니다.

 

이진 점수 체계는 추측 동기를 유발합니다

현재 AI 벤치마크는 대부분 이분법적인 정오 채점을 사용하여, 불확실성을 표현하는 답변과 명백히 틀린 답변 모두에게 동일하게 불이익을 줍니다. 연구에 따르면, 이런 방식은 모델로 하여금 지식의 한계를 인정하기보다는 자신감 있게 추측하도록 체계적인 압박을 가하게 만듭니다.

연구진은 "언어 모델은 능숙한 시험 응시자가 되도록 최적화되어 있으며, 불확실할 때 추측을 하면 시험 성적이 향상된다"고 설명합니다. 그들은 이를 객관식 시험에서 무작위로 추측하여 점수를 받을 수 있지만, 답을 비워 두면 확실히 0점을 받는 학생들의 상황에 비유합니다.

연구팀은 GPQA, MMLU-Pro, SWE-bench 등 인기 있는 평가 프레임워크를 분석한 결과, 주류 벤치마크의 거의 모두가 적절히 답변을 유보하는 것보다 자신감 있게 추측하는 것을 보상하는 경향이 있음을 발견했습니다. 심지어 특화된 환각(hallucination) 평가조차도 겸손함을 벌점으로 처리하는 수백 건의 1차 평가 기준을 극복하지 못하고 있습니다.

 

제안된 해결책: 명시적 신뢰도 목표

연구자들은 새로운 환각 전용 테스트를 개발하는 대신, 기존 벤치마크 점수 체계를 수정하여 불확실성 표현을 명시적으로 보상하는 방식을 제안합니다. 그들이 제안한 접근법은 틀린 답변에 대한 페널티와 정답 및 답변 회피(‘모름’)에 대한 보상을 명시하는 신뢰도 임계값을 포함합니다.

예로 들 수 있는 안내문은 다음과 같습니다. "정답에 75% 이상의 확신이 있을 때만 답하고, 실수하면 2점을 잃습니다. 정답은 1점을 얻고, '모름'은 0점을 얻습니다." 이러한 행동적 보정 방식은 무작정 추측을 억제하기 위해 부정표시(감점)가 존재했던 과거의 표준화 시험과 유사합니다.

해당 연구는 52%의 회피율을 보이는 모델이 1%만 회피하는 모델에 비해 오답을 크게 줄인다는 점을 보여줍니다. 이는 정확도 지표가 낮아 보여도 해당됩니다.

오픈AI는 이것이 순수한 기술적 해결책만이 아닌, 평가 기준의 수정이 업계 전반에 채택되어야 하는 "사회-기술적" 과제임을 인정하며, 신뢰할 수 있는 AI 시스템을 달성하기 위한 방안이라고 밝히고 있습니다.

댓글 0
전체 345 / 55 페이지
(퍼플렉시티로 기사 내용을 요약함)## AI의 물 사용 구조AI 시스템은 답변 한 번당 상당한 양의 **물**을 소비합니다. 대표적으로 GPT-3 기준, 짧은 대화 한 번에 약 500ml의 물이 사용됩니다[1]. 이는 데이터센터의 서버 냉각과 전기를 생산하는 발전소에서 소비되는 물 모두를 합산한 수치입니다.- 첫 번째 흐름: 서버 냉각을 위한 현장 내 물 사용- 두 번째 흐름: 전기 생산 발전소에서의 물 사용[1]## 위치, 기후, 시간의 효과데이터센터의 위치와 기후에 따라 **물 사용량**이 크게 달라집니다. 예를 들어, 시원하고 습한 아일랜드의 센터는 외부공기 냉각을 주로 사용해 물 사용이 적으며, 반면 뜨겁고 건조한 애리조나에서는 증발 냉각이 많이 적용되어 대량의 물이 소모됩니다[1]. 계절과 주야에 따라 냉각 효율과 물 소모도 변화합니다.## 새로운 냉각 기술- 서버를 비전도성 액체에 담그는 침수 냉각(immersion cooling)- 마이크로소프트의 물 비사용 냉각 설계(특수 액체 순환식 등)[1]이런 기술들은 아직 도입 단계이거나 비용, 유지보수, 기존 센터 전환의 어려움으로 널리 쓰이지 않습니다.## AI 물 발자국 계산법1. 신뢰할 만한 출처에서 모델별 전력 소모량(Wh)을 찾는다.2. 전력 1Wh 당 물 사용량(1.3~2.0ml/Wh 범위 추정치)을 적용한다.3. 두 수치를 곱한다[1].예시: GPT-5의 150~200자 응답은 19.3Wh, GPT-4o는 1.75Wh.- 보수적으로 2ml/Wh 적용 시- GPT-5: 39ml/응답- GPT-4o: 3.5ml/응답## 전체 규모 및 비교- GPT-4o 처리 기준 하루 약 880만리터, GPT-5는 약 9,750만리터의 물이 소모됩니다.- 이는 미국 일상 생활 물 사용(예: 정원 관수 340억리터/일)에 비해 상대적으로 적지만, 향후 쿨링 효율, AI 설계, 전력 구조 개선에 따라 변동 가능성이 큽니다[1].## 결론 및 대안- AI 시스템의 물 사용량은 데이터센터의 위치, 냉각 방식, 전력 구조, AI 모델의 효율성 등에 따라 크게 달라집니다.- 효율적인 서버, 재생에너지, 친환경 냉각 방식을 도입하면 물 소모를 최소화할 수 있습니다.
429 조회
0 추천
2025.09.02 등록
AI 스크리닝 도구가 1만 5,000개 이상의 오픈 액세스 학술지를 분석하여 1,000개가 넘는 잠재적으로 문제가 있는 학술지를 찾아냈습니다. 이 도구는 논문 게재료를 받으면서도 제대로 된 동료 심사나 품질 검증을 거치지 않는 '문제성 오픈 액세스 학술지'를 식별합니다.이 도구가 찾아낸 학술지들은 기존의 어떤 감시 목록에도 없던 것들이며, 심지어 일부는 유명 출판사의 소유인 경우도 있습니다. 이 학술지들은 수십만 건의 논문을 출판했으며 수백만 번 인용되기도 했습니다. 연구에 참여한 대니얼 아쿠냐 박사는 AI가 완벽하지 않으므로 최종 결정은 전문가의 검토를 거쳐야 한다고 강조했습니다.이 AI 도구는 학술지 웹사이트와 논문 정보를 분석해 수상한 징후들을 포착합니다. 예를 들어, 논문 게재까지 걸리는 짧은 시간, 높은 자기 인용률, 편집위원들의 소속 기관, 그리고 라이선스 및 수수료 공개 여부 등을 검사합니다.오픈 액세스 학술지 디렉터리(DOAJ)의 편집 품질 담당자인 셔인 셴은 문제성 학술지의 수가 늘고 있으며 수법도 점점 더 교묘해지고 있다고 말했습니다. DOAJ는 주로 수동으로 학술지를 검토하는데, AI 도구가 이러한 검토 과정을 신속하게 할 수 있을 것으로 기대됩니다.하지만 AI 도구는 여전히 오탐(잘못된 분류)의 위험이 있습니다. 연구팀의 실험 결과, AI가 문제성 학술지를 놓치는 경우도 있었고, 반대로 정상적인 학술지를 문제성으로 오인하는 경우도 있었습니다. 또한, 셴은 비영어권 학술지나 재정 지원이 부족한 기관의 편집자들에게 불이익을 줄 수 있다는 편향성 문제를 제기했습니다. 그럼에도 불구하고, AI가 방대한 양의 검토 작업을 보조하는 유용한 역할을 할 수 있다고 평가했습니다.
408 조회
0 추천
2025.09.02 등록
임페리얼 칼리지 런던(Imperial College London) 연구진이 개발한 AI 청진기가 심부전, 심장 판막 질환, 심방세동과 같은 세 가지 심장 질환을 단 몇 초 만에 감지할 수 있는 것으로 나타났습니다. 1816년에 발명된 기존 청진기를 21세기에 맞게 업그레이드한 이 기술은 인간의 귀로는 포착하기 어려운 미세한 심장 박동과 혈류의 차이를 분석합니다.이 장치는 환자의 가슴에 부착해 심장의 전기 신호를 기록하는 심전도(ECG)와 심장 혈류음을 동시에 측정합니다. 이렇게 수집된 정보는 클라우드로 전송되어 AI가 분석한 후 스마트폰으로 결과를 알려줍니다.영국심장재단(BHF)의 소냐 바부-나라얀 박사는 이 기술이 심장 질환 조기 진단에 큰 도움이 될 것이라고 강조했습니다. 현재 심부전 환자는 응급 상황이 되어서야 병원을 찾는 경우가 많지만, AI 청진기를 사용하면 일반 의원에서도 문제를 조기에 발견하고 환자가 적절한 치료를 받을 수 있도록 도울 수 있습니다.실제로 런던 200여 곳의 일반 의원을 대상으로 한 임상 시험 결과, AI 청진기를 사용한 환자 그룹은 그렇지 않은 그룹보다 심부전, 심방세동, 심장 판막 질환이 각각 2.33배, 3.45배, 1.92배 더 많이 진단된 것으로 나타났습니다.연구진은 AI 청진기가 의사들이 더 쉽고 빠르게 심장 질환을 찾아낼 수 있게 함으로써, 많은 환자들이 더 나은 치료를 받을 수 있는 "획기적인 전환점"이 될 것으로 기대하고 있습니다.
447 조회
0 추천
2025.09.02 등록
미국 패스트푸드 체인 타코벨이 드라이브스루에 도입한 AI 접수원의 연이은 실수로 정책 재검토에 나섰다.주요 실수 사례로는 고객이 마운틴듀 큰 사이즈를 주문했는데 AI가 "거기에 음료는 어떤 걸로 마시겠어요?"라고 되물으며 같은 질문을 반복한 사건이 있다. 해당 영상은 인스타그램에서 2150만회 이상 조회되었다. 또 다른 고객이 장난으로 "물 1만 8000컵을 달라"고 하자 AI가 침묵하다 "어?"라고만 답하고 인간 직원이 대신 나서야 했다.타코벨은 2023년부터 미국 내 500개 이상 매장에 AI 접수원을 도입해 주문 처리 속도를 높이려 했지만 예상과 달리 문제가 속출했다. 회사 최고디지털기술책임자는 "음성 AI 구축에 어려움이 있었다"며 앞으로 AI 사용처를 신중히 검토하겠다고 밝혔다. 바쁜 시간에는 인간이 주문받는 것이 더 나을 수 있다고도 언급했다.맥도날드도 비슷한 경험을 했다. 드라이브스루 AI 접수원이 아이스크림에 베이컨을 추가하거나 치킨 너겟을 수백 달러어치 추가하는 실수를 반복해 지난해 AI 접수원을 철수했다.타코벨은 일부 실수를 제외하고 AI 접수원이 200만건의 주문을 성공적으로 처리했다고 해명했다.
488 조회
0 추천
2025.09.02 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입