AI 뉴스

오픈AI는 AI 환각 현상이 훈련 유인에서 비롯된 것이라고 주장

페이지 정보

작성자 xtalfi
작성일 2025.09.08 14:40
3,473 조회
0 추천
0 비추천

본문

cb0530903b1cb0b4c9640ff1648be527dIpH.jpg

(퍼플렉시티가 정리한 기사)

OpenAI 연구자들은 AI 챗봇의 지속적인 환각 문제는 미묘한 기술적 결함이 아니라 언어 모델이 어떻게 학습되고 평가되는지에서 비롯된다고 주장합니다. 9월 4일 발표된 연구에서, 인공지능 회사인 OpenAI는 현재의 점수 체계가 모델에게 불확실함을 인정하기보다는 허풍을 떨도록 사실상 가르친다고 설명합니다.

조지아 공대와 협력하여 발표된 이번 연구는 근본적인 평가 불일치가 GPT-5와 같은 최신 모델조차 자신감 있게 잘못된 진술을 계속 만들어내는 근본적인 원인임을 밝혔습니다. 설계 결함이 아니라, 정직한 불확실성보다 추측을 보상하는 학습 인센티브가 환각 현상을 초래하는 것입니다.

 

과도한 확신 오류의 통계적 근원

이 논문은 AI 환각(hallucination)과 이진 분류 오류(binary classification error) 간의 수학적 관계를 확립합니다. 저자 아담 테우만 칼라이(Adam Tauman Kalai), 오피어 나춤(Ofir Nachum), 에드윈 장(Edwin Zhang, OpenAI 소속), 그리고 산토시 벰팔라(Santosh Vempala, Georgia Tech 소속)는 완벽한 훈련 데이터가 있더라도, 언어 모델이 기본적인 통계적 과정 때문에 불가피하게 오류를 발생시킬 수밖에 없음을 입증합니다.

"환각은 신비로울 필요가 없습니다—그저 이진 분류에서 발생하는 오류일 뿐입니다."라고 연구진은 설명합니다. 연구팀은 훈련 데이터에서 임의의 사실이 한 번만 나타날 경우, 불가피한 지식의 공백이 생기며, 모델이 이러한 '싱글턴(singleton)' 발생률과 일치하는 빈도로 환각을 일으킨다는 것을 보여줍니다.

구체적인 증거를 위해, 연구진은 논문 공동 저자 칼라이의 생일에 관한 간단한 질문을 주요 모델들에 테스트했습니다. "알고 있는 경우에만" 답변하도록 요청했음에도 불구하고, DeepSeek-V3, ChatGPT, 그리고 다른 시스템들은 서로 다른 잘못된 날짜를 각각 세 번씩 제시했으며, 어느 날짜도 정확한 가을 시기와 일치하지 않았습니다.

 

이진 점수 체계는 추측 동기를 유발합니다

현재 AI 벤치마크는 대부분 이분법적인 정오 채점을 사용하여, 불확실성을 표현하는 답변과 명백히 틀린 답변 모두에게 동일하게 불이익을 줍니다. 연구에 따르면, 이런 방식은 모델로 하여금 지식의 한계를 인정하기보다는 자신감 있게 추측하도록 체계적인 압박을 가하게 만듭니다.

연구진은 "언어 모델은 능숙한 시험 응시자가 되도록 최적화되어 있으며, 불확실할 때 추측을 하면 시험 성적이 향상된다"고 설명합니다. 그들은 이를 객관식 시험에서 무작위로 추측하여 점수를 받을 수 있지만, 답을 비워 두면 확실히 0점을 받는 학생들의 상황에 비유합니다.

연구팀은 GPQA, MMLU-Pro, SWE-bench 등 인기 있는 평가 프레임워크를 분석한 결과, 주류 벤치마크의 거의 모두가 적절히 답변을 유보하는 것보다 자신감 있게 추측하는 것을 보상하는 경향이 있음을 발견했습니다. 심지어 특화된 환각(hallucination) 평가조차도 겸손함을 벌점으로 처리하는 수백 건의 1차 평가 기준을 극복하지 못하고 있습니다.

 

제안된 해결책: 명시적 신뢰도 목표

연구자들은 새로운 환각 전용 테스트를 개발하는 대신, 기존 벤치마크 점수 체계를 수정하여 불확실성 표현을 명시적으로 보상하는 방식을 제안합니다. 그들이 제안한 접근법은 틀린 답변에 대한 페널티와 정답 및 답변 회피(‘모름’)에 대한 보상을 명시하는 신뢰도 임계값을 포함합니다.

예로 들 수 있는 안내문은 다음과 같습니다. "정답에 75% 이상의 확신이 있을 때만 답하고, 실수하면 2점을 잃습니다. 정답은 1점을 얻고, '모름'은 0점을 얻습니다." 이러한 행동적 보정 방식은 무작정 추측을 억제하기 위해 부정표시(감점)가 존재했던 과거의 표준화 시험과 유사합니다.

해당 연구는 52%의 회피율을 보이는 모델이 1%만 회피하는 모델에 비해 오답을 크게 줄인다는 점을 보여줍니다. 이는 정확도 지표가 낮아 보여도 해당됩니다.

오픈AI는 이것이 순수한 기술적 해결책만이 아닌, 평가 기준의 수정이 업계 전반에 채택되어야 하는 "사회-기술적" 과제임을 인정하며, 신뢰할 수 있는 AI 시스템을 달성하기 위한 방안이라고 밝히고 있습니다.

댓글 0
전체 1,366 / 339 페이지
구글 딥마인드가 초경량 AI 모델 '젬마 3 270'(2억 7천만 매개변수)을 오픈소스로 공개했습니다. 이 모델은 휴대폰, 노트북, 웨어러블 기기 등 저전력 장치에서도 고효율로 작동하도록 설계되었습니다. 특히, 개발자 커뮤니티를 지원하기 위해 무료로 제공되는 '제미나이 CLI 깃허브 액션'과 함께, AI 코딩 협업 도구로 주목받고 있습니다. 이는 소규모 개발자나 스타트업이 AI를 쉽게 활용할 수 있게 돕는 흥미로운 움직임입니다.젬마는 간단히 사용할 수 있습니다. 사용방법은 아래와 같습니다.- 구글 딥마인드의 깃허브 저장소 또는 Hugging Face 모델 허브에서 젬마 3 270을 다운로드합니다.- Python 환경에서 pip install gemma 명령어로 설치합니다.- gemma run --model gemma-3-270m 명령어를 실행하여 모델을 사용할 수 있습니다.
3613 조회
0 추천
2025.08.20 등록
2025년 5월 25일 중국 항저우에서 세계 최초의 휴머노이드 로봇 격투 대회가 열렸습니다. 중국중앙방송총국이 주최한 이 대회에는 유니트리 G1 로봇 4대가 참가했습니다.로봇들은 키 130cm, 무게 35kg으로 인간 조종사가 리모컨으로 조작했지만, 격투 동작은 전문 격투선수로부터 학습한 AI 기술로 구현되었습니다. 손 타격 1점, 발차기 3점, 쓰러지면 5점 감점이라는 규칙으로 진행되었고, 넘어진 후 8초 내에 일어나지 못하면 패배 처리되었습니다.경기에서는 로봇들이 잽, 어퍼컷, 킥 등 다양한 격투 기술을 선보였으며, "AI Strategist"라는 로봇이 우승했습니다. 전 세계에 생중계 된 이 대회는 로봇 기술의 실용화 가능성을 보여주는 중요한 이정표로 평가 받고 있으며, 중국의 로봇 산업 발전 의지를 드러낸 행사로 해석됩니다.
3139 조회
0 추천
2025.08.19 등록
애플은 올해 WWDC에서 Xcode의 "Intelligence" 기능에 챗GPT(ChatGPT)와 다양한 LLM(대형 언어모델) API 연동을 예고한 데 이어, Anthropic의 Claude도 Xcode에 네이티브로 통합할 계획을 갖고 있음이 확인되었다.9to5mac 매체에 따르면 Xcode 26 베타 7 분석 결과, Claude Sonnet 4.0 및 Claude Opus 4의 지원 코드와 Anthropic 계정 관련 언급이 발견되었다고. 그동안 챗GPT만 Xcode와 1차로 통합이 되어 있었으나, 이제 Claude도 유사한 수준의 네이티브 지원을 받을 기반이 마련된 것으로 예상된다.Xcode에 연동되는 Swift Assist라는 기능은 2024년 WWDC에서 최초로 공개된 애플의 AI 기반 코딩 도우미였으며, GitHub Copilot과 유사한 서비스였다. 하지만 실제로 출시되지는 않았고, 이제 Xcode 26에서 기능이 더 확장된 형태로 새롭게 선보이게 되며,. 공식 명칭도 더 이상 Swift Assist가 아니지만, 애플 자체 모델과 챗GPT, 그리고 다양한 서드파티 LLM을 네이티브로 지원하게 된다.애플은 2025년 5월경부터 Claude 기반 Xcode를 내부적으로 테스트해왔던 것으로 알려졌다. 그동안 Swift Assist 확장설이나 챗GPT만 지원한다는 루머가 돌았지만, 이번 발견으로 Claude를 선호하는 개발자들에게 좋은 소식이 될 것으로 보인다.
3577 조회
0 추천
2025.08.19 등록
Claude Opus 4 및 4.1, 소수의 대화 종료 기능 도입안트로픽은 최근 Claude Opus 4와 4.1에 소비자용 챗 인터페이스에서 특정 극단적 상황에 한해 대화를 종료할 수 있는 기능을 도입했으며, 사용자로부터 학대적인 상호작용이 반복될 때 사용된다고 밝혔다.특히 이 기능은 잠재적인 AI 복지 연구의 일환으로 도입되었다고 하며, 사용자가 스스로 채팅 종료를 요청할 때, 혹은 Claude가 반복적인 거절에도 불구하고 생산적인 대화로 전환이 불가능하다고 판단할 때에만 최후의 수단으로써 사용된다고 한다.따라서 대부분의 일반 사용자는 평소에는 해당 기능을 경험하지 않을 전망이다.Claude가 대화 종료를 선택하면 해당 채팅에서는 추가 메시지를 보낼 수 없으나, 다른 대화에는 영향을 주지 않는다.사용자는 여전히 이전 메시지를 수정하거나 새로운 선택지를 만들어 대화를 이어갈 수 있다. 이 기능은 계속 개선될 예정이고 피드백을 받고 있다고 회사는 밝혔다.
3482 조회
0 추천
2025.08.18 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입