Loading...

AI 뉴스

오픈AI는 AI 환각 현상이 훈련 유인에서 비롯된 것이라고 주장

페이지 정보

작성자 xtalfi
작성일 09.08 14:40
70 조회
0 추천
0 비추천

본문

cb0530903b1cb0b4c9640ff1648be527dIpH.jpg

(퍼플렉시티가 정리한 기사)

OpenAI 연구자들은 AI 챗봇의 지속적인 환각 문제는 미묘한 기술적 결함이 아니라 언어 모델이 어떻게 학습되고 평가되는지에서 비롯된다고 주장합니다. 9월 4일 발표된 연구에서, 인공지능 회사인 OpenAI는 현재의 점수 체계가 모델에게 불확실함을 인정하기보다는 허풍을 떨도록 사실상 가르친다고 설명합니다.

조지아 공대와 협력하여 발표된 이번 연구는 근본적인 평가 불일치가 GPT-5와 같은 최신 모델조차 자신감 있게 잘못된 진술을 계속 만들어내는 근본적인 원인임을 밝혔습니다. 설계 결함이 아니라, 정직한 불확실성보다 추측을 보상하는 학습 인센티브가 환각 현상을 초래하는 것입니다.

 

과도한 확신 오류의 통계적 근원

이 논문은 AI 환각(hallucination)과 이진 분류 오류(binary classification error) 간의 수학적 관계를 확립합니다. 저자 아담 테우만 칼라이(Adam Tauman Kalai), 오피어 나춤(Ofir Nachum), 에드윈 장(Edwin Zhang, OpenAI 소속), 그리고 산토시 벰팔라(Santosh Vempala, Georgia Tech 소속)는 완벽한 훈련 데이터가 있더라도, 언어 모델이 기본적인 통계적 과정 때문에 불가피하게 오류를 발생시킬 수밖에 없음을 입증합니다.

"환각은 신비로울 필요가 없습니다—그저 이진 분류에서 발생하는 오류일 뿐입니다."라고 연구진은 설명합니다. 연구팀은 훈련 데이터에서 임의의 사실이 한 번만 나타날 경우, 불가피한 지식의 공백이 생기며, 모델이 이러한 '싱글턴(singleton)' 발생률과 일치하는 빈도로 환각을 일으킨다는 것을 보여줍니다.

구체적인 증거를 위해, 연구진은 논문 공동 저자 칼라이의 생일에 관한 간단한 질문을 주요 모델들에 테스트했습니다. "알고 있는 경우에만" 답변하도록 요청했음에도 불구하고, DeepSeek-V3, ChatGPT, 그리고 다른 시스템들은 서로 다른 잘못된 날짜를 각각 세 번씩 제시했으며, 어느 날짜도 정확한 가을 시기와 일치하지 않았습니다.

 

이진 점수 체계는 추측 동기를 유발합니다

현재 AI 벤치마크는 대부분 이분법적인 정오 채점을 사용하여, 불확실성을 표현하는 답변과 명백히 틀린 답변 모두에게 동일하게 불이익을 줍니다. 연구에 따르면, 이런 방식은 모델로 하여금 지식의 한계를 인정하기보다는 자신감 있게 추측하도록 체계적인 압박을 가하게 만듭니다.

연구진은 "언어 모델은 능숙한 시험 응시자가 되도록 최적화되어 있으며, 불확실할 때 추측을 하면 시험 성적이 향상된다"고 설명합니다. 그들은 이를 객관식 시험에서 무작위로 추측하여 점수를 받을 수 있지만, 답을 비워 두면 확실히 0점을 받는 학생들의 상황에 비유합니다.

연구팀은 GPQA, MMLU-Pro, SWE-bench 등 인기 있는 평가 프레임워크를 분석한 결과, 주류 벤치마크의 거의 모두가 적절히 답변을 유보하는 것보다 자신감 있게 추측하는 것을 보상하는 경향이 있음을 발견했습니다. 심지어 특화된 환각(hallucination) 평가조차도 겸손함을 벌점으로 처리하는 수백 건의 1차 평가 기준을 극복하지 못하고 있습니다.

 

제안된 해결책: 명시적 신뢰도 목표

연구자들은 새로운 환각 전용 테스트를 개발하는 대신, 기존 벤치마크 점수 체계를 수정하여 불확실성 표현을 명시적으로 보상하는 방식을 제안합니다. 그들이 제안한 접근법은 틀린 답변에 대한 페널티와 정답 및 답변 회피(‘모름’)에 대한 보상을 명시하는 신뢰도 임계값을 포함합니다.

예로 들 수 있는 안내문은 다음과 같습니다. "정답에 75% 이상의 확신이 있을 때만 답하고, 실수하면 2점을 잃습니다. 정답은 1점을 얻고, '모름'은 0점을 얻습니다." 이러한 행동적 보정 방식은 무작정 추측을 억제하기 위해 부정표시(감점)가 존재했던 과거의 표준화 시험과 유사합니다.

해당 연구는 52%의 회피율을 보이는 모델이 1%만 회피하는 모델에 비해 오답을 크게 줄인다는 점을 보여줍니다. 이는 정확도 지표가 낮아 보여도 해당됩니다.

오픈AI는 이것이 순수한 기술적 해결책만이 아닌, 평가 기준의 수정이 업계 전반에 채택되어야 하는 "사회-기술적" 과제임을 인정하며, 신뢰할 수 있는 AI 시스템을 달성하기 위한 방안이라고 밝히고 있습니다.

댓글 0
전체 175 / 14 페이지
일본 정부가 8월 26일 '화산 방재의 날'을 맞아 후지산이 대규모 분화할 경우를 가정한 AI 생성 시뮬레이션 영상을 공개했습니다. 도쿄도 방재과가 제작한 이 영상은 시민들이 휴대폰으로 분화 경고를 받는 상황부터 시작해 거대한 연기 구름이 후지산에서 솟아오르고 화산재가 2시간 내 도쿄에 도달해 도시 전체를 뒤덮는 모습을 사실적으로 보여줍니다.정부는 이 영상을 통해 화산재로 인한 건강 피해와 전력·교통·물류 시스템 마비 가능성을 경고하며, 시민들에게 필수품 2주 분량을 미리 비축하라고 권고하고 있습니다. 후지산은 318년 전인 1707년에 마지막으로 분화한 활화산으로, 만약 분화하면 최대 23조원의 경제적 손실이 예상된다고 발표했습니다.
142 조회
0 추천
2025.08.29 등록
Microsoft가 자체 개발 AI 모델을 공식적으로 공개했다https://microsoft.ai/news/two-new-in-house-models/Microsoft는 오랜 기간 OpenAI의 기술을 활용해 왔으나, 자체 개발한 MAI-Voice-1과 MAI-1-preview 모델을 공식 발표하며 AI 분야의 경쟁에 적극적으로 뛰어들기 시작했다.MAI-Voice-1은 단 한 개 GPU만으로 1분 분량의 오디오를 1초 내에 생성할 수 있을 만큼 효율적으로 설계됐으며, MAI-1-preview는 Copilot과 같은 마이크로소프트 제품에 적용될 가능성이 높다Microsoft는 대규모 GPU 대신 약 15,000개의 Nvidia H-100 GPU만으로 MAI-1-preview 모델을 학습시키는 등 자원 효율성과 오픈소스 커뮤니티에서 습득한 기법들을 활용해 모델 성능을 극대화하고 있다.이번 발표로 Microsoft AI 부문은 OpenAI 및 주요 AI 스타트업들과 본격적으로 경쟁하게 됐으며, 기술적 독립성을 강화해 미래 AI 경쟁에서 주도권을 높이려는 전략으로 해석된다.Microsoft는 여전히 OpenAI와 전략적 파트너십을 유지하면서도, 자체 개발 모델을 통해 Copilot 등 자사 서비스의 다양성과 비용 효율성을 높여 AI 시장 내 입지를 강화하는 것으로 보인다.
128 조회
0 추천
2025.08.29 등록
미국 인공지능 기업 앤스로픽이 공개한 8월 위협 인텔리전스 보고서에 따르면, 자사의 AI 모델 클로드(Claude)가 해킹에 악용되어 북한과 중국이 이를 부적절한 목적에 활용한 것으로 확인되었습니다.북한 관련 행위자들은 클로드를 이용해 미국의 포춘 500 기술 기업에서 가짜 원격 고용 직위를 확보하는 정교한 작전을 수행했습니다. 이들은 AI를 활용하여 가짜 신원을 만들고 취업 지원 과정에서 기술 평가를 통과했으며, 채용 후에는 실제 기술 업무도 AI로 수행했습니다. 보고서는 AI가 없었다면 코딩을 전혀 못 하거나 영어로 전문적인 의사소통이 불가능한 운영자들이 기술 인터뷰나 업무 유지가 불가능했을 것이라고 분석했습니다. 이러한 북한의 AI 악용 계획은 국제 제재를 무시하고 북한 정권의 외화벌이 수단으로 설계된 것으로 확인되었습니다.한편 중국 관련 해커들은 지난 9개월 동안 클로드를 이용해 베트남 주요 통신사와 농업 관리 시스템, 정부 데이터베이스를 침투하는 사이버 공격을 수행했습니다. 중국의 경우 북한과 달리 외화벌이보다는 주로 정보 수집과 시스템 침투에 AI를 활용한 것으로 나타났습니다.앤스로픽의 AI 기술은 해커에 의해 최소 17개 기관을 대상으로 한 대규모 사이버 범죄에 사용되었으며, 이 과정에서 정부와 의료, 긴급 서비스, 종교 기관 등에서 의료 데이터와 금융 정보 등 민감한 기록들이 유출되었습니다. 블룸버그 통신은 이를 상업용 AI 도구가 광범위하게 무기화된 전례 없는 사례라고 평가하며, 1명의 이용자가 전체 해커 조직처럼 작동할 수 있음을 시사한다고 분석했습니다.
166 조회
0 추천
2025.08.28 등록
구글이 어학 학습 서비스 듀오링고에 대응하는 새로운 개선을 내놓는다. 고 테크크런치가 보도.구글은 구글 번역 앱에 새로운 AI 기반 언어 학습 기능을 도입하며, 언어 학습 앱 듀오링고에 도전장을 내밀었다. 이 기능은 초보자부터 고급 학습자까지 맞춤형 듣기와 말하기 연습 세션을 제공하며, 사용자의 실력과 학습 목표에 따라 조정된다. 사용자는 앱에서 "연습" 옵션을 선택해 자신의 수준과 목표를 설정한 뒤, 맞춤형 대화 시나리오를 통해 단어와 문장을 익힐 수 있다. 이 기능은 2025년 8월 26일부터 안드로이드와 iOS용 구글 번역 앱에서 베타 버전으로 제공되며, 영어, 스페인어, 프랑스어, 포르투갈어 사용자에게 우선 지원된다또한, 구글은 실시간 대화 번역 기능을 강화해 70개 이상의 언어로 자연스러운 대화를 지원한다. 사용자는 "실시간 번역" 옵션을 선택해 대화 상대의 언어를 번역하고, 음성과 텍스트로 동시에 확인할 수 있다. 이 기능은 소음이 많은 환경에서도 억양과 음성을 정확히 인식하며, 미국, 인도, 멕시코에서 먼저 사용 가능하다. 구글은 AI와 머신러닝 기술의 발전으로 번역 품질과 속도를 크게 개선했다고 밝혔다새로운 언어 연습 기능은 사용자의 일일 진행 상황을 추적하며, 듣기 연습에서는 대화 속 단어를 선택해 이해도를 높이고, 말하기 연습에서는 발음을 연습할 수 있다. 이는 듀오링고의 게임화된 학습 방식과 유사하지만, 구글은 AI를 활용해 개인화된 학습 경험을 강조한다. 구글은 이 기능이 기존 학습 도구와 함께 사용되도록 설계되었다고 전하며, 독립적인 학습 앱보다는 보완적인 도구로 포지셔닝했다구글은 또한 ‘작은 레슨(Tiny Lesson)’, ‘슬랭 행(Slang Hang)’, ‘워드 캠(Word Cam)’ 같은 실험적 AI 도구를 통해 언어 학습을 더욱 동적이고 개인화된 경험으로 만들고 있다. 예를 들어, ‘작은 레슨’은 특정 상황에 필요한 어휘와 문법을 제공하고, ‘슬랭 행’은 현지 slang과 대화를 학습할 수 있게 한다. ‘워드 캠’은 사진 속 사물을 인식해 해당 언어로 단어를 제시한다. 이 도구들은 현재 아랍어, 중국어, 영어, 프랑스어 등 여러 언어를 지원하며, 구글 랩에서 체험할 수 있다구글의 이번 업데이트는 약 1조 단어에 달하는 번역 데이터를 처리하며 언어 장벽을 낮추는 데 기여할 것으로 기대된다. 그러나 구글은 이 기능들이 실험 단계에 있으며, 일부 slang이나 단어 생성에서 오류가 발생할 수 있다고 경고했다. 따라서 사용자는 결과를 다른 신뢰할 수 있는 출처와 교차 검증해야 한다. 구글은 앞으로 더 많은 언어와 국가로 기능을 확장하고, 언어 학습 파트너와 협력해 콘텐츠를 강화할 계획이다.
148 조회
0 추천
2025.08.27 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입