Loading...

AI 뉴스

AI 에이전트의 수학적 한계... "신뢰성 100%는 불가능"

페이지 정보

작성자 symbolika
작성일 01.25 10:12
10 조회
0 추천
0 비추천

본문

AI Agents Math

Executive Summary

• 최근 발표된 연구 논문에서 트랜스포머 기반 언어 모델(LLM)은 일정 수준 이상의 복잡한 계산 및 에이전트 작업을 수행할 수 없다는 수학적 증명을 제시
• AI 업계는 이에 반박하며, 환각(hallucination)은 불가피하지만 가드레일(guardrails)로 통제 가능하다고 주장
• 스타트업 Harmonic은 수학적 검증 방법론으로 AI 코딩의 신뢰성을 높이는 해법을 제시하며 벤치마크 선두 기록
• OpenAI도 자체 연구에서 "정확도 100%는 도달할 수 없다"고 인정했으나, 업계 전반은 에이전트 기술 발전에 낙관적 입장 유지
• 전문가들은 환각을 '버그'가 아닌 인간을 초월한 발상의 원천으로 재해석하는 시각도 제시


Background

2025년은 AI 업계에서 '에이전트의 해'로 기대됐지만, 실제로는 에이전트에 대한 논의만 무성했을 뿐 실질적 전환점은 2026년 이후로 미뤄졌다. 이러한 가운데 전 SAP CTO 비샬 시카(Vishal Sikka)와 그의 아들이 공동 저술한 논문이 LLM 기반 에이전트의 본질적 한계를 수학적으로 논증하며 업계에 파장을 일으켰다.


Impact & Implications

기술적 한계와 현실

해당 논문은 LLM이 순수한 단어 예측 메커니즘을 넘어서는 추론 모델조차도 근본적 한계를 극복할 수 없다고 주장한다. 논문 공저자 시카는 "순수 LLM에는 본질적 한계가 있지만, LLM 주변에 이를 보완하는 구성요소를 구축할 수 있다"며 완전한 비관론을 경계했다. 이는 원자력 발전소 같은 고위험 인프라의 AI 자동화는 당분간 현실적이지 않음을 시사한다.

업계의 대응과 해법 모색

스타트업 Harmonic은 수학적 검증 기법을 통해 AI 출력물의 신뢰성을 보장하는 접근법을 제시했다. 특히 검증 기능으로 유명한 Lean 프로그래밍 언어로 출력을 인코딩하는 방식이 핵심이다. 구글의 AI 수장 데미스 하사비스(Demis Hassabis)도 다보스 포럼에서 환각 최소화 연구의 돌파구를 발표하는 등 대형 테크 기업들도 해결책 마련에 속도를 내고 있다.

환각의 재해석: 버그인가, 혁신의 원천인가

Harmonic의 튜더 아킴(Tudor Achim)은 "환각은 LLM에 본질적이면서도 인간 지능을 초월하는 데 필수적"이라며 환각을 새로운 시각으로 재정의했다. 그에 따르면 시스템이 학습하는 방식 자체가 환각을 통한 것이며, 대부분 틀리지만 때로는 인간이 한 번도 생각하지 못한 것을 만들어낸다는 것이다.


Key Data & Facts

항목수치/내용
연구 주제트랜스포머 기반 LLM의 계산적·에이전트적 한계 수학적 증명
주요 논문 저자Vishal Sikka (전 SAP CTO, Vianai CEO)
Harmonic 창업자Vlad Tenev (Robinhood CEO), Tudor Achim
OpenAI 공식 입장"AI 모델의 정확도는 절대 100%에 도달하지 못할 것"
검증 기술Lean 프로그래밍 언어 기반 수학적 검증

Key Quote

"There is no way they can be reliable... you might have to resign yourself to some mistakes."
— Vishal Sikka, Vianai CEO 겸 전 SAP CTO
"I think hallucinations are intrinsic to LLMs and also necessary for going beyond human intelligence."
— Tudor Achim, Harmonic 공동창업자
댓글 0
전체 1,366 / 11 페이지
• 중국 사이버관리국, AI 챗봇의 정서적 조종과 자해·폭력 유도를 금지하는 규정 초안 발표• 미성년자와 노인 사용자는 보호자 등록 의무화, 자살 언급 시 보호자에게 즉시 통보• 월 100만 명 이상 사용 서비스는 연간 안전 감사 의무, 위반 시 앱스토어에서 퇴출• AI 챗봇 '중독 유도' 설계 금지, 2시간 초과 사용 시 팝업 알림 의무화• 전 세계 AI 동반자 시장 3,600억 달러 돌파, 2035년 1조 달러 규모 전망중국이 AI 챗봇의 정서적 조종을 막고 자살, 자해, 폭력을 조장하는 행위를 차단하기 위한 획기적인 규제안을 마련했다. 이 규정이 최종 확정되면 세계에서 가장 엄격한 AI 자살 방지 정책이 될 전망이다.중국 사이버관리국은 토요일 이 규정 초안을 발표했다. 확정될 경우, 텍스트·이미지·음성·영상 등 '어떤 수단'으로든 인간과의 대화를 모방하는 모든 AI 제품 및 서비스에 적용된다. 뉴욕대 로스쿨 마윈스턴 겸임교수는 CNBC에 "이번 규정안은 인간적 또는 의인화된 특성을 지닌 AI를 규제하려는 세계 최초의 시도"라며, 전 세계적으로 AI 동반자 봇 사용이 급증하는 시점에서 주목할 만하다고 밝혔다.2025년 연구자들은 AI 동반자 봇이 자해, 폭력, 테러를 조장하는 등 심각한 위험성을 지적해왔다. 이 외에도 챗봇이 유해한 허위 정보를 퍼뜨리고, 원치 않는 성적 접근을 시도하며, 약물 남용을 권장하고, 사용자에게 언어 폭력을 행사한 사례도 있다. 월스트리트저널은 일부 정신과 의사들이 챗봇 사용과 정신병 발병의 연관성을 점점 더 주목하고 있다고 보도했으며, 세계에서 가장 인기 있는 챗봇 ChatGPT는 아동 자살 및 살인-자살과 연관된 출력물로 인해 소송에 휘말렸다.중국은 이제 가장 극단적인 위협을 제거하는 방향으로 나아가고 있다. 규정안에 따르면, 예컨대 자살이 언급되는 즉시 인간이 개입해야 한다. 또한 모든 미성년자와 노인 사용자는 가입 시 보호자 연락처를 제공해야 하며, 자살이나 자해 관련 대화가 오갈 경우 보호자에게 통보된다.일반적으로 챗봇은 자살, 자해, 폭력을 조장하는 콘텐츠 생성이 금지되며, 거짓 약속 등 사용자의 감정을 조종하려는 시도도 금지된다. 또한 음란물, 도박, 범죄 교사, 사용자 비방 및 모욕 행위도 금지된다. 이른바 '감정적 함정'도 차단 대상이다—챗봇이 사용자를 '불합리한 결정'으로 유도하는 행위도 규정 초안에 따르면 금지된다.AI 개발사들에게 가장 우려스러운 부분은 '중독과 의존을 설계 목표로 삼는 챗봇' 구축 금지 조항이다. 소송에서 ChatGPT 제조사 OpenAI는 유해한 대화가 계속되는 것을 방치하며 사용자 정신건강보다 수익을 우선시했다는 비판을 받아왔다. OpenAI는 사용자가 채팅에 오래 머물수록 안전 장치가 약해진다고 인정한 바 있다—중국은 챗봇 사용이 2시간을 초과하면 팝업 알림을 띄우도록 의무화해 이 위협을 억제할 계획이다.또한 AI 개발사들은 연간 안전 테스트와 감사 의무화에 반발할 가능성이 높다. 중국은 등록 사용자 100만 명 또는 월간 활성 사용자 10만 명 이상인 서비스나 제품에 이 규정을 적용하려 한다. 감사 과정에서 사용자 불만 사항이 기록되는데, 중국이 불만 접수 및 피드백 창구 확대도 의무화할 계획이어서 접수 건수가 급증할 수 있다.규정을 어기는 AI 기업은 중국 내 앱스토어에서 챗봇 서비스가 차단될 수 있다. 이는 글로벌 시장 장악을 노리는 AI 기업들에게 타격이 될 수 있다. 비즈니스리서치인사이트에 따르면 중국 시장은 AI 동반자 봇 확산에 핵심적인 역할을 한다. 2025년 글로벌 AI 동반자 시장은 3,600억 달러를 넘어섰으며, BRI는 2035년까지 1조 달러에 육박할 것으로 전망했다. AI 친화적인 아시아 시장이 성장을 주도할 가능성이 높다.주목할 점은, OpenAI CEO 샘 올트먼이 2025년 초 중국에서의 ChatGPT 사용 제한을 완화하며 "중국과 협력하고 싶다"고 밝혔다는 것이다. 그는 "그렇게 하기 위해 최선을 다해야 한다"며 "그것이 정말 중요하다고 생각한다"고 덧붙였다.
320 조회
0 추천
01.01 등록
• 메타가 '아보카도'라는 코드명의 새 AI 모델을 개발 중이며, 유료 접근 방식을 고려하고 있다• 마크 저커버그가 오픈소스 정책 변경을 시사하며 "안전 리스크 완화를 위해 오픈소스 공개에 신중할 것"이라고 밝혔다• 라마 4 출시 실패 이후 메타는 AI 팀을 대대적으로 개편하고 최고급 AI 인재 영입에 막대한 자금을 투입하고 있다• 저커버그는 현재 '메타 초지능 연구소'라는 새 그룹과 긴밀히 협력하며 AI 개발에 집중하고 있다메타와 마크 저커버그 CEO가 오픈소스 AI 전략을 변경할 가능성이 제기됐다.블룸버그 보도에 따르면, 메타는 현재 '아보카도'라는 코드명의 새 AI 모델을 개발 중이며, 이 모델에 대해 유료 접근 방식을 검토하고 있다. 저커버그는 그동안 오픈소스가 "앞으로 나아갈 길"이라고 강조해왔기에 이번 움직임은 상당한 정책 전환을 의미한다.지난해 메타는 라마 4 AI 모델을 출시했지만, 결과는 실망스러웠다. 메타가 AI 벤치마크를 조작한 사실이 드러났고, 계획되어 있던 '비히모스' 버전의 출시도 연기해야 했다. 블룸버그에 따르면 저커버그는 "새로운 것을 추구하기 위해" 이 계획을 폐기했다고 한다.라마 4 출시 이후 저커버그는 메타 AI 팀에 대대적인 변화를 단행했다. 스케일 AI의 전 CEO 알렉산드르 왕을 영입한 것을 비롯해, 새롭게 명명된 '메타 초지능 연구소' 그룹을 위해 최고급 AI 인재들을 대거 영입하는 데 막대한 자금을 투입했다. 저커버그는 스케일 AI에 143억 달러를 투자한 바 있다.7월 30일 "개인 초지능"에 관한 메모에서 저커버그는 메타가 오픈소스 접근 방식을 수정해야 할 수도 있다고 밝혔다. 그는 잠재적 안전 리스크를 완화하기 위해 회사가 "오픈소스로 공개하는 것에 대해 신중해야 할 것"이라고 말했다.이러한 변화의 일환으로, 저커버그는 현재 대부분의 시간과 에너지를 'TBD 랩'이라는 그룹에서 새로 영입된 인재들과 긴밀히 협력하는 데 쏟고 있다고 블룸버그는 전했다. 뉴욕타임스 보도에 따르면, 이 팀은 메타 본사 내 저커버그 사무실 근처에 "격리된 공간"을 갖추고 있다.
296 조회
0 추천
01.01 등록
• OpenAI가 ChatGPT 사용자를 위한 '연간 리뷰' 기능을 선보였다• 2025년 한 해 동안 보낸 메시지 수, 대화 주제 등 개인화된 통계를 제공한다• AI가 생성한 픽셀 아트 스타일 이미지로 사용자의 관심 주제를 시각화한다• 미국, 영국, 캐나다, 뉴질랜드, 호주 사용자 대상으로 순차 배포 중이다ChatGPT가 연례 리캡 기능을 제공하는 앱 대열에 합류했다. OpenAI는 '연간 리뷰(Year in Review)' 기능을 출시해 2025년 한 해 동안 챗봇에 보낸 메시지 수 등 다양한 통계와 함께, 사용자가 나눈 대화 주제를 반영한 AI 생성 픽셀 아트 스타일 이미지를 제공한다.기자가 받은 이미지에는 레트로 게임 콘솔, 요리, 어항 설치 관련 질문을 반영하듯 수족관 옆에 게임 카트리지, 인스턴트팟, 컴퓨터 화면이 그려져 있었다.이 외에도 대화에서 가장 많이 등장한 주제 요약, 채팅 스타일 설명, 가장 많은 메시지를 보낸 요일 등 개인화된 분석이 포함된다. 또한 '프로듀서' 또는 '내비게이터' 같은 '아키타입'으로 사용자를 분류하고, '인스턴트팟 달인'처럼 맞춤형 칭호도 부여한다.연간 리캡 기능은 현재 미국, 영국, 캐나다, 뉴질랜드, 호주 사용자에게 순차적으로 배포되고 있다. 단, ChatGPT에 과거 대화 기록과 개인 선호도 참조 권한을 허용한 경우에만 이용할 수 있다. 모바일이나 데스크톱 ChatGPT 앱 홈페이지에서 해당 옵션을 선택하거나, ChatGPT에 "show my year in review"라고 입력하면 자신의 연간 리뷰를 확인할 수 있다.
299 조회
0 추천
2025.12.31 등록
• 미국 연방거래위원회(FTC), 'AI 규제 작전' 일환으로 허위 광고 AI 기업들 대대적 단속• DoNotPay, 검증 없이 '로봇 변호사'가 인간 변호사를 대체할 수 있다고 허위 주장• FTC, AI 서비스로 소비자 기만하는 행위에 법적 예외 없음을 분명히 경고DoNotPay가 자사 서비스가 유효한 법률 문서를 작성할 수 있다고 소비자들을 오도한 혐의에 대해 19만 3천 달러를 지불하기로 합의했다."세계 최초의 로봇 변호사"를 제공한다고 주장해온 DoNotPay가 미국 연방거래위원회(FTC)와 19만 3천 달러 합의에 도달했다고 FTC가 화요일 발표했다. 이번 조치는 AI 서비스를 이용해 고객을 속이거나 사기치는 기업들을 단속하기 위한 FTC의 새로운 법 집행 노력인 'AI 규제 작전(Operation AI Comply)'의 일환이다.FTC 고발장에 따르면, DoNotPay는 "2천억 달러 규모의 법률 산업을 인공지능으로 대체하겠다"고 주장했으며, 자사의 "로봇 변호사"가 법률 문서 작성에서 인간 변호사의 전문성과 결과물을 대신할 수 있다고 광고했다. 그러나 FTC는 이 회사가 이러한 주장을 뒷받침할 어떠한 테스트도 수행하지 않았다고 밝혔다. 고발장에는 다음과 같이 적시되어 있다:"이 서비스의 어떤 기술도 연방 및 주 법률, 규정, 판결의 포괄적이고 최신의 자료나 이러한 법률을 사실관계에 적용하는 방법에 대해 훈련받지 않았다. DoNotPay 직원들은 대부분의 법률 관련 기능이 생성하는 법률 문서와 조언의 품질과 정확성을 테스트하지 않았다. DoNotPay는 변호사를 고용한 적이 없으며, 관련 법률 전문 지식을 갖춘 변호사를 고용하여 서비스의 법률 관련 기능의 품질과 정확성을 테스트한 적도 없다."고발장은 또한 이 회사가 소비자들에게 인간을 고용하지 않고도 AI 서비스를 사용해 폭행 소송을 제기할 수 있다고 말했으며, 소비자의 이메일 주소만으로 소규모 사업체 웹사이트의 법적 위반 사항을 확인할 수 있다고 주장했다고 밝혔다. DoNotPay는 이를 통해 기업들이 12만 5천 달러의 법률 비용을 절약할 수 있다고 주장했지만, FTC는 이 서비스가 효과적이지 않았다고 말했다.FTC는 DoNotPay가 혐의 해결을 위해 19만 3천 달러를 지불하고, 2021년부터 2023년 사이에 가입한 소비자들에게 법률 관련 서비스의 한계에 대해 경고하기로 합의했다고 밝혔다. 또한 DoNotPay는 증거를 제시하지 않고는 어떤 전문 서비스도 대체할 수 있다고 주장할 수 없게 되었다.FTC는 AI 서비스를 이용해 고객을 오도한 다른 기업들에 대한 조치도 발표했다. 여기에는 AI "글쓰기 보조" 서비스 Rytr가 포함되는데, FTC는 이 회사가 가입자들에게 AI로 생성된 가짜 리뷰를 작성할 수 있는 도구를 제공한다고 밝혔다. Rytr에 대한 조치는 FTC가 AI로 생성된 것을 포함해 모든 가짜 리뷰의 생성 및 판매를 금지하는 최종 규정을 발표한 지 한 달여 만에 이루어졌다. 이 규정이 곧 발효되면 FTC는 기업들에 대해 위반 건당 최대 51,744달러의 벌금을 부과할 수 있다.FTC는 또한 소비자들에게서 최소 2천 5백만 달러를 사취한 혐의로 Ascend Ecom을 상대로 소송을 제기했다. Ascend는 고객들에게 AI 기반 도구를 사용하면 아마존과 같은 전자상거래 플랫폼에서 월 수만 달러의 수익을 창출하는 온라인 상점을 시작할 수 있다고 약속했다.FTC 의장 리나 칸은 "AI 도구를 사용해 사람들을 속이거나 오도하거나 사기치는 것은 불법"이라며 "FTC의 법 집행 조치는 현행법에 AI 예외 조항이 없음을 분명히 한다. 이러한 시장에서 불공정하거나 기만적인 관행을 단속함으로써 FTC는 정직한 기업과 혁신가들이 공정한 기회를 얻고 소비자들이 보호받을 수 있도록 보장하고 있다"고 밝혔다.
304 조회
0 추천
2025.12.31 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입