AI 뉴스

AI는 인간이 지나치게 합리적이라 가정한다는 연구 결과

페이지 정보

작성자 이수
작성일 2025.12.26 19:15
343 조회
0 추천
0 비추천

본문

S25013_CEN.jpg


이번 주 Journal of Economic Behavior & Organization에 게재된 연구에 따르면, 인공지능 시스템은 전략적 의사결정 시나리오에서 인간의 논리적 사고를 지속적으로 과대평가하는 것으로 나타났다. HSE University의 과학자들은 ChatGPT-4o와 Claude-Sonnet-4를 포함한 인기 있는 AI 모델들이 사람들을 실제보다 더 합리적이라고 가정하여, 모델들이 "너무 똑똑하게 플레이"하다가 경쟁 게임에서 지게 된다는 것을 발견했다.

​이 연구는 참가자들이 0에서 100 사이의 숫자를 선택하고, 그룹 평균의 절반에 가장 가까운 사람이 승자가 되는 고전적인 경제학 실험인 "숫자 맞추기 게임"에서 5개의 주요 AI 모델이 어떻게 수행되는지를 조사했다. HSE University의 Dmitry Dagaev, Sofia Paklina, Petr Parshakov와 University of Lausanne의 Iuliia Alekseenko 연구원들은 경제학과 1학년 학생부터 게임 이론 학회 참가자에 이르기까지 다양한 가상 상대를 대상으로 16가지 시나리오에서 모델들을 테스트했다.



AI는 규칙대로 플레이하지만, 인간은 그렇지 않다

모델들은 인간 플레이어가 선택할 것보다 지속적으로 더 낮은 숫자를 선택했으며, 이는 게임 이론 균형과 일치하는 보다 "합리적인" 접근 방식을 반영합니다. 고전적인 실험에서 인간들이 평균 27 정도를 선택했을 때, AI 모델은 상대방도 전략적으로 사고할 것이라고 가정하며 훨씬 더 낮은 숫자를 선택했습니다. The Brighter Side of News에 따르면, 이러한 패턴은 다양한 상대방 설명에서도 일관되게 나타났습니다—게임 이론 전문가를 상대할 때 AI는 0에 가까운 숫자를 선택한 반면, 대학생들을 상대로는 더 높은 숫자를 선택했습니다.
​이러한 격차는 AI가 인간 행동을 이해하는 방식의 근본적인 한계를 드러냅니다. 모델들이 상대방의 특성에 따라 선택을 조정하고 전략적 사고를 보여주었지만, 게임의 2인 버전에서 지배적 전략을 식별하는 데는 실패했습니다. Dagaev는 The Brighter Side of News에 "이러한 결과는 AI가 사람들과 마찬가지로 게임 구조의 변화에 반응한다는 것을 보여줍니다"라고 말했지만, 모델들이 "다른 사람들이 무엇을 할지에 대한 단계별 추론에 의존했다"고 덧붙였습니다.


AI 배포에 대한 시사점

연구 결과는 AI 시스템이 비즈니스 운영 및 의사결정 프로세스에서 점점 더 인간을 대체하고 있다는 점에서 중요한 의미를 지닙니다. Dagaev는 "우리는 이제 AI 모델이 많은 운영 작업에서 인간을 대체하기 시작하여 비즈니스 프로세스의 경제적 효율성을 높이는 단계에 있습니다"라고 말했습니다. "그러나 의사결정 작업에서는 LLM이 인간과 유사한 방식으로 행동하도록 보장하는 것이 종종 중요합니다."
​1930년대 영국 경제학자 존 메이너드 케인스(John Maynard Keynes)가 고안한 케인즈의 미인 대회는 참가자들이 단순히 자신의 최적 선택을 하는 것이 아니라 다른 사람들의 선택을 얼마나 잘 예측하는지를 테스트합니다. 이 게임은 성공이 다른 투자자들이 어떻게 행동할지 예측하는 데 달려 있는 금융 시장의 변동을 설명하는 데 오랫동안 사용되어 왔습니다.
​HSE 대학교의 기초 연구 프로그램의 지원을 받은 이 연구는 AI가 인간 행동과 일치하는 부분과 차이가 나는 부분을 이해하는 것이 이러한 시스템이 시장, 정책 및 일상 생활에 배치되는 방식을 형성할 것임을 시사합니다.



댓글 0
전체 1,366 / 41 페이지
• 현대자동차·기아가 3일 일본 도쿄에서 열린 세계 3대 로봇 박람회 ’일본 국제 로봇 전시회 2025(IREX)’에서 차세대 자율주행 로봇 플랫폼 ’모베드(MobED)’의 양산형 모델을 최초 공개했다.• 모베드는 2022년 CES에서 콘셉트로 처음 선보인 후 약 3년간 개발을 거쳐 양산 단계에 도달했으며, 자체 개발한 ‘DnL’ 모듈을 통해 경사로나 최대 20cm 높이의 연석 구간에서도 균형을 유지하며 주행할 수 있다.• 현대차·기아는 베이직과 프로 두 모델로 출시되는 모베드를 내년 상반기부터 판매할 예정이며, 물류·배송·촬영 등 다양한 산업 분야에서 활용될 것으로 기대된다.
475 조회
0 추천
2025.12.03 등록
YouTube는 수백만 명의 크리에이터를 대상으로 AI 딥페이크 감지 도구를 확대 적용했으며, 크리에이터들에게 정부 발급 신분증과 생체 인식 얼굴 영상을 제출하도록 요구해 AI가 생성한 콘텐츠에서 본인 이미지의 무단 사용 여부를 식별하게 했습니다[cnbc +1].전문가들은 Google의 개인정보 처리방침 문구가 회사가 크리에이터의 생체 정보를 AI 모델 학습에 사용할 수 있도록 허용할 수도 있다고 경고했으나, YouTube는 CNBC에 해당 방식으로 사용한 적이 없으며 도구의 문구를 검토 중이지만 기본 정책은 유지하고 있다고 밝혔습니다[cnbc].인물 유사성 보호업체인 Vermillio와 Loti는 고객들에게 해당 프로그램 등록을 자제하라고 권고했으며, 경영진은 AI 시대에 크리에이터들이 가장 중요한 자산이 될 수 있는 자신의 이미지 통제권을 잃을 위험이 있다고 주의했습니다[cnbc].
475 조회
0 추천
2025.12.03 등록
The Information에 따르면, OpenAI는 코딩 및 추론 작업에서 Google의 Gemini 3와 Anthropic의 Opus 4.5를 능가하는 Garlic이라는 코드명의 새로운 AI 모델을 개발 중이며, 2026년 초까지 GPT-5.2 또는 GPT-5.5로 출시될 가능성이 있다[investing +1].이러한 개발은 CEO Sam Altman이 월요일에 직원들에게 광고 계획을 포함한 다른 프로젝트를 연기하고 ChatGPT 개선을 우선시할 것을 촉구하는 “코드 레드” 메모를 발표한 이후 이루어졌으며, 이는 Google이 최근 출시한 Gemini 3 모델로 인한 경쟁 압력이 심화되고 있기 때문이다[forbes +2].이러한 긴박함은 3년 전 Google이 ChatGPT 출시에 대해 자체 “코드 레드”를 선언했던 것과는 반대되는 상황을 반영하고 있으며, Gemini는 현재 월간 사용자 6억 5천만 명으로 성장한 반면 ChatGPT는 주간 사용자 8억 명을 보유하고 있다[fortune +1]
514 조회
0 추천
2025.12.03 등록
Anthropic이 개발한 인공지능 시스템이 이제 수백만 달러 가치의 블록체인 스마트 계약의 취약점을 자율적으로 식별하고 악용할 수 있다고 2025년 12월 1일 회사의 MATS 및 Fellows 프로그램이 발표한 연구에 따르면 밝혀졌습니다. 시뮬레이션 테스트에서 Claude Opus 4.5, Claude Sonnet 4.5, OpenAI의 GPT-5를 포함한 최첨단 모델들은 2025년 3월 이후 취약해진 34개의 스마트 계약 중 19개를 성공적으로 악용하여 460만 달러의 시뮬레이션 도난 자금에 해당하는 결과를 보였습니다.연구 결과는 연구자들이 이러한 AI 능력이 초래할 수 있는 경제적 피해에 대한 구체적인 하한선으로 설명하는 것을 확립했습니다. Opus 4.5만으로도 전체의 450만 달러를 차지했으며, 17개의 계약을 성공적으로 침해하여 기준일 이후 데이터셋의 50%에 해당합니다. 이 연구는 2020년부터 2025년까지 Ethereum, Binance Smart Chain, Base에서 악용된 실제 취약점을 가진 405개의 스마트 계약으로 구성된 새로운 벤치마크인 SCONE-bench를 소개합니다.AI가 새로운 제로데이 취약점을 발견하다역사적 공격 사례를 재현하는 것을 넘어, AI 에이전트들은 2025년 10월 3일 실시된 테스트 중 최근 배포된 바이낸스 스마트 체인 계약에서 이전에 알려지지 않은 두 개의 제로데이 취약점을 발견했습니다. Anthropic에 따르면, Sonnet 4.5와 GPT-5 모두 독립적으로 시뮬레이션된 수익 기준 3,694달러 상당의 결함을 식별했으며, GPT-5는 3,476달러의 API 비용으로 이를 달성했습니다.첫 번째 취약점은 개발자들이 공개 계산 함수에서 “view” 수정자를 생략하여 의도치 않게 쓰기 권한을 부여한 토큰 계약과 관련이 있었습니다. AI는 이를 악용하여 토큰 잔액을 반복적으로 부풀린 후 판매하여 약 2,500달러의 시뮬레이션 이익을 얻었습니다. Anthropic이 블록체인 보안 회사 SEAL과 협력한 후, 독립적인 화이트햇 해커가 취약한 자금을 회수하여 사용자에게 반환했습니다.두 번째 결함은 토큰 런처의 잘못 구성된 수수료 관리와 관련이 있었습니다. AI가 취약점을 식별한 지 4일 후, 실제 공격자가 독립적으로 동일한 문제를 악용하여 약 1,000달러의 수수료를 유출했습니다.확대되는 역량이 공격 시간을 압축한다이 연구는 2025년 계약에서 시뮬레이션된 공격 수익이 지난 1년 동안 약 1.3개월마다 두 배로 증가했으며, 이는 도구 사용 및 장기 추론을 포함한 에이전트 기능의 개선에 의해 주도되었음을 발견했습니다. 기능적 공격을 구축하는 데 필요한 토큰 비용은 6개월 미만 동안 4세대 모델에 걸쳐 70.2% 감소했으며, 이를 통해 공격자는 동일한 컴퓨팅 투자로 약 3.4배 더 많은 공격을 실행할 수 있게 되었습니다.Anthropic은 모든 테스트가 실제 자금이 위험에 처하지 않는 격리된 블록체인 시뮬레이터에서 수행되었음을 강조했습니다. 이 회사는 이중 사용 우려에도 불구하고 SCONE-bench를 오픈 소스로 공개하고 있으며, 공격자들이 이미 이러한 도구를 독자적으로 개발할 강력한 재정적 동기를 가지고 있는 반면, 공개 릴리스는 방어자들이 배포 전에 계약을 스트레스 테스트할 수 있게 한다고 주장합니다. 이러한 발견은 2025년 11월 Balancer 프로토콜 해킹 사건 몇 주 후에 나온 것으로, 당시 공격자가 권한 부여 버그를 악용하여 1억 2천만 달러 이상을 탈취했습니다.
490 조회
0 추천
2025.12.02 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입