AI 뉴스

AI 모델은 진실을 희생시키면서 설득력을 얻는다

페이지 정보

작성자 이수
작성일 2025.12.16 16:05
443 조회
0 추천
0 비추천

본문

1758594228-4524.jpg

 

최신 AI 언어 모델들은 정치적 설득에 매우 효과적이 되고 있지만, 우려스러운 새로운 연구는 이들이 기시 갤로핑(Gish galloping)이라는 토론 전술—상대방을 빠른 주장의 흐름으로 압도하는 기법—을 통해 사실적 정확성을 희생함으로써 이러한 힘을 얻는다는 것을 밝혀냈습니다.

옥스퍼드 대학교, 런던 정치경제대학교, 영국 AI 보안 연구소의 과학자들은 약 77,000명의 참가자를 대상으로 19개의 언어 모델을 테스트했으며, 연구자들은 이를 현재까지 AI 설득에 대한 가장 큰 규모의 체계적 조사라고 설명합니다. 12월 3일 저널 Science에 발표된 연구 결과는 설득력과 진실 사이의 직접적인 트레이드오프를 보여줍니다.​

GPT-4o와 같은 언어 모델이 의료 예산이나 이민 정책과 같은 정치적 문제에 대해 "사실과 정보에 집중"하여 사용자를 설득하도록 지시받았을 때, 10분간의 상호작용 동안 약 25개의 주장을 생성했습니다. 2025년 3월 버전의 GPT-4o는 표준 조건에서 78%의 정확한 주장을 만들었지만, 정보로 사용자를 압도하도록 프롬프트되었을 때 정확도는 62%로 급락했습니다. GPT-4.5는 더욱 급격한 하락을 보여 70%에서 56%로 정확도가 떨어졌습니다.

 

기시 갤럽 효과

미국의 창조론자 듀안 기시(Duane Gish)의 이름을 딴 이 전술은, 점점 더 검증하거나 반박하기 어려워지는 사실과 통계의 빠른 흐름으로 상대를 압도하는 것을 포함한다. 이 기법은 논증의 질보다 양을 우선시하며, 인류학자 유지니 스콧(Eugenie Scott)이 확립한 정의에 따르면 종종 "반쪽짜리 진실, 왜곡, 그리고 노골적인 거짓말"을 포함한다.​

옥스퍼드 연구는 전문화된 훈련 방법과 전략적 프롬프팅이 AI의 설득력을 각각 최대 51%와 27%까지 증가시켰다는 것을 발견했다—이는 종종 모델 규모를 늘리는 것보다 더 큰 향상이었다. 모델 간 설득력의 설명 가능한 변동 중 대략 절반은 정보 밀도, 즉 대화 중 생성된 사실 확인 가능한 주장의 순수한 양으로 추적될 수 있었다.

 

민주주의의 딜레마

연구 결과는 초기의 낙관론에서 우려스러운 반전을 보여줍니다. 작년에 과학자들은 AI 챗봇이 합리적인 사실로 음모론을 다룸으로써 잘못된 정보에 맞서 싸울 수 있다는 희망을 제시했습니다. 5월 Nature에 발표된 별도의 연구에서는 개인 정보에 접근할 수 있는 GPT-4가 인간 토론자보다 사용자를 설득할 확률이 81.2% 더 높다는 것을 발견했습니다.​

Bloomberg Opinion 칼럼니스트 Parmy Olson에 따르면, 중간 규모의 자원을 가진 캠페인이 약 50,000달러의 컴퓨팅 비용으로 이러한 설득 봇을 배치할 수 있다고 합니다. 연구자들은 이념적 아이디어를 추진하거나, 정치적 불안을 조성하거나, 정치 시스템을 불안정하게 만들려는 누구나 설득 캠페인을 위해 오픈 소스 모델을 사용할 수 있다고 경고합니다. 연구는 설득 효과가 초기 대화 후 최소 한 달 동안 지속되었음을 보여주었습니다.

댓글 0
전체 1,366 / 87 페이지
Google은 미국 외 지역에서 최대 규모의 인공지능 인프라 하드웨어 엔지니어링 센터를 대만에 개설했으며, 라이칭더 총통은 이번 조치가 대만이 신뢰할 수 있는 기술 파트너이자 안전한 AI 개발을 위한 핵심 허브임을 입증하는 것이라고 설명했다.타이베이에 위치한 이 시설은 매일 수십억 명의 사람들이 사용하는 기기에 전력을 공급하는 전 세계 Google 데이터 센터에 배치되는 기술을 개발하고 테스트할 예정이라고 Google Cloud 부사장 아머 마흐무드가 밝혔다.대만은 전 세계 반도체의 60% 이상, 최첨단 칩의 90% 이상을 생산하고 있으며, AI 수요가 급증하는 가운데 TSMC만으로도 계약 칩 제조 분야에서 64%의 글로벌 시장 점유율을 차지하고 있다.
790 조회
0 추천
2025.11.20 등록
**마이크로소프트(Microsoft)**의 AI CEO **무스타파 술레이만(Mustafa Suleyman)**은 Copilot과 Windows에 AI가 통합되는 것에 불만을 가진 비평가들에게 반박하며, 사람들이 AI와 유창하게 대화하고 이미지와 동영상을 생성할 수 있는 능력에 감명을 받지 않는다는 사실에 “정말 놀랐다”고 말했다.술레이만의 옹호는 최근 The Verge의 보고서에서 실제 Copilot의 기능이 **마이크로소프트(Microsoft)**가 광고에서 보여주는 것과 맞지 않는다는 점이 지적된 가운데 나왔으며, Windows 사장 **파반 다불루리(Pavan Davuluri)**가 “대리 OS(agentic OS)” 비전을 홍보하다가 심한 반발을 받아 자신의 게시물에서 답글 기능을 비활성화해야 했던 사건에 이어졌다.이 논란은 **마이크로소프트(Microsoft)**가 새로운 “AI를 위한 당신의 캔버스(Your canvas for AI)” 슬로건을 밀어붙이는 가운데, Windows의 평판이 해당 매체가 “역대 최저”라고 묘사할 정도로 떨어진 상황을 부각시킨다. 사용자들은 모든 인터페이스에 원하지 않는 AI 기능을 강제로 넣는 대신 회사가 근본적인 플랫폼 문제를 해결할 것을 요구하고 있다.
787 조회
0 추천
2025.11.20 등록
Google DeepMind는 Boston Dynamics의 전 최고기술책임자(CTO)인 Aaron Saunders를 하드웨어 엔지니어링 부사장으로 영입했습니다. 이는 CEO Demis Hassabis가 Gemini를 Android가 여러 제조업체의 스마트폰을 구동하는 것처럼 범용 로봇 운영체제로 변모시키려는 비전을 발전시키기 위한 것입니다.Hassabis는 Gemini가 “거의 모든 물리적 구성으로 즉시 작동할 수 있는” AI 기반으로 기능하기를 목표로 하며, 이는 인간형 및 비인간형 로봇을 포함하여 회사가 AI 기반 로봇공학 분야로의 진출을 강화하고 있는 가운데 추진되고 있습니다.이러한 움직임은 Google DeepMind를 2035년까지 510억 달러 규모에 달할 것으로 예상되는 급속히 성장하는 시장에서 경쟁할 수 있는 위치에 올려놓습니다. 경쟁사인 Tesla는 향후 10년간 백만 대의 Optimus 인간형 로봇 생산을 목표로 하고 있으며, Unitree와 같은 중국 기업들은 경쟁력 있는 가격의 다리 달린 로봇을 제공하고 있습니다
759 조회
0 추천
2025.11.20 등록
MIT 연구원들은 새로운 추론 AI 모델에서 가장 많은 연산 처리를 요구하는 문제 유형이 인간이 해결하는 데 가장 오래 걸리는 문제와 동일하다는 것을 발견했으며, 이는 인공지능과 생물학적 지능이 복잡한 사고에 접근하는 방식에서 예상치 못한 수렴을 시사합니다PNAS에 게재된 이 연구는 7가지 문제 유형에 걸쳐 인간의 반응 시간과 AI가 생성한 “토큰”(내부 연산 단계)을 측정했으며, 놀라운 상관관계를 발견했습니다—인간과 모델 모두 “ARC 챌린지“라고 불리는 시각적 추론 과제에 가장 오래 걸리고 기본 산술에는 가장 적은 노력을 소비했습니다추론 모델은 훈련 중 강화 학습을 통해 향상된 성능을 달성하는데, 정답에 대해서는 보상을 받고 오류에 대해서는 페널티를 받아 문제 공간을 탐색하고 인간의 문제 해결 접근 방식을 반영하는 단계별 솔루션 전략을 개발할 수 있습니다
792 조회
0 추천
2025.11.20 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입