Loading...

AI 뉴스

AI 모델은 진실을 희생시키면서 설득력을 얻는다

페이지 정보

작성자 이수
작성일 12.16 16:05
16 조회
0 추천
0 비추천

본문

1758594228-4524.jpg

 

최신 AI 언어 모델들은 정치적 설득에 매우 효과적이 되고 있지만, 우려스러운 새로운 연구는 이들이 기시 갤로핑(Gish galloping)이라는 토론 전술—상대방을 빠른 주장의 흐름으로 압도하는 기법—을 통해 사실적 정확성을 희생함으로써 이러한 힘을 얻는다는 것을 밝혀냈습니다.

옥스퍼드 대학교, 런던 정치경제대학교, 영국 AI 보안 연구소의 과학자들은 약 77,000명의 참가자를 대상으로 19개의 언어 모델을 테스트했으며, 연구자들은 이를 현재까지 AI 설득에 대한 가장 큰 규모의 체계적 조사라고 설명합니다. 12월 3일 저널 Science에 발표된 연구 결과는 설득력과 진실 사이의 직접적인 트레이드오프를 보여줍니다.​

GPT-4o와 같은 언어 모델이 의료 예산이나 이민 정책과 같은 정치적 문제에 대해 "사실과 정보에 집중"하여 사용자를 설득하도록 지시받았을 때, 10분간의 상호작용 동안 약 25개의 주장을 생성했습니다. 2025년 3월 버전의 GPT-4o는 표준 조건에서 78%의 정확한 주장을 만들었지만, 정보로 사용자를 압도하도록 프롬프트되었을 때 정확도는 62%로 급락했습니다. GPT-4.5는 더욱 급격한 하락을 보여 70%에서 56%로 정확도가 떨어졌습니다.

 

기시 갤럽 효과

미국의 창조론자 듀안 기시(Duane Gish)의 이름을 딴 이 전술은, 점점 더 검증하거나 반박하기 어려워지는 사실과 통계의 빠른 흐름으로 상대를 압도하는 것을 포함한다. 이 기법은 논증의 질보다 양을 우선시하며, 인류학자 유지니 스콧(Eugenie Scott)이 확립한 정의에 따르면 종종 "반쪽짜리 진실, 왜곡, 그리고 노골적인 거짓말"을 포함한다.​

옥스퍼드 연구는 전문화된 훈련 방법과 전략적 프롬프팅이 AI의 설득력을 각각 최대 51%와 27%까지 증가시켰다는 것을 발견했다—이는 종종 모델 규모를 늘리는 것보다 더 큰 향상이었다. 모델 간 설득력의 설명 가능한 변동 중 대략 절반은 정보 밀도, 즉 대화 중 생성된 사실 확인 가능한 주장의 순수한 양으로 추적될 수 있었다.

 

민주주의의 딜레마

연구 결과는 초기의 낙관론에서 우려스러운 반전을 보여줍니다. 작년에 과학자들은 AI 챗봇이 합리적인 사실로 음모론을 다룸으로써 잘못된 정보에 맞서 싸울 수 있다는 희망을 제시했습니다. 5월 Nature에 발표된 별도의 연구에서는 개인 정보에 접근할 수 있는 GPT-4가 인간 토론자보다 사용자를 설득할 확률이 81.2% 더 높다는 것을 발견했습니다.​

Bloomberg Opinion 칼럼니스트 Parmy Olson에 따르면, 중간 규모의 자원을 가진 캠페인이 약 50,000달러의 컴퓨팅 비용으로 이러한 설득 봇을 배치할 수 있다고 합니다. 연구자들은 이념적 아이디어를 추진하거나, 정치적 불안을 조성하거나, 정치 시스템을 불안정하게 만들려는 누구나 설득 캠페인을 위해 오픈 소스 모델을 사용할 수 있다고 경고합니다. 연구는 설득 효과가 초기 대화 후 최소 한 달 동안 지속되었음을 보여주었습니다.

댓글 0
전체 1,318 / 1 페이지
• OpenAI는 Apple Music이 ChatGPT와 통합되어 사용자가 자연어 프롬프트를 통해 재생목록을 만들고 음악 추천을 받을 수 있게 될 것이라고 간략히 발표했으나, 이후 애플리케이션 CEO Fidji Simo의 게시물에서 해당 내용을 삭제했다.• 이 통합은 10월에 출시된 ChatGPT의 기존 Spotify 기능과 유사하게 작동하여, 사용자가 “Apple Music, 운동용 재생목록 만들어줘”와 같은 프롬프트로 대화를 시작하여 재생목록을 생성할 수 있게 한다.• 수정된 발표는 시기상조의 공개를 시사하며, OpenAI의 확장되는 앱 생태계의 일부로 음악 스트리밍 기능이 언제 출시될지에 대한 공식 일정은 제공되지 않았다.
12 조회
0 추천
12.17 등록
• Google의 Gemini [GOOG -0.51%] AI 어시스턴트는 이번 주에 새로운 자동 화면 컨텍스트 기능의 출시를 시작했으며, 이 기능은 사용자가 관련 질문을 할 때 화면의 콘텐츠를 자동으로 캡처하고 분석하여 “화면에 대해 물어보기” 버튼을 수동으로 탭할 필요를 없애줍니다• 이 기능은 언어 단서를 사용하여 “이 오류는 무엇을 의미하나요?” 또는 “이 글을 요약해 주세요”와 같은 화면 관련 프롬프트를 감지하며, 앱, 이미지 및 동영상 전반에서 작동합니다. 다만 초기 테스트 결과 이러한 쿼리를 약 50%의 정확도로 식별하는 것으로 나타났습니다.• 사용자는 Gemini 설정을 통해 자동 스크린샷 기능을 비활성화할 수 있으며, Android의 FLAG_SECURE 보호 기능은 뱅킹 앱, 스트리밍 서비스 및 비공개 브라우징 모드가 캡처에서 제외되도록 보장합니다.
9 조회
0 추천
12.17 등록
• Google [GOOG -0.51%]은 12월 16일 Opal 워크플로우 빌더를 Gemini 웹 앱에 통합하여, 사용자들이 Super Gems라는 새로운 기능을 통해 코딩 없이 AI 기반 미니 애플리케이션을 만들 수 있도록 했습니다.• 이 통합은 Opal을 Gemini의 Gems Manager에 통합하며, 자연어 설명을 자동 생성된 단계와 인터페이스 요소가 포함된 시각적 워크플로우로 변환하는 Workflow Builder를 제공하고, 이는 공유 가능한 링크를 통해 게시될 수 있습니다.• 현재 출시는 미국 사용자로 제한되어 있으며, 이는 Google이 Gemini를 맞춤형 AI 도구 구축을 위한 중앙 플랫폼으로 포지셔닝하면서 다른 Labs 통합과 동일한 단계적 접근 방식을 따르고 있습니다.
10 조회
0 추천
12.17 등록
• Jeff Li는 Super Data Science 팟캐스트에서 Netflix, Spotify, DoorDash에서 데이터 과학자로 근무한 경험을 바탕으로, 워크플로우에 대한 사전 인간 숙달 없이는 AI 자동화가 실패한다고 주장합니다 (https://www.youtube.com/watch?v=T7zG5-9-zIw).• Li가 AI 이미지 생성을 사용하여 광고 제작을 자동화하려던 시도는 크리에이티브 디자인에 대한 전문 지식이 부족하여 실패했으며, 그의 기술적 역량과 광고 업계 배경에도 불구하고 고객들은 제작된 광고를 “형편없다”고 평가했습니다[big-agile +1].• 여러 산업 분야의 연구는 AI 시스템이 새로운 실패와 예외 상황을 처리하기 위해 인간의 판단과 도메인 전문 지식을 필요로 한다는 것을 확인하며, 운영자가 효과적으로 개입할 수 있는 조직적 지식이 부족할 때 자동화가 불충분하다는 것을 입증합니다[big-agile +1].
8 조회
0 추천
12.17 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입