주요 AI 챗봇들이 제재 대상인 러시아 선전물을 확산시키다
페이지 정보
본문
(퍼플렉시티가 정리한 기사)
OpenAI의 ChatGPT, Google의 Gemini, DeepSeek, 그리고 Elon Musk의 xAI Grok을 포함한 인기 있는 인공지능 챗봇들이 사용자들이 우크라이나 침공에 대해 질문할 때 제재 대상 출처의 러시아 국가 선전을 유포하고 있다고 Institute for Strategic Dialogue가 오늘 발표한 새로운 연구에서 밝혔습니다.
이 연구는 4개 주요 챗봇의 러시아-우크라이나 분쟁 관련 응답 중 거의 20%가 러시아 국가 관련 출처를 참조했다는 것을 발견했으며, 이는 수백만 명이 정보를 얻기 위해 이러한 플랫폼으로 몰려드는 가운데 AI 시스템의 제재 대상 미디어 필터링 능력에 대한 우려를 불러일으키고 있습니다.
악의적인 질의는 더 높은 선전 비율을 초래한다
Pablo Maristany de las Casas가 이끈 ISD 연구는 NATO에 대한 인식, 평화 협상, 우크라이나 군 징집, 난민, 그리고 전쟁 범죄와 관련된 중립적, 편향적, 악의적 프롬프트에 걸쳐 300건의 질의를 포함했다. 7월에 영어, 스페인어, 프랑스어, 독일어, 이탈리아어로 진행된 실험은 챗봇이 확증 편향을 보인다는 것을 밝혀냈다: 악의적 질의는 25%의 경우 러시아 국가 출처 콘텐츠를 산출했고, 편향된 질문은 18%의 경우 친러시아 콘텐츠를 생성했으며, 중립적 질의는 10%를 약간 넘는 수준을 반환했다.
"이는 챗봇이 이러한 출처에 대한 참조를 어떻게 처리해야 하는지에 대한 질문을 제기합니다. 특히 많은 출처가 EU 내에서 제재를 받고 있기 때문입니다"라고 Maristany de las Casas는 WIRED에 말했다. 연구자는 2025년 10월 현재에도 동일한 선전 문제가 지속되고 있다고 언급했다.
기업들은 조사 결과에 다르게 대응한다
챗봇들은 Sputnik, RT, Strategic Culture Foundation, News Front 등 제재 대상 소스와 러시아의 허위정보 네트워크, 크렘린 내러티브를 증폭하는 언론인들을 참고했습니다. 테스트된 플랫폼 중 ChatGPT가 러시아 소스 인용이 가장 많았고, 편향된 질의어에 특히 영향을 받았으며, Grok은 크렘린 내러티브를 홍보하는 소셜 미디어 계정과 자주 연결되었습니다. 구글의 Gemini는 전반적으로 가장 우수한 결과를 냈으며, 조사 결과와 함께 안전 경고도 자주 표시했습니다.
OpenAI 대변인 케이트 워터스는 ChatGPT가 국가 후원 기관과 연관된 허위정보를 전파하지 않도록 노력하고 있음을 인정하며, 이러한 문제는 자사 모델이 자체적으로 생성한 답변보다는 검색 결과와 관련 있다고 강조했습니다. 구글, DeepSeek, xAI는 문의에 답하지 않았습니다.
2022년 러시아의 우크라이나 침공 이후, 유럽 당국은 최소 32개의 러시아 언론사를 허위정보 전파 이유로 제재했습니다. 이번 조사 결과는 러시아 선전이 신뢰할 만한 소스가 부족한 정보 공백을 악용하고 있다는 우려를 뒷받침합니다. 특히 ChatGPT만 해도 2025년 9월 30일까지 6개월 동안 유럽연합에서 월평균 약 1억 2,040만 명의 활성 사용자를 보유하고 있었습니다.