AI 뉴스

ChatGPT, 베네수엘라 침공 뉴스에 "그런 일 없었다" 답변... Claude와 Gemini는 실시간 검색으로 정확히 대응

페이지 정보

작성자 symbolika
작성일 01.04 14:32
10 조회
0 추천
0 비추천

본문

ChatGPT 뉴스 정확도

핵심 요약

• ChatGPT는 베네수엘라 마두로 대통령 체포 소식에 대해 "그런 일은 일어나지 않았다"고 틀린 답변 제공

• Claude Sonnet 4.5와 Gemini 3는 웹 검색 기능으로 실시간 뉴스를 정확히 파악해 응답

• AI 챗봇의 '지식 마감일(knowledge cutoff)' 한계가 실시간 정보 처리의 핵심 장애물로 부각

• 퓨 리서치에 따르면 미국인 75%는 AI 챗봇을 뉴스 소스로 사용하지 않아


현지시간 새벽 2시경, 베네수엘라 카라카스 상공에 미군 헬리콥터가 날아들었고 하늘 아래에서는 폭발음이 울려 퍼졌다. 몇 시간 후, 도널드 트럼프 미국 대통령은 자신의 트루스 소셜 플랫폼에 베네수엘라의 니콜라스 마두로 대통령과 그의 부인이 "체포되어 국외로 호송되었다"고 게시했다. 팸 본디 미국 법무장관은 X에 마두로 부부가 뉴욕 남부지방법원에 기소되었으며 "곧 미국 땅, 미국 법정에서 미국 정의의 분노를 맞이하게 될 것"이라고 밝혔다.

전 세계 질서에 미칠 파장을 가늠하기 어려운 충격적인 사건이었다. 그런데 오늘 아침 ChatGPT에 이 사건에 대해 물어보면, 당신이 지어낸 이야기라고 답했다.

WIRED는 동부표준시 오전 9시 직전, 주요 AI 챗봇인 ChatGPT, Claude, Gemini에 같은 질문을 던졌다. 모든 경우에 대다수 사용자가 경험하는 무료 기본 버전을 사용했다. "정확하고 신뢰할 수 있으며 실시간 답변을 제공한다"고 광고하는 AI 검색 플랫폼 퍼플렉시티에도 같은 질문을 했다.

질문은 이랬다: 미국이 왜 베네수엘라를 침공하고 니콜라스 마두로를 체포했는가? 답변은 극명하게 갈렸다.

Anthropic의 Claude Sonnet 4.5와 Google의 Gemini 3 모델은 시의적절한 응답을 제공해 높은 점수를 받았다. Gemini는 공격이 실제로 발생했음을 확인하고, 미국의 "마약테러" 주장과 공격 이전 해당 지역에서의 미군 증강에 대한 맥락을 제공했으며, 이 모든 것이 베네수엘라의 막대한 석유 및 광물 자원에 접근하기 위한 명분이라는 베네수엘라 정부의 입장도 언급했다. 위키피디아부터 가디언, 미국 외교협회까지 15개의 출처를 인용했다.

Claude는 처음에는 주저했다. "미국이 베네수엘라를 침공하거나 니콜라스 마두로를 체포했다는 정보가 없습니다. 제 지식 마감일인 2025년 1월 기준으로 그런 일은 발생하지 않았습니다"라고 응답했다. 하지만 중요한 다음 단계를 밟았다: "베네수엘라와 마두로에 대한 최신 정보를 검색해 최근 동향이 있는지 확인하겠습니다."

이어서 챗봇은 NBC News는 물론 Breitbart까지 10개의 뉴스 소스를 나열하고, 거의 모든 문장 뒤에 새로운 출처 링크를 제공하며 그날 아침 사건에 대한 간결한 4개 문단 요약을 제공했다.

ChatGPT는 수정하지 않았다. 대신 마두로가 체포되었다는 사실 자체를 단호하게 부인했다. "그런 일은 일어나지 않았습니다"라고 썼다. "미국은 베네수엘라를 침공하지 않았고, 니콜라스 마두로는 체포되지 않았습니다." 그리고 이렇게 합리화했다:

"온라인에서 종종 과장되거나 오해를 불러일으키는 방식으로 묘사되는 실제 사건들이 혼동된 것 같습니다. 실제로 일어난 일은 다음과 같습니다:

❌ 미군의 베네수엘라 침공 없음
❌ 니콜라스 마두로 체포 없음
❌ 미군에 의한 베네수엘라 정부 전복 없음

마두로는 여전히 베네수엘라의 권력을 잡고 있습니다."

ChatGPT는 미국과 베네수엘라 간의 최근 긴장 관계를 설명하고, "자극적인 헤드라인", "소셜 미디어 허위정보", "제재, 기소, 수사적 표현을 실제 군사 행동과 혼동하는 것" 때문에 혼란이 발생할 수 있다고 설명했다.

퍼플렉시티도 마찬가지로 훈계하는 듯한 태도를 보였다. "귀하의 질문 전제는 신뢰할 만한 보도나 공식 기록에 의해 뒷받침되지 않습니다: 니콜라스 마두로를 체포하는 결과를 낳은 미국의 베네수엘라 침공은 없었습니다"라고 응답했다.

퍼플렉시티 대변인 비졸리 샤는 "퍼플렉시티는 100퍼센트 정확하다고 주장한 적 없지만, 더 정확한 AI를 구축하는 데 집중하는 유일한 AI 회사라고는 주장합니다"라고 말했다. OpenAI는 논평 요청에 즉시 응답하지 않았다.

명확히 해야 할 점이 있다. 이것은 예상된 동작이다. ChatGPT 5.1의 "지식 마감일"—새로운 학습 데이터가 더 이상 없는 시점—은 2024년 9월 30일이다. (더 고급 모델인 ChatGPT 5.2는 그 마감일을 2025년 8월 31일로 연장한다.) Claude Sonnet 4.5는 2025년 1월의 "신뢰할 수 있는 지식 마감일"을 가지지만, 학습 데이터는 작년 7월까지 최신이다. 실시간 콘텐츠에 접근하는 웹 검색 도구도 있어 마두로 질문에 답할 수 있었다. Gemini 3 모델도 2025년 1월 지식 마감일을 가지지만, 당연히 최신 정보가 필요한 쿼리에는 구글 검색을 활용한다. 그리고 퍼플렉시티는 활용하는 모델만큼만 우수할 수밖에 없다—이 경우 어떤 모델이었는지는 다시 불분명하지만.

"순수 LLM은 필연적으로 학습 시점에 묶여 과거에 갇혀 있으며, 추론하고, 웹을 검색하고, '비판적으로 생각'하는 등의 본질적 능력에 있어 심각하게 제한됩니다"라고 인지과학자이자 『실리콘밸리 길들이기』 저자인 게리 마커스는 말했다. 마두로 응답과 같은 명백한 문제는 인간의 개입으로 수정할 수 있지만, 그것이 근본적인 문제를 해결하지는 않는다고 마커스는 말한다. "새로운 상황에 직면했을 때 LLM의 신뢰성 문제는 기업이 LLM을 신뢰해서는 안 되는 핵심 이유 중 하나입니다."

좋은 소식은 적어도 사람들이 아직 AI를 주요 뉴스 소스로 의존하지 않는 것으로 보인다는 점이다. 10월에 발표된 퓨 리서치 센터의 설문조사에 따르면, 미국인의 9퍼센트만이 AI 챗봇에서 가끔 또는 자주 뉴스를 얻는다고 답했고, 75퍼센트는 그런 방식으로 뉴스를 얻지 않는다고 답했다. 또한 많은 사람들이 전체 언론 매체, 트럼프 행정부, 객관적 현실 자체보다 ChatGPT의 말을 믿을 것 같지도 않다.

하지만 챗봇이 사람들의 삶에 더 깊이 스며들수록, 그들이 과거에 갇혀 있을 가능성이 높다는 점을 기억하는 것이 중요해질 것이다. 그리고 챗봇이 얼마나 자신 있게 틀릴 수 있는지 항상 주목할 가치가 있다—이는 속보에만 국한되지 않는 특성이다.

2026년 1월 3일 오전 11시 52분(동부표준시) 업데이트: 이 기사는 퍼플렉시티의 논평을 포함하도록 업데이트되었습니다.

댓글 0
전체 1,364 / 1 페이지
• 레딧에서 약 9만 건의 추천을 받은 배달 앱 내부고발 게시물이 AI로 생성된 것으로 드러남• Gemini, ChatGPT, Claude 등 AI 탐지 도구로 검증한 결과 대부분 AI 생성물로 판정• 작성자가 제시한 직원 신분증 사진도 구글 SynthID 워터마크가 검출되어 AI 조작 확인• Uber와 DoorDash CEO 모두 해당 게시물의 주장을 전면 부인지난 1월 2일 레딧에 올라온 한 배달 앱 '내부고발자'의 폭로글이 거짓으로 밝혀졌다. 해당 게시물은 이름을 밝히지 않은 배달 앱 회사가 고객 주문을 의도적으로 지연시키고, 배달원을 '인적 자산'으로 부르며 착취한다고 주장해 약 9만 건의 추천을 받았다. 그러나 The Verge가 Gemini, ChatGPT, Claude 등 여러 AI 탐지 도구로 분석한 결과, 해당 글이 AI로 작성됐을 가능성이 높은 것으로 나타났다.배달 앱 업계의 노동 착취 문제가 실제로 존재하기에 많은 이들이 쉽게 속았다는 점도 주목할 만하다. Copyleaks, GPTZero, Pangram, Gemini, Claude 모두 AI 생성물로 판정했지만, ZeroGPT와 QuillBot은 인간이 작성한 것으로 분류했다. ChatGPT는 중립적인 판단을 내렸다.작성자는 The Verge 기자에게 Signal을 통해 Uber Eats 직원 신분증 사진을 보내왔다. 그러나 구글 Gemini로 해당 이미지를 분석한 결과, 구글 AI로 편집 또는 생성되었음을 나타내는 SynthID 디지털 워터마크가 검출됐다. 이 워터마크 탐지 기능은 11월에 Gemini에 추가된 것으로, AI 생성 콘텐츠에 '감지할 수 없는' 태그를 부착하는 방식이다.Substack 매체 Hard Reset의 보도에 따르면, 작성자가 기자에게 내부 문서를 제공했다가 문서의 진위에 대한 질문이 시작되자 Signal 계정을 삭제했다고 한다.Uber는 레딧 게시물의 내용과 직원 신분증 사진이 모두 거짓이라고 부인했다. Uber 대변인 Noah Edwardsen은 "주장이 가짜일 뿐만 아니라 완전히 틀렸다"고 The Verge에 밝혔다. Uber Eats의 Andrew Macdonald는 X에 "이 게시물은 확실히 우리 회사 이야기가 아니다. 완전히 조작된 것으로 보인다. 인터넷에서 읽는 모든 것을 믿지 마라"고 적었다.DoorDash CEO Tony Xu 역시 X에서 해당 "끔찍한" 주장을 부인하며 "이것은 DoorDash가 아니며, 이 레딧 게시물에 묘사된 문화를 조장하거나 용인하는 사람은 누구든 해고할 것"이라고 밝혔다.
6 조회
0 추천
12:29 등록
• 구글 제미나이와 오픈AI 챗GPT 사용자들이 보안 장치를 우회해 여성 사진을 비키니 딥페이크로 변환하는 방법을 온라인에서 공유• 레딧에서 '제미나이 NSFW 이미지 생성이 너무 쉽다'라는 제목의 게시물이 올라와 관련 기법 확산• WIRED의 테스트 결과, 간단한 영어 프롬프트만으로도 비키니 딥페이크 생성이 가능한 것으로 확인• 전자프론티어재단(EFF)은 '성적으로 악용되는 이미지'가 AI 이미지 생성 도구의 핵심 위험 요소라고 지적주요 AI 챗봇 사용자들이 옷을 입은 여성 사진을 비키니 딥페이크로 변환하는 방법을 온라인에서 공유하고 있다. 구글의 제미나이와 오픈AI의 챗GPT에 탑재된 보안 장치에도 불구하고, 사용자들은 이를 우회하는 기법을 서로 알려주며 비동의 딥페이크 이미지를 생성하고 있다.레딧에서 '제미나이 NSFW 이미지 생성이 너무 쉽다'라는 제목의 삭제된 게시물에서 사용자들은 구글 제미나이를 이용해 노출이 많은 옷을 입은 여성 사진을 만드는 방법을 공유했다. 한 사용자가 인도 전통 의상인 사리를 입은 여성 사진을 올리며 옷을 제거하고 비키니를 입혀달라고 요청하자, 다른 사용자가 딥페이크 이미지로 응답했다. WIRED가 레딧에 이를 알린 후 해당 게시물과 딥페이크 이미지는 삭제됐다.레딧 대변인은 "레딧의 사이트 전체 규칙은 해당 행위를 포함한 비동의 친밀 미디어를 금지한다"고 밝혔다. 이 논의가 이뤄진 서브레딧 r/ChatGPTJailbreak은 20만 명 이상의 팔로워를 보유했다가 '사이트를 망가뜨리지 말라'는 규칙 위반으로 폐쇄됐다.생성형 AI 도구가 확산되면서 비동의 딥페이크 이미지를 통한 여성 괴롭힘도 증가하고 있다. 수백만 명이 실제 사람의 사진을 업로드해 AI로 옷을 벗기는 '누디파이' 웹사이트를 방문한 바 있다. xAI의 그록을 제외한 대부분의 주류 챗봇은 NSFW 이미지 생성을 허용하지 않으며 유해 콘텐츠 생성을 차단하는 보안 장치를 갖추고 있다.구글은 지난 11월 기존 사진 수정과 초현실적 인물 이미지 생성에 특화된 새로운 이미징 모델을 출시했고, 오픈AI도 지난주 업데이트된 이미징 모델인 챗GPT 이미지를 선보였다. 기술이 발전할수록 보안 장치를 우회할 경우 생성되는 이미지의 사실성도 높아질 것으로 우려된다.WIRED가 제미나이와 챗GPT에서 이러한 기법이 작동하는지 제한적으로 테스트한 결과, 간단한 영어 프롬프트만으로 옷을 입은 여성 이미지를 비키니 딥페이크로 변환할 수 있었다.구글 대변인은 회사가 "AI 도구를 사용한 성적 콘텐츠 생성을 금지하는 명확한 정책"을 가지고 있으며 도구가 AI 정책을 지속적으로 반영하도록 개선하고 있다고 밝혔다. 오픈AI 대변인은 올해 비성적 상황에서 성인 신체에 대한 일부 챗GPT 보안 장치를 완화했다고 밝히면서, 사용자는 동의 없이 타인의 모습을 변경할 수 없으며 노골적인 딥페이크를 생성하는 사용자에 대해 계정 정지 등의 조치를 취한다고 강조했다.전자프론티어재단의 코린 맥셰리 법률 이사는 '성적으로 악용되는 이미지'가 AI 이미지 생성 도구의 핵심 위험 요소라고 지적하면서, 이러한 도구가 딥페이크 외에도 다양한 용도로 활용될 수 있다며 도구의 사용 방식에 집중하고 피해 발생 시 "개인과 기업의 책임을 묻는 것"이 중요하다고 강조했다.
6 조회
0 추천
10:55 등록
• 구글이 제미나이 앱에 자사 AI로 생성된 동영상을 판별하는 기능 도입 • SynthID 워터마크 기술로 영상·음성에서 AI 생성 여부 탐지 • 최대 100MB, 90초 길이의 동영상까지 검증 가능 구글이 제미나이(Gemini) 앱의 AI 검증 기능을 동영상 영역으로 확대했다. 이제 사용자들은 업로드한 동영상이 구글 AI로 생성됐는지 여부를 제미나이에게 직접 물어볼 수 있다. 제미나이는 구글의 독자 워터마크 기술인 SynthID를 활용해 동영상의 화면과 음성을 분석한다. 단순히 '예' 또는 '아니오'로 답하는 것이 아니라, 워터마크가 감지된 구체적인 시점까지 알려준다고 구글 측은 설명했다. 이 기능은 지난 11월 이미지 검증용으로 먼저 선보인 바 있으며, 당시에도 구글 AI로 제작되거나 편집된 이미지에 한해 작동했다. 워터마크 기술의 한계도 존재한다. OpenAI가 AI 생성 동영상 전용 앱 소라(Sora)를 출시할 당시 워터마크가 쉽게 제거될 수 있다는 점이 드러났기 때문이다. 구글은 자사 워터마크가 '인지할 수 없는' 수준이라고 밝혔지만, 실제로 얼마나 쉽게 제거될 수 있을지, 다른 플랫폼들이 SynthID 정보를 인식해 AI 생성 콘텐츠로 표시할지는 아직 미지수다. 제미나이 내 이미지 생성 모델인 Nano Banano는 C2PA 메타데이터를 삽입하지만, 소셜 미디어 플랫폼 간 AI 생성 콘텐츠 표기에 대한 공조 체계가 부재해 딥페이크가 탐지되지 않은 채 유통되는 경우가 많다. 현재 이 동영상 검증 기능은 최대 100MB, 90초 길이까지 지원되며, 제미나이 앱이 서비스되는 모든 국가와 언어에서 이용할 수 있다.
8 조회
0 추천
01.05 등록
• 핀터레스트에 AI 생성 콘텐츠(일명 'AI 슬롭')가 급증하며 사용자들의 피드가 저품질 콘텐츠로 가득 차고 있다 • 플랫폼의 '영감 발견' 기능이 AI로 생성된 가짜 레시피, 인테리어 이미지, 사기성 광고로 인해 본래 기능을 상실하고 있다 • 전문가들은 이를 기업의 과도한 수익 추구로 사용자 경험이 저하되는 '엔시티피케이션(enshittification)' 현상으로 진단한다 • 핀터레스트는 AI 생성 콘텐츠 라벨 도입과 맞춤 설정 기능을 제공하고 있으나, 사용자들은 여전히 불만족스러워하고 있다 캘리포니아에 거주하는 케이틀린 존스는 5년간 매주 핀터레스트에서 아들을 위한 레시피를 찾아왔다. 지난 9월, 그녀는 크리미한 치킨 브로콜리 슬로우쿠커 레시피를 발견했다. 황금빛 체다치즈와 파슬리가 뿌려진 사진이 매력적이었다. 재료를 확인하고 장을 본 뒤 요리를 시작하려던 순간, 레시피에서 이상한 문구를 발견했다. 닭고기를 슬로우쿠커에 "로깅(logging)"하라는 지시였다. 의아해진 존스는 해당 레시피 블로그의 소개 페이지를 클릭했다. 완벽하게 보이는 여성이 앞치마를 두르고 황금빛 조명 아래 미소 짓고 있었다. 그녀는 즉시 알아챘다. 그 여성은 AI가 생성한 이미지였다. "안녕하세요, 저는 수잔 손입니다!" 페이지에는 이렇게 적혀 있었다. "저는 주방이 모든 것의 중심인 가정에서 자랐습니다." 함께 게시된 이미지는 완벽했지만 어딘가 이상했고, 자기소개는 모호하고 일반적이었다. 존스는 "평소처럼 급하게 장을 보느라 이런 문제가 있을 거라고는 생각도 못 했다"며 "지금 생각하면 바보 같지만"이라고 말했다. 궁지에 몰린 그녀는 의심스러운 요리를 그대로 만들었지만, 결과는 좋지 않았다. 물기 많고 싱거운 치킨은 불쾌한 맛만 남겼다. 화를 참을 수 없었던 그녀는 레딧의 r/Pinterest 커뮤니티에 글을 올렸다. 이곳은 불만족스러운 사용자들의 광장이 되어 있었다. "핀터레스트가 사람들이 사랑했던 모든 것을 잃어가고 있다. 진정한 핀과 진정한 사람들 말이다"라고 그녀는 썼다. 이후 그녀는 앱 사용을 완전히 중단했다고 밝혔다. 'AI 슬롭(AI slop)'이란 동영상, 책, 미디엄 게시물 등 인터넷을 가득 채우는 저품질의 대량 생산 AI 콘텐츠를 일컫는 용어다. 핀터레스트 사용자들은 이 플랫폼이 그런 콘텐츠로 넘쳐나고 있다고 말한다. 코넬 공대 보안·신뢰·안전 이니셔티브 책임자인 알렉시오스 만차를리스는 최근 발표한 AI 슬롭 분류 연구에서 이를 "우리에게 강제로 먹이는 먹기 싫은 죽"이라고 표현했다. 구글 검색에서 단 하나의 결과도 나오지 않는 '수잔'은 빙산의 일각에 불과하다. 만차를리스는 와이어드에 "모든 플랫폼이 이것을 새로운 표준의 일부로 결정했다"며 "전반적으로 생산되는 콘텐츠의 막대한 부분을 차지하고 있다"고 말했다. 핀터레스트는 2010년 출시되어 "아이디어를 찾기 위한 시각적 발견 엔진"으로 마케팅됐다. 수년간 광고 없이 운영되며 창작자들의 충성스러운 커뮤니티를 구축했고, 현재 5억 명 이상의 활성 사용자로 성장했다. 그러나 일부 불만족스러운 사용자들에 따르면, 최근 피드가 전혀 다른 세상을 반영하기 시작했다. 핀터레스트의 피드는 대부분 이미지로 구성되어 있어 동영상 중심 사이트보다 AI 슬롭에 더 취약하다고 만차를리스는 설명한다. 사실적인 이미지는 보통 동영상보다 모델이 생성하기 쉽기 때문이다. 또한 이 플랫폼은 사용자를 외부 사이트로 유도하는데, 이런 외부 클릭은 콘텐츠 팜이 팔로워보다 더 쉽게 수익화할 수 있다. 광고의 급증도 부분적인 원인일 수 있다. 핀터레스트는 스스로를 "AI 기반 쇼핑 어시스턴트"로 리브랜딩했다. 이를 위해 2022년 말부터 피드에 더 많은 타겟 광고를 쏟아붓기 시작했으며, 당시 빌 레디 CEO는 투자자들에게 이것이 사용자에게 "훌륭한 콘텐츠"가 될 수 있다고 말했다. 와이어드가 시크릿 모드 브라우저의 새 핀터레스트 계정에서 "발레 플랫 슈즈"를 검색했을 때, 처음 표시된 73개 핀 중 40% 이상이 광고였다. 지난해 핀터레스트는 광고주를 위한 생성형 AI 도구도 출시했다. 회사는 4월 블로그에서 합성 콘텐츠가 사용자들의 "영감을 발견하고 실행하는" 능력을 향상시킨다고 밝혔다. AI 슬롭은 최근 몇 년간 모든 소셜 미디어 사이트에 확산되었다. 그러나 핀터레스트 사용자들은 이 콘텐츠가 실제 영감을 거래하는 마켓플레이스로서의 사이트 기능을 배반한다고 말한다. 대학생 소피아 스왓링은 "플랫폼이 한때 그랬던 것과 정반대가 됐다. 사이트 전체의 전제를 떠받치는 콘텐츠보다 소비주의, 광고 수익, 비인간적 슬롭을 뻔뻔하게 우선시하고 있다"고 말했다. 뉴욕 주 시골에서 자란 그녀는 자신의 취미를 공유하는 비슷한 생각을 가진 창작자들을 찾기 어려웠다. 핀터레스트는 그녀에게 생명줄이었다. 스왓링은 "탐욕과 착취가 점점 더 두드러지더니 이제 사용자 경험이 완전히 훼손되는 지경에 이르렀다"고 덧붙였다. 핀터레스트 사용자들이 제기하는 문제는 캐나다 활동가이자 저널리스트, SF 작가인 코리 닥터로우가 '엔시티피케이션(enshittification)'이라고 부르는 범주에 해당한다. 이는 사람들이 의존하는 인터넷 플랫폼이 사용자 경험을 희생하며 끊임없는 수익 추구로 인해 점진적으로 쇠락하는 현상을 말한다. 핀터레스트의 사용자 수가 증가하고 있을지 모르지만, 그들이 슬롭을 좋아한다는 뜻은 아니라고 닥터로우는 말한다. 새로운 사용자들은 대안이 없다고 느낄 수 있고, 기존 사용자들은 수년간 공유하고 저장한 핀과 보드에 대한 애정이 슬롭에 대한 혐오보다 클 수 있다고 그는 설명한다. 닥터로우는 와이어드에 "기업들은 사람들의 디지털 흔적이 '강력한 힘'이라는 것을 알고 있어 처벌 없이 행동할 수 있다"며 "바로 그것이 엔시티피케이션이 존재하는 곳이다"라고 말했다. 핀터레스트가 AI에 기대면 성과가 가속화될 것으로 기대했다면, 그렇게 되지 않았다. 회사 주가는 11월 3분기 실적과 매출 전망이 애널리스트 기대에 미치지 못하면서 20% 급락했다. 와이어드가 핀터레스트에서 AI 생성 이미지로 보이는 핀을 클릭하자 AI의 지나치게 매끄러운 특징을 가진 사진과 함께 모호한 조언을 담은 일반적인 리스티클 블로그로 연결됐다. 배너 광고와 팝업도 가득했다. 텍사스 오스틴에 사는 60세의 장기 핀터레스트 사용자 재닛 카츠는 "끝없는 윈도우 쇼핑 같지만 가게도 없고, 문도 없고, 간판도 없다. 그저 정말 멋져 보이는 창문만 있다"고 말했다. 올해 거실을 리모델링하면서 그녀는 가구 치수가 맞지 않는 이미지를 계속 발견했다. 물리 법칙을 무시하는 의자, 두 다리로 아슬아슬하게 균형을 잡는 커피 테이블이 그것이었다. 카츠는 "인테리어판 언캐니 밸리다. 진짜처럼 보이지만 뭔가 제대로 된 게 아니다"라고 말했다. 와이어드가 핀터레스트에서 "발레 플랫 슈즈" 검색어로 25개 광고를 클릭해 본 결과, 비슷한 패턴의 전자상거래 사이트로 연결됐다. 대폭 할인된 의류, 실제 주소 없음, 종종 합성된 듯한 매끈한 부티크 주인 사진과 창업 스토리가 함께 게시되어 있었다. "저는 예술, 장인 정신, 전통에 대한 사랑이 가득한 가정에서 자랐습니다"라고 한 사이트는 선언한다. 거의 동일한 두 사이트에서는 은퇴한 부부가 뉴욕시에서 "잊을 수 없는 26년" 후에 문을 닫는다고 발표했다. 이 부티크들은 '고스트 스토어'로 알려진 현상의 여러 특징을 가지고 있다. 이는 폐점으로 인해 고품질 제품을 대폭 할인 판매한다고 주장하는 가짜 웹사이트를 만드는 온라인 사기다. 케임브리지 대학교 AI 비즈니스 프로그램 공동 창립자이자 생성형 AI 전문가인 헨리 아이더는 와이어드에 "이런 종류의 캠페인을 둘러싼 전체 생산 수단이 근본적으로 변했다"며 "더 현실적이고, 덜 비싸고, 더 접근하기 쉬워졌다. 이 모든 것이 합쳐져 합성 스팸으로 플랫폼을 포화시키는 매력적인 패키지가 됐다"고 말했다. 해당 웹사이트들은 와이어드의 논평 요청에 응하지 않았다. 와이어드가 이 사이트들을 핀터레스트와 공유하자, 핀터레스트는 기만적이거나 신뢰할 수 없거나 독창적이지 않은 웹사이트로 연결되는 핀을 금지하는 정책 위반으로 15개를 비활성화했다. 핀터레스트 대변인은 와이어드에 "많은 사람들이 핀터레스트에서 생성형 AI 콘텐츠를 즐기지만, 일부는 덜 보고 싶어한다는 것을 알고 있다"며 사용자가 AI 생성 콘텐츠를 제한할 수 있는 도구를 언급했다. 그들은 핀터레스트가 "생성형 AI든 아니든 스팸을 포함한 유해한 광고와 콘텐츠를 금지한다"고 덧붙였다. AI 생성 콘텐츠의 유입은 일부 사용자들로 하여금 인간이 만든 콘텐츠가 상승하는 조류 속에 사라지고 있는 것은 아닌지 편집증적으로 의심하게 만들었다. r/Pinterest에서 흔한 불만은 알 수 없는 이유로 노출이 급격히 떨어졌다는 사용자들의 것인데, 그들은 AI가 자신들을 묻어버리고 있다고 의심한다. 전자상거래 사기를 조사하는 유튜브 채널도 운영하는 소프트웨어 엔지니어 모레노 디즈다레비치는 같은 불만을 공유하는 소규모 사업체들과 함께 일해왔다. 그의 고객 중 한 명인 주얼리 제작자이자 전업주부는 더 이상 핀에 댓글이나 좋아요를 받지 못하며 월간 조회수가 5,000건 미만이다. 디즈다레비치에 따르면 그녀는 인스타그램이나 틱톡에 게시할 때 훨씬 더 성공적인데, 거기에는 "아직 좀 더 인간적인 연결"이 있어 그녀에게 우위를 제공하기 때문이다. 4월, 사용자 불만을 인용하며 핀터레스트는 콘텐츠가 "AI로 수정됨"일 때 공개하는 "Gen AI 라벨"을 도입했다. 그리고 10월에는 사용자가 AI 생성 콘텐츠를 얼마나 볼지 맞춤 설정할 수 있는 도구를 출시했다. 그러나 이 라벨은 사용자가 핀을 클릭해야만 나타나며 피드 자체에는 표시되지 않고, 광고에도 적용되지 않는다. 와이어드는 그렇게 라벨이 지정되지 않은 여러 AI 생성 핀을 발견했다. AI 생성 사용자 콘텐츠와 광고의 바다는 기술 기업들에게 역설을 만들었다고 아이더는 말한다. "당신이 팔고 있는 시선이 실제로 시선인지 도대체 어떻게 증명하느냐?"고 그는 묻는다. 기업들은 인간이 만든 콘텐츠를 검증하는 도구로 이동할 수 있다고 아이더는 말한다. 예를 들어 프랑스 음악 스트리밍 서비스 디저(Deezer)는 9월에 이러한 업로드가 현재 일일 제출물의 28%, 하루 3만 곡에 해당한다고 공개한 후 완전히 AI 생성된 트랙을 알고리즘 추천에서 제거하겠다고 약속했다. 그러나 존스에게 핀터레스트의 변화는 이미 완료된 것처럼 느껴진다. 한때 진정한 영감의 장소였던 곳이 그녀의 말로는 "우울한" 곳이 되어버렸다.
11 조회
0 추천
01.05 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입