AI 뉴스

Reddit 공동 창립자, 봇이 인간을 넘어서면서 인터넷이 이제 '죽었다'고 말하다

페이지 정보

작성자 xtalfi
작성일 2025.10.16 00:00
2,671 조회
0 추천
0 비추천

본문

05f2b4b22ab91fb5e8d977c3c2e9432b3LGY.jpg

(퍼플렉시티가 정리한 기사)

Reddit 공동 창업자 Alexis Ohanian은 최근 팟캐스트 출연에서 인터넷의 악화되는 상태에 대한 경고를 강화하며 "인터넷의 대부분이 이제 죽었다"고 선언했습니다. 이는 자동화된 트래픽이 10년 만에 처음으로 인간 활동을 추월했다는 새로운 데이터가 나온 시점에 나온 발언입니다.

 

최근 AI 기만 사례가 증가하는 문제를 부각시키다

 

오헤니안의 우려는 이번 주말 그의 플랫폼에서 화제가 된 한 사건을 언급하면서 다시 한 번 긴박해졌다. 수천 명의 Reddit 이용자들이 '파운드 케이크'라는 가상의 과체중 고양이가 체중 감량 여정을 시작했다는 게시물에 속았기 때문이다. 이 게시물들은 엄청난 참여와 감정적 몰입을 이끌어냈지만, 나중에 완전히 AI가 생성한 것임이 밝혀졌다.​

"또 한 번 ‘죽은 인터넷 이론(Dead Internet Theory)’에 대해 상기시켜드릴 때가 된 것 같습니다,"라고 오헤니안은 일요일에 X에 글을 올리며 인공지능이 온라인 커뮤니티를 얼마나 쉽게 조작할 수 있는지 강조했다. 파운드 케이크 사기는 연구자들이 'AI 쓰레기’(AI slop)라고 부르는 현상을 보여준다. 즉, 감정적 조작을 통해 참여를 유발하도록 설계된 합성 콘텐츠이다.​

The Best People Network 팟캐스트에서 오헤니안은 인터넷을 점점 더 '봇화' 또는 '준AI'화 되고 있다고 묘사하며, '링크드인 쓰레기(LinkedIn slop)'라고 부르는 반복적이고 알고리즘 친화적인 콘텐츠가 진정성보다 참여를 우선시한다고 말했다. "여러분 모두가 이제 인터넷의 많은 부분이 죽었다는 점을 증명하고 있습니다,"라고 그는 진행자들에게 말했다.

 

봇 트래픽이 전환점에 도달하다

 

Ohanian의 경고는 사이버 보안 회사 Imperva의 우려스러운 새로운 통계와 일치하는데, 이에 따르면 2024년 전체 웹 트래픽의 51%가 자동화된 트래픽으로 나타났다 - 이는 10년 만에 처음으로 봇이 온라인에서 인간을 앞지른 것이다. 특히 악성 봇 활동은 2023년 32%에서 37%로 급증했다.​

이러한 증가는 봇 생성을 더욱 접근 가능하고 확장 가능하게 만든 대규모 언어 모델과 AI 도구의 확산과 직접적으로 관련이 있다. Imperva의 2025 악성 봇 보고서에 따르면 "AI 대규모 언어 모델의 등장으로 유해한 목적을 위한 봇을 더 쉽게 생성하고 확장할 수 있게 되었다".

 

진정한 연결은 사적인 공간으로 후퇴한다

 

공공 플랫폼의 품질 저하에 대응하여, Ohanian은 진정한 인간 상호작용이 더 작고 사적인 디지털 공간으로 이동했다고 관찰했습니다. "이제 모든 것이 그룹 채팅에서 일어나고 있습니다"라고 그는 말했으며, 이는 사람들이 알고리즘 조작에서 벗어나 진정한 대화를 찾는 Signal과 Discord 같은 플랫폼을 언급한 것입니다.​

그러나 이러한 안식처조차 침투에 직면하고 있습니다. 일부 사용자들은 그룹 채팅에서 메시지를 생성하고 편집하기 위해 AI 도구를 통합하기 시작했으며, 이는 공공 플랫폼을 공허하게 만든 것과 동일한 인위적인 역학을 들여올 가능성이 있습니다.​

OpenAI CEO Sam Altman도 이러한 우려에 동의하며, 9월에 "죽은 인터넷 이론을 그렇게 심각하게 받아들인 적은 없었지만" 이제는 "많은 LLM이 운영하는 트위터 계정들"을 보고 있다고 인정했습니다. 주요 기술 리더들의 관찰이 수렴되면서, 한때 음모론적 사고로 치부되었던 죽은 인터넷 이론이 입증 가능한 현실이 되었음을 시사합니다.

 

인간이 검증하는 미래를 향하여

 

Ohanian은 라이브 콘텐츠와 실시간 상호작용을 진정한 참여의 증거로 강조하면서, "검증 가능한 인간"이 될 "차세대 소셜 미디어"를 구상하고 있다. 그는 미래의 플랫폼들이 단순히 자동화된 상호작용을 확장하는 것이 아니라 "생명의 증명"을 보여주어야 한다고 주장했다.​

이 과제는 개별 플랫폼을 넘어 인터넷의 근본적인 아키텍처까지 확장되는데, 이는 내장된 검증 시스템 없이 인간 대 인간 커뮤니케이션을 위해 설계되었다. AI가 생성한 콘텐츠가 인간의 창작물과 구별할 수 없게 되면서, 인증 메커니즘의 부재는 신뢰할 수 있는 정보원이자 진정한 연결로서의 인터넷 기능을 위협하고 있다.​

이러한 변화는 인간 연결성이라는 인터넷의 본래 약속에서 극명하게 벗어난 것을 나타내며, 연구자들이 점점 더 폐쇄된 디지털 환각의 루프 속에서 "봇이 봇에게 말하는" 것으로 묘사하는 것으로 대체되고 있다.

댓글 0
전체 1,366 / 272 페이지
(퍼플렉시티가 정리한 기사)Netflix 가 경쟁 입찰 전쟁 끝에 조셉 고든-레빗의 기대를 모으는 AI 스릴러 영화 판권을 확보했으며, 레이첼 맥아담스가 주연을 맡을 예정이라고 목요일 발표된 여러 업계 보고서가 전했다.제목이 아직 정해지지 않은 이 프로젝트는 2013년 데뷔작 “돈 존” 이후 12년 만에 고든-레빗이 감독으로 복귀하는 작품이다. 이 영화는 라이언 존슨과 램 버그만의 티스트리트 프로덕션이 제작하며, 고든-레빗이 이전 여러 협업 작품에서 함께 작업했던 제작진과 재회하게 된다.스타 교체와 스트리밍 홈McAdams는 2023년 12월 처음 발표되었을 때 원래 이 프로젝트에 참여하기로 했던 Anne Hathaway를 대체합니다. Hathaway의 하차 이유는 명확하지 않지만, 업계 소식통들은 Christopher Nolan의 “The Odyssey”와 “The Devil Wears Prada” 속편에서의 그녀의 향후 역할과의 일정 충돌 때문일 수 있다고 시사합니다.Netflix는 Gordon-Levitt과 T-Street가 이 스트리밍 거대 기업이 “이 패키지를 위한 적절한 창작의 보금자리”를 제공하고 영화 제작자의 비전을 “완전히 수용”했다고 느낀 후 승리를 거두었습니다. 이번 인수는 이전에 “Fair Play”와 “Knives Out” 속편들을 플랫폼에 제공했던 T-Street와 Netflix의 파트너십을 이어갑니다.AI 테마와 개인적 이해관계줄거리 세부 사항은 기밀로 유지되고 있지만, 이 스릴러는 인공지능이 창의성에 미치는 영향을 둘러싼 주제를 탐구할 것으로 예상되며, 이는 고든-레빗이 최근 몇 달 동안 열정적으로 옹호해 온 주제이다. 6월, 유엔 인터넷 거버넌스 포럼에서 고든-레빗은 AI의 영향이 적절히 규제되지 않으면 “우리가 알고 있는 창의성이 사라질 수 있다”고 경고하는 날카로운 연설을 전했다.고든-레빗은 유엔 포럼에서 “당신의 디지털 자아는 당신에게 속해야 합니다”라고 말했다. “인간이 생산하는 데이터—우리의 글과 목소리, 우리의 연결, 우리의 경험, 우리의 아이디어—는 우리에게 속해야 합니다”. 고든-레빗은 2016년 “스노든”에서 함께 작업한 키어런 피츠제럴드와 함께 각본을 공동 집필했으며, 두 사람은 나타샤 리온과 함께 스토리 크레딧을 공유한다. 2026년 제작 시작을 목표로 하고 있으며, 추가 캐스팅 발표는 앞으로 몇 주 내에 예상된다.=======추가 질문“고든-레빗의 AI에 대한 입장을 정리“조셉 고든-레빗은 AI 시대 창작자 권리 보호와 데이터 소유권, 공정한 보상 문제에 대해 강한 입장을 표명해왔습니다.디지털 자아와 데이터 소유권고든-레빗은 유엔 인터넷 거버넌스 포럼에서 “디지털 자아는 개인 자신에게 속해야 한다”라고 강조하며, 인간이 생산한 데이터(글, 음성, 경험, 아이디어 등)는 그 생산자에게 소유권이 있고, 이를 활용한 경제적 이익 역시 창작자에게 귀속돼야 한다는 원칙을 주장했습니다.AI와 창작자의 권리- AI가 인간의 창작물을 기반으로 학습하고 있으나, 콘텐츠 생산자에게 적당한 보상 없이 빅테크 기업에서 활용된다는 점을 비판했습니다.- AI 기업들이 무단으로 크리에이터의 창작물을 수집해 모델을 훈련하는 것은 본질적으로 창작자에 대한 '도둑질'과 같다는 시각을 내비쳤습니다.- 이러한 행위는 창의성의 원천인 인간 창작자의 동기를 약화시키고, 궁극적으로 "창의성이 사라질 수 있다"고 경고했습니다.공정한 보상을 위한 대안 제시- AI 모델 개발에 활용된 데이터의 출처와 기여도를 추적, 투명하게 공개하고, 창작자에게 합당한 보상이 이루어져야 한다는 대안을 제안했습니다.- 기술 발전이 창의성을 증대시킬 수 있지만, 이는 창작자에 대한 올바른 경제적 유인과 보상 시스템이 전제될 때만 가능하다고 설명했습니다.- 미 정부 및 입법기관에 AI 데이터 보상 및 저작권 보호 관련 법안 제정을 촉구했으며, AI 훈련 데이터에 대한 창작자 개인의 권리를 강화해야 한다는 의견을 내비쳤습니다.학습 데이터의 '경제적 가치'와 창작자 지속성- "AI가 인간 창작물로 부가가치를 창출하지만, 창작자들이 마땅한 보상을 받지 못하면 크리에이티브 산업 자체가 쇠퇴할 수 있다"는 점을 반복적으로 지적했습니다.- 크리에이터와 데이터 생산자들에게 올바른 인센티브를 제공해야만 AI의 긍정적 발전과 사람 중심의 기술 생태계가 가능하다고 보았습니다.이처럼 조셉 고든-레빗은 AI 활용에서 인간 창작자의 권리, 데이터 소유 및 경제적 보상, 공정한 기술 발전의 필요성을 일관되게 강조하고 있습니다.
2755 조회
0 추천
2025.10.11 등록
(퍼플렉시티가 정리한 기사)엘론 머스크의 xAI는 오늘 테네시주 멤피스에 8천만 달러 규모의 수질 재활용 시설 개장을 기념하는 행사를 개최했으며, 이 시설은 세계 최대 규모의 세라믹 막 생물 반응기를 갖추고 있다고 회사 측은 주장했다. 이 최첨단 시설은 인공지능 회사가 대규모 콜로서스 데이터 센터 운영을 확장하는 동시에 물 사용에 대한 지역 사회의 우려를 해소하는 주요 환경적 이정표를 나타낸다.세계 최대 세라믹 멤브레인 기술이 시설은 독일 회사 Cerafiltec이 개발한 첨단 세라믹 멤브레인 생물반응기 기술을 활용하여 매일 최대 1,300만 갤런의 도시 폐수를 처리합니다. 이 프로젝트를 이끄는 xAI의 폐수 엔지니어 Mark Carroll에 따르면, “CERAFILTEC의 견고한 세라믹 멤브레인 기술은 우리의 최첨단 슈퍼컴퓨터를 지원하기 위한 초고신뢰성 및 효율적인 수처리에 대한 까다로운 요구사항을 충족합니다”.이 공장의 세라믹 멤브레인은 섬유 파손 및 복잡한 세척 요구사항과 같은 기존 멤브레인 솔루션과 관련된 일반적인 문제를 극복하는 동시에, 회사의 고성능 컴퓨팅 시스템에 우수한 신뢰성과 효율성을 제공합니다. 이 시설은 xAI가 필요로 하는 것보다 더 많은 폐수를 처리할 예정이며, 잉여 처리수는 Tennessee Valley Authority 및 인근 철강 제조업체 Nucor를 포함한 지역 산업체에 제공되어 Memphis Sands Aquifer에 대한 부담을 크게 줄일 것입니다.환경 문제 해결물 재활용 시설은 xAI가 멤피스에서 급속한 확장에 대해 환경 단체와 지역 주민들로부터 지속적인 비판을 받고 있는 가운데 등장했습니다. 이 시설은 현재 Colossus 데이터 센터에 전력을 공급하기 위해 35개의 무허가 메탄 가스 터빈을 운영하고 있으며, 환경 단체들은 이것이 청정 대기법을 위반한다고 말합니다. Southern Environmental Law Center는 xAI가 운영을 시작한 이후 주변 지역의 이산화질소 수치가 크게 증가했다고 기록했습니다.Protect Our Aquifer의 전무이사인 Sarah Houston은 이 처리 시설이 멤피스의 식수 공급을 보호하는 “올바른 방향으로의 큰 진전”이라고 말했지만, 프로젝트의 장기적 지속 가능성에 대한 우려는 여전히 남아 있습니다. 멤피스 시의회는 2025년 3월에 xAI에 시 소유 토지 13에이커를 이 시설을 위해 820,000달러에 판매하는 것을 승인했습니다.
2765 조회
0 추천
2025.10.11 등록
(퍼플렉시티가 정리한 기사)Anthropic의 새로운 연구는 인공지능 시스템의 놀라운 취약점을 밝혀냈습니다: 신중하게 제작된 악의적인 문서 250개만으로도 크기에 관계없이 대규모 언어 모델을 손상시킬 수 있으며, 이는 AI 보안에 대한 근본적인 가정에 도전하고 고객 서비스 챗봇부터 엔터프라이즈 소프트웨어까지 모든 것을 구동하는 시스템의 안전성에 대한 긴급한 질문을 제기합니다.10월 8일 영국 AI 보안 연구소 및 앨런 튜링 연구소와의 공동 연구로 발표된 이 연구는 지금까지 진행된 가장 큰 규모의 데이터 중독 조사를 나타내며, 이미 보안 문제로 고심하고 있는 업계에 충격적인 소식을 전달합니다. 연구 결과에 따르면 130억 개의 매개변수를 가진 모델—6억 개 매개변수를 가진 더 작은 모델보다 20배 이상 많은 데이터로 훈련된—도 동일한 소수의 중독된 문서에 의해 손상될 수 있음을 보여줍니다.모델 규모 전반에 걸친 지속적인 위협이전 연구에서는 공격자가 학습 데이터의 일정 비율을 제어해야 한다고 제안한 것과 달리, Anthropic의 연구 결과에 따르면 데이터 오염 공격은 “모델 크기와 관계없이 거의 일정한 수의 문서가 필요하다”고 나타났다. 연구진은 ““와 같은 트리거 문구를 사용해 모델이 활성화되었을 때 의미 없는 텍스트를 생성하도록 백도어를 성공적으로 만들었으며, 이를 통해 공격자가 AI 시스템을 조작해 해로운 결과물을 만들어낼 수 있음을 보여줬다.Anthropic는 연구 논문에서 “우리의 결과는 공격자가 학습 데이터의 일정 비율을 제어해야 한다는 일반적인 가정을 뒤집는다. 오히려 소량의 정해진 데이터만 필요할 수 있다”고 밝혔다. 그 영향은 매우 크며, 대부분의 대형 언어 모델이 공개된 인터넷 데이터를 대량으로 학습하기 때문에, “말 그대로 누구나 모델의 학습 데이터에 포함될 수 있는 콘텐츠를 만들 수 있다”고 설명했다.토론토대학교 Citizen Lab의 선임 연구원 John Scott-Railton은 해당 위협의 확장성을 강조하며 다음과 같이 말했다: “LLM 학습 데이터 세트 내에서는, 희석이 오염에 대한 해결책이 아니다. 사이버보안 전문가라면 직관적으로 알 수 있을 것이다: 공격은 대량 확장될 수 있지만 방어책은 대부분 그렇지 않다”.산업 영향 및 시장 우려사항이 연구는 인공지능에 대한 열기로 주요 지수들이 신기록을 달성하며 AI 주식이 전례 없는 고점에 계속 도달하고 있는 가운데 나타났다. 그러나 증가하는 보안 취약점이 잠재적 시장 과대평가에 대한 이미 가열된 논쟁에 복잡성을 더하고 있다. JPMorgan Chase CEO인 제이미 다이먼은 최근 “AI는 실재한다”면서도 현재의 많은 투자들이 “아마도” 낭비될 수 있다고 경고하며, 앞으로 6개월에서 2년 내에 상당한 주가 하락에 대한 우려를 표명했다.특히 S&P 500 기업의 72%가 올해 규제 서류에서 AI를 “중대한 위험”으로 공시했다는 점에서 이 시점은 특별히 의미가 있다. 한편, OpenAI와 Anthropic은 훈련 데이터에 대한 저작권 주장과 관련된 수십억 달러 규모의 잠재적 소송을 해결하기 위해 투자자 자금을 사용하는 방안을 모색하고 있는 것으로 알려졌다.악의적 행위자들을 부추길 수 있는 연구 결과를 공개했음에도 불구하고, Anthropic은 “이러한 결과를 공개하는 것의 이익이 이러한 우려를 능가한다”고 믿으며, 취약점을 이해하는 것이 더 나은 방어 체계를 개발하는 데 중요하다고 주장했다. 회사는 공격자들이 실제로 독성 데이터를 훈련 세트에 삽입하는 데 여전히 상당한 어려움에 직면하고 있다고 언급했지만, 이 연구는 AI 업계 전반에 걸친 개선된 보안 조치의 긴급한 필요성을 부각시킨다고 했다.
2736 조회
0 추천
2025.10.11 등록
(퍼플렉시티가 정리한 기사)중국 핀테크 대기업 앤트 그룹(Ant Group)이 1조 개의 매개변수를 가진 오픈소스 대규모 언어 모델 Ling-1T를 공개했으며, 이 모델은 수학, 코딩, 추론 과제에서 DeepSeek, OpenAI 및 기타 주요 AI 개발사들의 경쟁 모델을 능가한다고 회사 측은 주장했다. 2025년 10월 9일 발표된 이번 공개는 단 두 달 만에 앤트가 두 번째로 공개하는 1조 매개변수 모델로, 대규모 AI 시스템 개발 분야에서 중국의 경쟁이 격화되고 있음을 보여준다.Ling-1T, AI 성능에서 새로운 기준을 세우다Ling-1T는 효율적인 추론 능력을 유지하면서 여러 복잡한 추론 벤치마크에서 최첨단 성능을 달성했습니다. 2025년 미국 수학 경시대회 초청 시험(AIME)에서 이 모델은 문제당 평균 4,000개 이상의 출력 토큰 비용으로 70.42%의 정확도를 기록했으며, Google의 Gemini-2.5-Pro와 동등한 성능을 보이면서 DeepSeek, OpenAI, Moonshot의 경쟁 모델들을 능가했습니다.독립적인 평가자들의 종합적인 테스트에 따르면, Ling-1T는 대규모 다중작업 언어 이해(MMLU) 벤치마크에서 91.76%의 정확도를 달성하여 약 90%의 GPT-5, 89.1%의 Claude 4.5 Sonnet, 89.0%의 DeepSeek V3.1을 능가했습니다. 이 모델은 특히 코딩 및 소프트웨어 엔지니어링 작업에서 강력한 능력을 보여주었으며, 1조 파라미터 모델 중 LiveCodeBench 평가에서 선두 성능을 보였습니다.전략적 오픈소스 접근 방식이 독점 모델에 도전하다이번 출시는 Ant Group이 9월에 출시한 Ring-1T-preview에 이어진 것으로, 회사는 이를 세계 최초의 오픈소스 1조 파라미터 사고 모델이라고 주장했습니다. Ant Group의 최고기술책임자(CTO) He Zhengyu는 다음과 같이 밝혔습니다: “Ant Group에서 우리는 인공일반지능(AGI)이 공공재가 되어야 하며, 인류의 지능적 미래를 위한 공유된 이정표가 되어야 한다고 믿습니다”.Ling-1T는 1/32 활성화 비율을 가진 Mixture-of-Experts 아키텍처를 사용하여 작동하며, 이는 총 1조 개의 파라미터를 포함하고 있음에도 불구하고 토큰당 약 500억 개의 파라미터만 활성화됨을 의미합니다. 이러한 설계는 계산 비용의 비례적 증가 없이 정교한 추론 능력을 가능하게 하여, 대규모 AI 배포의 핵심 과제를 해결합니다.모델 패밀리 확장에는 세 가지 주요 시리즈가 포함됩니다: 비사고 모델인 Ling 시리즈, 사고 모델인 Ring 시리즈, 그리고 멀티모달 Ming 시리즈입니다. 이러한 포괄적인 접근 방식은 Ant Group이 오픈소스 개발에 대한 헌신을 유지하면서 다양한 AI 애플리케이션에서 경쟁할 수 있는 위치를 확보하게 하며, 잠재적으로 글로벌 AI 연구와 채택을 가속화할 수 있습니다.
2855 조회
0 추천
2025.10.11 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입