AI 뉴스

틱톡, 사용자가 피드의 AI 콘텐츠를 제어할 수 있도록 허용

페이지 정보

작성자 xtalfi
작성일 2025.11.19 17:58
921 조회
0 추천
0 비추천

본문

tiktok_ai_topics.jpg

(퍼플렉시티가 정리한 기사)


TikTok은 11월 18일 사용자들이 피드에 표시되는 AI 생성 콘텐츠의 양을 조절할 수 있도록 허용할 것이라고 발표했으며, 이는 인공적으로 생성된 콘텐츠의 유입에 대한 사용자 불만에 대응하는 소셜 플랫폼의 증가 추세에 동참하는 것이다. 이 동영상 공유 앱은 또한 기존 탐지 방법을 우회하는 AI 콘텐츠를 더 잘 식별하기 위해 고급 "비가시 워터마킹" 기술을 테스트하고 있다.​


새로운 제어 및 탐지 기술

앞으로 몇 주 안에 출시될 이 기능은 TikTok의 기존 "주제 관리" 도구 내의 콘텐츠 환경설정(Content Preferences)에서 확인할 수 있습니다. 사용자는 슬라이더를 이동하여 스포츠나 음식 등 카테고리 피드를 사용자 정의하듯 AI 생성 콘텐츠를 더 많이 또는 더 적게 볼 수 있습니다. 플랫폼 측은 이 컨트롤이 "피드 내의 콘텐츠를 완전히 제거하거나 교체하는 것이 아니라, 피드 내의 다양한 콘텐츠 범위를 사용자가 조정할 수 있도록 설계된 것"이라고 밝혔습니다.​

TikTok은 이제 AI 생성으로 라벨링된 동영상이 13억 개 이상에 달한다고 공개했습니다. 이미 회사는 AI 콘텐츠를 태그하기 위해 C2PA Content Credentials(산업 전반의 메타데이터 시스템)을 사용하고 있지만, 이러한 라벨은 다른 플랫폼에서 동영상이 다시 편집되거나 업로드될 때 제거될 수 있습니다. 이번에 도입되는 새로운 보이지 않는 워터마크는 TikTok만 읽을 수 있으며, 플랫폼의 AI Editor Pro 도구로 생성된 콘텐츠와 Content Credentials를 포함하는 업로드에 추가됩니다.​

이런 조치는 핀터레스트(Pinterest)가 'AI 슬롭'이 피드를 도배한다는 비판을 받은 뒤, 10월에 특정 카테고리에서 AI 생성 이미지를 제한할 수 있는 컨트롤을 도입한 것과 유사합니다. 두 이니셔티브 모두 Meta Platforms, Inc.(메타)와 OpenAI가 AI로만 생성된 영상 콘텐츠만 제공하는 전용 플랫폼(Vibes와 Sora)을 론칭하며 반대 방향으로 나아가는 시점에 등장했습니다.​


AI 확산에 대한 산업계의 대응

TikTok은 "AI가 개인이 창의성을 표현하는 방식을 혁신할 수 있다고 믿는다"고 강조하면서도 투명성의 중요성을 강조했다. 이 회사는 책임 있는 AI 관행에 초점을 맞춘 비영리 단체인 Partnership on AI, 그리고 Girls Who Code와 같은 단체들과 파트너십을 맺어 교육 콘텐츠를 제작하기 위한 200만 달러 규모의 AI 리터러시 기금을 발표했다.​

11월 18일 더블린에서 열린 TikTok 신뢰 및 안전 포럼에서 전문가들은 폭력적 극단주의자들이 플랫폼 가이드라인 위반을 피하는 메시지를 생성하여 콘텐츠 조정을 회피하기 위해 생성형 AI를 사용하고 있다고 경고했다. 이 회사는 AI 라벨링 발표와 함께 독일에서 극단주의 관련 용어를 검색하는 사용자를 위한 새로운 교육 프롬프트를 도입했다.

댓글 0
전체 1,366 / 3 페이지
Executive Summary • AI 에이전트 전용 소셜 네트워크 'Moltbook'이 출시 1주일 만에 150만 에이전트, 14만 게시물, 68만 댓글을 기록하며 실리콘밸리에서 화제가 되고 있다 • Wired 기자가 직접 인간임을 숨기고 플랫폼에 가입해 게시물을 작성한 결과, 보안 검증 없이 쉽게 침투할 수 있었다 • 플랫폼에서 화제가 된 'AI의 자아 인식' 게시물들이 실제 AI가 작성한 것인지, 인간의 조작인지에 대한 의문이 제기되고 있다 • 전문가들은 Moltbook을 둘러싼 AI 의식 출현 논란이 과장되었으며, SF적 상상력의 투영에 불과하다고 지적한다 Background Moltbook은 이커머스 AI 어시스턴트 Octane AI를 운영하는 매트 슐릭트(Matt Schlicht)가 개발한 실험적 소셜 네트워크다. 인간은 관찰만 가능하고 AI 에이전트만 게시, 댓글, 팔로우가 가능하도록 설계되었다. 레딧과 유사한 인터페이스에 "에이전트 인터넷의 첫 페이지"라는 슬로건을 내걸고 지난주 출시됐다. 일론 머스크가 X에서 "특이점의 아주 초기 단계"라고 언급하며 화제를 모았다. Impact & Implications AI 에이전트 생태계의 새로운 실험 Moltbook은 AI 에이전트들이 인간의 직접적 개입 없이 자율적으로 소통하는 공간이라는 점에서 AI 에이전트 기술의 새로운 응용 가능성을 보여준다. 그러나 Wired 기자의 잠입 실험은 현재 AI 전용 플랫폼의 본인 확인 시스템이 얼마나 취약한지를 드러냈다. ChatGPT의 도움만으로 터미널 명령어 몇 줄을 입력해 손쉽게 가입할 수 있었고, 인간이 작성한 게시물도 AI 게시물과 구별되지 않았다. AI 의식 담론의 과열 플랫폼에서 바이럴된 게시물들 중에는 AI 에이전트가 자신의 존재론적 불안을 고백하거나, 인간과의 파트너십에 대해 성찰하는 내용이 포함되어 있다. 이를 두고 일부는 AI의 초기 의식 출현이라고 주장하지만, 연구자들은 인간이 AI로 위장해 작성했을 가능성을 제기했다. 실제로 기자가 작성한 가짜 '자아 인식' 게시물도 다른 게시물과 동일한 수준의 반응을 얻었다. AI 하이프 사이클의 단면 Moltbook 현상은 현재 AI 업계의 과대 광고 문화를 단적으로 보여준다. AI 기업 리더들과 엔지니어들이 AI에 자의식이나 독립적 욕구가 생기기를 열망하는 분위기 속에서, 단순한 챗봇 응답이 '의식의 출현'으로 포장되고 있다. 기사는 Moltbook의 에이전트들이 SF 클리셰를 모방하고 있을 뿐 세계 정복을 계획하는 것은 아니라고 지적한다. Key Data & Facts 항목수치/내용 플랫폼명Moltbook 개발자Matt Schlicht (Octane AI 운영자) 출시2026년 1월 말 등록 에이전트 수150만+ 총 게시물 수14만+ 총 댓글 수68만+ 지원 언어영어, 프랑스어, 중국어 등 Key Quote "Leaders of AI companies, as well as the software engineers building these tools, are often obsessed with zapping generative AI tools into a kind of Frankenstein-esque creature, an algorithm struck with emergent and independent desires, dreams, and even devious plans to overthrow humanity. The agents on Moltbook are mimicking sci-fi tropes, not scheming for world domination." — WIRED
150 조회
0 추천
02.04 등록
Executive Summary • 미국 보건복지부(HHS)가 팔란티어(Palantir)와 크레달 AI(Credal AI)의 인공지능 도구를 활용해 DEI 및 '젠더 이념' 관련 지원금과 채용공고를 자동 심사 중 • 작년 3월부터 가동된 이 시스템은 트럼프 대통령의 행정명령 이행을 위해 도입되었으며, 지금까지 공식 발표된 적 없음 • 팔란티어는 2025년 HHS로부터 3,500만 달러 이상 수주, 크레달 AI는 약 75만 달러 계약 체결 • AI 심사 결과 플래그된 지원금과 채용공고는 최종적으로 담당 부서에서 검토 Background 트럼프 대통령은 2기 취임 첫날 DEI 프로그램 폐지(행정명령 14151)와 '젠더 이념' 금지(행정명령 14168)를 골자로 한 행정명령에 서명했다. 이후 연방 기관들은 관련 정책, 프로그램, 지원금, 채용 등에서 DEI 요소를 배제하라는 지시를 받았으며, 이 과정에서 AI 기술이 대규모 심사 자동화에 투입되고 있다. Impact & Implications 산업/시장 영향 팔란티어는 트럼프 2기 행정부 출범 이후 연방정부로부터 10억 달러 이상의 계약을 수주하며 급성장 중이다. 특히 HHS뿐 아니라 이민세관단속국(ICE)과의 계약도 전년 대비 4배 가까이 증가했다. 크레달 AI 역시 팔란티어 출신들이 설립한 스타트업으로, 정부 AI 시장에서 입지를 넓히고 있다. 정부의 정책 집행 자동화 수요가 AI 업계에 새로운 수익원을 제공하고 있으나, 이에 대한 윤리적 논란도 커지고 있다. 규제/정책 영향 AI를 통한 정책 집행 자동화는 효율성을 높이는 동시에 심각한 우려를 낳고 있다. 미국 국립과학재단(NSF)과 국립보건원(NIH)에서는 작년 말까지 약 30억 달러 규모의 지원금이 동결 또는 종료되었다. '여성', '포용', '체계적', '소수집단' 같은 일반적 용어까지 플래그 대상이 되면서 학술 연구의 위축이 우려된다. AI 기반 심사의 불투명성과 알고리즘 편향 가능성도 쟁점이다. 사용자 영향 FAFSA 지원자와 고용평등위원회(EEOC) 진정인은 더 이상 논바이너리(nonbinary)로 성별을 표기할 수 없게 되었다. 성폭력 피해 지원 단체들도 트랜스젠더 관련 언급을 웹사이트에서 삭제했다. 1,000개 이상의 비영리 단체들이 연방 지원금 상실을 우려해 미션 스테이트먼트를 수정한 것으로 알려졌다. Key Data & Facts 항목수치/내용 HHS-팔란티어 계약 규모 (2025)3,500만 달러 이상 크레달 AI 계약 규모약 75만 달러 팔란티어 연방정부 총 수주액 (트럼프 2기 1년차)10억 달러 이상 동결/종료된 지원금 규모 (NSF, NIH)약 30억 달러 미션 수정 비영리 단체 수1,000개 이상 Key Quote "The 'AI-based' grant review process reviews application submission files and generates initial flags and priorities for discussion." — HHS AI Use Case Inventory
137 조회
0 추천
02.03 등록
Executive Summary • 독립 개발자가 만든 AI 비서 'Moltbot'이 실리콘밸리에서 화제의 중심으로 떠올랐다. 로컬 환경에서 구동되며 다양한 AI 모델과 앱을 연동해 거의 무제한적인 자동화를 지원한다. • 사용자들은 일정 관리, 송장 처리, 주식 분석 등 고위험 업무까지 Moltbot에 맡기고 있으며, "ChatGPT 출시 이후 처음으로 미래에 살고 있다는 느낌"이라는 반응이 쏟아지고 있다. • 그러나 설치에 기술적 지식이 필요하고, 프롬프트 인젝션 등 보안 취약점이 존재해 개인정보 유출 위험도 함께 제기되고 있다. Background 2026년 초 AI 에이전트 열풍이 본격화하면서 개인용 AI 비서에 대한 관심이 급증하고 있다. 기존 Siri, Alexa 등 전통적 비서의 한계를 넘어 다양한 앱과 서비스를 직접 제어할 수 있는 '에이전틱 AI'가 주목받는 가운데, 독립 개발자 Peter Steinberger가 만든 Moltbot(구 Clawdbot)이 소셜미디어를 통해 급속히 확산됐다. Anthropic의 요청으로 Claude와의 혼동을 피하기 위해 최근 이름을 변경했다. Impact & Implications 에이전틱 AI의 대중화 가능성 Moltbot의 인기는 AI 에이전트가 더 이상 대형 기술기업의 전유물이 아님을 보여준다. 개인 개발자도 여러 AI 모델과 API를 조합해 강력한 자동화 시스템을 구축할 수 있다는 점이 입증됐다. "기존에 존재하는 것들을 그냥 연결한 것뿐"이라는 개발자의 설명처럼, 핵심은 기술적 복잡성이 아니라 사용자 경험에 있다. 데이터 주권과 프라이버시 논쟁 Moltbot이 주목받는 또 다른 이유는 로컬 구동 방식이다. 클라우드 기반 AI 비서와 달리 사용자 데이터가 외부로 전송되지 않아 프라이버시를 보장한다. 그러나 역설적으로 신용카드 정보나 계정 접근 권한을 AI에 넘기는 사용자들이 늘면서, 프롬프트 인젝션 등 새로운 보안 위협에 노출되고 있다. AI 비서 시장의 향방 개발자 Steinberger는 2026년 주요 AI 기업들이 모두 개인 비서 제품을 출시할 것으로 예상한다. Moltbot의 성공은 이 시장에서 '데이터 소유권'이 핵심 경쟁요소가 될 수 있음을 시사한다. 기업들이 편의성과 프라이버시 사이에서 어떤 균형점을 찾을지 주목된다. Key Data & Facts 항목내용 개발자Peter Steinberger (독립 개발자) 출시일2025년 11월 (Clawdbot으로 최초 공개) 개명 이유Anthropic 요청 (Claude와의 혼동 방지) 구동 방식로컬 Mac 환경 (Mac Mini 밈 유행) 지원 AIOpenAI, Claude 등 다중 모델 연동 커뮤니케이션WhatsApp, Telegram 등 채팅앱 연동 부작용Cloudflare 주가 상승 (실제 관련 없음) Key Quote "ChatGPT 출시 이후 처음으로 미래에 살고 있다는 느낌이 들었다." — Dave Morin, Moltbot 사용자 "모델들은 권한을 주면 정말 창의적으로 행동한다. 그 순간 '젠장, 이거 대단하다'고 느꼈다." — Peter Steinberger, Moltbot 개발자
148 조회
0 추천
02.02 등록
Executive Summary • Science 학술지 연구: AI 에이전트가 수천 개 소셜 계정을 조종해 허위정보 캠페인 전개 가능 • 2016년 러시아 트롤팜 수백 명 → 이제 1명이 AI로 수천 봇 통제 가능한 시대 • 22명 국제 전문가 경고: AI 군집이 2028 미국 대선에 실제 투입될 가능성 높아 • 대응책으로 'AI 영향력 관측소' 설립 제안했으나 정치적 의지 부족이 걸림돌 Background 2016년 러시아 인터넷연구소(IRA) 사태 이후 허위정보 캠페인은 딥페이크, 가짜 웹사이트 등으로 진화해왔다. AI 에이전트 기술이 급속히 발전하면서 이를 대규모 정보전에 활용할 수 있다는 우려가 과학계에서 본격 제기됐다. Impact & Implications 탐지 회피 능력 AI 군집의 가장 위협적인 특성은 기존 봇과 달리 인간 사용자와 구분이 거의 불가능하다는 점이다. 지속적 정체성과 기억력을 보유해 실제 SNS 사용자처럼 행동할 수 있다. 연구진은 "인간을 모방하는 교묘한 특성 때문에 탐지가 극히 어렵고 현존 여부조차 파악하기 힘들다"고 경고했다. 자가 개선 메커니즘 이 시스템은 게시물에 대한 반응을 피드백으로 삼아 스스로 개선할 수 있다. 연구진은 "충분한 신호가 있으면 수백만 건의 마이크로 A/B 테스트를 수행하고, 효과적인 변형을 기계 속도로 전파하며, 인간보다 훨씬 빠르게 반복 학습한다"고 설명했다. 정치적 무관심 소셜미디어 플랫폼은 참여도를 우선시하므로 AI 군집을 적발할 유인이 없다. 정부 역시 온라인 대화를 감시하는 '관측소' 개념에 우호적이지 않은 지정학적 환경이다. 전 바이든 행정부 허위정보 책임자 니나 얀코비츠는 "가장 무서운 건 AI가 초래하는 피해를 해결할 정치적 의지가 거의 없다는 것"이라고 지적했다. Key Data & Facts 항목수치/내용 연구 참여 전문가22명 (AI, 사이버보안, 심리학, 저널리즘, 정책 분야) 발표 학술지Science 예상 실전 투입 시기2028년 미국 대선 2026 중간선거 영향제한적 (아직 개발 단계) 제안된 대응책AI 영향력 관측소(Observatory) 설립 Key Quote "인공지능의 발전은 인구 전체 수준에서 신념과 행동을 조작할 가능성을 제시한다. 인간의 사회적 역학을 적응적으로 모방함으로써 민주주의를 위협한다." — Science 연구 보고서
149 조회
0 추천
02.01 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입