Loading...

AI 뉴스

청취자 97%는 AI 음악과 사람이 만든 음악을 구별하지 못해

페이지 정보

작성자 xtalfi
작성일 2025.11.12 21:25
1,505 조회
0 추천
0 비추천

본문

055834a7545fb16c6061883e1e1d2e9aaab0cca7.jpg

(퍼플렉시티가 정리한 기사)


새로운 설문조사에 따르면 대다수의 청취자들이 더 이상 인간이 만든 음악과 인공지능이 완전히 생성한 트랙을 구별할 수 없는 것으로 나타나, 투명성과 음악 산업의 미래에 대한 우려가 제기되고 있습니다.

스트리밍 플랫폼 Deezer를 위해 Ipsos가 실시하고 수요일에 발표된 이 설문조사는 8개국의 9,000명에게 세 개의 음악 클립(AI 생성 두 개와 인간 제작 한 개)을 듣고 어떤 것이 인공적인지 식별하도록 요청했습니다. 응답자의 97%가 테스트에 실패했습니다. 절반 이상이 두 가지를 구별할 수 없다는 사실을 알게 되었을 때 불편함을 느꼈습니다.​

이 조사 결과는 이번 주 AI 생성 컨트리 송이 처음으로 빌보드 차트 정상에 오르면서 나왔습니다. 생성형 AI 기술을 사용하는 것으로 널리 알려진 아티스트 Breaking Rust의 "Walk My Walk"가 월요일에 발표된 데이터에 따르면 빌보드의 Country Digital Song Sales 차트에서 1위를 차지했습니다.​


AI 음악, 스트리밍 플랫폼에서 급증

Deezer는 2025년 내내 AI 생성 음악이 자사 플랫폼에서 폭발적으로 증가했다고 밝혔습니다. 현재 이 서비스는 매일 50,000개 이상의 완전한 AI 생성 트랙을 받고 있으며, 이는 전체 일일 업로드의 34% 이상을 차지합니다. 1월에는 매일 스트리밍되는 트랙 10개 중 1개가 완전히 AI로 생성된 것이었지만, 10월에는 그 수치가 3개 중 1개 이상으로 증가했습니다.​

Deezer에 따르면, 완전히 AI로 생성된 트랙의 스트림 중 최대 70%가 사기로 감지되었으며, 플랫폼은 이를 로열티 지급에서 제외하고 있습니다. 완전히 AI로 생성된 음악이 현재 Deezer의 전체 스트림 중 약 0.5%만을 차지하고 있지만, 회사는 사기 행위가 이러한 업로드의 주요 동기로 남아있다고 주장합니다.​


산업 투명성 요구

설문조사는 AI 생성 콘텐츠에 대한 라벨링에 대해 압도적인 지지를 보여주었으며, 응답자의 80%가 완전히 AI로 생성된 음악은 청취자들에게 명확하게 표시되어야 한다는 데 동의했습니다. Deezer는 사용자를 위해 완전히 AI로 생성된 콘텐츠를 체계적으로 라벨링하는 유일한 주요 음악 스트리밍 플랫폼입니다.​

"설문조사 결과는 사람들이 음악에 관심을 갖고 있으며 자신이 듣고 있는 것이 AI인지 사람이 만든 트랙인지 알고 싶어한다는 것을 명확히 보여줍니다"라고 Deezer CEO Alexis Lanternier는 말했습니다.​

설문 응답자의 70%는 완전히 AI로 생성된 음악이 현재와 미래의 음악가들의 생계를 위협한다고 믿으며, 65%는 AI 모델이 저작권이 있는 자료로 학습하는 것을 허용해서는 안 된다고 답했습니다. 9월에 Spotify는 아티스트와 퍼블리셔들이 음악 제작에서 AI 사용을 공개하는 자발적 산업 규약에 가입하도록 장려할 것이라고 발표했습니다.

댓글 0
전체 1,366 / 1 페이지
Executive Summary • 바이럴 AI 도구 OpenClaw 사용자들이 Scrapling이라는 오픈소스 도구를 활용해 클라우드플레어 턴스타일 등 안티봇 시스템을 우회하여 웹사이트를 스크래핑하고 있음 • 클라우드플레어는 이미 이전 버전의 Scrapling을 차단했으며, 최신 버전에 대한 패치 작업을 진행 중 • Scrapling 관련 밈코인($Scrapling)이 등장해 급등 후 폭락하는 사태가 발생, 개발자는 이에 대해 사과하며 자선단체 기부 의사를 밝힘 • 업계는 AI 에이전트와 인간 모두에게 유익한 인터넷 생태계 구축 방안을 모색 중 Background 대규모 언어 모델(LLM)은 인터넷 전체를 대상으로 한 대량의 웹 스크래핑을 통해 학습되었다. 최근 AI 에이전트 기술이 급속도로 발전하면서, 개인 사용자 수준에서도 유사한 스크래핑 행위가 확산되고 있다. 이에 따라 웹사이트 운영자들은 봇 차단 기술을 강화하고, 클라우드플레어 같은 보안 기업은 무단 접근을 막기 위한 솔루션을 제공하고 있다. Impact & Implications 기술적 의미 Scrapling 같은 도구의 등장은 AI 에이전트가 기존 보안 체계를 우회할 수 있는 기술적 가능성을 보여준다. 클라우드플레어 CTO 데인 크넥트는 "우리가 변경을 가하면, 그들도 변경을 가한다"고 언급하며 이 분야가 끊임없는 기술 경쟁 상태에 있음을 시사했다. 클라우드플레어는 1년도 안 되는 기간 동안 4,160억 건의 무단 스크래핑 시도를 차단했다고 밝혔다. 산업/시장 영향 AI 스크래핑 도구의 확산은 데이터 보호와 AI 발전 사이의 긴장 관계를 심화시키고 있다. 웹사이트 소유자들은 추가적인 안티봇 보호 조치를 도입하거나, 봇 접근에 대한 유료화 모델을 검토하고 있다. 이는 AI 기업들의 데이터 수집 비용 증가로 이어질 수 있으며, 궁극적으로 AI 서비스 가격에도 영향을 미칠 전망이다. 향후 전망 클라우드플레어의 크넥트 CTO는 "에이전트와 인간 모두에게 우호적인 인터넷을 향한 길이 보인다"고 말했다. 이는 향후 AI 에이전트의 웹 접근에 대한 새로운 표준과 프로토콜이 등장할 가능성을 시사한다. 웹사이트 소유자의 의사를 존중하면서도 AI 에이전트가 합법적으로 데이터에 접근할 수 있는 프레임워크 구축이 업계의 과제로 떠오르고 있다. Key Data & Facts 항목수치/내용 Scrapling 다운로드 수200,000회 이상 클라우드플레어 차단 스크래핑 시도4,160억 건 (1년 미만 기간) $Scrapling 밈코인약 5시간 급등 후 폭락 Key Quote "No bot detection. No selector maintenance. No Cloudflare nightmares. OpenClaw tells Scrapling what to extract. Scrapling handles the stealth." — X(구 트위터)에서 바이럴된 Scrapling 홍보 게시물
14 조회
0 추천
10:17 등록
Executive Summary • 피트 헤그세스 미 국방장관이 Anthropic을 '공급망 리스크'로 지정, 미군 거래 기업들의 Anthropic 상업 활동 즉시 중단 지시 • Anthropic은 자사 AI 기술의 대량 국내 감시 및 완전 자율무기 사용에 반대하며 법적 대응 예고 • Amazon, Microsoft, Google, Nvidia 등 주요 기업들이 양측과 거래 중이라 곤란한 상황에 처함 • 같은 날 OpenAI는 국방부와 기밀 환경 AI 배치 합의 발표, 대조적 행보 주목 Background 이번 조치는 수주간 진행된 국방부와 Anthropic 간 협상의 결렬에서 비롯됐다. Anthropic은 자사 AI 모델이 미국인 대상 대규모 감시나 완전 자율무기 시스템에 사용되어서는 안 된다는 입장을 고수한 반면, 국방부는 '모든 합법적 용도'에 대한 포괄적 사용 동의를 요구했다. 양측 입장 차이를 좁히지 못한 상황에서 국방부가 강경 조치를 선택한 것이다. Impact & Implications AI 산업 전반에 미치는 영향 이번 지정은 단순히 Anthropic 한 기업의 문제가 아니다. Amazon, Microsoft, Google, Nvidia 등 국방부와 거래하면서 동시에 Anthropic과 협력하는 주요 기술 기업들이 곤란한 상황에 처했다. 법률 전문가들은 헤그세스 장관의 발표가 기존 법적 근거와 명확히 일치하지 않는다고 지적하며, 실제로 어떤 기업이 Anthropic과의 관계를 끊어야 하는지 현재로서는 판단하기 어렵다고 분석한다. 규제 선례와 법적 분쟁 Anthropic은 블로그 성명을 통해 이번 지정에 대해 법적으로 대응하겠다고 밝혔다. 회사 측은 국방부로부터 직접적인 공식 소통을 받지 못했다고 주장하며, 헤그세스 장관이 이러한 지정을 뒷받침할 법적 권한이 없다고 반박했다. 소송이 제기되면 수개월에서 수년이 걸릴 수 있으며, 그 사이 Anthropic의 사업은 심각한 타격을 받을 수 있다. 기술 기업-국방부 협력 관계의 미래 이번 사태는 기술 기업들의 국방부 계약 참여 의지에 부정적 신호를 보낼 수 있다. CSIS의 그렉 앨런 선임고문은 "국방부가 모든 기업에 '국방 계약의 물에 발만 담그면 언제든 발목을 잡아 끌어들이겠다'는 메시지를 보냈다"고 평가했다. 한편 같은 날 OpenAI가 국방부와 AI 배치 합의를 발표하며 대조적인 결과를 보여, AI 기업들의 향후 전략적 선택에 영향을 미칠 것으로 보인다. Key Data & Facts 항목수치/내용 지정 근거10 USC 3252 (공급망 리스크 조항) Anthropic 입장법적 대응 예고, 직접 소통 미수령 주장 영향 기업Amazon, Microsoft, Google, Nvidia, Palantir 등 OpenAI 대조같은 날 국방부와 기밀 환경 AI 배치 합의 발표 Key Quote "이것은 미국 정부가 저지른 가장 충격적이고, 피해가 크며, 월권적인 행위다. 우리는 본질적으로 미국 기업을 제재한 것이다. 미국인이라면 10년 후에도 여기서 살아야 하는지 생각해봐야 한다." — 딘 볼(Dean Ball), Foundation for American Innovation 선임연구원
16 조회
0 추천
03.01 등록
Executive Summary • 트럼프 대통령, 모든 연방 기관에 앤트로픽 AI 도구 즉시 사용 중단 명령 • 국방부, 앤트로픽을 '공급망 위험' 업체로 지정하여 군사 계약 전면 차단 • 핵심 쟁점은 자율살상무기와 대규모 감시에 대한 AI 사용 제한 조항 • 오픈AI 샘 올트먼도 대량 감시·완전 자율무기는 '레드라인'이라며 앤트로픽 지지 • 수백 명의 오픈AI·구글 직원들, 앤트로픽 지지 공개 서한 발표 Background 앤트로픽은 지난해 7월 국방부와 최대 2억 달러 규모의 AI 공급 계약을 체결하고, 미군 기밀 시스템에 접근 가능한 유일한 AI 기업이 되었다. 그러나 국방부가 '모든 합법적 용도'로 AI 사용 조건을 변경하려 하면서 갈등이 시작됐다. 앤트로픽은 완전 자율살상무기나 미국 시민에 대한 대규모 감시에 AI가 활용될 수 있다며 이를 거부해왔다. Impact & Implications 기술-국방 관계의 새로운 국면 이번 사태는 실리콘밸리와 미 국방부 간 관계의 근본적 변화를 보여준다. 과거 군사 업무를 기피하던 테크 기업들이 적극적으로 방산 시장에 진출하는 추세 속에서, 앤트로픽의 저항은 AI 안전성을 창업 철학으로 삼은 기업이 어디까지 원칙을 지킬 수 있는지 시험대에 올랐다. 특히 국방부가 '국방물자생산법(Defense Production Act)' 발동까지 거론한 점은 평시에 민간 기업을 강제하려는 이례적 조치로, 향후 테크-정부 관계의 선례가 될 수 있다. AI 업계 내 윤리적 연대 오픈AI와 구글 직원 수백 명이 앤트로픽을 지지하는 공개 서한에 서명한 것은 AI 업계 내부에서도 군사적 AI 사용에 대한 우려가 상당함을 보여준다. 샘 올트먼 역시 대량 감시와 완전 자율무기를 '레드라인'이라 언급하며 사실상 앤트로픽의 입장에 동조했다. 이는 경쟁 관계인 AI 기업들이 특정 원칙에서는 연대할 수 있음을 시사한다. 앤트로픽의 브랜드 전략적 선택 앤트로픽이 이 시점에서 굴복한다면 '안전한 AI' 브랜드 가치는 치명적 타격을 입게 된다. 반면 끝까지 저항할 경우 단기적으로 정부 계약을 잃더라도 차별화된 기업 정체성을 확고히 할 수 있다. 6개월간의 단계적 철수 기간이 부여된 만큼, 양측 간 협상 여지는 아직 남아 있다. Key Data & Facts 항목수치/내용 앤트로픽-국방부 계약 규모최대 2억 달러 단계적 철수 기간6개월 지지 서명 직원 수오픈AI·구글 등 수백 명 앤트로픽 플랫폼 제공사Palantir, Amazon AWS Key Quote "Cloaked in the sanctimonious rhetoric of 'effective altruism,' they have attempted to strong-arm the United States military into submission—a cowardly act of corporate virtue-signaling that places Silicon Valley ideology above American lives." — Pete Hegseth, 국방장관
22 조회
0 추천
2026.02.28 등록
Executive Summary • 스탠퍼드대·프린스턴대 공동 연구진이 중국과 미국 LLM의 정치적 민감 질문 대응 방식을 비교 분석한 새로운 논문 발표 • DeepSeek은 36%, 바이두 Ernie Bot은 32%의 질문 응답을 거부한 반면, OpenAI GPT와 Meta Llama는 3% 미만의 거부율 기록 • 중국 모델의 편향은 학습 데이터보다 개발자의 사후 개입(post-training)에 의한 영향이 더 큰 것으로 분석 Background 중국 인터넷 검열에 대한 논의는 대부분 20년 전 관점에서 벗어나지 못하고 있다. 그러나 AI 기술의 부상과 함께 중국 정부의 검열 메커니즘이 어떻게 LLM에 적용되는지에 대한 새로운 연구가 진행되고 있다. 이번 연구는 중국 AI 모델의 편향성에 대해 정량적이고 재현 가능한 증거를 제시한다는 점에서 의미가 있다. Impact & Implications 기술적 의미 연구진은 사전 학습(pre-training)과 사후 학습(post-training)의 영향을 분리해 분석했다. 흥미로운 점은 영어로 질문해도 중국 LLM이 여전히 높은 수준의 검열을 보였다는 것이다. 이는 학습 데이터의 다양성보다 개발자의 의도적 개입이 더 결정적인 역할을 한다는 것을 시사한다. AI 모델이 거짓말을 하는 것이 의도적 검열인지 환각(hallucination)인지 구분하기 어려운 경우도 있어, 검열 탐지가 더욱 복잡해지고 있다. 산업/시장 영향 DeepSeek, Qwen 등 중국 AI 모델이 글로벌 시장에서 주목받고 있는 상황에서, 이번 연구는 중국 모델 사용 시 잠재적 편향성을 인지해야 한다는 경고 메시지를 던진다. 특히 민감한 주제에 대한 정보 접근이 제한될 수 있으며, 사용자가 이를 인식하기 어렵다는 점이 문제로 지적된다. 향후 전망 연구자들은 LLM의 빠른 발전 속도로 인해 연구 결과가 금방 구식이 될 수 있다고 우려한다. 알리바바의 Qwen 모델에서는 특정 프롬프트를 통해 미세 조정(fine-tuning) 시 받은 지시사항을 추출할 수 있다는 점도 발견됐다. AI 검열 연구는 이제 막 시작 단계이며, 더 많은 연구자들이 이 분야에 참여해야 한다는 목소리가 높아지고 있다. Key Data & Facts 항목수치/내용 DeepSeek 질문 거부율36% Baidu Ernie Bot 거부율32% OpenAI GPT/Meta Llama 거부율3% 미만 테스트 질문 수145개 (정치적 민감 질문) 실험 반복 횟수100회 연구 기관스탠퍼드대, 프린스턴대 Key Quote "검열이 덜 감지될수록 더 효과적입니다. 신호가 불분명하기 때문에 검열을 탐지하기가 더 어렵고, 제 이전 연구들은 검열이 덜 감지될 때 가장 효과적이라는 것을 보여줬습니다." — Jennifer Pan, 스탠퍼드대 정치학 교수
39 조회
0 추천
2026.02.27 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입