Loading...

AI 뉴스

글로벌 설문조사, AI에 대한 기대감보다 우려가 더 커

페이지 정보

작성자 xtalfi
작성일 2025.10.16 15:46
2,349 조회
1 댓글
0 추천
0 비추천

본문

2236864776_w3nfcv.jpg

(퍼플렉시티가 정리한 기사)

Pew Research Center가 오늘 발표한 연구에 따르면, 25개국을 대상으로 한 광범위한 새로운 조사에서 전 세계 대부분의 성인들이 인공지능을 인지하고 있지만, 일상생활에서 그 역할이 증가하는 것에 대해 흥분보다는 훨씬 더 많은 우려를 품고 있는 것으로 나타났다.​

2025년 1월부터 4월까지 유럽에서 사하라 이남 아프리카에 이르는 지역에 걸쳐 실시된 이 연구는 전 세계적으로 성인의 34%가 AI의 사용 증가에 대해 흥분보다 더 우려하고 있으며, 단 16%만이 우려보다 더 많은 흥분을 표현한다는 것을 발견했다. 가장 큰 그룹인 42%는 이 기술에 대해 우려와 흥분을 동등하게 느낀다고 보고했다.

 

광범위한 인식, 지속적인 경계

 

우려에도 불구하고, AI 인식은 전 세계적으로 상당한 수준에 도달했으며, 성인의 81%가 인공지능에 대해 최소한 어느 정도는 들어본 적이 있다고 답했습니다. 그러나 AI에 대해 "많이" 들어봤다고 보고한 사람은 34%에 불과했으며, 47%는 "조금" 들어봤고 14%는 전혀 들어본 적이 없다고 답했습니다.​

이 조사는 최근 ChatGPT가 주간 사용자 8억 명을 달성했다고 발표한 시점에 이루어졌으며, 대중의 우려 속에서도 AI의 빠른 주류 채택을 보여줍니다. 가장 높은 우려 수준을 보이는 국가로는 미국, 이탈리아, 호주, 브라질, 그리스가 있으며, 이들 국가에서는 성인의 약 절반이 열정보다는 걱정을 더 많이 표현했습니다.

 

디지털 격차와 인구통계

 

연구 결과는 AI 태도에 대한 뚜렷한 인구통계학적 패턴을 보여줍니다. 젊은 성인들은 조사 대상이 된 거의 모든 국가에서 일관되게 더 높은 인식과 열의를 보입니다. 인터넷 사용은 AI에 대한 흥미와 강한 상관관계를 나타내며, "거의 항상" 온라인 상태인 사람들이 가끔 사용하는 사용자들에 비해 AI를 수용할 가능성이 훨씬 더 높습니다.​

부(富) 또한 결정적인 역할을 하는데, 고소득 국가의 사람들이 AI에 대해 더 높은 친숙도를 보입니다. 일본은 성인의 53%가 AI에 대해 많이 들어봤다고 응답하며 선두를 차지한 반면, 케냐에서는 단 12%만이 비슷한 수준의 인식을 보고했습니다.

 

신뢰 및 규제 문제

 

이 설문조사는 AI를 효과적으로 규제할 수 있는 다양한 주체들의 능력에 대한 신뢰도가 엇갈린다는 것을 발견했습니다. 대부분의 사람들은 국제기구보다 자국을 더 신뢰하며, 인도인의 89%가 자국의 규제 역량에 대해 신뢰를 표명한 반면 그리스인은 22%에 불과했습니다.​

글로벌 규제 기관을 비교할 때, 53%는 유럽연합이 AI를 효과적으로 규제할 것이라고 신뢰하는 반면, 37%는 미국을, 27%는 중국을 신뢰합니다. 이는 EU의 AI 법안이 2025년 8월에 발효되고 여러 국가들이 자체 규제 프레임워크를 시행함에 따라 AI 거버넌스에 대한 국제적 관심이 증가하고 있음을 반영합니다.​

이러한 조사 결과는 AI 통합이 전 세계적으로 가속화되는 가운데 대중의 신뢰가 인구통계학적, 지리적 경계를 넘어 분산되어 있어 정책 입안자와 기술 기업들이 직면한 과제를 강조합니다.

댓글 1
전체 1,366 / 272 페이지
(퍼플렉시티가 정리한 기사)Netflix 가 경쟁 입찰 전쟁 끝에 조셉 고든-레빗의 기대를 모으는 AI 스릴러 영화 판권을 확보했으며, 레이첼 맥아담스가 주연을 맡을 예정이라고 목요일 발표된 여러 업계 보고서가 전했다.제목이 아직 정해지지 않은 이 프로젝트는 2013년 데뷔작 “돈 존” 이후 12년 만에 고든-레빗이 감독으로 복귀하는 작품이다. 이 영화는 라이언 존슨과 램 버그만의 티스트리트 프로덕션이 제작하며, 고든-레빗이 이전 여러 협업 작품에서 함께 작업했던 제작진과 재회하게 된다.스타 교체와 스트리밍 홈McAdams는 2023년 12월 처음 발표되었을 때 원래 이 프로젝트에 참여하기로 했던 Anne Hathaway를 대체합니다. Hathaway의 하차 이유는 명확하지 않지만, 업계 소식통들은 Christopher Nolan의 “The Odyssey”와 “The Devil Wears Prada” 속편에서의 그녀의 향후 역할과의 일정 충돌 때문일 수 있다고 시사합니다.Netflix는 Gordon-Levitt과 T-Street가 이 스트리밍 거대 기업이 “이 패키지를 위한 적절한 창작의 보금자리”를 제공하고 영화 제작자의 비전을 “완전히 수용”했다고 느낀 후 승리를 거두었습니다. 이번 인수는 이전에 “Fair Play”와 “Knives Out” 속편들을 플랫폼에 제공했던 T-Street와 Netflix의 파트너십을 이어갑니다.AI 테마와 개인적 이해관계줄거리 세부 사항은 기밀로 유지되고 있지만, 이 스릴러는 인공지능이 창의성에 미치는 영향을 둘러싼 주제를 탐구할 것으로 예상되며, 이는 고든-레빗이 최근 몇 달 동안 열정적으로 옹호해 온 주제이다. 6월, 유엔 인터넷 거버넌스 포럼에서 고든-레빗은 AI의 영향이 적절히 규제되지 않으면 “우리가 알고 있는 창의성이 사라질 수 있다”고 경고하는 날카로운 연설을 전했다.고든-레빗은 유엔 포럼에서 “당신의 디지털 자아는 당신에게 속해야 합니다”라고 말했다. “인간이 생산하는 데이터—우리의 글과 목소리, 우리의 연결, 우리의 경험, 우리의 아이디어—는 우리에게 속해야 합니다”. 고든-레빗은 2016년 “스노든”에서 함께 작업한 키어런 피츠제럴드와 함께 각본을 공동 집필했으며, 두 사람은 나타샤 리온과 함께 스토리 크레딧을 공유한다. 2026년 제작 시작을 목표로 하고 있으며, 추가 캐스팅 발표는 앞으로 몇 주 내에 예상된다.=======추가 질문“고든-레빗의 AI에 대한 입장을 정리“조셉 고든-레빗은 AI 시대 창작자 권리 보호와 데이터 소유권, 공정한 보상 문제에 대해 강한 입장을 표명해왔습니다.디지털 자아와 데이터 소유권고든-레빗은 유엔 인터넷 거버넌스 포럼에서 “디지털 자아는 개인 자신에게 속해야 한다”라고 강조하며, 인간이 생산한 데이터(글, 음성, 경험, 아이디어 등)는 그 생산자에게 소유권이 있고, 이를 활용한 경제적 이익 역시 창작자에게 귀속돼야 한다는 원칙을 주장했습니다.AI와 창작자의 권리- AI가 인간의 창작물을 기반으로 학습하고 있으나, 콘텐츠 생산자에게 적당한 보상 없이 빅테크 기업에서 활용된다는 점을 비판했습니다.- AI 기업들이 무단으로 크리에이터의 창작물을 수집해 모델을 훈련하는 것은 본질적으로 창작자에 대한 '도둑질'과 같다는 시각을 내비쳤습니다.- 이러한 행위는 창의성의 원천인 인간 창작자의 동기를 약화시키고, 궁극적으로 "창의성이 사라질 수 있다"고 경고했습니다.공정한 보상을 위한 대안 제시- AI 모델 개발에 활용된 데이터의 출처와 기여도를 추적, 투명하게 공개하고, 창작자에게 합당한 보상이 이루어져야 한다는 대안을 제안했습니다.- 기술 발전이 창의성을 증대시킬 수 있지만, 이는 창작자에 대한 올바른 경제적 유인과 보상 시스템이 전제될 때만 가능하다고 설명했습니다.- 미 정부 및 입법기관에 AI 데이터 보상 및 저작권 보호 관련 법안 제정을 촉구했으며, AI 훈련 데이터에 대한 창작자 개인의 권리를 강화해야 한다는 의견을 내비쳤습니다.학습 데이터의 '경제적 가치'와 창작자 지속성- "AI가 인간 창작물로 부가가치를 창출하지만, 창작자들이 마땅한 보상을 받지 못하면 크리에이티브 산업 자체가 쇠퇴할 수 있다"는 점을 반복적으로 지적했습니다.- 크리에이터와 데이터 생산자들에게 올바른 인센티브를 제공해야만 AI의 긍정적 발전과 사람 중심의 기술 생태계가 가능하다고 보았습니다.이처럼 조셉 고든-레빗은 AI 활용에서 인간 창작자의 권리, 데이터 소유 및 경제적 보상, 공정한 기술 발전의 필요성을 일관되게 강조하고 있습니다.
2766 조회
0 추천
2025.10.11 등록
(퍼플렉시티가 정리한 기사)엘론 머스크의 xAI는 오늘 테네시주 멤피스에 8천만 달러 규모의 수질 재활용 시설 개장을 기념하는 행사를 개최했으며, 이 시설은 세계 최대 규모의 세라믹 막 생물 반응기를 갖추고 있다고 회사 측은 주장했다. 이 최첨단 시설은 인공지능 회사가 대규모 콜로서스 데이터 센터 운영을 확장하는 동시에 물 사용에 대한 지역 사회의 우려를 해소하는 주요 환경적 이정표를 나타낸다.세계 최대 세라믹 멤브레인 기술이 시설은 독일 회사 Cerafiltec이 개발한 첨단 세라믹 멤브레인 생물반응기 기술을 활용하여 매일 최대 1,300만 갤런의 도시 폐수를 처리합니다. 이 프로젝트를 이끄는 xAI의 폐수 엔지니어 Mark Carroll에 따르면, “CERAFILTEC의 견고한 세라믹 멤브레인 기술은 우리의 최첨단 슈퍼컴퓨터를 지원하기 위한 초고신뢰성 및 효율적인 수처리에 대한 까다로운 요구사항을 충족합니다”.이 공장의 세라믹 멤브레인은 섬유 파손 및 복잡한 세척 요구사항과 같은 기존 멤브레인 솔루션과 관련된 일반적인 문제를 극복하는 동시에, 회사의 고성능 컴퓨팅 시스템에 우수한 신뢰성과 효율성을 제공합니다. 이 시설은 xAI가 필요로 하는 것보다 더 많은 폐수를 처리할 예정이며, 잉여 처리수는 Tennessee Valley Authority 및 인근 철강 제조업체 Nucor를 포함한 지역 산업체에 제공되어 Memphis Sands Aquifer에 대한 부담을 크게 줄일 것입니다.환경 문제 해결물 재활용 시설은 xAI가 멤피스에서 급속한 확장에 대해 환경 단체와 지역 주민들로부터 지속적인 비판을 받고 있는 가운데 등장했습니다. 이 시설은 현재 Colossus 데이터 센터에 전력을 공급하기 위해 35개의 무허가 메탄 가스 터빈을 운영하고 있으며, 환경 단체들은 이것이 청정 대기법을 위반한다고 말합니다. Southern Environmental Law Center는 xAI가 운영을 시작한 이후 주변 지역의 이산화질소 수치가 크게 증가했다고 기록했습니다.Protect Our Aquifer의 전무이사인 Sarah Houston은 이 처리 시설이 멤피스의 식수 공급을 보호하는 “올바른 방향으로의 큰 진전”이라고 말했지만, 프로젝트의 장기적 지속 가능성에 대한 우려는 여전히 남아 있습니다. 멤피스 시의회는 2025년 3월에 xAI에 시 소유 토지 13에이커를 이 시설을 위해 820,000달러에 판매하는 것을 승인했습니다.
2774 조회
0 추천
2025.10.11 등록
(퍼플렉시티가 정리한 기사)Anthropic의 새로운 연구는 인공지능 시스템의 놀라운 취약점을 밝혀냈습니다: 신중하게 제작된 악의적인 문서 250개만으로도 크기에 관계없이 대규모 언어 모델을 손상시킬 수 있으며, 이는 AI 보안에 대한 근본적인 가정에 도전하고 고객 서비스 챗봇부터 엔터프라이즈 소프트웨어까지 모든 것을 구동하는 시스템의 안전성에 대한 긴급한 질문을 제기합니다.10월 8일 영국 AI 보안 연구소 및 앨런 튜링 연구소와의 공동 연구로 발표된 이 연구는 지금까지 진행된 가장 큰 규모의 데이터 중독 조사를 나타내며, 이미 보안 문제로 고심하고 있는 업계에 충격적인 소식을 전달합니다. 연구 결과에 따르면 130억 개의 매개변수를 가진 모델—6억 개 매개변수를 가진 더 작은 모델보다 20배 이상 많은 데이터로 훈련된—도 동일한 소수의 중독된 문서에 의해 손상될 수 있음을 보여줍니다.모델 규모 전반에 걸친 지속적인 위협이전 연구에서는 공격자가 학습 데이터의 일정 비율을 제어해야 한다고 제안한 것과 달리, Anthropic의 연구 결과에 따르면 데이터 오염 공격은 “모델 크기와 관계없이 거의 일정한 수의 문서가 필요하다”고 나타났다. 연구진은 ““와 같은 트리거 문구를 사용해 모델이 활성화되었을 때 의미 없는 텍스트를 생성하도록 백도어를 성공적으로 만들었으며, 이를 통해 공격자가 AI 시스템을 조작해 해로운 결과물을 만들어낼 수 있음을 보여줬다.Anthropic는 연구 논문에서 “우리의 결과는 공격자가 학습 데이터의 일정 비율을 제어해야 한다는 일반적인 가정을 뒤집는다. 오히려 소량의 정해진 데이터만 필요할 수 있다”고 밝혔다. 그 영향은 매우 크며, 대부분의 대형 언어 모델이 공개된 인터넷 데이터를 대량으로 학습하기 때문에, “말 그대로 누구나 모델의 학습 데이터에 포함될 수 있는 콘텐츠를 만들 수 있다”고 설명했다.토론토대학교 Citizen Lab의 선임 연구원 John Scott-Railton은 해당 위협의 확장성을 강조하며 다음과 같이 말했다: “LLM 학습 데이터 세트 내에서는, 희석이 오염에 대한 해결책이 아니다. 사이버보안 전문가라면 직관적으로 알 수 있을 것이다: 공격은 대량 확장될 수 있지만 방어책은 대부분 그렇지 않다”.산업 영향 및 시장 우려사항이 연구는 인공지능에 대한 열기로 주요 지수들이 신기록을 달성하며 AI 주식이 전례 없는 고점에 계속 도달하고 있는 가운데 나타났다. 그러나 증가하는 보안 취약점이 잠재적 시장 과대평가에 대한 이미 가열된 논쟁에 복잡성을 더하고 있다. JPMorgan Chase CEO인 제이미 다이먼은 최근 “AI는 실재한다”면서도 현재의 많은 투자들이 “아마도” 낭비될 수 있다고 경고하며, 앞으로 6개월에서 2년 내에 상당한 주가 하락에 대한 우려를 표명했다.특히 S&P 500 기업의 72%가 올해 규제 서류에서 AI를 “중대한 위험”으로 공시했다는 점에서 이 시점은 특별히 의미가 있다. 한편, OpenAI와 Anthropic은 훈련 데이터에 대한 저작권 주장과 관련된 수십억 달러 규모의 잠재적 소송을 해결하기 위해 투자자 자금을 사용하는 방안을 모색하고 있는 것으로 알려졌다.악의적 행위자들을 부추길 수 있는 연구 결과를 공개했음에도 불구하고, Anthropic은 “이러한 결과를 공개하는 것의 이익이 이러한 우려를 능가한다”고 믿으며, 취약점을 이해하는 것이 더 나은 방어 체계를 개발하는 데 중요하다고 주장했다. 회사는 공격자들이 실제로 독성 데이터를 훈련 세트에 삽입하는 데 여전히 상당한 어려움에 직면하고 있다고 언급했지만, 이 연구는 AI 업계 전반에 걸친 개선된 보안 조치의 긴급한 필요성을 부각시킨다고 했다.
2744 조회
0 추천
2025.10.11 등록
(퍼플렉시티가 정리한 기사)중국 핀테크 대기업 앤트 그룹(Ant Group)이 1조 개의 매개변수를 가진 오픈소스 대규모 언어 모델 Ling-1T를 공개했으며, 이 모델은 수학, 코딩, 추론 과제에서 DeepSeek, OpenAI 및 기타 주요 AI 개발사들의 경쟁 모델을 능가한다고 회사 측은 주장했다. 2025년 10월 9일 발표된 이번 공개는 단 두 달 만에 앤트가 두 번째로 공개하는 1조 매개변수 모델로, 대규모 AI 시스템 개발 분야에서 중국의 경쟁이 격화되고 있음을 보여준다.Ling-1T, AI 성능에서 새로운 기준을 세우다Ling-1T는 효율적인 추론 능력을 유지하면서 여러 복잡한 추론 벤치마크에서 최첨단 성능을 달성했습니다. 2025년 미국 수학 경시대회 초청 시험(AIME)에서 이 모델은 문제당 평균 4,000개 이상의 출력 토큰 비용으로 70.42%의 정확도를 기록했으며, Google의 Gemini-2.5-Pro와 동등한 성능을 보이면서 DeepSeek, OpenAI, Moonshot의 경쟁 모델들을 능가했습니다.독립적인 평가자들의 종합적인 테스트에 따르면, Ling-1T는 대규모 다중작업 언어 이해(MMLU) 벤치마크에서 91.76%의 정확도를 달성하여 약 90%의 GPT-5, 89.1%의 Claude 4.5 Sonnet, 89.0%의 DeepSeek V3.1을 능가했습니다. 이 모델은 특히 코딩 및 소프트웨어 엔지니어링 작업에서 강력한 능력을 보여주었으며, 1조 파라미터 모델 중 LiveCodeBench 평가에서 선두 성능을 보였습니다.전략적 오픈소스 접근 방식이 독점 모델에 도전하다이번 출시는 Ant Group이 9월에 출시한 Ring-1T-preview에 이어진 것으로, 회사는 이를 세계 최초의 오픈소스 1조 파라미터 사고 모델이라고 주장했습니다. Ant Group의 최고기술책임자(CTO) He Zhengyu는 다음과 같이 밝혔습니다: “Ant Group에서 우리는 인공일반지능(AGI)이 공공재가 되어야 하며, 인류의 지능적 미래를 위한 공유된 이정표가 되어야 한다고 믿습니다”.Ling-1T는 1/32 활성화 비율을 가진 Mixture-of-Experts 아키텍처를 사용하여 작동하며, 이는 총 1조 개의 파라미터를 포함하고 있음에도 불구하고 토큰당 약 500억 개의 파라미터만 활성화됨을 의미합니다. 이러한 설계는 계산 비용의 비례적 증가 없이 정교한 추론 능력을 가능하게 하여, 대규모 AI 배포의 핵심 과제를 해결합니다.모델 패밀리 확장에는 세 가지 주요 시리즈가 포함됩니다: 비사고 모델인 Ling 시리즈, 사고 모델인 Ring 시리즈, 그리고 멀티모달 Ming 시리즈입니다. 이러한 포괄적인 접근 방식은 Ant Group이 오픈소스 개발에 대한 헌신을 유지하면서 다양한 AI 애플리케이션에서 경쟁할 수 있는 위치를 확보하게 하며, 잠재적으로 글로벌 AI 연구와 채택을 가속화할 수 있습니다.
2863 조회
0 추천
2025.10.11 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입