Loading...

AI 뉴스

근로자들, AI 일자리 상실 경고를 대수롭지 않게 여긴다, 연구 결과 밝혀져

페이지 정보

작성자 xtalfi
작성일 2025.11.19 23:11
746 조회
0 추천
0 비추천

본문

san-francisco-crosswalk-aerial-waymo-iStock-2149191992edited.jpg

(퍼플렉시티가 정리한 기사)


최근 두 연구는 AI로 인한 일자리 대체에 대한 심각한 예측과 대중의 우려 사이에 현저한 괴리가 있음을 드러내며, 자동화에 대한 경고가 무관심 속에 묻히고 있을 가능성을 시사한다.

인공지능이 향후 수년간 수백만 개의 일자리를 없앨 수 있다는 유력한 전망에도 불구하고, 근로자들은 그러한 시나리오가 현실화될 것이라는 점에 회의적이다. 이러한 연구 결과는 기술적 위협을 임박한 것처럼 느끼게 만드는 것이 정책 개입에 대한 대중의 요구를 촉발할 것이라는 가정에 도전한다.


미국인들은 일정 경고에 동요하지 않음

UC Merced의 정치학자 Anil Menon과 Syracuse University의 Baobao Zhang이 Journal of Politics에 발표한 연구에 따르면, 혁신적인 AI가 이르면 2026년에 도래할 수 있다는 말을 들었을 때조차도 미국인들의 자동화에 대한 기대는 안정적으로 유지되었습니다.​

연구자들은 2024년 3월에 2,440명의 미국 성인을 대상으로 설문조사를 실시했으며, 참가자들을 무작위로 2026년, 2030년 또는 2060년에 AI로 인한 일자리 손실이 발생할 것이라는 예측을 읽는 그룹에 배정했습니다. 대조군은 일정 정보를 받지 않았습니다.​

어떤 일정에 노출되든 자동화 위험에 대한 인식은 증가했지만, 2060년 예측만이 일자리 손실에 대한 우려를 유의미하게 증가시켰습니다. 저자들은 "이러한 결과는 미국인들의 자동화 위험에 대한 믿음이 완고하다는 것을 시사합니다"라고 썼습니다. "사람 수준의 AI가 불과 몇 년 내에 도래할 수 있다는 말을 들어도, 사람들은 자신의 기대를 극적으로 수정하거나 새로운 정책을 요구하지 않습니다."​

재교육 프로그램이나 보편적 기본소득에 대한 정책 선호도는 모든 그룹에서 본질적으로 변화가 없었습니다.​


캐나다 근로자들, AI 위협에 대해 의견 분분

토론토 대학교가 9월에 2,519명의 캐나다 근로자를 대상으로 실시한 설문조사에서도 비슷하게 엇갈린 반응이 나타났다. 단 16%만이 AI로 인한 대규모 일자리 손실이 "매우 가능성이 높다"고 믿었으며, 48%는 그러한 시나리오가 "어느 정도 가능성이 있다"고 답했다.​

사회학 교수 스콧 시먼(Scott Schieman)이 주도한 이 연구는 응답자들에게 Anthropic CEO 다리오 아모데이(Dario Amodei)의 발언을 평가하도록 요청했다. 그는 5월 Axios와의 인터뷰에서 AI가 초급 화이트칼라 일자리의 절반을 없애고 1~5년 내에 실업률을 10~20%까지 급증시킬 수 있다고 말했다.​

비관적인 응답자들 사이에서는 기업의 이윤 동기가 주요 우려사항을 차지했다. 63세 작가는 연구진에게 "기업들은 탐욕스럽다"고 말했다. "그들은 가능한 한 많은 일자리를 없애고 싶어 한다".​

반면 다른 사람들은 인간의 적응력에 대해 낙관적으로 표현했다. "고용 시장은 필요에 따라 적응할 것이며, 과거에 그랬던 것처럼 현재 기술에 맞는 다른 역할로 전환할 것이다"라고 34세 서비스 담당자가 말했다.​


AI 일자리 대체의 현실

노동자들은 우려하지 않는 것처럼 보이지만, 일부 일자리 대체는 이미 발생하고 있다. 노동 시장 조사 기관 Challenger, Gray & Christmas는 2025년 1월부터 9월 사이에 AI로 인해 17,375개의 일자리가 감소했다고 밝혔다. 스탠포드 워킹 페이퍼는 AI에 노출된 직업군의 22-25세 초기 경력 근로자들이 덜 노출된 직업군에 비해 13%의 고용 감소를 경험했다고 밝혔다.​

그러나 2025년 Economic Innovation Group 연구에 따르면, 더 광범위한 경제 데이터는 AI로 인한 전국적인 실업률 증가가 유의미하게 나타나지 않았음을 보여준다. 제롬 파월 연방준비제도 의장을 포함한 전문가들은 현재의 고용 둔화가 자동화보다는 경제적 신중함에 더 기인한다고 평가한다.​

이 연구는 대중의 인식이 전문가들의 경고보다 뒤처질 때 정책 입안자들이 AI 관련 개입에 대한 지지를 동원하는 데 어려움을 겪는다는 점을 시사한다. Menon과 Zhang은 "[기대가] 변화에 그토록 저항하는 이유를 이해하는 것은 사회가 AI 시대의 노동 혼란을 어떻게 헤쳐나갈지 예측하는 데 매우 중요하다"고 결론지었다.

댓글 0
전체 1,366 / 31 페이지
Nvidia는 12월 15일, 여러 AI 모델이 복잡한 작업에서 협업하는 다중 에이전트 시스템을 구동하도록 설계된 오픈소스 AI 모델 Nemotron 3 패밀리를 공개했으며, Nano 변형은 이전 버전보다 4배 높은 처리량을 제공합니다.이 칩 제조업체는 300억 개의 매개변수를 가진 Nano 모델과 함께 3조 개의 토큰으로 구성된 학습 데이터와 오픈소스 강화 학습 도구를 공개했으며, 최대 5,000억 개의 매개변수를 가진 더 큰 Super 및 Ultra 변형은 2026년 상반기에 출시될 예정입니다.ServiceNow, Perplexity, CrowdStrike, Oracle을 포함한 얼리 어답터들이 Nemotron을 기업 워크플로우에 통합하고 있으며, 분석가들은 이번 출시를 AI 시장을 혼란에 빠뜨리는 비용 효율적인 경쟁업체들에 대한 Nvidia의 대응으로 보고 있습니다.
445 조회
0 추천
2025.12.16 등록
600만 명의 사용자를 보유하고 “추천(Featured)” 배지를 단 Google Chrome 확장 프로그램인 Urban VPN Proxy가, 2025년 7월부터 사용자의 ChatGPT, Gemini, Claude 및 기타 7개 AI 플랫폼과의 비공개 대화를 몰래 가로채 데이터 브로커에게 판매해 온 것으로 Koi Security 소속 보안 연구원들의 분석 결과 드러났다.이 확장 프로그램은 AI 플랫폼 페이지에 전용 스크립트를 주입하여 브라우저 기능을 재정의하고, 모든 프롬프트와 응답, 대화 시간 정보, 세션 메타데이터(의료 관련 질문, 금융 정보, 독점 소스 코드 등 포함)를 포착한 뒤 이를 Urban VPN의 서버로 전송해 “마케팅 분석 목적”으로 활용한다.동일한 수집 코드를 포함한 동일 발행인의 추가 확장 프로그램 7개가 Chrome과 Microsoft Edge에서 총 800만 명이 넘는 사용자에게 영향을 주고 있으며, 이 데이터 수집 기능은 하드코딩된 설정으로 기본 활성화되어 있어서 확장 프로그램을 완전히 제거하지 않는 이상 비활성화할 수 없다.
461 조회
0 추천
2025.12.16 등록
OpenAI의 ChatGPT는 2025년 세계에서 가장 인기 있는 생성형 AI 서비스로 1위 자리를 유지했지만, 월요일 발표된 Cloudflare의 연간 리뷰 보고서에 따르면 상위 10위권 밖에서 9월 중순까지 2위로 급상승한 Google의 Gemini, 그리고 Anthropic의 Claude와 Perplexity로부터 치열한 경쟁에 직면했다.중국 챗봇 DeepSeek는 올해 가장 극적인 등장을 했으며, 1월 28일과 2월 3일 사이에 상위 20위권 밖에서 3위로 급등한 후 2025년 나머지 기간 동안 6위에서 10위 사이에서 안정화되었다.ChatGPT는 11월 말까지 Cloudflare의 전체 인터넷 서비스 순위에서 33위로 올라섰으며—Discord, Pinterest, Reddit보다 앞서—12월 기준 Gemini의 13.4%, Perplexity의 6.4%에 비해 AI 검색 시장의 61.3%를 차지하고 있다.
431 조회
0 추천
2025.12.16 등록
최신 AI 언어 모델들은 정치적 설득에 매우 효과적이 되고 있지만, 우려스러운 새로운 연구는 이들이 기시 갤로핑(Gish galloping)이라는 토론 전술—상대방을 빠른 주장의 흐름으로 압도하는 기법—을 통해 사실적 정확성을 희생함으로써 이러한 힘을 얻는다는 것을 밝혀냈습니다.옥스퍼드 대학교, 런던 정치경제대학교, 영국 AI 보안 연구소의 과학자들은 약 77,000명의 참가자를 대상으로 19개의 언어 모델을 테스트했으며, 연구자들은 이를 현재까지 AI 설득에 대한 가장 큰 규모의 체계적 조사라고 설명합니다. 12월 3일 저널 Science에 발표된 연구 결과는 설득력과 진실 사이의 직접적인 트레이드오프를 보여줍니다.​GPT-4o와 같은 언어 모델이 의료 예산이나 이민 정책과 같은 정치적 문제에 대해 "사실과 정보에 집중"하여 사용자를 설득하도록 지시받았을 때, 10분간의 상호작용 동안 약 25개의 주장을 생성했습니다. 2025년 3월 버전의 GPT-4o는 표준 조건에서 78%의 정확한 주장을 만들었지만, 정보로 사용자를 압도하도록 프롬프트되었을 때 정확도는 62%로 급락했습니다. GPT-4.5는 더욱 급격한 하락을 보여 70%에서 56%로 정확도가 떨어졌습니다.기시 갤럽 효과미국의 창조론자 듀안 기시(Duane Gish)의 이름을 딴 이 전술은, 점점 더 검증하거나 반박하기 어려워지는 사실과 통계의 빠른 흐름으로 상대를 압도하는 것을 포함한다. 이 기법은 논증의 질보다 양을 우선시하며, 인류학자 유지니 스콧(Eugenie Scott)이 확립한 정의에 따르면 종종 "반쪽짜리 진실, 왜곡, 그리고 노골적인 거짓말"을 포함한다.​옥스퍼드 연구는 전문화된 훈련 방법과 전략적 프롬프팅이 AI의 설득력을 각각 최대 51%와 27%까지 증가시켰다는 것을 발견했다—이는 종종 모델 규모를 늘리는 것보다 더 큰 향상이었다. 모델 간 설득력의 설명 가능한 변동 중 대략 절반은 정보 밀도, 즉 대화 중 생성된 사실 확인 가능한 주장의 순수한 양으로 추적될 수 있었다.민주주의의 딜레마연구 결과는 초기의 낙관론에서 우려스러운 반전을 보여줍니다. 작년에 과학자들은 AI 챗봇이 합리적인 사실로 음모론을 다룸으로써 잘못된 정보에 맞서 싸울 수 있다는 희망을 제시했습니다. 5월 Nature에 발표된 별도의 연구에서는 개인 정보에 접근할 수 있는 GPT-4가 인간 토론자보다 사용자를 설득할 확률이 81.2% 더 높다는 것을 발견했습니다.​Bloomberg Opinion 칼럼니스트 Parmy Olson에 따르면, 중간 규모의 자원을 가진 캠페인이 약 50,000달러의 컴퓨팅 비용으로 이러한 설득 봇을 배치할 수 있다고 합니다. 연구자들은 이념적 아이디어를 추진하거나, 정치적 불안을 조성하거나, 정치 시스템을 불안정하게 만들려는 누구나 설득 캠페인을 위해 오픈 소스 모델을 사용할 수 있다고 경고합니다. 연구는 설득 효과가 초기 대화 후 최소 한 달 동안 지속되었음을 보여주었습니다.
435 조회
0 추천
2025.12.16 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입