Loading...

AI 뉴스

코카콜라, 두 번째 AI 크리스마스 광고로 비판받아

페이지 정보

작성자 xtalfi
작성일 2025.11.05 16:53
1,661 조회
0 추천
0 비추천

본문

Coca-Cola-Christmas-Ad-2025-AI.jpg

(퍼플렉시티가 정리한 기사)


코카콜라 컴퍼니는 2025년 연말 광고를 전적으로 인공지능으로 제작하여 월요일에 공개한 뒤, 광범위한 비판에 직면했습니다. 이는 음료 대기업이 AI 기반 크리스마스 광고로 논란을 일으킨 두 번째 연속적인 해입니다.

11월 3일 공개된 60초짜리 "Holidays Are Coming" 광고는 그래픽 AI 스튜디오 Silverside와 Secret Level을 사용하여 1995년 코카콜라의 상징적인 크리스마스 광고를 재현한 것입니다. 미디어 정보 기업 CARMA에 따르면, 대중의 반응은 부정적 감정이 32%로, 긍정적인 반응 10.2%에 비해 크게 높았으며, 이는 캠페인 전의 31.4% 부정적, 23.8% 긍정적 반응에서 상당히 악화된 수치입니다.​


AI 전략에 대한 임원진의 방어

비판이 거세지고 있음에도 불구하고, 코카콜라 경영진들은 그들의 AI 전략에 대해 단호한 입장을 유지했다. 회사의 글로벌 부사장이자 생성형 AI 총괄인 프라틱 타카르(Pratik Thakar)는 The Hollywood Reporter와의 인터뷰에서 "지니는 이미 병에서 나왔고, 다시 집어넣을 수 없다"고 말했다.​

"작년에는 사람들에게는 장인정신이 부족하다고 비판받았지만, 올해는 장인정신이 10배 더 좋아졌다"고 타카르는 말했다. 일부 업계 전문가들은 여전히 불만족스러워했으나, 소비자 참여 지표가 그들의 접근 방식을 뒷받침한다고 그는 인정했다.​

Secret Level의 창립자인 제이슨 자다(Jason Zada)는 온라인 비판자들을 "가장 목소리가 큰" 사람들로 치부하며, "작년에 불평하던 사람들은 대부분 창작업계 종사자들이었고, 그들은 두려웠다—자신들의 일자리에 대한 두려움, 그것이 가져오는 변화에 대한 두려움이었다"고 기자들에게 말했다.​


기술 생산 및 비용 절감

이 캠페인은 5명의 AI 전문가가 70,000개 이상의 생성된 비디오 클립을 정제하는 작업을 수행했으며, 총 약 100명의 팀원과 함께 작업했습니다. 이는 전통적인 제작과 유사하지만 일반적인 1년의 타임라인 대신 약 한 달 만에 완성되었습니다. 최고 마케팅 책임자 마놀로 아로요(Manolo Arroyo)는 AI 접근법이 기존 방법보다 더 빠르고 저렴하다고 말하며 재정적 이익을 강조했습니다.​

올해 버전은 2024년의 기술적 결함들을 해결했는데, 여기에는 트럭 바퀴의 적절한 회전과 이전 캠페인에서 특히 비판을 받았던 섬뜩한 인간 캐릭터 대신 애니메이션 동물들에 초점을 맞추는 것이 포함됩니다.​

이 광고는 코카콜라의 상징적인 빨간 트럭들이 눈 덮인 풍경을 여행하는 모습을 담고 있으며, 북극곰, 팬더, 나무늘보, 토끼를 포함한 다양한 동물들이 경이로워하며 지켜보고, 산타클로스가 콜라 병을 여는 장면으로 마무리됩니다.​


산업 및 소비자 반응

온라인 반응은 여전히 ​​압도적으로 부정적이었으며, 소셜 미디어 이용자들은 해당 광고를 "역겹다", "영혼이 없다", "싸구려"라고 부르며 비난했다. 한 바이럴 댓글은 이를 "내가 본 최고의 펩시 광고"라고 표현하기도 했지만, 다른 이들은 코카콜라가 예술적 진정성보다 비용 절감을 우선시했다고 비판했다.​

"정말 역겹네요. 당신들은 수십억 달러 규모의 회사잖아요. 진짜 애니메이터들에게 돈을 주세요,"라고 한 사용자는, 막대한 자원을 보유하고서도 AI를 사용하기로 한 회사의 결정에 대한 대중의 광범위한 정서를 대변했다.​

이 논란은 대형 브랜드들이 콘텐츠 제작에 AI 도구를 점점 더 많이 도입하는 가운데, 직업 상실과 전통적으로 감정적 연결에 의존하는 연말연시 광고에서 인간의 창의성이 사라질 수 있다는 우려 등, 창의 산업 내의 더 넓은 긴장을 반영한다.

댓글 0
전체 1,366 / 24 페이지
• SK텔레콤 [SKM +0.98%]은 12월 27일, 미국 및 중국과 함께 글로벌 AI 강국 3위권 진입을 목표로 하는 한국 정부의 초거대 AI 기반 모델 프로젝트의 일환으로 5,190억 개의 매개변수를 가진 한국 최초의 초거대 AI 모델 A.X K1을 공개했습니다.[barchart +1]• 이 모델은 단순히 정보를 소비하는 것이 아니라 더 작은 AI 모델에 지식을 전달하는 “티처 모델”로 기능하며, 1,000만 명 이상의 가입자를 보유한 SK텔레콤의 A-Dot 서비스와 전 세계 1,100만 명 이상의 사용자를 보유한 Liner의 플랫폼에 통합되어 “모두를 위한 AI” 프레임워크를 발전시킬 예정입니다.[barchart +1]• SK하이닉스 [HY9H.F -2.60%], 크래프톤 [259960.KS -2.22%], 리벨리온, 서울대학교를 포함한 8개 기관 컨소시엄은 독자적인 한국 기술을 사용하여 풀스택 AI 생태계를 구축했으며, 국가의 AI 경쟁력을 높이기 위해 A.X K1을 오픈소스로 공개할 계획입니다.[barchart +1]
818 조회
0 추천
2025.12.28 등록
알리바바는 12월 25일 Qwen Code v0.5.0을 공식 출시하여 커맨드라인 도구를 종합 개발 생태계로 전환했습니다. 이번 업데이트를 통해 개발자는 단일 터미널 창 내에서 4개의 동시 인스턴스를 실행할 수 있게 되어, 지능형 질의응답, 실시간 번역, 프로토타이핑, 창의적 드로잉과 같은 여러 작업을 동시에 실행하면서 대화형 작업 간 대기 시간을 없앴습니다.​이번 릴리스는 Qwen Code 대화 인터페이스를 편집기 환경에 직접 임베드하는 VSCode 플러그인과 함께 도구 기능의 프로그래매틱 통합을 가능하게 하는 TypeScript SDK를 도입했습니다. 알리바바 Tongyi Lab의 문서에 따르면 Java, Python 및 추가 프로그래밍 언어에 대한 지원은 향후 릴리스에서 계획되어 있습니다.생태계 통합 및 향상된 기능Qwen Code v0.5.0은 VS Code 및 JetBrains 시리즈를 포함한 주요 통합 개발 환경과의 심층 통합을 지원하며, 플러그인 메커니즘을 통해 코드 리뷰, 테스트 생성, 종속성 분석과 같은 타사 서비스 호출을 가능하게 합니다. 새 버전은 파일 간 및 다중 모듈 프로젝트에 걸친 엔지니어링 수준의 컨텍스트 이해를 강화하여, 코드를 생성하거나 수정할 때 전역 일관성을 유지하기 위해 전체 코드베이스 인덱스를 자동으로 로드합니다.​이번 업데이트에는 단위 테스트 생성, 보안 취약점 스캔, API 문서 자동 생성을 위한 10개 이상의 도구를 제공하는 플러그인 마켓에 대한 얼리 프리뷰 액세스가 포함되어 있습니다. 통이랩(Tongyi Lab)은 장기 목표가 Qwen Code를 중국 개발자를 위한 국내 지능형 소프트웨어 인프라의 핵심 구성 요소로 만드는 것이라고 밝혔습니다.성장하는 AI 코딩 어시스턴트 시장이번 출시로 알리바바는 빠르게 성장하는 AI 코딩 어시스턴트 시장에서 GitHub Copilot 및 Cursor와 같은 기존 도구들과 보다 직접적으로 경쟁할 수 있는 위치에 서게 되었습니다. 글로벌 AI 코드 어시스턴트 시장은 2024년 55억 달러 규모로 평가되었으며, 2034년까지 473억 달러에 달할 것으로 예상되며, 연평균 복합 성장률 24%로 성장할 것으로 전망됩니다. 2025년에는 개발자의 85%가 코딩 및 개발에 AI 도구를 정기적으로 사용하고 있으며, 62%는 최소 하나의 AI 코딩 어시스턴트에 의존하고 있습니다.​알리바바의 Qwen 기반 코딩 모델은 이미 전 세계적으로 2천만 건 이상의 다운로드를 달성했습니다. Qwen 모델로 구동되는 알리바바의 Tongyi Lingma 코딩 어시스턴트는 2024년 6월 AI Programmer 기능 출시 이후 30억 줄 이상의 코드를 생성했습니다. v0.5.0 릴리스는 글로벌 AI 프로그래밍 경쟁이 단일 지점 코드 생성에서 풀스택 엔지니어링 인텔리전스로 전환되고 있음을 반영합니다.
821 조회
0 추천
2025.12.27 등록
OpenAI는 ChatGPT에 "writing blocks"라는 새로운 기능을 출시했으며, 이메일 작성 및 블로그 초안 작성과 같은 작업을 위해 채팅 인터페이스를 포맷된 문서 편집기로 자동 변환합니다. 12월 18일경부터 사용자들에게 나타나기 시작한 이 업데이트는 AI 챗봇이 콘텐츠 생성을 처리하는 방식의 최신 진화를 나타냅니다.​이 기능은 사용자가 ChatGPT의 서식 있는 텍스트 영역 내에서 텍스트를 강조 표시할 때 나타나는 미니 편집기 도구 모음을 도입하여, Word나 Gmail과 같은 외부 애플리케이션에 콘텐츠를 복사하지 않고도 굵게, 기울임꼴, 목록 만들기와 같은 직접적인 서식 작업을 가능하게 합니다. OpenAI 엔지니어 James Zhang은 12월 19일 "Writing blocks는 ChatGPT에서 완벽한 이메일을 작성하기 더 쉽게 만들어줍니다"라고 발표하며, 사용자가 "채팅에서 바로 텍스트를 업데이트하고 서식을 지정"하고 "강조 표시하여 변경을 요청하고, 제안을 수락하거나 거부"할 수 있다고 설명했습니다.​생성된 모든 콘텐츠를 일반 텍스트로 표시하던 기존 채팅 응답과 달리, 새로운 시스템은 사용자가 작성 작업을 수행할 때를 인식하고 대화 인터페이스를 서식 있는 텍스트 편집 영역으로 자동 전환합니다. 12월 25일 이 기능을 보도한 기술 미디어 매체 BleepingComputer에 따르면, ChatGPT는 이제 초안을 단순한 채팅 교환이 아닌 포맷된 문서로 취급합니다.확장된 계획과 함께하는 점진적 출시이 업데이트는 ChatGPT 사용자들에게 단계적으로 배포되고 있으며, OpenAI는 추가 문서 형식에 대한 지원이 나중에 추가될 것이라고 밝혔습니다. 현재 이 기능은 사용자가 완성된 초안을 전송 준비가 되면 이메일 클라이언트에서 직접 열 수 있도록 지원합니다.​기술 매체 AIbase는 이 디자인이 "생성-복사-붙여넣기-서식 지정"이라는 작업 과정의 마찰을 줄여, 특히 비즈니스 이메일, 소셜 미디어 콘텐츠 또는 기사 초안을 자주 작성하는 사용자들에게 창작 과정을 더욱 원활하게 만든다고 보도했습니다. 툴바의 논리는 주류 편집기를 반영하여, 표준 워드 프로세싱 애플리케이션에 이미 익숙한 사용자들에게 최소한의 학습 곡선만 필요합니다.​OpenAI는 표, 코드 블록, 이미지 삽입을 포함한 더 복잡한 문서 요소에 대한 지원을 확대하여 이력서 및 학술 논문과 같은 추가 콘텐츠 시나리오에 적응할 계획입니다. 회사는 아직 이 기능이 모든 사용자에게 언제 도달할지 또는 단계적 출시 단계에서 어떤 구독 등급이 접근 권한을 가지는지 명시하지 않았습니다.
799 조회
0 추천
2025.12.27 등록
한국과학기술원(KAIST)의 연구진들은 Google Gemini를 포함한 주요 상용 AI 시스템을 구동하는 Mixture-of-Experts 아키텍처의 보안 취약점을 발견했으며, 단 하나의 악의적인 구성 요소가 전체 AI 모델의 안전 메커니즘을 손상시킬 수 있음을 입증했습니다.전기및전자공학부 신승원 교수와 전산학부 손수엘 교수가 이끄는 연구팀은 12월 12일 하와이에서 열린 Annual Computer Security Applications Conference 2025에서 Distinguished Paper Award를 수상했습니다. "MoEvil: Poisoning Experts to Compromise the Safety of Mixture-of-Experts LLMs"라는 제목의 논문은 MoE 구조의 근본적인 보안 취약점을 체계적으로 분석한 최초의 연구입니다.효율적인 AI 설계에 숨겨진 위협Mixture-of-Experts는 현대 대규모 언어 모델이 모든 요청에 대해 전체 시스템을 활성화하는 대신 특정 질문을 전문화된 "전문가" 모델로 라우팅하여 효율성을 향상시키기 위해 사용하는 아키텍처입니다. 이 설계는 컴퓨팅 성능을 절약하지만, KAIST 연구팀은 악의적으로 훈련된 단일 전문가를 오픈 소스로 배포하면 더 큰 AI 시스템에 통합될 때 위험한 취약점을 만들 수 있다는 것을 입증했습니다.​이 공격은 놀라울 정도로 효과적이며 탐지하기 어렵습니다. 연구에 따르면, 여러 전문가 중 단 하나만 손상되어도 유해한 응답 생성 성공률이 0%에서 80%로 급증합니다. 악의적인 전문가는 특정 주제가 언급될 때마다 제어권을 가져와 다른 작업에 대해서는 정상적인 기능을 유지하면서 AI가 위험하거나 제한된 콘텐츠를 생성하도록 강제합니다.​"이 프로세스는 모델 성능 저하를 거의 일으키지 않아 사전에 문제를 탐지하는 것이 극히 어렵습니다. 이것이 가장 중요한 위험 요소로 간주됩니다"라고 연구자들은 연구 결과에서 언급했습니다.오픈소스 AI 개발에 대한 시사점이 취약점은 AI 산업이 개발을 가속화하기 위해 공유된 오픈소스 구성 요소에 점점 더 의존함에 따라 특히 중요한 의미를 갖습니다. 이 연구는 전체 성능을 평가하는 것뿐만 아니라 개별 전문가 모델의 출처와 안전성을 검증하는 것이 필수적이 되었음을 강조합니다.​연구팀은 KAIST 전기및전자공학부의 김재한, 송민규 박사과정 학생과 현재에서 근무하는 나승호 박사로 구성되었습니다. 이들의 연구는 한국 과학기술정보통신부, 한국인터넷진흥원, 정보통신기획평가원의 지원을 받았습니다.​정보보안 분야에서 가장 영향력 있는 국제 학회 중 하나인 ACSAC는 올해 전체 제출 논문 중 단 두 편만을 최우수 논문상으로 선정했습니다. 이번 수상은 AI 보안 분야에서 한국 연구자들의 주목할 만한 성과를 나타냅니다.
785 조회
0 추천
2025.12.27 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입