알리바바, Qwen3-Omni 모델 공개로 미국과 AI 경쟁 심화
페이지 정보
본문

(퍼플렉시티가 정리한 기사)
중국 기술 대기업 알리바바는 일요일에 자사의 Qwen3-Omni 인공지능 모델을 공개하며, 다중 모달 AI 시스템 분야에서 미국 기술 선두주자들에게 중대한 도전을 제기했습니다. 이 오픈소스 모델은 텍스트, 이미지, 오디오, 비디오 입력을 동시에 처리할 수 있으며, 텍스트와 음성 형식 모두로 실시간 스트리밍 응답을 제공합니다.
공식 발표에 따르면, Qwen3-Omni는 36개 벤치마크 중 32개에서 최첨단 성능을 달성하였고, 36개 오디오 및 비디오 테스트 중 22개에서 오픈소스 모델 중 선두를 차지했습니다. 시스템의 자동 음성 인식 기능은 구글의 Gemini 2.5 Pro와 동등한 수준입니다.
멀티모달을 넘어 확장되는 AI 아스날
알리바바는 이번 달에 여러 보완적인 AI 기술도 선보였습니다. 회사는 300억 개의 파라미터만 사용하면서도 미국 모델의 더 많은 파라미터 수로 추정되는 OpenAI의 대표적 딥리서치 툴에 버금가는 딥리서치 에이전트를 출시했습니다. 사우스차이나모닝포스트에 따르면, 알리바바는 이 에이전트가 “놀라운 효율성”을 보여주었으며 Humanity’s Last Exam 벤치마크에서 32.9%의 정확도를 달성해 OpenAI의 딥리서치 점수인 26.6%를 능가했다고 밝혔습니다.
딥리서치 에이전트는 알리바바의 Amap 내비게이션 앱에 통합되어 여러 날에 걸친 여행 계획을 지원하고, Tongyi FaRui 법률 연구 플랫폼에서는 검증된 인용문과 함께 사례 검색을 강화했습니다.
또한 알리바바는 인물 사진을 말하거나 노래하고, 공연할 수 있는 애니메이션 아바타로 변환하는 디지털 휴먼 영상 생성 오픈소스 모델 Wan2.2-animate를 공개했습니다. 이 기술은 다양한 프레이밍 옵션을 지원하며 프롬프트 지시에 따라 캐릭터의 동작을 생성할 수 있습니다.
세계적인 경쟁이 심화되고 있다
이 출시들은 이달 초 공개된 첫 조 단위 파라미터 모델인 Qwen-3-Max-Preview를 포함한 알리바바의 광범위한 AI 확장과 맞물려 있습니다. 알리바바는 오픈소스 AI 개발 분야에서 선두주자로 자리매김하고 있으며, 허깅페이스에서 10만 개가 넘는 Qwen 기반 파생 모델이 만들어져 메타의 Llama 기반 모델을 능가했습니다.
Qwen3-Omni는 119개의 텍스트 언어, 19개의 음성 입력 언어, 10개의 음성 출력 언어를 지원하며, 오디오 상호작용에 대해 211밀리초로 매우 빠른 응답 시간을 자랑하는 저지연 스트리밍을 제공합니다. 이 모델은 Mixture of Experts 아키텍처를 적용하며, 사고 모드와 비사고(단순 실행) 모드 모두를 제공합니다.
이러한 출시 시기는 AI 업계 내 경쟁이 심화되고 있음을 반영하며, 중국 기업들이 미국 기술 대기업의 지배에 점점 더 도전하면서 전 세계 개발자들의 채택을 높이기 위해 공격적인 오픈소스 전략을 펼치고 있습니다.