앤트 그룹, 1조 파라미터 AI 모델 링-1T 공개
페이지 정보
본문

(퍼플렉시티가 정리한 기사)
중국 핀테크 대기업 앤트 그룹(Ant Group)이 1조 개의 매개변수를 가진 오픈소스 대규모 언어 모델 Ling-1T를 공개했으며, 이 모델은 수학, 코딩, 추론 과제에서 DeepSeek, OpenAI 및 기타 주요 AI 개발사들의 경쟁 모델을 능가한다고 회사 측은 주장했다. 2025년 10월 9일 발표된 이번 공개는 단 두 달 만에 앤트가 두 번째로 공개하는 1조 매개변수 모델로, 대규모 AI 시스템 개발 분야에서 중국의 경쟁이 격화되고 있음을 보여준다.
Ling-1T, AI 성능에서 새로운 기준을 세우다
Ling-1T는 효율적인 추론 능력을 유지하면서 여러 복잡한 추론 벤치마크에서 최첨단 성능을 달성했습니다. 2025년 미국 수학 경시대회 초청 시험(AIME)에서 이 모델은 문제당 평균 4,000개 이상의 출력 토큰 비용으로 70.42%의 정확도를 기록했으며, Google의 Gemini-2.5-Pro와 동등한 성능을 보이면서 DeepSeek, OpenAI, Moonshot의 경쟁 모델들을 능가했습니다.
독립적인 평가자들의 종합적인 테스트에 따르면, Ling-1T는 대규모 다중작업 언어 이해(MMLU) 벤치마크에서 91.76%의 정확도를 달성하여 약 90%의 GPT-5, 89.1%의 Claude 4.5 Sonnet, 89.0%의 DeepSeek V3.1을 능가했습니다. 이 모델은 특히 코딩 및 소프트웨어 엔지니어링 작업에서 강력한 능력을 보여주었으며, 1조 파라미터 모델 중 LiveCodeBench 평가에서 선두 성능을 보였습니다.
전략적 오픈소스 접근 방식이 독점 모델에 도전하다
이번 출시는 Ant Group이 9월에 출시한 Ring-1T-preview에 이어진 것으로, 회사는 이를 세계 최초의 오픈소스 1조 파라미터 사고 모델이라고 주장했습니다. Ant Group의 최고기술책임자(CTO) He Zhengyu는 다음과 같이 밝혔습니다: “Ant Group에서 우리는 인공일반지능(AGI)이 공공재가 되어야 하며, 인류의 지능적 미래를 위한 공유된 이정표가 되어야 한다고 믿습니다”.
Ling-1T는 1/32 활성화 비율을 가진 Mixture-of-Experts 아키텍처를 사용하여 작동하며, 이는 총 1조 개의 파라미터를 포함하고 있음에도 불구하고 토큰당 약 500억 개의 파라미터만 활성화됨을 의미합니다. 이러한 설계는 계산 비용의 비례적 증가 없이 정교한 추론 능력을 가능하게 하여, 대규모 AI 배포의 핵심 과제를 해결합니다.
모델 패밀리 확장에는 세 가지 주요 시리즈가 포함됩니다: 비사고 모델인 Ling 시리즈, 사고 모델인 Ring 시리즈, 그리고 멀티모달 Ming 시리즈입니다. 이러한 포괄적인 접근 방식은 Ant Group이 오픈소스 개발에 대한 헌신을 유지하면서 다양한 AI 애플리케이션에서 경쟁할 수 있는 위치를 확보하게 하며, 잠재적으로 글로벌 AI 연구와 채택을 가속화할 수 있습니다.