중국 스타트업 MiniMax의 M2가 오픈소스 AI 모델 중 1위
페이지 정보
본문
(퍼플렉시티가 정리한 기사)
중국 AI 스타트업 MiniMax는 월요일에 M2 언어 모델을 출시하여 Artificial Analysis의 Intelligence Index에서 오픈소스 모델 중 최고 점수를 달성했으며, OpenAI와 Anthropic의 독점 시스템에 대한 강력한 경쟁자로 자리매김했습니다.
이 모델은 종합 벤치마크에서 61점을 기록하여 GPT-5, Grok 4, Claude Sonnet 4.5에 이어 전 세계 5위를 차지했습니다. MiniMax M2는 60점을 기록한 Google DeepMind의 Gemini 2.5 Pro를 앞질렀으며, 이는 중국 오픈소스 AI 생태계에 있어 중요한 성과입니다.
효율적인 아키텍처가 성능을 강화합니다
MiniMax M2는 총 2,300억 개의 매개변수를 가진 Mixture-of-Experts (MoE) 아키텍처를 채택하지만, 추론 시에는 100억 개만 활성화하여 탁월한 효율성을 제공합니다. Artificial Analysis에 따르면 "매개변수의 일부만 사용함으로써 모델이 대규모에서 효율적으로 작동할 수 있게 되었습니다". 이는 370억 개의 활성 매개변수를 사용하는 DeepSeek의 V3.2 및 320억 개를 사용하는 Moonshot AI의 Kimi K2와 같은 경쟁 모델들과 비교해 유리합니다.
이러한 희소 설계는 FP8 정밀도로 단 4개의 NVIDIA H100 GPU만으로 배포를 가능하게 하여 중견 조직들도 접근할 수 있게 합니다. 컴팩트한 활성 풋프린트에도 불구하고, M2는 초당 약 100개의 토큰이라는 추론 속도를 제공하며—이는 Claude Sonnet 4.5와 같은 경쟁 모델의 약 두 배에 해당합니다.
코딩과 에이전트 작업이 탁월함을 이끕니다
MiniMax M2는 특히 에이전트 워크플로우와 코딩 애플리케이션에서 뛰어난 성능을 보이며, 이는 기업들이 점점 더 우선시하는 영역입니다. 이 모델은 전문 벤치마크에서 주목할 만한 점수를 달성했습니다: 실제 코딩 작업을 위한 SWE-bench Verified에서 69.4점, 도구 사용을 위한 τ²-Bench에서 77.2점, 웹 연구 능력을 위한 BrowseComp에서 44.0점을 기록했습니다.
Artificial Analysis는 "모델의 강점은 도구 사용과 지시 사항 따르기를 포함한다"고 언급하며, M2가 일반화된 작업보다 실용적인 애플리케이션에 중점을 둔다는 점을 강조했습니다. 개발자들의 독립적인 테스트에서 M2는 혼합 작업에서 약 95%의 정확도를 달성한 반면, GPT-4o는 90%, Claude 3.5는 88-89%를 기록했습니다.
독일 트리어 대학교의 박사과정 학생이자 오픈 모델 전문가인 Florian Brand는 "그들의 진전에 정말 감명받았다"고 언급하며, MiniMax의 이전 M1 모델 대비 상당한 개선을 강조했습니다.
MiniMax는 입력 토큰 백만 개당 $0.3, 출력 토큰 백만 개당 $1.2로 모델을 제공하여 경쟁력 있는 성능을 유지하면서도 Claude Sonnet 4.5 비용의 단 8%에 해당합니다. 이 모델은 Hugging Face와 GitHub에서 MIT 라이선스로 제공되며, API 액세스는 현재 제한된 기간 동안 무료로 이용할 수 있습니다.