AI 기업, AMD 칩으로만 최초의 대규모 모델 훈련 완료
페이지 정보
본문

샌프란시스코에 기반을 둔 AI 연구 기업 자이프라(Zyphra)는 일요일, 자사가 최초로 대규모 Mixture-of-Experts(전문가 혼합) 기반 파운데이션 모델인 ZAYA1을 완전히 AMD 하드웨어에서 학습시키는 데 성공했다고 발표했습니다. 이는 AI 모델 학습 분야에서 NVIDIA의 지배에 도전하는 중요한 이정표로 평가받고 있습니다.
이 모델은 AMD Instinct MI300X GPU 및 AMD Pensando 네트워킹, IBM 클라우드 인프라에서 학습을 진행했으며, NVIDIA의 플랫폼 외에도 최첨단 AI 개발을 충분히 감당할 수 있다는 점을 입증했습니다. 총 83억 개의 파라미터에 활성 파라미터는 7억 6천만 개만 사용했음에도 불구하고, ZAYA1은 Meta의 Llama-3-8B, Alibaba의 Qwen3-4B, Google의 Gemma3-12B 등 더 큰 모델들과 견주거나 더 나은 성능을 추론, 수학, 코딩 벤치마크에서 보였습니다.
기술적 돌파구가 AMD의 AI 역량을 입증하다
이 성과는 AMD 플랫폼의 여러 기술적 장점을 보여줍니다. MI300X GPU의 192GB 고대역폭 메모리는 비용이 많이 드는 전문가 샤딩이나 텐서 샤딩 없이 효율적인 대규모 학습을 가능하게 하여 개발 프로세스를 간소화했습니다. Zyphra는 AMD 최적화 분산 I/O를 사용하여 10배 이상 빠른 모델 저장 시간을 달성했으며, 이를 통해 학습 신뢰성과 효율성을 향상시켰다고 보고했습니다.
Zyphra의 CEO인 Krithik Puthalath는 "ZAYA1은 이러한 철학을 반영하며, AMD 플랫폼에서 대규모 학습을 시연한 최초의 회사가 되어 기쁘게 생각합니다"라고 말했습니다. 이번 협력은 10월에 발표된 IBM과 AMD 간의 다년간 계약을 기반으로 하며, Zyphra에 고급 AI 인프라를 제공하기 위한 것입니다.
AI 하드웨어 시장에 대한 경쟁적 시사점
성공적인 훈련은 현재 NVIDIA가 지배하고 있는 AI 인프라 시장에서 더 많은 점유율을 확보하려는 AMD의 중요한 과제를 해결합니다. AMD는 AI 훈련 GPU 시장에서 NVIDIA에 비해 약 94%의 시장 점유율 열세를 보이고 있지만, 향후 3~5년 동안 데이터 센터 AI 사업이 연평균 60% 이상의 성장률을 기록할 것으로 전망하고 있습니다.
Mixture-of-Experts 아키텍처는 OpenAI의 GPT-5, Anthropic의 Claude-4.5, DeepSeek-V3를 포함한 현대 최첨단 AI 시스템의 기본 설계가 되었습니다. 이러한 모델은 동적으로 활성화되는 전문화된 전문가 네트워크를 사용하여 기존의 밀집 아키텍처보다 더 큰 효율성과 확장성을 제공합니다.
AMD의 수석 부사장 겸 최고 상업 책임자인 Philip Guido는 "이 이정표는 혁신적인 AMD 하드웨어 및 소프트웨어 솔루션이 업계 선두 기업들과 함께 차세대 최첨단 AI 개발을 가능하게 하고 있음을 강조합니다"라고 말했습니다.