AMD, 엔비디아의 AI 지배력에 도전하기 위해 오픈소스 ROCm 추진
페이지 정보
본문

AMD는 오픈소스 ROCm 플랫폼을 Nvidia의 독점적 CUDA 생태계에 대한 협력적 대안으로 포지셔닝함으로써 AI 컴퓨팅 분야에서 Nvidia의 지배력에 대한 도전을 강화하고 있으며, 특히 아시아-태평양 지역의 개발자와 데이터 센터를 대상으로 벤더 종속 없이 유연성을 추구하는 고객들을 타겟으로 하고 있습니다.
이 칩 제조업체는 2025년 9월 ROCm 7을 출시하면서 Instinct MI350 및 MI325X GPU에 대한 기본 지원, 더 빠른 AI 추론을 위한 FP4 및 FP8를 포함한 저정밀도 형식, 그리고 확장된 Windows 및 소비자용 GPU 호환성을 제공했습니다. 이 플랫폼은 PyTorch 및 vLLM과 같은 인기 있는 프레임워크와 처음부터 통합되어 개발자들이 소프트웨어 스택을 재구축하지 않고도 AMD 하드웨어에서 AI 워크로드를 배포할 수 있게 합니다.
AMD의 AI 소프트웨어 부사장인 Anush Elangovan은 이번 주 Computer Weekly와의 인터뷰에서 "우리는 폐쇄형 소스를 구축할 수도 있지만, 오픈 생태계의 속도를 얻을 수 없을 것입니다"라고 말했습니다. "대신, 우리는 업계를 발전시키기 위해 모든 사람의 역량을 활용하고자 합니다. 이는 모두가 협력하고 매우 빠르게 움직이는 Linux 커널과 같습니다."
ROCm, Nvidia가 새로운 경쟁자들과 맞서면서 입지를 다지다
AMD의 시점은 여러 방면에서 Nvidia에 대한 압력이 커지는 것과 맞물려 있습니다. 지난주에 Meta Platforms가 Google의 텐서 프로세싱 유닛(TPU)을 사용하기 위해 수십억 달러 규모의 거래를 협상 중이라는 보도가 나오면서 Nvidia 주가는 하락하고 Alphabet 주가는 상승하는 등, AI 칩 시장의 경쟁에 대한 투자자들의 우려가 나타났습니다. Nvidia는 11월 25일 자사의 GPU가 Google의 AI 칩보다 “한 세대 앞서 있다”고 주장하며 대응했습니다.
이와 같은 경쟁 구도는 주요 IT 기업들이 하드웨어 다각화로 나아가도록 만들고 있습니다. Red Hat은 11월 23일 Red Hat Enterprise Linux에서 AMD, Intel, Nvidia의 AI 가속기 드라이버를 간편하게 접근할 수 있도록 streamlined 경험을 발표하며, 다중 공급업체 지원에 대한 기업의 수요를 반영하고 있습니다. 올해 초 Red Hat은 AMD GPU Operator를 OpenShift AI 플랫폼에 통합했으며, Intel 및 Nvidia와의 유사한 협력 관계에도 합류했습니다.
소프트웨어 생태계가 데이터 센터를 넘어 확장되다
AMD의 "ROCm everywhere" 이니셔티브는 소비자용 노트북부터 슈퍼컴퓨터까지 일관된 개발자 경험을 제공하는 것을 목표로 합니다. Elangovan은 회사의 칩렛 아키텍처가 경쟁력 있는 성능을 유지하면서도 값비싼 액체 냉각 대신 공랭식 인프라를 가능하게 한다고 언급했습니다.
최근 검증 사례로 Luma Labs가 있으며, Elangovan에 따르면 이들의 Ray3 비디오 생성 모델은 "AMD 플랫폼에서 완전히 훈련되고 서비스되고 있습니다". 11월 18일, Luma는 AMD가 주요 참여자로 참여한 9억 달러 규모의 시리즈 C 펀딩 라운드를 발표하며 파트너십을 심화했습니다.
Zyphra 또한 11월 14일 자사의 ZAYA1 AI 모델 테스트를 완료했으며, 이는 AMD Instinct MI300X GPU와 ROCm에서 전적으로 훈련된 최초의 대규모 Mixture-of-Experts 파운데이션 모델로, 주요 AI 연구소의 모델들과 경쟁력 있는 성능을 입증했습니다.