Nvidia가 기록적인 훈련 시간으로 AI 벤치마크를 석권하다
페이지 정보
본문

(퍼플렉시티가 정리한 기사)
NVIDIA는 화요일에 발표된 MLPerf Training v5.1 벤치마크에서 완전한 석권을 달성하여 7개 테스트 모두에서 가장 빠른 훈련 시간을 기록했으며, 모든 카테고리에서 결과를 제출한 유일한 플랫폼이 되었습니다. 이 회사는 5,120개의 Blackwell GPU를 사용하여 Meta의 Llama 3.1 405B 모델을 단 10분 만에 훈련시켜 새로운 업계 기록을 세웠으며, 이는 이전 최고 기록보다 2.7배 빠른 속도입니다.
11월 12일 MLCommons에서 발표한 이번 결과는 MLPerf Training 역사상 어떤 회사도 4비트 FP4 정밀도를 사용한 첫 번째 사례로, 이 획기적인 기술은 동일한 수의 GPU에서 이전 세대 Hopper 아키텍처보다 최대 4배의 성능을 제공했습니다. NVIDIA의 독점 NVFP4 포맷은 엄격한 정확도 요구사항을 유지하면서 8비트 FP8보다 3배 빠른 속도로 계산을 가능하게 합니다.
블랙웰 울트라 데뷔하다
Blackwell Ultra 기반 GB300 NVL72 랙 규모 시스템이 이번 라운드에서 MLPerf Training에 처음 등장했으며, 표준 Blackwell GPU보다 1.5배 높은 NVFP4 처리량과 어텐션 레이어를 위한 2배의 softmax 가속을 제공하는 향상된 Tensor Core를 특징으로 합니다. 이 시스템은 GPU당 279GB의 HBM3e 메모리를 탑재하고 NVIDIA Quantum-X800 InfiniBand를 통해 업계 최초의 800 Gb/s 네트워킹 플랫폼으로 연결됩니다.
NVIDIA는 또한 새로 도입된 두 가지 벤치마크인 Llama 3.1 8B와 FLUX.1 이미지 생성에서 성능 기록을 세웠습니다. 이 회사는 512개의 Blackwell Ultra GPU를 사용하여 5.2분 만에 Llama 3.1 8B를 학습시켰으며, FLUX.1에 대한 결과를 제출한 유일한 플랫폼으로서 1,152개의 Blackwell GPU로 12.5분의 학습 시간을 달성했습니다.
다양한 경쟁 분야
MLPerf Training v5.1 라운드에는 20개 조직이 참여하여 12개의 서로 다른 하드웨어 가속기를 탑재한 65개의 고유한 시스템을 제출했습니다. AMD는 새로운 Instinct MI355X 및 MI350X GPU를 선보였으며, AMD는 단일 노드 접근성을 위해 설계된 새로운 Llama 3.1 8B 벤치마크 개발을 주도했습니다. AMD에 따르면, MI355X GPU 성능은 Llama 3.1 8B 테스트에서 NVIDIA의 Blackwell 플랫폼 대비 5-6% 이내의 차이를 보였습니다.
전체 제출물의 거의 절반이 멀티 노드 구성이었으며, 이는 전년도 라운드 대비 86% 증가한 수치입니다. Datacrunch, University of Florida, Wiwynn이 처음으로 참여했으며, Dell, HPE, Lenovo와 같은 기존 참가자들도 함께했습니다.
벤치마크 업데이트에서는 레거시 테스트를 최신 AI 워크로드로 대체했습니다: 언어 모델의 경우 BERT를 Llama 3.1 8B로, 이미지 생성의 경우 Stable Diffusion v2를 FLUX.1로 교체했습니다.