AI 뉴스

Nvidia가 기록적인 훈련 시간으로 AI 벤치마크를 석권하다

페이지 정보

작성자 xtalfi
작성일 2025.11.13 14:49
1,109 조회
0 추천
0 비추천

본문

smfS6N7aideSB7eA7JSz2H-1920-80.jpg

(퍼플렉시티가 정리한 기사)


NVIDIA는 화요일에 발표된 MLPerf Training v5.1 벤치마크에서 완전한 석권을 달성하여 7개 테스트 모두에서 가장 빠른 훈련 시간을 기록했으며, 모든 카테고리에서 결과를 제출한 유일한 플랫폼이 되었습니다. 이 회사는 5,120개의 Blackwell GPU를 사용하여 Meta의 Llama 3.1 405B 모델을 단 10분 만에 훈련시켜 새로운 업계 기록을 세웠으며, 이는 이전 최고 기록보다 2.7배 빠른 속도입니다.​

11월 12일 MLCommons에서 발표한 이번 결과는 MLPerf Training 역사상 어떤 회사도 4비트 FP4 정밀도를 사용한 첫 번째 사례로, 이 획기적인 기술은 동일한 수의 GPU에서 이전 세대 Hopper 아키텍처보다 최대 4배의 성능을 제공했습니다. NVIDIA의 독점 NVFP4 포맷은 엄격한 정확도 요구사항을 유지하면서 8비트 FP8보다 3배 빠른 속도로 계산을 가능하게 합니다.​


블랙웰 울트라 데뷔하다

Blackwell Ultra 기반 GB300 NVL72 랙 규모 시스템이 이번 라운드에서 MLPerf Training에 처음 등장했으며, 표준 Blackwell GPU보다 1.5배 높은 NVFP4 처리량과 어텐션 레이어를 위한 2배의 softmax 가속을 제공하는 향상된 Tensor Core를 특징으로 합니다. 이 시스템은 GPU당 279GB의 HBM3e 메모리를 탑재하고 NVIDIA Quantum-X800 InfiniBand를 통해 업계 최초의 800 Gb/s 네트워킹 플랫폼으로 연결됩니다.​

NVIDIA는 또한 새로 도입된 두 가지 벤치마크인 Llama 3.1 8B와 FLUX.1 이미지 생성에서 성능 기록을 세웠습니다. 이 회사는 512개의 Blackwell Ultra GPU를 사용하여 5.2분 만에 Llama 3.1 8B를 학습시켰으며, FLUX.1에 대한 결과를 제출한 유일한 플랫폼으로서 1,152개의 Blackwell GPU로 12.5분의 학습 시간을 달성했습니다.​


다양한 경쟁 분야

MLPerf Training v5.1 라운드에는 20개 조직이 참여하여 12개의 서로 다른 하드웨어 가속기를 탑재한 65개의 고유한 시스템을 제출했습니다. AMD는 새로운 Instinct MI355X 및 MI350X GPU를 선보였으며, AMD는 단일 노드 접근성을 위해 설계된 새로운 Llama 3.1 8B 벤치마크 개발을 주도했습니다. AMD에 따르면, MI355X GPU 성능은 Llama 3.1 8B 테스트에서 NVIDIA의 Blackwell 플랫폼 대비 5-6% 이내의 차이를 보였습니다.​

전체 제출물의 거의 절반이 멀티 노드 구성이었으며, 이는 전년도 라운드 대비 86% 증가한 수치입니다. Datacrunch, University of Florida, Wiwynn이 처음으로 참여했으며, Dell, HPE, Lenovo와 같은 기존 참가자들도 함께했습니다.​

벤치마크 업데이트에서는 레거시 테스트를 최신 AI 워크로드로 대체했습니다: 언어 모델의 경우 BERT를 Llama 3.1 8B로, 이미지 생성의 경우 Stable Diffusion v2를 FLUX.1로 교체했습니다.

댓글 0
전체 1,366 / 65 페이지
Anthropic은 Claude를 위한 세 가지 베타 기능인 Tool Search Tool, Programmatic Tool Calling, Tool Use Examples를 출시했습니다. 이는 AI 에이전트가 컨텍스트 윈도우를 과부하시키지 않고 수백 또는 수천 개의 도구를 사용할 수 있도록 하며, 개별 API 요청 대신 코드를 통해 도구를 호출하고, 스키마 정의만으로가 아닌 구체적인 예시를 통해 올바른 사용법을 학습하도록 설계되었습니다.내부 테스트에서 Tool Search Tool은 토큰 사용량을 85% 감소시키는 동시에 대규모 도구 라이브러리에서 Opus 4.5의 정확도를 79.5%에서 88.1%로 향상시켰으며, Programmatic Tool Calling은 복잡한 연구 작업에서 37%의 토큰 절감을 달성하면서 이전에 도구 호출당 수백 밀리초가 필요했던 여러 추론 과정을 제거했습니다.이 기능들은 GitHub, Slack, Sentry, Grafana, Splunk를 연결하는 기본 5개 서버 설정에서 대화가 시작되기 전에 약 55,000개의 토큰을 소비하는 중요한 확장성 문제를 해결합니다. Anthropic은 최적화 이전 프로덕션 환경에서 도구 정의가 최대 134,000개의 토큰을 소비하는 것을 관찰했습니다.
721 조회
0 추천
2025.11.25 등록
기술 저널리스트 Alex Kantrowitz와 Ranjan Roy는 Google의 Gemini 3가 OpenAI의 심각한 경쟁자로 부상했으며, Sam Altman이 유출된 메모에서 직원들에게 “거친 분위기”와 “일시적인 경제적 역풍”을 예상하라고 경고했다고 논의했습니다. Kantrowitz는 이를 분수령의 순간이라고 부르며, OpenAI가 앞서간다는 것을 인정받은 적이 없었다고 말했습니다.Gemini 3는 Arc AGI와 LM Arena 리더보드를 포함한 주요 AI 벤치마크에서 1위를 차지했으며, 추상적 시각 추론에서 GPT-5.1의 점수(31.1% 대 17.6%)의 거의 두 배를 달성했습니다. 한편 Google의 조직 재편—DeepMind와 Brain을 회사의 “엔진룸”으로 통합하고 검색에서 수백 명의 엔지니어를 이동—이 이러한 반전을 가능하게 했습니다.이러한 변화는 Google이 시가총액 3조 6,200억 달러로 Microsoft를 앞지르고, Nvidia의 기록적인 실적이 AI 거래를 유지하지 못하면서 발생했으며, 주가는 상승 5%에서 하락 3%로 반전되었습니다. 이는 AI 모델의 상품화와 경쟁하는 챗봇들이 기능적으로 상호 교환 가능해지고 있는지에 대한 투자자들의 우려가 커지면서 나타났습니다.
722 조회
0 추천
2025.11.25 등록
개발자 Simon Willison은 최상위 모델들이 현재 너무나 유사하게 작동하여 실제 작업에서는 기업들이 각 릴리스마다 개선을 주장함에도 불구하고 의미 있는 성능 차이를 드러내지 못하기 때문에, 최첨단 AI 모델 평가가 점점 더 어려워지고 있다고 주장한다.Willison은 Anthropic에서 새로 출시한 Claude Opus 4.5를 사용하여 이틀 동안 39개 파일에 걸쳐 2,022개의 코드 추가를 포함하는 광범위한 코딩 작업을 완료한 후, 이전 Claude Sonnet 4.5 모델로 다시 전환했을 때도 동일한 속도로 작업을 계속할 수 있었으며, 두 모델 간의 구체적인 성능 차이를 식별할 수 없었다고 밝혔다.Willison은 AI 연구소들이 새로운 모델을 출시할 때 이전 모델에서는 실패했지만 새 모델에서는 성공하는 프롬프트의 구체적인 예시를 함께 제공할 것을 요구하며, 이러한 시연이 MMLU나 GPQA Diamond와 같은 테스트에서 한 자릿수 백분율 포인트 개선을 보여주는 벤치마크보다 더 가치 있을 것이라고 주장한다—이는 최첨단 모델들이 전통적인 평가 지표를 점점 더 포화시키면서 업계 전반이 겪고 있는 어려움을 반영하는 과제이다.
765 조회
0 추천
2025.11.25 등록
VentureBeat기사는스스로를"AI우선"이라고선언하는대부분의기업들이진정한도입보다는형식적인혁신에몰두하고있다고주장하며,진정한AI도입은하향식기업지시가아닌호기심많은직원들이조용히실험하는과정에서자연스럽게나타난다고설명합니다.​이기사는직접프로토타입을만들고자신의실패를공유하는리더와금요일까지AI계획을요구하는Slack메시지로단순히규정준수를강요하는리더를구분하며,전자는실질적인추진력을조성하는반면후자는반감을낳는다고설명합니다.​기사는재무및운영부서의직원들이일반적으로이사회프레젠테이션에등장하는고가의엔터프라이즈플랫폼이아닌"그냥ChatGPT"를사용한다고인정한다고언급하며,최근설문조사에따르면광범위한도입의무에도불구하고직원의5%만이AI를최대한활용하여업무를혁신하고있다고밝힙니다.
745 조회
0 추천
2025.11.25 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입