Loading...

AI 뉴스

Nvidia가 기록적인 훈련 시간으로 AI 벤치마크를 석권하다

페이지 정보

작성자 xtalfi
작성일 2025.11.13 14:49
1,439 조회
0 추천
0 비추천

본문

smfS6N7aideSB7eA7JSz2H-1920-80.jpg

(퍼플렉시티가 정리한 기사)


NVIDIA는 화요일에 발표된 MLPerf Training v5.1 벤치마크에서 완전한 석권을 달성하여 7개 테스트 모두에서 가장 빠른 훈련 시간을 기록했으며, 모든 카테고리에서 결과를 제출한 유일한 플랫폼이 되었습니다. 이 회사는 5,120개의 Blackwell GPU를 사용하여 Meta의 Llama 3.1 405B 모델을 단 10분 만에 훈련시켜 새로운 업계 기록을 세웠으며, 이는 이전 최고 기록보다 2.7배 빠른 속도입니다.​

11월 12일 MLCommons에서 발표한 이번 결과는 MLPerf Training 역사상 어떤 회사도 4비트 FP4 정밀도를 사용한 첫 번째 사례로, 이 획기적인 기술은 동일한 수의 GPU에서 이전 세대 Hopper 아키텍처보다 최대 4배의 성능을 제공했습니다. NVIDIA의 독점 NVFP4 포맷은 엄격한 정확도 요구사항을 유지하면서 8비트 FP8보다 3배 빠른 속도로 계산을 가능하게 합니다.​


블랙웰 울트라 데뷔하다

Blackwell Ultra 기반 GB300 NVL72 랙 규모 시스템이 이번 라운드에서 MLPerf Training에 처음 등장했으며, 표준 Blackwell GPU보다 1.5배 높은 NVFP4 처리량과 어텐션 레이어를 위한 2배의 softmax 가속을 제공하는 향상된 Tensor Core를 특징으로 합니다. 이 시스템은 GPU당 279GB의 HBM3e 메모리를 탑재하고 NVIDIA Quantum-X800 InfiniBand를 통해 업계 최초의 800 Gb/s 네트워킹 플랫폼으로 연결됩니다.​

NVIDIA는 또한 새로 도입된 두 가지 벤치마크인 Llama 3.1 8B와 FLUX.1 이미지 생성에서 성능 기록을 세웠습니다. 이 회사는 512개의 Blackwell Ultra GPU를 사용하여 5.2분 만에 Llama 3.1 8B를 학습시켰으며, FLUX.1에 대한 결과를 제출한 유일한 플랫폼으로서 1,152개의 Blackwell GPU로 12.5분의 학습 시간을 달성했습니다.​


다양한 경쟁 분야

MLPerf Training v5.1 라운드에는 20개 조직이 참여하여 12개의 서로 다른 하드웨어 가속기를 탑재한 65개의 고유한 시스템을 제출했습니다. AMD는 새로운 Instinct MI355X 및 MI350X GPU를 선보였으며, AMD는 단일 노드 접근성을 위해 설계된 새로운 Llama 3.1 8B 벤치마크 개발을 주도했습니다. AMD에 따르면, MI355X GPU 성능은 Llama 3.1 8B 테스트에서 NVIDIA의 Blackwell 플랫폼 대비 5-6% 이내의 차이를 보였습니다.​

전체 제출물의 거의 절반이 멀티 노드 구성이었으며, 이는 전년도 라운드 대비 86% 증가한 수치입니다. Datacrunch, University of Florida, Wiwynn이 처음으로 참여했으며, Dell, HPE, Lenovo와 같은 기존 참가자들도 함께했습니다.​

벤치마크 업데이트에서는 레거시 테스트를 최신 AI 워크로드로 대체했습니다: 언어 모델의 경우 BERT를 Llama 3.1 8B로, 이미지 생성의 경우 Stable Diffusion v2를 FLUX.1로 교체했습니다.

댓글 0
전체 1,366 / 28 페이지
이번 주에 발표된 획기적인 연구에 따르면, 기술이 빠르게 발전하고 있음에도 불구하고 ChatGPT와 같은 인공지능 시스템은 인간의 글쓰기를 완전히 모방할 수 없는 것으로 드러났다. 인지 능력에 대한 AI의 영향에 대한 우려가 커지는 가운데 발표된 이 연구는, AI가 생성한 산문이 인간 작가와 구별되는 고유한 “스타일 지문(stylistic fingerprint)”을 지니고 있음을 보여준다.유니버시티 칼리지 코크의 제임스 오설리번(Dr. James O’Sullivan)이 이끄는 이번 연구는, 전통적으로 필자 식별에 사용되던 계산 기반 방법인 문체 통계 분석(literary stylometry)을 인간과 AI의 창작 글쓰기를 체계적으로 비교하는 데 처음으로 적용한 사례다. 수백 편의 단편소설을 분석한 결과, 연구진은 AI가 매끄럽고 유창한 문장을 생성하긴 하지만, 매우 좁고 균질한 패턴을 따른다는 사실을 발견했다. 이에 반해 인간 작가들은 개인적 목소리, 창작 의도, 개별적 경험에 의해 형성된 훨씬 더 넓은 문체적 스펙트럼을 보여준다.오설리번은 “ChatGPT가 인간처럼 들리려고 할 때조차 그 글에는 여전히 탐지 가능한 지문이 남아 있으며, 이는 컴퓨터와 사람이 아직은 완전히 같은 스타일로 글을 쓰지 않는다는 점을 시사한다”고 말했다. 네이처(Nature)의 『Humanities and Social Sciences Communications』에 실린 이번 연구 결과에 따르면, GPT-3.5, GPT-4, Llama 70B를 포함한 AI 시스템이 생성한 텍스트는 균질한 패턴을 반영하는 촘촘한 군집으로 모이는 반면, 인간이 쓴 텍스트는 훨씬 더 큰 변이와 개성을 드러낸다.인지 영향에 대한 우려 증가스타일로메트리 연구 결과는 AI가 인간 인지에 미치는 영향에 대한 우려스러운 연구들과 함께 제시되고 있다. 매사추세츠 공과대학교(MIT)가 6월에 발표한 한 연구는 54명의 참가자를 대상으로, 에세이를 작성할 때 ChatGPT, 구글 검색, 혹은 어떠한 도움 없이 쓰도록 나누어 살펴보았다. 뇌 스캔 결과, ChatGPT를 사용한 참가자들은 신경 연결성이 가장 약하게 나타났고, 자신이 쓴 글을 기억하는 데 어려움을 겪었다. ChatGPT 사용자 중 83%가 자신의 에세이를 정확히 인용하지 못한 반면, 독립적으로 작성한 그룹에서는 그 비율이 11%에 불과했다.MIT 연구진은 이 현상을 “인지 부채(cognitive debt)“라고 명명하며, 단기적인 편의를 위해 미래의 인지 능력을 선(先)차입하는 것이라고 설명했다. 뇌만 활용한(도구를 사용하지 않은) 그룹은 창의성, 기억력, 의미 처리와 연관된 주파수 대역에서 가장 강한 신경 네트워크를 보여주었다.카네기멜론대학교와 마이크로소프트의 별도 연구에서는 319명의 지식 노동자를 대상으로 설문을 진행한 결과, AI 능력에 대한 신뢰도가 높을수록 비판적 사고 노력은 감소하는 경향이 있다는 사실을 밝혀냈다. 이 연구는 실제 AI 보조 과제 936건을 분석했으며, 생성형 AI가 효율성을 높여 주는 동시에 비판적 개입을 약화시키고 독립적인 문제 해결 능력을 떨어뜨릴 수 있다고 결론지었다.학생들의 우려가 고조되다옥스퍼드 대학 출판부(Oxford University Press)가 13-18세 영국 학생 2,000명을 대상으로 실시한 설문조사에 따르면, 80%가 학업에 AI를 정기적으로 사용하지만, 62%는 AI가 자신의 기술 개발에 부정적인 영향을 미친다고 생각하는 것으로 나타났다. 학생 4명 중 1명은 AI가 “스스로 과제를 수행하지 않고도 답을 찾는 것을 너무 쉽게 만든다”고 답했으며, 12%는 AI가 창의적 사고를 제한한다고 보고했다.광범위한 도입에도 불구하고, 학생들은 지침을 요구하고 있다. 옥스퍼드 보고서의 공동 저자인 에리카 갈레아(Erika Galea)는 “오늘날의 학생들은 기계와 함께 사고하기 시작하고 있습니다. 아이디어를 처리하는 데 유창함과 속도를 얻고 있지만, 때때로 멈추고, 질문하고, 독립적으로 사고하는 것에서 오는 깊이를 잃고 있습니다”라고 말했다.
568 조회
0 추천
2025.12.21 등록
293억 달러의 가치를 평가받는 AI 코드 에디터 Cursor가 코드 리뷰 스타트업 Graphite를 현금 및 지분 거래로 인수하고 있으며, 이는 앞으로 몇 주 내에 완료될 것으로 예상되며, 코드 작성 및 검토 도구를 결합하여 엔드투엔드 개발 플랫폼을 만들 것입니다.이번 인수는 Cursor CEO Michael Truell이 소프트웨어 개발에서 증가하는 병목 현상이라고 부르는 문제를 해결하기 위한 것으로, AI가 코드 작성을 가속화했지만 리뷰 프로세스는 변하지 않은 상황에서, Graphite는 Shopify 및 Snowflake ㅡ를 포함한 500개 이상의 기업에서 수만 명의 엔지니어에게 서비스를 제공하고 있습니다.[이 거래는 Cursor가 연간 매출 10억 달러를 달성한 지 한 달 만에 이루어진 것으로, 2024년 15억 1천만 달러에서 2032년 거의 90억 달러로 성장할 것으로 예상되는 AI 코딩 시장에서 OpenAI, Anthropic, GitHub Copilot을 포함한 경쟁사들에 대해 회사를 더욱 공격적으로 포지셔닝합니다.
561 조회
0 추천
2025.12.21 등록
• 중국은 금요일 슝안신구에서 오픈소스 AI 기상 모델인 Fengyuan V1.0을 출시했으며, 이는 관측 데이터로부터 직접 전 지구 예보를 생성할 수 있는 독자적 지식재산권을 가진 중국 최초의 종단간(end-to-end) AI 기상 시스템을 의미한다[chinadaily +1].• 이번 출시는 NOAA가 AI 기반 예보 모델 3종을 공개한 지 불과 이틀 만에 이루어진 것으로, 더 빠르고 정확한 AI 기상 예측 시스템 개발 경쟁에서 미국과 중국 간 기상 기술 분야의 경쟁이 심화되고 있음을 보여준다[techspot +2].• 중국 기상국 관계자들은 Fengyuan이 극한 기상 현상 탐지에 중점을 두고 저고도 경제 및 에너지 공급을 포함한 특화 분야를 지원할 것이며, 일대일로 이니셔티브를 통해 국제 협력을 확대할 계획이라고 밝혔다[chinadaily +1].
567 조회
0 추천
2025.12.21 등록
• 라쿠텐 그룹인 [RKUNY +1.40%]는 일본어에 최적화된 7,000억 파라미터 대규모 언어 모델 Rakuten AI 3.0를 12월 18일 공개했다. 이 모델은 일본어 벤치마크에서 GPT-4o를 능가했으며, 유사 규모의 서드파티 AI 모델 대비 최대 90%의 비용 절감을 제공한다.[global.rakuten +1]• 이 모델은 일본 정부가 지원하는 GENIAC 프로젝트의 일환으로 개발되었으며, 일본 경제산업성 및 신에너지·산업기술종합개발기구(NEDO)가 주도하고, 이 이니셔티브를 통해 일부 학습 비용을 지원받았다.[global.rakuten +1]• 라쿠텐은 2026년 봄에 이 모델을 오픈 웨이트로 공개할 계획이며, Rakuten AI Gateway 플랫폼을 통해 전자상거래, 핀테크, 여행, 엔터테인먼트 서비스 등 자사 전체 에코시스템에 이를 통합하고 있다.[global.rakuten +1]
547 조회
0 추천
2025.12.21 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입