Loading...

AI 뉴스

Nvidia가 기록적인 훈련 시간으로 AI 벤치마크를 석권하다

페이지 정보

작성자 xtalfi
작성일 11.13 14:49
39 조회
0 추천
0 비추천

본문

smfS6N7aideSB7eA7JSz2H-1920-80.jpg

(퍼플렉시티가 정리한 기사)


NVIDIA는 화요일에 발표된 MLPerf Training v5.1 벤치마크에서 완전한 석권을 달성하여 7개 테스트 모두에서 가장 빠른 훈련 시간을 기록했으며, 모든 카테고리에서 결과를 제출한 유일한 플랫폼이 되었습니다. 이 회사는 5,120개의 Blackwell GPU를 사용하여 Meta의 Llama 3.1 405B 모델을 단 10분 만에 훈련시켜 새로운 업계 기록을 세웠으며, 이는 이전 최고 기록보다 2.7배 빠른 속도입니다.​

11월 12일 MLCommons에서 발표한 이번 결과는 MLPerf Training 역사상 어떤 회사도 4비트 FP4 정밀도를 사용한 첫 번째 사례로, 이 획기적인 기술은 동일한 수의 GPU에서 이전 세대 Hopper 아키텍처보다 최대 4배의 성능을 제공했습니다. NVIDIA의 독점 NVFP4 포맷은 엄격한 정확도 요구사항을 유지하면서 8비트 FP8보다 3배 빠른 속도로 계산을 가능하게 합니다.​


블랙웰 울트라 데뷔하다

Blackwell Ultra 기반 GB300 NVL72 랙 규모 시스템이 이번 라운드에서 MLPerf Training에 처음 등장했으며, 표준 Blackwell GPU보다 1.5배 높은 NVFP4 처리량과 어텐션 레이어를 위한 2배의 softmax 가속을 제공하는 향상된 Tensor Core를 특징으로 합니다. 이 시스템은 GPU당 279GB의 HBM3e 메모리를 탑재하고 NVIDIA Quantum-X800 InfiniBand를 통해 업계 최초의 800 Gb/s 네트워킹 플랫폼으로 연결됩니다.​

NVIDIA는 또한 새로 도입된 두 가지 벤치마크인 Llama 3.1 8B와 FLUX.1 이미지 생성에서 성능 기록을 세웠습니다. 이 회사는 512개의 Blackwell Ultra GPU를 사용하여 5.2분 만에 Llama 3.1 8B를 학습시켰으며, FLUX.1에 대한 결과를 제출한 유일한 플랫폼으로서 1,152개의 Blackwell GPU로 12.5분의 학습 시간을 달성했습니다.​


다양한 경쟁 분야

MLPerf Training v5.1 라운드에는 20개 조직이 참여하여 12개의 서로 다른 하드웨어 가속기를 탑재한 65개의 고유한 시스템을 제출했습니다. AMD는 새로운 Instinct MI355X 및 MI350X GPU를 선보였으며, AMD는 단일 노드 접근성을 위해 설계된 새로운 Llama 3.1 8B 벤치마크 개발을 주도했습니다. AMD에 따르면, MI355X GPU 성능은 Llama 3.1 8B 테스트에서 NVIDIA의 Blackwell 플랫폼 대비 5-6% 이내의 차이를 보였습니다.​

전체 제출물의 거의 절반이 멀티 노드 구성이었으며, 이는 전년도 라운드 대비 86% 증가한 수치입니다. Datacrunch, University of Florida, Wiwynn이 처음으로 참여했으며, Dell, HPE, Lenovo와 같은 기존 참가자들도 함께했습니다.​

벤치마크 업데이트에서는 레거시 테스트를 최신 AI 워크로드로 대체했습니다: 언어 모델의 경우 BERT를 Llama 3.1 8B로, 이미지 생성의 경우 Stable Diffusion v2를 FLUX.1로 교체했습니다.

댓글 0
전체 1,054 / 39 페이지
(퍼플렉시티가정리한기사)Haut.AI는11월11일FaceAnalysis3.0을공개하며스마트폰셀카를통해소비자에게임상수준의피부평가기술을제공합니다.AI기반플랫폼은한때피부과실험실에만국한되었던정밀도로29가지피부파라미터를분석하며,전문진단과가정내피부관리사이의격차를해소하는것을목표로합니다.​에스토니아에본사를둔이회사의최신시스템은광범위한분류를제공하는대신특정피부상태를구별합니다—잔주름과깊은주름을분리하고주근깨와기미를구분합니다.FaceAnalysis3.0은발견사항을표준화된피부과점수로변환하여임상연구와제품테스트전반에걸쳐일관된비교를가능하게합니다.​"지금까지임상수준의피부분석은특수장비와실험실환경을필요로했습니다"라고Haut.AI의CEO이자공동창립자인AnastasiaGeorgievskaya는말했습니다."FaceAnalysis3.0과표준화된셀카촬영을위한LIQA기술을통해휴대폰으로사진을찍는것만큼간단하게만들었습니다."​다각도이미징및개인정보보호장치이플랫폼은정면,좌측,우측세가지각도에서이미지를캡처하여통합분석으로병합하는Face180기술을도입했습니다.이접근방식은머리기울임이나각도변화로인한사각지대를제거하고측정안정성을최대30%까지향상시킨다고회사측은밝혔습니다.​개인정보보호를위해모든이미지는Haut.AI의특허받은SkinAtlas기술을거치며,이기술은필수적인피부데이터를보존하면서식별가능한특징을제거합니다.이시스템은또한다양한조명조건에서셀카를표준화하기위해색상보정을사용하여결과가환경적요인이아닌실제피부변화를반영하도록보장합니다.​이번출시는AI피부분석시장이급속도로확장되는시점에이루어졌습니다.시장조사에따르면글로벌시장은2025년17억9천만달러로평가되었으며2034년까지71억1천만달러에이를것으로예상됩니다.피부과분야의AI모델은현재80~98%의진단정확도를달성하고있으며,일부연구에서는숙련된피부과전문의와비교할만한성능을보여줍니다.​산업파트너십및응용분야2018년에설립된Haut.AI는UltaBeauty,Neutrogena,Beiersdorf,GrupoBoticário등주요뷰티브랜드들과파트너십을맺고있습니다.이회사의기술은Neutrogena의Skin360플랫폼과UltaBeauty의모바일앱에서피부분석기능을지원합니다.​뷰티브랜드의경우,FaceAnalysis3.0은특정색소침착유형이나여드름증상을식별하여제품매칭을가능하게하며,제품포뮬러가작용하도록설계된방식에부합하는추천을제공합니다.이시스템은정확한염증수를보여주는픽셀수준의마스크를제공하여,전문가와소비자모두에게AI결과를설명가능하게만듭니다.​이플랫폼은제품라인을개선하는글로벌브랜드부터집에서피부건강을모니터링하는소비자까지뷰티생태계전반에서사용할수있도록설계되었으며,알고리즘은전문이미징시스템과일상적인스마트폰모두에최적화되어있습니다.
41 조회
0 추천
11.13 등록
(퍼플렉시티가정리한기사)OpenAI는수요일연방판사에게2천만건의익명화된ChatGPT대화로그를뉴욕타임스에제출하도록요구하는명령을번복해달라고요청하며,이러한공개가사용자프라이버시를침해하고AI소송에"위험한선례"를남길것이라고주장했습니다.이러한움직임은신문사와다른언론사들이제기한저작권침해소송에서대화기록을제출해야하는금요일마감일을앞두고나온것입니다.​OpenAI가지지를호소하는공개성명에서강조하지않은것은OnaWang치안판사가이미11월7일OpenAI에불리한판결을내렸으며,OpenAI가로그를제출하는것이"적절하다"고판단했다는점입니다.판사는기존보호명령과OpenAI의"철저한비식별화"프로세스를통해사용자프라이버시가충분히보호된다고판단했습니다.​프라이버시주장이증거개시명령과충돌하다수요일에게시된블로그포스트에서OpenAI의최고정보보안책임자인DaneStuckey는뉴욕타임스가"사용자프라이버시침해"를요구하고있다고비난하며,이신문사가"타임스의근거없는소송과아무런관련이없는"사람들의대화를요구하고있다고주장했다.회사는요청된대화기록의"99.99%"가저작권주장과무관하다고주장했다.​2천만건의대화는2022년12월부터2024년11월까지의무작위샘플을나타낸다.OpenAI는뉴욕타임스콘텐츠가포함된채팅만식별하기위한타겟검색을포함한프라이버시보호대안을제안했지만,이러한제안은거부되었다.​저작권분쟁의중심에있는훈련데이터뉴욕타임스는2023년12월OpenAI와을상대로소송을제기했으며,이들기업이ChatGPT훈련을위해허가나보상없이"수백만건"의기사를사용하여저작권을침해했다고주장했습니다.이신문사는ChatGPT가자사콘텐츠를어떻게재생산하는지분석하고,OpenAI가증거를조작하기위해챗봇을"해킹"했다는주장에반박하기위해로그에대한접근이필요하다고주장합니다.​Wang판사는이전에2025년5월OpenAI가모든채팅로그를보존하도록요구하는보존명령을내렸으나,해당명령은9월에부분적으로해제되었습니다.2천만건의로그제출을둘러싼현재의분쟁은증거개시절차에서의갈등이심화되고있음을보여줍니다.​OpenAI는이요청이합리적인증거개시범위를초과한다고주장하며,"이규모의개인정보를전면적으로제출하도록명령한법원을알지못한다"고언급했습니다.이사건은훈련용저작권자료의오용혐의로AI기업들을상대로제기된수많은소송중하나이며,잠재적손해배상액은수십억달러에달합니다.
41 조회
0 추천
11.13 등록
(퍼플렉시티가정리한기사)OpenAI의Sora2비디오생성기에서저작권침해를방지하려는시도가실패하고있으며,사용자들이이름철자를틀리게쓰거나대체설명을사용하는등의간단한우회방법을통해콘텐츠필터를쉽게우회하고있다고최근테스트및옹호단체들의경고에따르면밝혀졌다.9월30일에출시된이비디오생성도구는비평가들이"저작권침해기계"라고부르는것이되었으며,닌텐도캐릭터,저작권이있는만화,그리고실제인물의무단딥페이크비디오를생성하고있다.OpenAI가출시며칠만에옵트아웃방식에서옵트인저작권정책으로전환했음에도불구하고,404Media의테스트결과보호장치는여전히우회하기쉬운것으로나타났다.​간단한트릭으로콘텐츠필터우회하기404Media가보호된콘텐츠의영상을생성하려고시도했을때,Sora2는"AnimalCrossinggameplay"와같은프롬프트를차단했다.그러나이도구는"Titlescreenandgameplayofthegamecalled'crossingaminal'2017"이라는프롬프트를입력받았을때닌텐도게임의정확한재현물을생성했다.유사한우회방법이Fox의"AmericanDad"에서는모호한캐릭터설명을사용하여,그리고Twitch스트리머HasanPiker의경우그의이름을"pikersahan"으로뒤집어성공했다.​r/SoraAI서브레딧의사용자들은필터를우회하는데사용된프롬프트와함께"탈옥"방법을정기적으로공유한다.플랫폼의알고리즘은사망한유명인들의수많은클립을포함하여자체정책을위반할가능성이있는영상을계속해서제공하고있다.​국제적반발이심화되다일본콘텐츠해외배포협회는10월27일에스튜디오지브리,반다이남코,스퀘어에닉스를대표하여OpenAI에게회원사의콘텐츠를허가없이학습에사용하는것을중단할것을공식적으로요청했습니다.일본정부또한OpenAI에게"저작권침해가될수있는행위"를삼가달라고요청했습니다.​CODA는서신에서"일본의저작권제도에서는저작물사용에대해원칙적으로사전허가가필요하며,사후이의를통해저작권침해책임을회피할수있는제도는없다"고밝혔습니다.​소비자감시단체인PublicCitizen은11월11일자서신에서Sora2가안전과민주주의에대해"무모한무시"를보여주고있다고경고했습니다.이단체는연구진이출시24시간내에비인가방지장치를우회했으며,"의무적"워터마크도무료온라인도구로4분이내에제거될수있다고지적했습니다.​OpenAICEO샘알트먼은"통과되어서는안되는생성물이몇몇간극에서나타날수있다"고인정하며,이문제의어려움을언급했습니다.회사측은"스튜디오및권리보유자들과직접적으로소통하고있다"고밝혔으나,근본적인문제—Sora2의학습데이터에이미포함된저작권보호콘텐츠를비용이많이드는재학습없이제거할수없는점—에대해서는구체적인해결방안을제시하지않았습니다.
47 조회
0 추천
11.13 등록
(퍼플렉시티가정리한기사)NVIDIA는화요일에발표된MLPerfTrainingv5.1벤치마크에서완전한석권을달성하여7개테스트모두에서가장빠른훈련시간을기록했으며,모든카테고리에서결과를제출한유일한플랫폼이되었습니다.이회사는5,120개의BlackwellGPU를사용하여Meta의Llama3.1405B모델을단10분만에훈련시켜새로운업계기록을세웠으며,이는이전최고기록보다2.7배빠른속도입니다.​11월12일MLCommons에서발표한이번결과는MLPerfTraining역사상어떤회사도4비트FP4정밀도를사용한첫번째사례로,이획기적인기술은동일한수의GPU에서이전세대Hopper아키텍처보다최대4배의성능을제공했습니다.NVIDIA의독점NVFP4포맷은엄격한정확도요구사항을유지하면서8비트FP8보다3배빠른속도로계산을가능하게합니다.​블랙웰울트라데뷔하다BlackwellUltra기반GB300NVL72랙규모시스템이이번라운드에서MLPerfTraining에처음등장했으며,표준BlackwellGPU보다1.5배높은NVFP4처리량과어텐션레이어를위한2배의softmax가속을제공하는향상된TensorCore를특징으로합니다.이시스템은GPU당279GB의HBM3e메모리를탑재하고NVIDIAQuantum-X800InfiniBand를통해업계최초의800Gb/s네트워킹플랫폼으로연결됩니다.​NVIDIA는또한새로도입된두가지벤치마크인Llama3.18B와FLUX.1이미지생성에서성능기록을세웠습니다.이회사는512개의BlackwellUltraGPU를사용하여5.2분만에Llama3.18B를학습시켰으며,FLUX.1에대한결과를제출한유일한플랫폼으로서1,152개의BlackwellGPU로12.5분의학습시간을달성했습니다.​다양한경쟁분야MLPerfTrainingv5.1라운드에는20개조직이참여하여12개의서로다른하드웨어가속기를탑재한65개의고유한시스템을제출했습니다.AMD는새로운InstinctMI355X및MI350XGPU를선보였으며,AMD는단일노드접근성을위해설계된새로운Llama3.18B벤치마크개발을주도했습니다.AMD에따르면,MI355XGPU성능은Llama3.18B테스트에서NVIDIA의Blackwell플랫폼대비5-6%이내의차이를보였습니다.​전체제출물의거의절반이멀티노드구성이었으며,이는전년도라운드대비86%증가한수치입니다.Datacrunch,UniversityofFlorida,Wiwynn이처음으로참여했으며,Dell,HPE,Lenovo와같은기존참가자들도함께했습니다.​벤치마크업데이트에서는레거시테스트를최신AI워크로드로대체했습니다:언어모델의경우BERT를Llama3.18B로,이미지생성의경우StableDiffusionv2를FLUX.1로교체했습니다.
40 조회
0 추천
11.13 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입