Loading...

AI 뉴스

일본 RIKEN, Blackwell GPU 슈퍼컴퓨터 2대 출시 예정

페이지 정보

작성자 xtalfi
작성일 2025.11.18 17:46
968 조회
0 추천
0 비추천

본문

10c56ec198439207b58e756b7dfcc073_1763455443_1809.png
(퍼플렉시티가 정리한 기사)


일본의 선도적인 연구기관인 RIKEN은 SC25 컨퍼런스에서 NVIDIA Blackwell GPU로 구동되는 두 대의 새로운 슈퍼컴퓨터를 배치할 것이며, 2026년 봄부터 운영을 시작할 예정이라고 발표했습니다. 이 시스템들은 일본의 자주적 AI 전략을 지원하고, 과학 컴퓨팅 및 양자 연구 분야에서 일본을 선도국가로 자리매김하게 할 것입니다.


듀얼 시스템용 2,140개의 Blackwell GPU

첫 번째 시스템은 RIKEN의 과학을 위한 AI 이니셔티브의 일환으로 GB200 NVL4 플랫폼을 사용하는 1,600개의 NVIDIA Blackwell GPU를 탑재하며, NVIDIA Quantum-X800 InfiniBand 네트워킹으로 상호 연결됩니다. NVIDIA에 따르면, 이 시스템은 생명과학, 재료과학, 기후 및 날씨 예측, 제조 및 실험실 자동화 분야의 연구를 발전시킬 것입니다.

양자 컴퓨팅 전용인 두 번째 시스템은 동일한 플랫폼과 네트워킹 기술을 갖춘 540개의 Blackwell GPU를 배치할 예정입니다. 양자 중심 슈퍼컴퓨터는 양자 알고리즘, 하이브리드 시뮬레이션 및 양자-고전 컴퓨팅 방법의 연구를 가속화하는 것을 목표로 합니다.

RIKEN 계산과학센터의 소장인 마쓰오카 사토시(Satoshi Matsuoka)는 “NVIDIA GB200 NVL4 가속 컴퓨팅 플랫폼을 차세대 슈퍼컴퓨터와 통합하는 것은 일본의 과학 인프라에 있어 중추적인 발전을 의미합니다”라고 말했습니다. “우리의 파트너십은 AI, 양자 및 고성능 컴퓨팅을 위한 세계 최고 수준의 통합 플랫폼 중 하나를 구축하여, 연구자들이 기초과학부터 비즈니스와 사회를 위한 산업 응용에 이르기까지 다양한 분야에서 발견을 실현하고 가속화할 수 있도록 할 것입니다.”


Pathway to FugakuNEXT

두 개의 새로운 시스템은 세계적으로 유명한 Fugaku 슈퍼컴퓨터의 후속 모델로 계획된 FugakuNEXT를 위한 하드웨어, 소프트웨어 및 애플리케이션의 코드 서명 및 개발을 위한 프록시 머신으로 사용될 예정입니다. 8월에 발표된 FugakuNEXT는 RIKEN, Fujitsu 및 NVIDIA 간의 협력 프로젝트로 2030년까지 운영을 목표로 하고 있습니다.

2021년 3월에 전면 운영을 시작한 Fugaku는 2020년과 2021년 TOP500 슈퍼컴퓨터 순위에서 1위를 차지했습니다. 이 시스템은 현재 전 세계적으로 7위를 기록하고 있습니다.

NVIDIA의 하이퍼스케일 및 고성능 컴퓨팅 부문 부사장인 Ian Buck은 “RIKEN은 오랫동안 세계 최고의 과학 기관 중 하나였으며, 오늘날 컴퓨팅의 새로운 시대 최전선에 서 있습니다”라고 말했습니다. “우리는 함께 일본이 세계에서 가장 복잡한 과학 및 산업 과제를 해결하기 위한 혁신을 주도할 주권적 혁신의 기반을 구축하도록 돕고 있습니다.”

NVIDIA는 RIKEN과 협력하여 전통적인 과학 컴퓨팅을 위해 Tensor Core GPU 성능을 활용하는 부동 소수점 에뮬레이션 소프트웨어를 개발하고 있습니다. 이 연구소는 또한 400개 이상의 GPU 가속 라이브러리 및 도구를 제공하는 NVIDIA CUDA-X를 사용할 계획입니다.

댓글 0
전체 1,366 / 34 페이지
앨런 AI 연구소(Ai2)는 훈련 데이터와 가중치까지 완전히 공개하는 대표적인 대형언어모델(LLM)인 '올모(OLMo) 3'의 업데이트 버전 '올모 3.1'을 공개했습니다. 새로 출시된 '올모 3.1 싱크 32B'와 '올모 3.1 인스트럭트 32B'는 강화 학습(RL)을 추가 적용하여 추론, 수학, 지시 이행 능력 등 여러 벤치마크에서 성능이 크게 향상되었습니다.특히, '싱크 32B'는 고급 추론과 연구 목적에 최적화되었으며, '인스트럭트 32B'는 대화형 AI와 툴 기반 워크플로에 맞춰 현재까지 공개된 완전 오픈 소스 32B급 지시형 모델 중 가장 강력한 성능을 자랑합니다. Ai2는 이를 새로운 모델 출시가 아닌 '체크포인트 추가' 개념으로 소개하며, 개발자들이 모델의 학습 과정을 완벽하게 통제하고 자체 데이터를 추가해 재학습할 수 있도록 지원합니다.Ai2는 올모 시리즈가 개방성과 성능을 동시에 발전시킬 수 있음을 보여주며, 학습 데이터, 코드, 결정에 대한 엔드투엔드 투명성을 유지하면서 기능을 지속적으로 개선했다고 강조했습니다. 이 새로운 '체크포인트' 모델들은 Ai2 플레이그라운드와 허깅페이스를 통해 제공되어 개발자 및 연구기관의 활용을 넓힐 예정입니다.* 앨런 인공지능 연구소(Ai2)는 마이크로소프트 공동 창립자였던 고(故) 폴 앨런이 공익을 위해 고도(하이-임팩트) AI 연구 및 엔지니어링을 수행할 목적으로 2014년에 설립한 비영리 연구소입니다. 이 연구소는 텍스트를 읽고 추론하여 지식을 입증하는 AI 시스템 개발을 목표로 시작했으며, 현재도 개방성과 투명성을 중시하며 AI 분야의 발전을 주도하고 있습니다.
494 조회
0 추천
2025.12.14 등록
오픈AI의 최신 AI 모델인 'GPT-5.2'는 초기 테스트에서 전문가와 기업용 업무 처리, 복잡한 문제 해결 능력 등 전문 작업 분야에서 역대 최고라는 평가를 받았습니다. 하이퍼라이트AI CEO 등 전문가들은 이 모델이 상당한 사고 시간을 요구하는 어려운 작업을 완벽하게 수행하며 '세계 최고의 모델'이라고 극찬했습니다.이 모델은 사고력과 문제 해결 능력이 눈에 띄게 향상되어 복잡한 코드 구조를 한 번에 생성하고, 몇 시간 동안 작업을 지속하는 등 개발자와 기업에 매우 중요한 의미를 갖습니다. 박스(Box) CEO 등은 GPT-5.2가 금융 및 생명 과학 분야의 실제 업무 지식을 테스트하는 확장 추론에서 기존 모델보다 훨씬 빠르게 작업을 수행했다고 밝혔습니다.반면, 일반 사용자들은 일상적인 글쓰기나 순수 채팅 기능에서 체감할 만한 개선점을 느끼기 어렵다는 엇갈린 평가가 나왔고, 일부는 딱딱한 어조나 속도 저하를 단점으로 지적했습니다. 코드명 '갈릭'으로 알려진 이 모델은 코딩과 B2B에 최적화된 도구로 보이며, 일반 사용자가 느낄 만한 성능 향상은 내년 1월 출시 모델을 기다려야 할 것으로 분석됩니다.
484 조회
0 추천
2025.12.14 등록
저작권 소송에서 Meta를 고소한 작가들은 목요일 연방 판사에게 회사가 Llama AI 모델을 훈련시키기 위해 BitTorrent를 통해 불법 복제된 책을 다운로드하고 파일 공유를 통해 저작권이 있는 자료를 다른 사람들에게 적극적으로 재배포했다는 새로운 혐의로 소장을 수정해 줄 것을 요청했습니다.코미디언 Sarah Silverman과 작가 Richard Kadrey 및 Christopher Golden을 포함한 원고들은 Meta가 저작권이 있는 저작물을 어떻게 입수했는지에 대해 처음에는 “알 수 없었다”고 말했지만, 회사가 최근 증거 개시 과정에서 토렌트 활동에 대한 “결정적인 증거”를 제출했으며, 여기에는 Meta가 토렌트 사이트에서 그들의 저작물이 포함된 불법 복제 파일을 “시딩”했다는 증언이 포함되어 있습니다.새로운 주장은 Vince Chhabria 판사가 6월에 AI 모델을 훈련시키기 위해 저작권이 있는 책을 사용하는 것은 공정 이용에 해당한다고 판결했지만 배포에 대한 문제는 여지를 남긴 이후, BitTorrent 시딩을 통한 Meta의 불법 복제 자료 재배포가 훈련을 넘어선 저작권 침해에 해당하는지 여부를 중심으로 합니다.
488 조회
0 추천
2025.12.14 등록
전 OpenAI CTO Mira Murati가 설립한 Thinking Machines Lab은 12월 12일 Tinker AI 파인튜닝 서비스를 정식 출시하여 대기자 명단을 제거하고, 1조 파라미터 규모의 Kimi K2 Thinking 추론 모델과 Qwen3-VL 모델을 통한 비전 기능 지원을 추가했습니다.샌프란시스코 기반 스타트업은 6월에 Nvidia, AMD, ServiceNow를 포함한 투자자들로부터 100억 달러 기업가치로 20억 달러를 유치했으며, 11월에는 Meta에서 PyTorch 공동 창시자 Soumith Chintala를 영입했습니다.Tinker는 Low-Rank Adaptation을 사용하여 기존 컴퓨팅 리소스의 일부만으로 대규모 언어 모델을 파인튜닝하며, 현재 개발자 통합을 용이하게 하기 위해 OpenAI API 호환성을 제공하고 있습니다. 회사는 500억 달러 기업가치로 50억 달러의 신규 자금 조달을 모색하고 있는 것으로 알려졌습니다.
496 조회
0 추천
2025.12.14 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입