AI 뉴스

일본 RIKEN, Blackwell GPU 슈퍼컴퓨터 2대 출시 예정

페이지 정보

작성자 xtalfi
작성일 2025.11.18 17:46
885 조회
0 추천
0 비추천

본문

10c56ec198439207b58e756b7dfcc073_1763455443_1809.png
(퍼플렉시티가 정리한 기사)


일본의 선도적인 연구기관인 RIKEN은 SC25 컨퍼런스에서 NVIDIA Blackwell GPU로 구동되는 두 대의 새로운 슈퍼컴퓨터를 배치할 것이며, 2026년 봄부터 운영을 시작할 예정이라고 발표했습니다. 이 시스템들은 일본의 자주적 AI 전략을 지원하고, 과학 컴퓨팅 및 양자 연구 분야에서 일본을 선도국가로 자리매김하게 할 것입니다.


듀얼 시스템용 2,140개의 Blackwell GPU

첫 번째 시스템은 RIKEN의 과학을 위한 AI 이니셔티브의 일환으로 GB200 NVL4 플랫폼을 사용하는 1,600개의 NVIDIA Blackwell GPU를 탑재하며, NVIDIA Quantum-X800 InfiniBand 네트워킹으로 상호 연결됩니다. NVIDIA에 따르면, 이 시스템은 생명과학, 재료과학, 기후 및 날씨 예측, 제조 및 실험실 자동화 분야의 연구를 발전시킬 것입니다.

양자 컴퓨팅 전용인 두 번째 시스템은 동일한 플랫폼과 네트워킹 기술을 갖춘 540개의 Blackwell GPU를 배치할 예정입니다. 양자 중심 슈퍼컴퓨터는 양자 알고리즘, 하이브리드 시뮬레이션 및 양자-고전 컴퓨팅 방법의 연구를 가속화하는 것을 목표로 합니다.

RIKEN 계산과학센터의 소장인 마쓰오카 사토시(Satoshi Matsuoka)는 “NVIDIA GB200 NVL4 가속 컴퓨팅 플랫폼을 차세대 슈퍼컴퓨터와 통합하는 것은 일본의 과학 인프라에 있어 중추적인 발전을 의미합니다”라고 말했습니다. “우리의 파트너십은 AI, 양자 및 고성능 컴퓨팅을 위한 세계 최고 수준의 통합 플랫폼 중 하나를 구축하여, 연구자들이 기초과학부터 비즈니스와 사회를 위한 산업 응용에 이르기까지 다양한 분야에서 발견을 실현하고 가속화할 수 있도록 할 것입니다.”


Pathway to FugakuNEXT

두 개의 새로운 시스템은 세계적으로 유명한 Fugaku 슈퍼컴퓨터의 후속 모델로 계획된 FugakuNEXT를 위한 하드웨어, 소프트웨어 및 애플리케이션의 코드 서명 및 개발을 위한 프록시 머신으로 사용될 예정입니다. 8월에 발표된 FugakuNEXT는 RIKEN, Fujitsu 및 NVIDIA 간의 협력 프로젝트로 2030년까지 운영을 목표로 하고 있습니다.

2021년 3월에 전면 운영을 시작한 Fugaku는 2020년과 2021년 TOP500 슈퍼컴퓨터 순위에서 1위를 차지했습니다. 이 시스템은 현재 전 세계적으로 7위를 기록하고 있습니다.

NVIDIA의 하이퍼스케일 및 고성능 컴퓨팅 부문 부사장인 Ian Buck은 “RIKEN은 오랫동안 세계 최고의 과학 기관 중 하나였으며, 오늘날 컴퓨팅의 새로운 시대 최전선에 서 있습니다”라고 말했습니다. “우리는 함께 일본이 세계에서 가장 복잡한 과학 및 산업 과제를 해결하기 위한 혁신을 주도할 주권적 혁신의 기반을 구축하도록 돕고 있습니다.”

NVIDIA는 RIKEN과 협력하여 전통적인 과학 컴퓨팅을 위해 Tensor Core GPU 성능을 활용하는 부동 소수점 에뮬레이션 소프트웨어를 개발하고 있습니다. 이 연구소는 또한 400개 이상의 GPU 가속 라이브러리 및 도구를 제공하는 NVIDIA CUDA-X를 사용할 계획입니다.

댓글 0
전체 1,366 / 57 페이지
자율주행로봇전문기업로보티즈가편의점CU의물류를담당하는BGF로지스와협력하여물류센터에휴머노이드로봇을투입합니다.로보티즈는산업통상자원부가지원하는60억원규모의산업기술혁신사업주관기관으로선정되었으며,이를통해'AI파운데이션모델기반유통공정특화휴머노이드로봇'을개발하고실증할예정입니다.이번프로젝트에는로보티즈외에도고려대학교,광운대학교,한국통합물류협회,BGF로지스등이민간및학계파트너로참여하여유통물류센터에서실제활용가능한로봇기술을고도화할계획입니다.개발될로봇의핵심은최근AI업계의주요트렌드인비전-언어-행동(VLA)모델과피지컬AI기술이적용된다는점입니다.이를통해로봇은시각과언어정보를스스로이해하고판단하여행동할수있게되며,기존자동화설비로는처리가어려웠던분류,피킹,반품등비정형상품의수작업공정을수행할수있을것으로기대됩니다.로보티즈는가상의실험실이아닌실제BGF로지스의물류현장에로봇을투입하여입출고및오발주처리등고난도작업을수행하게할방침입니다.이를통해핵심공정자동화율을80%이상으로높이고,오발주재분류및피킹작업의성공률을90%이상달성하여물류현장의인력부족문제를근본적으로해결하는것을목표로하고있습니다.로보티즈김병수대표는이번협력을통해로봇이인간의작업을대체하고협업하는수준까지기술을발전시켜글로벌물류자동화시장에서경쟁력을확보하겠다는포부를밝혔습니다.
606 조회
0 추천
2025.11.26 등록
MIT 연구진은 대규모 언어 모델의 신뢰성을 훼손할 수 있는 취약점을 발견했으며, GPT-4 및 Llama와 같은 고급 AI 시스템조차도 때때로 진정한 이해보다는 문법적 지름길을 기반으로 질문에 답한다는 사실을 밝혔습니다.신경 정보 처리 시스템 학회(Conference on Neural Information Processing Systems)에서 발표될 예정인 이 연구는 LLM이 특정 문장 패턴을 특정 주제와 잘못 연관시킨 다음, 실제 질문을 이해하는 대신 이러한 학습된 패턴에 의존할 수 있다는 것을 발견했습니다. 이러한 결함은 정확한 응답이 중요한 의료, 금융 및 고객 서비스 분야에 배포된 AI 시스템에 위험을 초래합니다.의미보다 문법MIT 부교수 Marzyeh Ghassemi가 이끄는 연구팀은 Northeastern University와 Meta의 연구원들과 함께, 모델이 훈련 중에 “구문 템플릿”—품사의 패턴—을 특정 도메인과 연결하는 방법을 학습하는 과정을 입증했다.MIT News 기사에 따르면, LLM은 “파리는 어디에 위치해 있나요?“가 지리 질문과 관련된 특정 문법 구조를 따른다는 것을 학습할 수 있다. 문법적으로는 유사하지만 “빠르게 앉다 파리 흐림?“과 같이 말이 되지 않는 질문이 제시될 때, 모델은 질문이 무의미함에도 불구하고 여전히 “프랑스”라고 답할 수 있다.Northeastern University 대학원생이자 MIT 방문 학생인 Chantal Shaib는 “이것은 모델이 질문에 올바르게 답하기 위해 학습하는 간과된 유형의 연관성입니다”라고 말했다. 연구원들은 구문을 동일하게 유지하면서 단어를 동의어, 반의어 또는 무작위 단어로 대체했을 때, LLM이 질문이 완전히 말도 안 되는 경우에도 종종 올바른 답변을 생성한다는 것을 발견했다.보안 및 테스트 시사점이 취약점은 심각한 보안상의 영향을 미칩니다. arXiv에 게시된 연구에 따르면, 공격자들은 모델이 무해한 콘텐츠와 연관시키는 구문 패턴을 사용하여 유해한 요청을 표현함으로써 안전 가드레일을 우회하기 위해 이 현상을 악용할 수 있습니다.연구에 참여한 MIT 대학원생 Vinith Suriyakumar는 “이 연구를 통해 LLM의 보안 취약점을 해결하기 위해 더욱 강력한 방어 체계가 필요하다는 것이 분명해졌습니다”라고 말했습니다. 연구진은 GPT-4와 Llama를 포함한 사전 훈련된 모델에서 이를 테스트했으며, 학습된 행동이 성능을 크게 저하시킨다는 것을 발견했습니다.문제를 해결하기 위해 연구팀은 개발자들이 자신의 모델이 이러한 잘못된 구문-도메인 상관관계에 의존하는지 평가할 수 있는 자동 벤치마킹 절차를 개발했습니다. 연구진은 더 다양한 구문 템플릿을 포함한 증강된 훈련 데이터를 활용한 완화 전략을 탐구할 계획이며, 복잡한 다단계 작업을 위해 설계된 추론 모델에서 이 현상을 연구할 예정입니다.
595 조회
0 추천
2025.11.26 등록
메타 플랫폼스가 구글의 AI 칩 텐서처리장치(TPU)를 2027년부터 데이터센터에 도입하는 방안을 논의 중인 것으로 25일 알려지면서, 엔비디아가 장악해온 AI 반도체 시장에 균열이 생길 조짐을 보이고 있다. 이날 뉴욕증시에서 엔비디아 주가는 2.59% 하락한 177.82달러에 마감한 반면, 알파벳 주가는 1.62% 상승하며 시가총액 4조 달러를 눈앞에 두게 됐다.IT 전문매체 디 인포메이션은 24일 메타가 수십억 달러 규모로 구글의 TPU를 도입하는 방안을 검토 중이라고 보도했다. 메타는 2027년부터 자사 데이터센터에 TPU를 직접 설치하고, 내년에는 구글 클라우드를 통해 TPU를 임대하는 방안도 협의하고 있는 것으로 전해졌다. 현재 메타는 AI 학습과 서비스 운영에 엔비디아 GPU를 대규모로 사용하고 있어, 이 계약이 성사되면 엔비디아의 주요 고객사에 대한 영향력이 축소될 수 있다는 우려가 나온다.구글 제미나이3.0 성공이 TPU 확산 계기구글이 자체 AI 칩에 자신감을 갖게 된 배경에는 최근 공개한 AI 모델 ‘제미나이 3.0 프로’의 성공이 있다. 제미나이 3.0 프로는 LM아레나 리더보드에서 1501점을 기록하며 처음으로 1500점을 돌파했고, ‘인류의 마지막 시험’에서 정답률 37.5%로 챗GPT의 26.5%를 크게 앞섰다. 이 모델은 엔비디아 GPU 없이 100% 자체 TPU 클러스터만으로 학습됐다는 점에서 업계의 주목을 받고 있다.구글은 지난 10월 AI 챗봇 ‘클로드’를 운영하는 앤트로픽과 최대 100만 개의 TPU를 공급하는 수백억 달러 규모의 계약을 체결한 바 있다. 구글 클라우드 경영진은 TPU 도입 확대를 통해 엔비디아 연간 매출의 최대 10%를 확보할 수 있을 것으로 보고 있다고 디 인포메이션은 전했다.엔비디아 즉각 반박, 삼성전자는 수혜 전망엔비디아는 25일 소셜미디어 엑스(X)를 통해 “우리는 업계보다 한 세대 앞서 있으며, 모든 AI 모델을 구동하고 컴퓨팅이 이뤄지는 모든 곳에서 이를 수행하는 것은 우리 플랫폼뿐”이라고 강조했다. 엔비디아는 “TPU 같은 주문형반도체(ASIC)보다 뛰어난 성능과 다용성, 호환성을 제공한다”고 덧붙였다.구글도 성명에서 “맞춤형 TPU와 엔비디아 GPU 모두 수요가 늘어나고 있다”며 “우리는 수년간 그래왔던 대로 양쪽 모두를 지원할 것”이라고 밝혔다.증권가에서는 TPU 생태계 확장의 최대 수혜자로 삼성전자를 꼽고 있다. 김동원 KB증권 연구원은 “구글 TPU 설계와 생산을 담당하는 브로드컴의 경우 삼성전자가 메모리 공급 점유율 1위를 기록하고 있어 향후 구글 TPU 생태계 확장의 최대 수혜가 기대된다”고 분석했다. SK하이닉스도 구글 TPU에 HBM을 공급하고 있어 AI 생태계 다변화로 수혜를 볼 것으로 전망된다.
628 조회
0 추천
2025.11.26 등록
제품 리더 Aakash G와 OpenAI의 Miqdad Jaffer는 모델 품질보다는 컨텍스트 엔지니어링—사용자 기록, 관련 문서, 시스템 제약 조건과 같은 올바른 정보를 AI 모델에 제공하는 관행—이 AI 기능이 훈련이 부족한 인턴처럼 실패하거나 성공하는지를 결정한다고 주장합니다.이 글은 Apollo의 이메일 작성기를 통해 이를 보여주는데, 엔지니어들이 대화 스레드, CRM 노트, 회사 톤, 관계 컨텍스트를 계층화한 후에야 일반적인 출력에서 출시 가능한 품질로 발전했습니다.전체 코드베이스를 인덱싱하고 벡터 데이터베이스를 통해 관련 코드를 검색하여 연간 10억 달러 이상의 수익을 달성한 AI 코딩 어시스턴트 Cursor는 컨텍스트 엔지니어링이 어떻게 경쟁 우위를 만들어내는지를 보여주는 사례로, Google이 이 기능을 내부에서 구축하는 대신 경쟁사인 Windsurf와 24억 달러의 라이선스 계약을 체결하게 만들었습니다.
632 조회
0 추천
2025.11.26 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입