AI 뉴스

마이크론, 경쟁사들이 AI 칩을 발전시키는 가운데 HBM4 지연에 직면

페이지 정보

작성자 xtalfi
작성일 2025.11.01 14:43
1,717 조회
0 추천
0 비추천

본문

430195d5-9ec3-44c6-9494-9b6cee0dd4af.jpg

(퍼플렉시티가 정리한 기사)


Micron Technology는 차세대 HBM4 메모리 칩 개발에서 상당한 난관에 직면하고 있으며, 최근 보고서에 따르면 동사의 제품이 NVIDIA의 까다로운 성능 및 전력 소비 기준을 충족하지 못하고 있는 것으로 나타났습니다. 이러한 차질로 인해 Micron의 HBM4 아키텍처를 완전히 재설계해야 할 수 있으며, 이는 대량 생산을 최대 9개월 지연시켜 일정을 2026년까지 미룰 가능성이 있습니다.​

이러한 문제는 경쟁사인 SK하이닉스와 삼성이 자사의 HBM4 제품을 빠르게 발전시키고 있는 AI 메모리 시장의 중요한 시점에 발생했습니다. 업계 소식통들은 Micron이 계속해서 뒤처질 경우, 주요 NVIDIA 조달 기회를 놓칠 위험이 있으며 향후 AI 데이터 센터 주문에서 배제될 수 있다고 시사합니다.


경쟁사들이 중요한 AI 메모리 경쟁에서 앞서 나가다

Micron이 기술적 장애물과 씨름하는 동안, 한국의 경쟁사들은 상당한 진전을 이루고 있습니다. SK Hynix는 9월에 HBM4 칩에 대한 내부 인증 프로세스를 완료했으며 고객을 위한 생산 시스템을 구축했습니다. 현재 전 세계 HBM 시장의 60% 이상을 점유하고 있는 이 회사는 2025년 4분기에 HBM4 출하를 시작할 계획이라고 발표했습니다.​

의 DRAM 마케팅 책임자인 김규현은 "내년 DRAM, NAND, HBM 생산 능력이 모두 매진되었습니다"라고 말하며, 고객들이 이미 2026년까지 생산 슬롯을 예약했음을 확인했습니다. SK Hynix의 HBM4는 NVIDIA의 검증 프로세스를 성공적으로 통과했으며 칩 거대 기업의 핀당 10Gbps 성능 요구사항을 충족합니다.​

삼성 역시 HBM4 시장에서 공격적으로 자리매김하고 있습니다. 이 회사는 10월 서울에서 열린 반도체 전시회에서 HBM4 모듈을 처음으로 공개 전시하며 다가오는 경쟁에 대한 준비 태세를 보여주었습니다. 삼성은 NVIDIA에 HBM4 칩을 공급하기 위해 "긴밀한 논의" 중이라고 확인했으며, 2026년에 새로운 칩을 출시할 계획입니다. 한국의 거대 기업은 최근 실적 공시에 따르면 이미 2026년 HBM4 공급 계획을 매진시켰습니다.


시장 영향과 경쟁 압력

HBM4 개발 과제는 AI 메모리 부문에서의 치열한 경쟁을 부각시키고 있으며, 고대역폭 메모리는 고급 AI 가속기를 구동하는 데 필수적인 요소가 되었습니다. HBM4는 현재 HBM3 칩 대비 약 두 배의 대역폭을 제공하며, 메모리 스택당 2 TB/s를 목표로 하는 사양을 갖추고 있어 차세대 AI 워크로드에 필수적입니다.​

시장 조사 기관인 TrendForce는 SK하이닉스가 2025년 HBM 시장 점유율 59%로 선두 위치를 유지할 것으로 전망하고 있으며, 삼성과 마이크론은 각각 약 20%를 차지할 것으로 예상됩니다. 그러나 마이크론의 잠재적 지연은 이러한 균형에 영향을 미칠 수 있으며, 특히 NVIDIA가 공급업체들에게 다가오는 Rubin GPU 플랫폼용 HBM4 칩의 납품을 가속화할 것을 요구하면서 더욱 그렇습니다.​

어려움에도 불구하고 마이크론은 일부 기술적 돌파구를 달성했으며, 원시 주파수 증가보다는 설계 최적화를 통해 HBM4에서 핀당 11 Gbps 속도에 도달한 것으로 알려졌습니다. 또한 이 회사는 2026년까지 HBM 생산량을 완판했지만, 이는 차세대 HBM4 제품이 아닌 현세대 HBM3E 칩으로 달성한 것입니다. 애널리스트들은 마이크론이 2026년에 경쟁력 있는 HBM4 생산에 재진입할 수 있는 능력이 성공적인 재설계와 생산 수율 개선에 크게 좌우될 것이라고 지적합니다.

댓글 0
전체 1,366 / 49 페이지
• Nvidia는 NeurIPS 컨퍼런스에서 Alpamayo-R1을 공개했으며, 이는 사고 연쇄(chain-of-thought) AI 추론과 경로 계획을 통합하여 자율주행 자동차가 실시간으로 자신의 결정을 설명할 수 있도록 하는 세계 최초의 개방형 산업 규모 추론 비전 언어 행동 모델로 설명되었습니다.[quantumzeitgeist +1]• 이 모델은 센서 데이터를 자연어 설명으로 변환하고 주행 결정을 단계별로 추론함으로써 자율주행 차량 소프트웨어의 “블랙박스” 문제를 해결하며, 강화 학습 후처리 후 추론 품질이 45% 향상되었습니다.[quantumzeitgeist +1]• Nvidia는 비상업적 연구 용도로 GitHub와 Hugging Face에 이 모델을 공개했으며, 개발자들이 자율주행 차량 및 로봇공학을 위한 물리적 AI 모델을 맞춤화할 수 있도록 Cosmos Cookbook과 AlpaSim 평가 프레임워크도 함께 제공했습니다.[quantumzeitgeist +1]
969 조회
0 추천
2025.12.02 등록
Runway는 월요일에 Gen 4.5를 공개했으며, 이는 독립 벤치마킹 업체 Artificial Analysis가 관리하는 Video Arena 리더보드에서 1위를 차지한 새로운 AI 비디오 생성 모델로, 2위인 Google의 Veo 3 모델과 7위인 OpenAI의 Sora 2 Pro를 능가했다.PitchBook에 따르면 35억 5천만 달러의 가치를 평가받은 이 100명 규모의 스타트업은 블라인드 테스트를 사용하며, 투표자들이 어느 회사가 제작했는지 모르는 상태에서 비디오 결과물을 비교하여 순수한 사용자 선호도를 기반으로 편향되지 않은 순위를 보장한다.CEO Cristóbal Valenzuela는 CNBC에 Runway가 “100명의 팀으로 수조 달러 규모의 기업들을 능가하는 데 성공했다”고 말했으며, “David”라는 코드명의 이 모델은 주말까지 회사의 플랫폼, API 및 파트너 통합을 통해 모든 고객에게 제공될 예정이다.
949 조회
0 추천
2025.12.02 등록
Google은 12월 8일 오전 10시(태평양 표준시)에 30분간 라이브스트림을 개최하여 확장 현실 플랫폼인 Android XR의 업데이트를 공개할 예정이며, Gemini AI 통합이 적용된 헤드셋 및 스마트 안경의 새로운 기능에 중점을 둘 것입니다.이 행사는 10월에 출시된 Samsung의 Galaxy XR 헤드셋 출시에 이어 진행되는 것으로, 이는 1,799달러 가격의 첫 번째 Android XR 기기로서 4K 디스플레이와 손동작, 시선 추적, 음성 명령을 통한 AI 기반 상호작용을 특징으로 합니다.티저 자료에 따르면 Google은 2026년 출시 예정인 Samsung의 차기 스마트 안경을 선보일 가능성이 있으며, 이는 Apple의 부진한 Vision Pro 및 Meta의 보다 성공적인 Ray-Ban 스마트 안경과 경쟁하기 위한 것입니다.
941 조회
0 추천
2025.12.02 등록
• 한국 정부는 엔비디아로부터 약 1만3천 개의 GPU를 공급받아 국내 반입을 완료했으며, 이는 지난 5월 추경예산에서 확보한 1조4600억 원으로 집행됐다고 과학기술정보통신부가 1일 밝혔다.• 도입된 GPU에는 최신 B200 모델과 이전 세대 제품이 포함되어 있으며, 정부는 내년 초부터 대학·연구소·스타트업 등에 우선 배정하고 공공 분야에도 투입할 계획이다.• 이는 젠슨 황 CEO가 지난 10월 방한 시 약속한 총 26만여 장 규모(정부 5만 개, 삼성·SK·현대차 각 최대 5만 개, 네이버클라우드 6만 개)의 GPU 공급 계획 중 첫 물량이다.
978 조회
0 추천
2025.12.02 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입