마이크론, 경쟁사들이 AI 칩을 발전시키는 가운데 HBM4 지연에 직면
페이지 정보
본문

(퍼플렉시티가 정리한 기사)
Micron Technology는 차세대 HBM4 메모리 칩 개발에서 상당한 난관에 직면하고 있으며, 최근 보고서에 따르면 동사의 제품이 NVIDIA의 까다로운 성능 및 전력 소비 기준을 충족하지 못하고 있는 것으로 나타났습니다. 이러한 차질로 인해 Micron의 HBM4 아키텍처를 완전히 재설계해야 할 수 있으며, 이는 대량 생산을 최대 9개월 지연시켜 일정을 2026년까지 미룰 가능성이 있습니다.
이러한 문제는 경쟁사인 SK하이닉스와 삼성이 자사의 HBM4 제품을 빠르게 발전시키고 있는 AI 메모리 시장의 중요한 시점에 발생했습니다. 업계 소식통들은 Micron이 계속해서 뒤처질 경우, 주요 NVIDIA 조달 기회를 놓칠 위험이 있으며 향후 AI 데이터 센터 주문에서 배제될 수 있다고 시사합니다.
경쟁사들이 중요한 AI 메모리 경쟁에서 앞서 나가다
Micron이 기술적 장애물과 씨름하는 동안, 한국의 경쟁사들은 상당한 진전을 이루고 있습니다. SK Hynix는 9월에 HBM4 칩에 대한 내부 인증 프로세스를 완료했으며 고객을 위한 생산 시스템을 구축했습니다. 현재 전 세계 HBM 시장의 60% 이상을 점유하고 있는 이 회사는 2025년 4분기에 HBM4 출하를 시작할 계획이라고 발표했습니다.
의 DRAM 마케팅 책임자인 김규현은 "내년 DRAM, NAND, HBM 생산 능력이 모두 매진되었습니다"라고 말하며, 고객들이 이미 2026년까지 생산 슬롯을 예약했음을 확인했습니다. SK Hynix의 HBM4는 NVIDIA의 검증 프로세스를 성공적으로 통과했으며 칩 거대 기업의 핀당 10Gbps 성능 요구사항을 충족합니다.
삼성 역시 HBM4 시장에서 공격적으로 자리매김하고 있습니다. 이 회사는 10월 서울에서 열린 반도체 전시회에서 HBM4 모듈을 처음으로 공개 전시하며 다가오는 경쟁에 대한 준비 태세를 보여주었습니다. 삼성은 NVIDIA에 HBM4 칩을 공급하기 위해 "긴밀한 논의" 중이라고 확인했으며, 2026년에 새로운 칩을 출시할 계획입니다. 한국의 거대 기업은 최근 실적 공시에 따르면 이미 2026년 HBM4 공급 계획을 매진시켰습니다.
시장 영향과 경쟁 압력
HBM4 개발 과제는 AI 메모리 부문에서의 치열한 경쟁을 부각시키고 있으며, 고대역폭 메모리는 고급 AI 가속기를 구동하는 데 필수적인 요소가 되었습니다. HBM4는 현재 HBM3 칩 대비 약 두 배의 대역폭을 제공하며, 메모리 스택당 2 TB/s를 목표로 하는 사양을 갖추고 있어 차세대 AI 워크로드에 필수적입니다.
시장 조사 기관인 TrendForce는 SK하이닉스가 2025년 HBM 시장 점유율 59%로 선두 위치를 유지할 것으로 전망하고 있으며, 삼성과 마이크론은 각각 약 20%를 차지할 것으로 예상됩니다. 그러나 마이크론의 잠재적 지연은 이러한 균형에 영향을 미칠 수 있으며, 특히 NVIDIA가 공급업체들에게 다가오는 Rubin GPU 플랫폼용 HBM4 칩의 납품을 가속화할 것을 요구하면서 더욱 그렇습니다.
어려움에도 불구하고 마이크론은 일부 기술적 돌파구를 달성했으며, 원시 주파수 증가보다는 설계 최적화를 통해 HBM4에서 핀당 11 Gbps 속도에 도달한 것으로 알려졌습니다. 또한 이 회사는 2026년까지 HBM 생산량을 완판했지만, 이는 차세대 HBM4 제품이 아닌 현세대 HBM3E 칩으로 달성한 것입니다. 애널리스트들은 마이크론이 2026년에 경쟁력 있는 HBM4 생산에 재진입할 수 있는 능력이 성공적인 재설계와 생산 수율 개선에 크게 좌우될 것이라고 지적합니다.