Loading...

AI 뉴스

AMD, 엔비디아의 AI 지배력에 도전하기 위해 오픈소스 ROCm 추진

페이지 정보

작성자 xtalfi
작성일 2025.11.28 14:57
511 조회
0 추천
0 비추천

본문

data-center-3.jpg

AMD는 오픈소스 ROCm 플랫폼을 Nvidia의 독점적 CUDA 생태계에 대한 협력적 대안으로 포지셔닝함으로써 AI 컴퓨팅 분야에서 Nvidia의 지배력에 대한 도전을 강화하고 있으며, 특히 아시아-태평양 지역의 개발자와 데이터 센터를 대상으로 벤더 종속 없이 유연성을 추구하는 고객들을 타겟으로 하고 있습니다.

이 칩 제조업체는 2025년 9월 ROCm 7을 출시하면서 Instinct MI350 및 MI325X GPU에 대한 기본 지원, 더 빠른 AI 추론을 위한 FP4 및 FP8를 포함한 저정밀도 형식, 그리고 확장된 Windows 및 소비자용 GPU 호환성을 제공했습니다. 이 플랫폼은 PyTorch 및 vLLM과 같은 인기 있는 프레임워크와 처음부터 통합되어 개발자들이 소프트웨어 스택을 재구축하지 않고도 AMD 하드웨어에서 AI 워크로드를 배포할 수 있게 합니다.​

AMD의 AI 소프트웨어 부사장인 Anush Elangovan은 이번 주 Computer Weekly와의 인터뷰에서 "우리는 폐쇄형 소스를 구축할 수도 있지만, 오픈 생태계의 속도를 얻을 수 없을 것입니다"라고 말했습니다. "대신, 우리는 업계를 발전시키기 위해 모든 사람의 역량을 활용하고자 합니다. 이는 모두가 협력하고 매우 빠르게 움직이는 Linux 커널과 같습니다."​


ROCm, Nvidia가 새로운 경쟁자들과 맞서면서 입지를 다지다

AMD의 시점은 여러 방면에서 Nvidia에 대한 압력이 커지는 것과 맞물려 있습니다. 지난주에 Meta Platforms가 Google의 텐서 프로세싱 유닛(TPU)을 사용하기 위해 수십억 달러 규모의 거래를 협상 중이라는 보도가 나오면서 Nvidia 주가는 하락하고 Alphabet 주가는 상승하는 등, AI 칩 시장의 경쟁에 대한 투자자들의 우려가 나타났습니다. Nvidia는 11월 25일 자사의 GPU가 Google의 AI 칩보다 “한 세대 앞서 있다”고 주장하며 대응했습니다.​

이와 같은 경쟁 구도는 주요 IT 기업들이 하드웨어 다각화로 나아가도록 만들고 있습니다. Red Hat은 11월 23일 Red Hat Enterprise Linux에서 AMD, Intel, Nvidia의 AI 가속기 드라이버를 간편하게 접근할 수 있도록 streamlined 경험을 발표하며, 다중 공급업체 지원에 대한 기업의 수요를 반영하고 있습니다. 올해 초 Red Hat은 AMD GPU Operator를 OpenShift AI 플랫폼에 통합했으며, Intel 및 Nvidia와의 유사한 협력 관계에도 합류했습니다.​


소프트웨어 생태계가 데이터 센터를 넘어 확장되다

AMD의 "ROCm everywhere" 이니셔티브는 소비자용 노트북부터 슈퍼컴퓨터까지 일관된 개발자 경험을 제공하는 것을 목표로 합니다. Elangovan은 회사의 칩렛 아키텍처가 경쟁력 있는 성능을 유지하면서도 값비싼 액체 냉각 대신 공랭식 인프라를 가능하게 한다고 언급했습니다.​

최근 검증 사례로 Luma Labs가 있으며, Elangovan에 따르면 이들의 Ray3 비디오 생성 모델은 "AMD 플랫폼에서 완전히 훈련되고 서비스되고 있습니다". 11월 18일, Luma는 AMD가 주요 참여자로 참여한 9억 달러 규모의 시리즈 C 펀딩 라운드를 발표하며 파트너십을 심화했습니다.​

Zyphra 또한 11월 14일 자사의 ZAYA1 AI 모델 테스트를 완료했으며, 이는 AMD Instinct MI300X GPU와 ROCm에서 전적으로 훈련된 최초의 대규모 Mixture-of-Experts 파운데이션 모델로, 주요 AI 연구소의 모델들과 경쟁력 있는 성능을 입증했습니다.

댓글 0
전체 1,366 / 66 페이지
조지타운 대학교의 컴퓨터 과학자 칼 뉴포트는 2025년 11월 24일자 팟캐스트에서, 생물학자 브렛 와인스타인이 조 로건 팟캐스트에서 언급한 것과 같은 AI 의식에 대한 대중적 주장들이 대형 언어 모델의 작동 방식을 근본적으로 오해하고 있으며, 인상적인 언어 처리 능력을 의식, 의도, 조작과 같은 이 시스템들이 가질 수 없는 특성과 혼동하고 있다고 주장합니다.뉴포트는 대형 언어 모델(LLM)이 훈련이 끝나면 분산된 GPU에서 순차적인 행렬 곱셈을 통해 처리되는 고정된 숫자표로 작동한다고 설명합니다. 이들은 학습하거나, 의도를 형성하거나, 실험을 수행하거나, 이해를 갱신하지 못하며, 인간의 의식에 필요한 역동적이고 다중 시스템적 구조와는 다르다고 말합니다.“AI의 대부”로 불리는 제프리 힌턴도 와인스타인과 비슷하게 들리는 경고를 한 적이 있지만, 뉴포트는 힌턴이 아직 개발되지 않은 가상의 미래 AI 시스템에 대해 우려하고 있는 반면, 2025년이 “AI 에이전트의 해”가 될 것이라는 예상이 실패한 주요 원인은 언어 모델이 신뢰할 만한 자율적 운영에 필요한 세계 모델링, 계획, 추론 능력이 부족하기 때문이라고 명확하게 설명합니다.
593 조회
0 추천
2025.11.24 등록
일본은 최소 120억 달러를 스타트업 **라피더스(Rapidus)**에 투자하여 우유 농장과 스키 리조트로 유명한 섬 홋카이도를 최첨단 반도체 제조 허브인 “홋카이도 밸리“로 탈바꿈시키려 하고 있습니다. 이를 통해 국가의 반도체 산업을 부흥시키고, 전 세계 6천억 달러 규모의 시장에서 경쟁력을 갖추고자 하는 목표를 가지고 있습니다.라피더스는 IBM과의 협력을 통해 2나노미터 트랜지스터 시제품 생산에 성공하여, 이 능력을 가진 TSMC와 삼성과 어깨를 나란히 하게 되었습니다. 하지만, 분석가들은 라피더스가 제조 경험 부족과 318억 달러에 이르는 자금 격차를 고려할 때 2027년까지 양산에 성공할 수 있을지에 대해 의문을 제기하고 있습니다.일본의 반도체 시장 점유율은 1980년대 50% 이상에서 오늘날 약 **10%**로 급감했는데, 이는 미일 무역 갈등의 영향이 컸습니다. 이제 일본은 2025년까지 전 세계 7천억 달러 매출이 예상되는 반도체 산업에서 입지를 되찾기 위해 4만 명에 달하는 반도체 엔지니어 부족 사태에 직면해 있습니다.[
583 조회
0 추천
2025.11.24 등록
중국의 선도적인 메모리 칩 제조업체인 ChangXin Memory Technologies(CXMT)는 일요일 베이징에서 열린 중국 국제 반도체 박람회에서 새로운 세대의 DDR5 DRAM 제품을 공개하며, 고성능 AI 메모리 시장에서 삼성전자, SK하이닉스, 마이크론 테크놀로지에 직접적인 도전장을 내밀었다.새로운 DDR5 제품은 초당 최대 8,000메가비트의 속도와 최대 24기가비트의 다이 용량을 달성하여, 글로벌 경쟁업체들의 고급 제품 사양과 동등한 수준을 보인다. CXMT의 제품 라인업은 데스크톱용 UDIMM, 노트북용 SODIMM, 데이터 센터용 MRDIMM 등 7가지 주요 모듈 유형을 포함하며, AI 컴퓨팅 서버 및 고성능 애플리케이션을 목표로 한다.공급 부족 속 시장 타이밍TrendForce에 따르면 9월 초 이후 글로벌 DDR5 가격이 307% 급등한 가운데 이번 발표가 나왔다. 삼성은 32기가바이트 DDR5 모듈의 계약 가격을 9월 149달러에서 11월 239달러로 인상했는데, 이는 주요 생산업체들이 AI 애플리케이션용 고대역폭 메모리로 생산능력을 전환하면서 공급이 부족해진 것을 반영한다. 메모리 부족으로 인해 기존 소비자 전자제품 제조업체들은 AI 데이터센터 운영업체들이 프리미엄 가격을 지불하는 가운데 제한된 재고를 확보하기 위해 경쟁해야 하는 상황이다.CXMT는 또한 8,533Mbps에서 10,667Mbps에 이르는 속도의 LPDDR5X 모바일 메모리 시리즈를 선보였다. 이 회사는 5월에 8,533Mbps 및 9,600Mbps 제품의 양산을 시작했으며, 가장 빠른 10,667Mbps 버전은 여전히 고객 샘플링 단계에 있다. 이러한 제품들은 LPDDR5 대비 66%의 속도 향상을 나타내면서 전력 소비는 30% 감소시켰다.중국의 자급자족 추진이번 제품 출시는 미국의 첨단 칩 기술에 대한 수출 규제가 지속되는 가운데 반도체 자립을 달성하기 위한 중국의 강화된 노력을 보여줍니다. Counterpoint Research에 따르면, CXMT의 글로벌 DRAM 시장 점유율은 2025년 7%에서 2027년까지 10%로 증가할 것으로 예상됩니다. 현재 SK하이닉스가 38.7%의 매출 점유율로 DRAM 시장을 선도하고 있으며, 삼성이 32.7%, 마이크론이 22%로 그 뒤를 따르고 있습니다.업계 분석가들은 2026년 글로벌 DRAM 생산량이 20% 이상 증가할 것으로 예상하며, 중국의 국가 지원 반도체 이니셔티브가 계속됨에 따라 CXMT가 예상을 초과할 가능성이 있습니다. 로이터는 CXMT가 빠르면 2026년 1분기에 상하이에서 기업공개를 준비하고 있으며, 최대 3,000억 위안(420억 달러)의 기업가치를 목표로 하고 있다고 보도했습니다.
593 조회
0 추천
2025.11.24 등록
정부가 중앙·지방정부 내부망에서 민간 AI 기술을 안전하게 활용할 수 있는 ‘범정부 AI 공통기반’ 서비스를 24일 공식 개시했다. 과학기술정보통신부와 행정안전부는 이날 정부서울청사에서 기념행사를 열고 서비스 시연과 향후 운영계획을 발표했다.그동안 국내외 민간 AI 서비스는 내부 행정 데이터 유출 위험 등 보안 우려로 인터넷망에서만 사용 가능했고, 정부 업무 전반에 활용하는 데 제약이 있었다. 민간을 중심으로 빠르게 발전하는 AI를 행정에서 적극 활용하지 못해 업무 효율성이 저하된다는 지적이 제기돼 왔다.삼성·네이버 AI 챗봇 내부망에 도입범정부 AI 공통기반은 민간의 다양한 AI 모델, 학습데이터, 그래픽처리장치(GPU) 등을 중앙·지방정부가 공동 활용할 수 있는 서비스다. 공통기반은 공개된 행정문서와 데이터를 AI 모델과 연계해 내부망에서도 활용 가능한 AI 챗서비스 2종을 제공한다. 삼성SDS와 네이버클라우드가 개발한 AI 챗봇 서비스가 부처 내부망에 제공되며, 이를 통해 중앙·지방정부는 중복 개발이나 투자 없이 내부 행정업무부터 공공서비스까지 다양한 AI 기술을 업무 전반에 적용할 수 있게 됐다.12월에는 복잡한 용어와 절차를 몰라도 필요한 서비스와 혜택을 찾아주는 ‘정부24+ 지능검색’ 서비스가 도입될 예정이다. 2026년에는 정부가 추진 중인 ‘독자 AI 파운데이션 모델 프로젝트’를 통해 선정되는 AI 모델도 범정부 AI 공통기반에서 활용할 수 있도록 추가 도입할 계획이다.지능형 업무관리 플랫폼 시범 운영정부는 범정부 AI 공통기반을 활용한 ‘지능형 업무관리 플랫폼’ 시범서비스도 개시한다. 과기정통부, 행안부, 식품의약품안전처를 대상으로 하는 이 플랫폼은 AI를 중심으로 메일, 메신저, 영상회의 등 소통·협업 도구를 유기적으로 연계해 단순·반복적인 업무를 생략하고 업무에 집중할 수 있는 환경을 제공한다. 범정부 AI 공통기반이 활용하는 공통 데이터뿐 아니라 개인·기관이 보유한 내부 행정 문서와 데이터까지 활용해 보다 정확하고 맥락 있는 AI 답변 생성이 가능하다.정부는 서비스 운영과 확산에 앞서 실제 사용자의 의견 수렴, AI 서비스 기능 검증 및 품질 개선을 위해 이달 말부터 2026년 2월 말까지 시범 운영을 진행한다. 시범 운영 이후 2026년 3월부터는 전체 중앙·지방정부가 서비스를 이용할 수 있도록 단계적으로 서비스 대상을 확대할 계획이다.배경훈 과기정통부 장관은 “공공부문에 AI를 적극 활용해 정책 결정을 고도화하고 과학화함으로써 최고의 성과를 낼 수 있기를 기대한다”며 “이번 서비스 개시를 계기로 AI 3대 강국 실현에도 한 걸음 더 나아갈 수 있도록 박차를 가하겠다”고 밝혔다. 윤호중 행안부 장관은 “민간의 최신 AI 기술을 공공부문에 적극 도입·활용해 국민에게 더 좋은 서비스를 제공하는 ‘AI 민주정부’로 도약하겠다”고 말했다.
642 조회
0 추천
2025.11.24 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입