AI 뉴스

AI 기업, AMD 칩으로만 최초의 대규모 모델 훈련 완료

페이지 정보

작성자 xtalfi
작성일 2025.11.25 16:00
530 조회
0 추천
0 비추천

본문

data-center-1.jpg

샌프란시스코에 기반을 둔 AI 연구 기업 자이프라(Zyphra)는 일요일, 자사가 최초로 대규모 Mixture-of-Experts(전문가 혼합) 기반 파운데이션 모델인 ZAYA1을 완전히 AMD 하드웨어에서 학습시키는 데 성공했다고 발표했습니다. 이는 AI 모델 학습 분야에서 NVIDIA의 지배에 도전하는 중요한 이정표로 평가받고 있습니다.

이 모델은 AMD Instinct MI300X GPU 및 AMD Pensando 네트워킹, IBM 클라우드 인프라에서 학습을 진행했으며, NVIDIA의 플랫폼 외에도 최첨단 AI 개발을 충분히 감당할 수 있다는 점을 입증했습니다. 총 83억 개의 파라미터에 활성 파라미터는 7억 6천만 개만 사용했음에도 불구하고, ZAYA1은 Meta의 Llama-3-8B, Alibaba의 Qwen3-4B, Google의 Gemma3-12B 등 더 큰 모델들과 견주거나 더 나은 성능을 추론, 수학, 코딩 벤치마크에서 보였습니다.​


기술적 돌파구가 AMD의 AI 역량을 입증하다

이 성과는 AMD 플랫폼의 여러 기술적 장점을 보여줍니다. MI300X GPU의 192GB 고대역폭 메모리는 비용이 많이 드는 전문가 샤딩이나 텐서 샤딩 없이 효율적인 대규모 학습을 가능하게 하여 개발 프로세스를 간소화했습니다. Zyphra는 AMD 최적화 분산 I/O를 사용하여 10배 이상 빠른 모델 저장 시간을 달성했으며, 이를 통해 학습 신뢰성과 효율성을 향상시켰다고 보고했습니다.​

Zyphra의 CEO인 Krithik Puthalath는 "ZAYA1은 이러한 철학을 반영하며, AMD 플랫폼에서 대규모 학습을 시연한 최초의 회사가 되어 기쁘게 생각합니다"라고 말했습니다. 이번 협력은 10월에 발표된 IBM과 AMD 간의 다년간 계약을 기반으로 하며, Zyphra에 고급 AI 인프라를 제공하기 위한 것입니다.​


AI 하드웨어 시장에 대한 경쟁적 시사점

성공적인 훈련은 현재 NVIDIA가 지배하고 있는 AI 인프라 시장에서 더 많은 점유율을 확보하려는 AMD의 중요한 과제를 해결합니다. AMD는 AI 훈련 GPU 시장에서 NVIDIA에 비해 약 94%의 시장 점유율 열세를 보이고 있지만, 향후 3~5년 동안 데이터 센터 AI 사업이 연평균 60% 이상의 성장률을 기록할 것으로 전망하고 있습니다.​​

Mixture-of-Experts 아키텍처는 OpenAI의 GPT-5, Anthropic의 Claude-4.5, DeepSeek-V3를 포함한 현대 최첨단 AI 시스템의 기본 설계가 되었습니다. 이러한 모델은 동적으로 활성화되는 전문화된 전문가 네트워크를 사용하여 기존의 밀집 아키텍처보다 더 큰 효율성과 확장성을 제공합니다.​

AMD의 수석 부사장 겸 최고 상업 책임자인 Philip Guido는 "이 이정표는 혁신적인 AMD 하드웨어 및 소프트웨어 솔루션이 업계 선두 기업들과 함께 차세대 최첨단 AI 개발을 가능하게 하고 있음을 강조합니다"라고 말했습니다.

댓글 0
전체 1,366 / 65 페이지
조지타운 대학교의 컴퓨터 과학자 칼 뉴포트는 2025년 11월 24일자 팟캐스트에서, 생물학자 브렛 와인스타인이 조 로건 팟캐스트에서 언급한 것과 같은 AI 의식에 대한 대중적 주장들이 대형 언어 모델의 작동 방식을 근본적으로 오해하고 있으며, 인상적인 언어 처리 능력을 의식, 의도, 조작과 같은 이 시스템들이 가질 수 없는 특성과 혼동하고 있다고 주장합니다.뉴포트는 대형 언어 모델(LLM)이 훈련이 끝나면 분산된 GPU에서 순차적인 행렬 곱셈을 통해 처리되는 고정된 숫자표로 작동한다고 설명합니다. 이들은 학습하거나, 의도를 형성하거나, 실험을 수행하거나, 이해를 갱신하지 못하며, 인간의 의식에 필요한 역동적이고 다중 시스템적 구조와는 다르다고 말합니다.“AI의 대부”로 불리는 제프리 힌턴도 와인스타인과 비슷하게 들리는 경고를 한 적이 있지만, 뉴포트는 힌턴이 아직 개발되지 않은 가상의 미래 AI 시스템에 대해 우려하고 있는 반면, 2025년이 “AI 에이전트의 해”가 될 것이라는 예상이 실패한 주요 원인은 언어 모델이 신뢰할 만한 자율적 운영에 필요한 세계 모델링, 계획, 추론 능력이 부족하기 때문이라고 명확하게 설명합니다.
544 조회
0 추천
2025.11.24 등록
일본은 최소 120억 달러를 스타트업 **라피더스(Rapidus)**에 투자하여 우유 농장과 스키 리조트로 유명한 섬 홋카이도를 최첨단 반도체 제조 허브인 “홋카이도 밸리“로 탈바꿈시키려 하고 있습니다. 이를 통해 국가의 반도체 산업을 부흥시키고, 전 세계 6천억 달러 규모의 시장에서 경쟁력을 갖추고자 하는 목표를 가지고 있습니다.라피더스는 IBM과의 협력을 통해 2나노미터 트랜지스터 시제품 생산에 성공하여, 이 능력을 가진 TSMC와 삼성과 어깨를 나란히 하게 되었습니다. 하지만, 분석가들은 라피더스가 제조 경험 부족과 318억 달러에 이르는 자금 격차를 고려할 때 2027년까지 양산에 성공할 수 있을지에 대해 의문을 제기하고 있습니다.일본의 반도체 시장 점유율은 1980년대 50% 이상에서 오늘날 약 **10%**로 급감했는데, 이는 미일 무역 갈등의 영향이 컸습니다. 이제 일본은 2025년까지 전 세계 7천억 달러 매출이 예상되는 반도체 산업에서 입지를 되찾기 위해 4만 명에 달하는 반도체 엔지니어 부족 사태에 직면해 있습니다.[
524 조회
0 추천
2025.11.24 등록
중국의 선도적인 메모리 칩 제조업체인 ChangXin Memory Technologies(CXMT)는 일요일 베이징에서 열린 중국 국제 반도체 박람회에서 새로운 세대의 DDR5 DRAM 제품을 공개하며, 고성능 AI 메모리 시장에서 삼성전자, SK하이닉스, 마이크론 테크놀로지에 직접적인 도전장을 내밀었다.새로운 DDR5 제품은 초당 최대 8,000메가비트의 속도와 최대 24기가비트의 다이 용량을 달성하여, 글로벌 경쟁업체들의 고급 제품 사양과 동등한 수준을 보인다. CXMT의 제품 라인업은 데스크톱용 UDIMM, 노트북용 SODIMM, 데이터 센터용 MRDIMM 등 7가지 주요 모듈 유형을 포함하며, AI 컴퓨팅 서버 및 고성능 애플리케이션을 목표로 한다.공급 부족 속 시장 타이밍TrendForce에 따르면 9월 초 이후 글로벌 DDR5 가격이 307% 급등한 가운데 이번 발표가 나왔다. 삼성은 32기가바이트 DDR5 모듈의 계약 가격을 9월 149달러에서 11월 239달러로 인상했는데, 이는 주요 생산업체들이 AI 애플리케이션용 고대역폭 메모리로 생산능력을 전환하면서 공급이 부족해진 것을 반영한다. 메모리 부족으로 인해 기존 소비자 전자제품 제조업체들은 AI 데이터센터 운영업체들이 프리미엄 가격을 지불하는 가운데 제한된 재고를 확보하기 위해 경쟁해야 하는 상황이다.CXMT는 또한 8,533Mbps에서 10,667Mbps에 이르는 속도의 LPDDR5X 모바일 메모리 시리즈를 선보였다. 이 회사는 5월에 8,533Mbps 및 9,600Mbps 제품의 양산을 시작했으며, 가장 빠른 10,667Mbps 버전은 여전히 고객 샘플링 단계에 있다. 이러한 제품들은 LPDDR5 대비 66%의 속도 향상을 나타내면서 전력 소비는 30% 감소시켰다.중국의 자급자족 추진이번 제품 출시는 미국의 첨단 칩 기술에 대한 수출 규제가 지속되는 가운데 반도체 자립을 달성하기 위한 중국의 강화된 노력을 보여줍니다. Counterpoint Research에 따르면, CXMT의 글로벌 DRAM 시장 점유율은 2025년 7%에서 2027년까지 10%로 증가할 것으로 예상됩니다. 현재 SK하이닉스가 38.7%의 매출 점유율로 DRAM 시장을 선도하고 있으며, 삼성이 32.7%, 마이크론이 22%로 그 뒤를 따르고 있습니다.업계 분석가들은 2026년 글로벌 DRAM 생산량이 20% 이상 증가할 것으로 예상하며, 중국의 국가 지원 반도체 이니셔티브가 계속됨에 따라 CXMT가 예상을 초과할 가능성이 있습니다. 로이터는 CXMT가 빠르면 2026년 1분기에 상하이에서 기업공개를 준비하고 있으며, 최대 3,000억 위안(420억 달러)의 기업가치를 목표로 하고 있다고 보도했습니다.
547 조회
0 추천
2025.11.24 등록
정부가 중앙·지방정부 내부망에서 민간 AI 기술을 안전하게 활용할 수 있는 ‘범정부 AI 공통기반’ 서비스를 24일 공식 개시했다. 과학기술정보통신부와 행정안전부는 이날 정부서울청사에서 기념행사를 열고 서비스 시연과 향후 운영계획을 발표했다.그동안 국내외 민간 AI 서비스는 내부 행정 데이터 유출 위험 등 보안 우려로 인터넷망에서만 사용 가능했고, 정부 업무 전반에 활용하는 데 제약이 있었다. 민간을 중심으로 빠르게 발전하는 AI를 행정에서 적극 활용하지 못해 업무 효율성이 저하된다는 지적이 제기돼 왔다.삼성·네이버 AI 챗봇 내부망에 도입범정부 AI 공통기반은 민간의 다양한 AI 모델, 학습데이터, 그래픽처리장치(GPU) 등을 중앙·지방정부가 공동 활용할 수 있는 서비스다. 공통기반은 공개된 행정문서와 데이터를 AI 모델과 연계해 내부망에서도 활용 가능한 AI 챗서비스 2종을 제공한다. 삼성SDS와 네이버클라우드가 개발한 AI 챗봇 서비스가 부처 내부망에 제공되며, 이를 통해 중앙·지방정부는 중복 개발이나 투자 없이 내부 행정업무부터 공공서비스까지 다양한 AI 기술을 업무 전반에 적용할 수 있게 됐다.12월에는 복잡한 용어와 절차를 몰라도 필요한 서비스와 혜택을 찾아주는 ‘정부24+ 지능검색’ 서비스가 도입될 예정이다. 2026년에는 정부가 추진 중인 ‘독자 AI 파운데이션 모델 프로젝트’를 통해 선정되는 AI 모델도 범정부 AI 공통기반에서 활용할 수 있도록 추가 도입할 계획이다.지능형 업무관리 플랫폼 시범 운영정부는 범정부 AI 공통기반을 활용한 ‘지능형 업무관리 플랫폼’ 시범서비스도 개시한다. 과기정통부, 행안부, 식품의약품안전처를 대상으로 하는 이 플랫폼은 AI를 중심으로 메일, 메신저, 영상회의 등 소통·협업 도구를 유기적으로 연계해 단순·반복적인 업무를 생략하고 업무에 집중할 수 있는 환경을 제공한다. 범정부 AI 공통기반이 활용하는 공통 데이터뿐 아니라 개인·기관이 보유한 내부 행정 문서와 데이터까지 활용해 보다 정확하고 맥락 있는 AI 답변 생성이 가능하다.정부는 서비스 운영과 확산에 앞서 실제 사용자의 의견 수렴, AI 서비스 기능 검증 및 품질 개선을 위해 이달 말부터 2026년 2월 말까지 시범 운영을 진행한다. 시범 운영 이후 2026년 3월부터는 전체 중앙·지방정부가 서비스를 이용할 수 있도록 단계적으로 서비스 대상을 확대할 계획이다.배경훈 과기정통부 장관은 “공공부문에 AI를 적극 활용해 정책 결정을 고도화하고 과학화함으로써 최고의 성과를 낼 수 있기를 기대한다”며 “이번 서비스 개시를 계기로 AI 3대 강국 실현에도 한 걸음 더 나아갈 수 있도록 박차를 가하겠다”고 밝혔다. 윤호중 행안부 장관은 “민간의 최신 AI 기술을 공공부문에 적극 도입·활용해 국민에게 더 좋은 서비스를 제공하는 ‘AI 민주정부’로 도약하겠다”고 말했다.
590 조회
0 추천
2025.11.24 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입