Loading...

AI 뉴스

구글, 메타에 AI 칩 수십억 달러 규모 판매 협상 중

페이지 정보

작성자 xtalfi
작성일 2025.11.25 15:57
494 조회
0 추천
0 비추천

본문

f43ee9a7735c9322763d602776200742_1764053873_988.jpg
 

Alphabet가 Meta Platforms와 Meta의 데이터 센터에 맞춤형 AI 칩을 공급하는 수십억 달러 규모의 계약을 논의 중이라고 The Information이 월요일 저녁 보도했습니다. 이는 구글이 AI 인프라 시장에서 엔비디아의 지배력에 도전하는 전략적 변화를 의미합니다.​

제안된 협약에 따르면 Meta는 2027년부터 자사 시설에 구글의 텐서 프로세싱 유닛(TPU)을 도입할 예정이며, 이르면 내년부터 구글 클라우드에서 TPU 용량을 임대받을 계획입니다. 이번 거래는 구글이 기존에 Google Cloud Platform을 통한 클라우드 임대에만 독점적으로 TPU를 제공해온 오랜 방침에서 크게 벗어난 것이라 할 수 있습니다

이 소식이 발표된 후, 알파벳의 주가는 월요일 장 마감 후 시간외 거래에서 2.1%에서 2.5% 상승한 반면, 엔비디아의 주가는 1.8% 하락했습니다. 주가 변동은 알파벳이 최근 새롭게 출시한 Gemini 3 AI 모델의 긍정적인 반응에 힘입어 정규장 거래에서 이미 6% 이상 급등한 직후에 나타났습니다.​


AI 칩 시장의 전략적 변화

Google은 Meta를 비롯하여 고빈도 거래 회사와 주요 금융 기관 등 다양한 잠재 고객들에게 TPU를 적극적으로 제안하고 있으며, 온프레미스 배포가 조직의 엄격한 보안 및 규정 준수 요구사항을 충족하는 데 도움이 될 수 있다고 강조하고 있습니다. Meta는 현재 자사 애플리케이션 전반에 걸쳐 매일 30억 명 이상의 사용자에게 서비스를 제공하는 대규模 AI 인프라를 구동하기 위해 주로 Nvidia GPU에 의존하고 있습니다.​

Google Cloud 경영진은 TPU 채택 확대를 통해 Nvidia의 연간 매출의 최대 10%를 확보할 수 있으며, 이는 수십억 달러의 잠재적 이익을 의미한다고 믿고 있습니다. 이러한 추진은 AI 컴퓨팅에 대한 글로벌 수요가 계속 급증하고 업계 전반에 걸쳐 공급 제약이 지속되고 있는 상황에서 이루어지고 있습니다.​


심화되는 경쟁

잠재적인 Meta 거래는 맞춤형 AI 칩에 대한 Google의 10년간의 투자를 입증할 것입니다. Google은 최근 7세대 TPU인 Ironwood를 출시했으며, 이는 이전 세대보다 4배의 성능을 제공하고 2018년 첫 번째 Cloud TPU보다 거의 30배 더 에너지 효율적이라고 회사는 주장합니다.​

10월에 Anthropic은 수백억 달러 규모의 거래에서 Google의 TPU 최대 100만 개에 액세스하기로 약속했습니다. 이 AI 스타트업은 TPU의 "가격 대비 성능 및 효율성"을 결정의 주요 요인으로 꼽았습니다. Google은 TPU 설계 및 제조를 위해 Broadcom과 파트너십을 맺고 있으며, Broadcom의 주가는 월요일 Google의 AI 모멘텀에 대한 긍정적인 sentiment을 반영하여 10% 급등했습니다.

댓글 0
전체 1,366 / 65 페이지
조지타운 대학교의 컴퓨터 과학자 칼 뉴포트는 2025년 11월 24일자 팟캐스트에서, 생물학자 브렛 와인스타인이 조 로건 팟캐스트에서 언급한 것과 같은 AI 의식에 대한 대중적 주장들이 대형 언어 모델의 작동 방식을 근본적으로 오해하고 있으며, 인상적인 언어 처리 능력을 의식, 의도, 조작과 같은 이 시스템들이 가질 수 없는 특성과 혼동하고 있다고 주장합니다.뉴포트는 대형 언어 모델(LLM)이 훈련이 끝나면 분산된 GPU에서 순차적인 행렬 곱셈을 통해 처리되는 고정된 숫자표로 작동한다고 설명합니다. 이들은 학습하거나, 의도를 형성하거나, 실험을 수행하거나, 이해를 갱신하지 못하며, 인간의 의식에 필요한 역동적이고 다중 시스템적 구조와는 다르다고 말합니다.“AI의 대부”로 불리는 제프리 힌턴도 와인스타인과 비슷하게 들리는 경고를 한 적이 있지만, 뉴포트는 힌턴이 아직 개발되지 않은 가상의 미래 AI 시스템에 대해 우려하고 있는 반면, 2025년이 “AI 에이전트의 해”가 될 것이라는 예상이 실패한 주요 원인은 언어 모델이 신뢰할 만한 자율적 운영에 필요한 세계 모델링, 계획, 추론 능력이 부족하기 때문이라고 명확하게 설명합니다.
544 조회
0 추천
2025.11.24 등록
일본은 최소 120억 달러를 스타트업 **라피더스(Rapidus)**에 투자하여 우유 농장과 스키 리조트로 유명한 섬 홋카이도를 최첨단 반도체 제조 허브인 “홋카이도 밸리“로 탈바꿈시키려 하고 있습니다. 이를 통해 국가의 반도체 산업을 부흥시키고, 전 세계 6천억 달러 규모의 시장에서 경쟁력을 갖추고자 하는 목표를 가지고 있습니다.라피더스는 IBM과의 협력을 통해 2나노미터 트랜지스터 시제품 생산에 성공하여, 이 능력을 가진 TSMC와 삼성과 어깨를 나란히 하게 되었습니다. 하지만, 분석가들은 라피더스가 제조 경험 부족과 318억 달러에 이르는 자금 격차를 고려할 때 2027년까지 양산에 성공할 수 있을지에 대해 의문을 제기하고 있습니다.일본의 반도체 시장 점유율은 1980년대 50% 이상에서 오늘날 약 **10%**로 급감했는데, 이는 미일 무역 갈등의 영향이 컸습니다. 이제 일본은 2025년까지 전 세계 7천억 달러 매출이 예상되는 반도체 산업에서 입지를 되찾기 위해 4만 명에 달하는 반도체 엔지니어 부족 사태에 직면해 있습니다.[
523 조회
0 추천
2025.11.24 등록
중국의 선도적인 메모리 칩 제조업체인 ChangXin Memory Technologies(CXMT)는 일요일 베이징에서 열린 중국 국제 반도체 박람회에서 새로운 세대의 DDR5 DRAM 제품을 공개하며, 고성능 AI 메모리 시장에서 삼성전자, SK하이닉스, 마이크론 테크놀로지에 직접적인 도전장을 내밀었다.새로운 DDR5 제품은 초당 최대 8,000메가비트의 속도와 최대 24기가비트의 다이 용량을 달성하여, 글로벌 경쟁업체들의 고급 제품 사양과 동등한 수준을 보인다. CXMT의 제품 라인업은 데스크톱용 UDIMM, 노트북용 SODIMM, 데이터 센터용 MRDIMM 등 7가지 주요 모듈 유형을 포함하며, AI 컴퓨팅 서버 및 고성능 애플리케이션을 목표로 한다.공급 부족 속 시장 타이밍TrendForce에 따르면 9월 초 이후 글로벌 DDR5 가격이 307% 급등한 가운데 이번 발표가 나왔다. 삼성은 32기가바이트 DDR5 모듈의 계약 가격을 9월 149달러에서 11월 239달러로 인상했는데, 이는 주요 생산업체들이 AI 애플리케이션용 고대역폭 메모리로 생산능력을 전환하면서 공급이 부족해진 것을 반영한다. 메모리 부족으로 인해 기존 소비자 전자제품 제조업체들은 AI 데이터센터 운영업체들이 프리미엄 가격을 지불하는 가운데 제한된 재고를 확보하기 위해 경쟁해야 하는 상황이다.CXMT는 또한 8,533Mbps에서 10,667Mbps에 이르는 속도의 LPDDR5X 모바일 메모리 시리즈를 선보였다. 이 회사는 5월에 8,533Mbps 및 9,600Mbps 제품의 양산을 시작했으며, 가장 빠른 10,667Mbps 버전은 여전히 고객 샘플링 단계에 있다. 이러한 제품들은 LPDDR5 대비 66%의 속도 향상을 나타내면서 전력 소비는 30% 감소시켰다.중국의 자급자족 추진이번 제품 출시는 미국의 첨단 칩 기술에 대한 수출 규제가 지속되는 가운데 반도체 자립을 달성하기 위한 중국의 강화된 노력을 보여줍니다. Counterpoint Research에 따르면, CXMT의 글로벌 DRAM 시장 점유율은 2025년 7%에서 2027년까지 10%로 증가할 것으로 예상됩니다. 현재 SK하이닉스가 38.7%의 매출 점유율로 DRAM 시장을 선도하고 있으며, 삼성이 32.7%, 마이크론이 22%로 그 뒤를 따르고 있습니다.업계 분석가들은 2026년 글로벌 DRAM 생산량이 20% 이상 증가할 것으로 예상하며, 중국의 국가 지원 반도체 이니셔티브가 계속됨에 따라 CXMT가 예상을 초과할 가능성이 있습니다. 로이터는 CXMT가 빠르면 2026년 1분기에 상하이에서 기업공개를 준비하고 있으며, 최대 3,000억 위안(420억 달러)의 기업가치를 목표로 하고 있다고 보도했습니다.
544 조회
0 추천
2025.11.24 등록
정부가 중앙·지방정부 내부망에서 민간 AI 기술을 안전하게 활용할 수 있는 ‘범정부 AI 공통기반’ 서비스를 24일 공식 개시했다. 과학기술정보통신부와 행정안전부는 이날 정부서울청사에서 기념행사를 열고 서비스 시연과 향후 운영계획을 발표했다.그동안 국내외 민간 AI 서비스는 내부 행정 데이터 유출 위험 등 보안 우려로 인터넷망에서만 사용 가능했고, 정부 업무 전반에 활용하는 데 제약이 있었다. 민간을 중심으로 빠르게 발전하는 AI를 행정에서 적극 활용하지 못해 업무 효율성이 저하된다는 지적이 제기돼 왔다.삼성·네이버 AI 챗봇 내부망에 도입범정부 AI 공통기반은 민간의 다양한 AI 모델, 학습데이터, 그래픽처리장치(GPU) 등을 중앙·지방정부가 공동 활용할 수 있는 서비스다. 공통기반은 공개된 행정문서와 데이터를 AI 모델과 연계해 내부망에서도 활용 가능한 AI 챗서비스 2종을 제공한다. 삼성SDS와 네이버클라우드가 개발한 AI 챗봇 서비스가 부처 내부망에 제공되며, 이를 통해 중앙·지방정부는 중복 개발이나 투자 없이 내부 행정업무부터 공공서비스까지 다양한 AI 기술을 업무 전반에 적용할 수 있게 됐다.12월에는 복잡한 용어와 절차를 몰라도 필요한 서비스와 혜택을 찾아주는 ‘정부24+ 지능검색’ 서비스가 도입될 예정이다. 2026년에는 정부가 추진 중인 ‘독자 AI 파운데이션 모델 프로젝트’를 통해 선정되는 AI 모델도 범정부 AI 공통기반에서 활용할 수 있도록 추가 도입할 계획이다.지능형 업무관리 플랫폼 시범 운영정부는 범정부 AI 공통기반을 활용한 ‘지능형 업무관리 플랫폼’ 시범서비스도 개시한다. 과기정통부, 행안부, 식품의약품안전처를 대상으로 하는 이 플랫폼은 AI를 중심으로 메일, 메신저, 영상회의 등 소통·협업 도구를 유기적으로 연계해 단순·반복적인 업무를 생략하고 업무에 집중할 수 있는 환경을 제공한다. 범정부 AI 공통기반이 활용하는 공통 데이터뿐 아니라 개인·기관이 보유한 내부 행정 문서와 데이터까지 활용해 보다 정확하고 맥락 있는 AI 답변 생성이 가능하다.정부는 서비스 운영과 확산에 앞서 실제 사용자의 의견 수렴, AI 서비스 기능 검증 및 품질 개선을 위해 이달 말부터 2026년 2월 말까지 시범 운영을 진행한다. 시범 운영 이후 2026년 3월부터는 전체 중앙·지방정부가 서비스를 이용할 수 있도록 단계적으로 서비스 대상을 확대할 계획이다.배경훈 과기정통부 장관은 “공공부문에 AI를 적극 활용해 정책 결정을 고도화하고 과학화함으로써 최고의 성과를 낼 수 있기를 기대한다”며 “이번 서비스 개시를 계기로 AI 3대 강국 실현에도 한 걸음 더 나아갈 수 있도록 박차를 가하겠다”고 밝혔다. 윤호중 행안부 장관은 “민간의 최신 AI 기술을 공공부문에 적극 도입·활용해 국민에게 더 좋은 서비스를 제공하는 ‘AI 민주정부’로 도약하겠다”고 말했다.
588 조회
0 추천
2025.11.24 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입