Loading...

AI 뉴스

구글, 엔비디아에 도전하기 위해 아이언우드 칩 출시

페이지 정보

작성자 xtalfi
작성일 2025.11.08 15:42
1,131 조회
0 추천
0 비추천

본문

8GWUesFx3NRtYMAVTkBmZD-1920-80.jpg

(퍼플렉시티가 정리한 기사)


Google은 이번 주 7세대 텐서 처리 장치인 Ironwood를 출시했으며, Nvidia의 Blackwell 아키텍처와 직접 경쟁할 수 있는 성능 사양을 갖추고 있습니다. 이 칩은 앞으로 몇 주 내에 클라우드 고객들에게 일반적으로 제공될 예정이며, 이는 제3자 GPU에 대한 의존도를 줄이는 동시에 급성장하는 AI 인프라 시장에서 더 큰 점유율을 확보하려는 이 거대 기술 기업의 노력이 확대되고 있음을 나타냅니다.​

Ironwood는 Google의 TPU v5p 대비 최대 10배의 피크 성능을 제공하며, Trillium으로도 알려진 이전 버전인 TPU v6e와 비교하여 칩당 4배 이상의 성능을 제공합니다. 각 칩은 4,614 FP8 테라플롭스의 성능을 제공하며 192GB의 HBM3E 메모리를 탑재하여 최대 7.37TB/s의 대역폭을 제공합니다. 이 시스템은 단일 포드에서 최대 9,216개의 칩으로 확장할 수 있으며, Google의 기술 문서에 따르면 42.5 FP8 엑사플롭스의 컴퓨팅 성능을 제공하는데, 이는 경쟁 시스템보다 약 118배 더 많은 수치입니다.​


주요 고객들이 시장 변화를 예고하다

Claude 모델을 개발한 AI 스타트업 Anthropic은 10월 말, Google Cloud와의 획기적인 파트너십 확대의 일환으로 최대 100만 개의 TPU를 배치할 계획이라고 발표했습니다. 수백억 달러 규모의 이 거래를 통해 Anthropic은 2026년에 온라인으로 제공될 1기가와트 이상의 컴퓨팅 용량에 접근할 수 있게 됩니다. Anthropic의 최고재무책임자(CFO) Krishna Rao는 확장된 용량이 "기하급수적으로 증가하는 수요를 충족하는 동시에 우리 모델을 업계 최첨단에 유지할 수 있도록 보장한다"고 말했습니다.​

크리에이티브 소프트웨어 도구로 잘 알려진 Lightricks도 텍스트와 이미지 입력을 결합한 멀티모달 모델 LTX-2를 훈련시키기 위해 Ironwood를 사용하고 있습니다. Google 자체도 Gemini, Veo, Imagen을 포함한 최첨단 AI 모델을 훈련하고 배포하기 위해 TPU를 사용합니다.​


인프라 경쟁이 심화된다

Ironwood 출시는 Nvidia의 지배적인 GPU를 넘어 차별화된 AI 인프라를 제공하기 위한 클라우드 제공업체 간의 치열한 경쟁을 강조합니다. Google은 2025년 자본 지출을 이전 예상치인 850억 달러에서 910억 달러에서 930억 달러 사이로 늘리고 있으며, 대부분은 AI 인프라에 투입됩니다. CEO Sundar Pichai는 지난달 애널리스트들에게 회사가 2025년 3분기까지 지난 2년 동안보다 더 많은 10억 달러 이상의 거래를 체결했다고 말했습니다.​

Google Cloud는 3분기에 전년 대비 34%의 매출 성장을 기록하며 151억 5천만 달러에 도달했습니다. Pichai는 이러한 성장을 "TPU 기반 솔루션을 포함한 AI 인프라 제품에 대한 상당한 수요"에 기인한다고 밝혔습니다. 회사의 클라우드 백로그는 전 분기 대비 46% 증가하여 1,550억 달러를 기록했습니다.​

Ironwood와 함께 Google은 N4A 가상 머신과 C4A 베어 메탈 인스턴스를 포함한 새로운 Arm 기반 Axion 프로세서를 공개했습니다. 회사는 N4A가 비교 가능한 x86 기반 가상 머신의 최대 2배의 가격 대비 성능을 제공한다고 밝혔습니다.

댓글 0
전체 1,366 / 186 페이지
(퍼플렉시티가정리한기사)정신아카카오대표가3일사용자의맥락을이해하고스스로계획·실행하는'에이전틱AI'전략을통해사람중심의AI생태계를구축하겠다고발표했다.이날서울강남구코엑스에서열린'SKAI서밋2025'에서'에이전틱AI,가능성에서현실로'를주제로기조연설을진행한정대표는"카카오는일상과대화의실행이자연스럽게인공지능과결합하는생태계를만들어가고있다"며"AI기술이사람의삶을더편리하게만들고신뢰위에서연결을확장해나가는,사람중심의AI세상을만들어나갈것"이라고밝혔다.​프로액티브·플래닝·액션,에이전틱AI3대요소제시정대표는카카오의에이전틱AI가갖춰야할핵심요소로능동성(Proactive),계획(Planning),실행(Action)등3가지를제시했다.그는"AI가사용자의의도를읽고'내일회의가빡빡한데준비정리해드릴까요?'같은제안을하는것이진정한에이전틱AI를구현한모습"이라며"사용자가덜고민하면서도더나은선택을할수있도록돕는,결정피로를줄이는능동적AI경험이에이전틱AI의중심"이라고설명했다.​에이전틱AI는기존AI서비스와달리하나의명령을반복수행하는워크플로우를넘어서이용자의맥락과상황을스스로이해하고목표를재설정한다.정대표는"에이전틱AI는사용자의맥락을파악하고다양한AI에이전트중에서도어떤에이전트를실행해야더나은목표에도달할수있을지스스로판단하고행동해야한다"며"따라서에이전틱AI에최적화된모델은단일워크플로우를반복수행하는기존AI보다더높은수준의추론과판단능력을갖춰야한다"고강조했다.​온디바이스AI로프라이버시보호와효율성동시달성카카오는에이전틱AI구현의핵심기술로온디바이스AI를선택했다.정대표는"가장중요한데이터수집과활용에있어회사가가진다양한맥락정보를안전하게,또필요한순간에만쓸수있도록온디바이스AI기술을택했다"며"카카오는대화라는가장풍부한맥락정보를가진기업으로,온디바이스AI는이맥락을안전하게활용해개인맞춤형행동을제안하는기술"이라고강조했다.​이를위해카카오는자체경량모델'카카나(Kanana)1.3B'를개발했다.정대표는"5000만명의사용자를동시에커버할수있는수준의처리효율을확보하면서도,추론능력을강화해실시간판단과실행이가능한구조로설계됐다"고설명했다.온디바이스AI기술은사용자의데이터를외부로전송하지않기때문에프라이버시를보호할수있고,서비스운영을위한GPU비용절감효과도제공한다.​현실문제해결위한독자벤치마크개발카카오는현실의문제를해결할수있는AI모델개발을위해자체벤치마크를구축했다고발표했다.정대표는"현실에서AI에이전트가작동하는다양한상황을반영해모델의품질을정확하게판단할수있는전용벤치마크를새롭게만들었다"며"기존의데이터셋이일정등록이나삭제,수정과같은특정도메인내펑션콜만수행했다면새로운벤치마크는장소나예약,결제,여행등일상과밀접한도메인에서더나아가여러도메인을교차하는복합요청까지포괄하도록설계됐다"고했다.​이벤치마크는실제서비스로확장할수있는17개의도메인을기반으로만들어졌으며,99개의가상도구를설계해다양한현실에가까운과제를세밀하게다루도록했다.정대표는"많은공개모델이나상용모델이벤치마킹점수는높지만현실적인과제해결력에서는한계를보이고있다"며"카카오의새로운벤치마크는높은점수중심의평가가아니라실제문제해결력중심의AI를만드는것이목표"라고말했다.
1225 조회
0 추천
2025.11.04 등록
(퍼플렉시티가 정리한 기사)삼성전자가 차세대 고대역폭메모리(HBM)4의 핵심 기술인 1c D램 개발에 기여한 임직원 30명에게 4억8139만원 규모의 자사주를 인센티브로 지급했다고 3일 공시했다. 이는 삼성전자가 특정 개발팀에 자사주 성과급을 지급한 이례적인 사례로 평가된다.삼성전자는 지난 10월 30일 이사회를 열고 ‘자기주식 처분 결정’을 의결했으며, 보통주 4790주를 주당 10만5000원 기준으로 총 30명에게 지급했다. 회사는 “목표를 달성한 과제의 개발 인력에 대한 성과 격려 및 동기 부여 목적”이라고 명시했다. 지급일은 10월 31일이며, 1인당 평균 약 1600만원 규모다.HBM4 경쟁력 회복 신호탄인센티브 지급 대상은 10나노미터급 6세대 D램인 ‘1c’ 개발팀으로 알려졌다. 1c D램은 전영현 삼성전자 DS부문장(부회장)이 직접 지시한 설계 개선 작업을 통해 탄생한 제품으로, HBM4의 핵심 구성 요소다.삼성전자는 HBM 시장에서 경쟁력을 회복하기 위해 경쟁사보다 1세대 앞선 1c D램을 HBM4에 적용하는 승부수를 던졌다. 그 결과 1c D램 기반에 4나노 로직 공정을 적용해 고객 요구를 상회하는 11Gbps 이상의 데이터 전송 속도를 구현했다. 현재 1c D램은 최대 70% 수율을 확보했고, 이를 적용한 HBM4도 50%에 육박하는 수율을 달성한 것으로 알려졌다.엔비디아와 협력 가속화삼성전자는 최근 세계 최대 AI 반도체 기업인 엔비디아와 HBM4 성능 평가를 진행하고 있으며, 긍정적인 반응을 얻고 있는 것으로 전해진다. 엔비디아는 지난 10월 31일 한국과의 AI 협력 현황을 소개한 보도자료에서 “삼성전자는 엔비디아의 HBM3E와 HBM4 공급망의 핵심 협력사”라고 명시했다.삼성전자는 3분기 실적 발표에서 HBM3E의 엔비디아 납품을 공식화했으며, HBM4의 경우 샘플을 요청한 모든 고객사에 샘플을 출하했다고 밝혔다. 이번 자사주 지급은 삼성전자가 SK하이닉스에 밀려있던 HBM 시장에서 경쟁력을 회복하려는 의지를 보여주는 상징적 조치로 해석된다.
1337 조회
0 추천
2025.11.03 등록
(퍼플렉시티가 정리힌 기사)SK그룹이 AI 경쟁의 패러다임을 ‘스케일’에서 ‘효율’로 전환하겠다고 선언하며, SK하이닉스와 SK텔레콤을 중심으로 한 대규모 AI 인프라 혁신 전략을 공개했다.최태원 SK그룹 회장은 3일 서울 강남구 코엑스에서 열린 ‘SK AI 서밋 2025’에서 “AI 산업은 이제 규모의 경쟁이 아닌 효율의 경쟁으로 패러다임 전환이 필요한 시기”라며 “SK의 미션은 가장 효율적인 AI 솔루션을 찾는 것”이라고 밝혔다.인프라 확장과 글로벌 파트너십 강화이날 취임 후 첫 공식 석상에 나선 정재헌 SK텔레콤 신임 CEO는 “한국을 아시아 최대 AI 허브로 만들겠다”고 선언했다. 그는 울산 AI 데이터센터를 1GW 이상 규모로 확장하고, 오픈AI와 협력하는 서남권 AI 데이터센터 설립을 통해 전국적인 AI 인프라 네트워크를 구축하겠다는 계획을 제시했다.SK그룹의 글로벌 파트너십도 한층 강화됐다. 샘 올트먼 오픈AI CEO는 영상 메시지를 통해 “AI를 뒷받침하는 인프라는 철도와 인터넷처럼 전 세계 인구가 공유하는 기반시설이 될 것”이라며 SK와의 장기적 협력 의지를 표명했다. 앤디 제시 아마존 CEO도 “SK는 아마존의 대표적인 AI 솔루션 확장 파트너”라고 평가했다.메모리 혁신과 제조업 AI 전환곽노정 SK하이닉스 CEO는 ‘풀스택 AI 메모리 크리에이터’라는 새로운 비전을 발표했다. 그는 “단순한 메모리 공급자를 넘어 고객의 문제를 함께 고민하고 해결하는 역할로 전환하겠다”며, 커스텀 HBM, AI-D램, AI-낸드 등 차세대 메모리 솔루션 라인업을 공개했다.SK그룹은 엔비디아와 협력해 5만 장 이상의 GPU를 활용한 ‘AI 팩토리’를 구축할 예정이다. 이 중 SK하이닉스는 2000장 이상의 GPU를 이천·용인 생산기지에서 활용해 제조업 혁신을 추진한다.최태원 회장은 “오픈AI가 월 90만장의 HBM을 요구하고 있는데, 이는 전 세계 HBM 월 생산량의 두 배”라며 “효율성을 통해 더 많은 이들이 AI 혜택을 볼 수 있도록 하는 것이 SK의 전략”이라고 강조했다.
1362 조회
0 추천
2025.11.03 등록
(퍼플렉시티가 정리한 기사)도널드 트럼프 대통령은 일요일, 엔비디아가 가장 첨단 인공지능 칩을 중국에 판매하는 것을 단호히 금지했으며, 국가 안보와 군사적 용도에 대한 우려가 고조되는 가운데 최첨단 블랙웰 프로세서는 미국에만 독점적으로 공급될 것이라고 선언했다.에어포스 원에 탑승한 기자들과의 대화에서 트럼프는 새로 출시된 블랙웰 칩을 “다른 모든 칩보다 10년 앞선” 것으로 묘사하면서도 “우리는 그 칩을 다른 사람들에게 주지 않는다”고 강조했다. 이러한 발언은 일요일 저녁에 방영된 CBS 60 Minutes 인터뷰에서의 입장을 재확인한 것으로, 그는 노라 오도넬 기자에게 중국이 “엔비디아와 거래할 수” 있지만 “가장 첨단” 칩은 미국으로 제한될 것이라고 말했다.안보 우려가 수출 제한을 주도하다이 결정은 첨단 AI 기술이 중국의 군사 능력을 강화하고 인공지능 개발을 가속화할 수 있다고 우려하는 워싱턴의 국가안보 강경파들로부터의 압력이 커지고 있음을 반영합니다. 중국 특별위원회를 이끄는 공화당 하원의원 존 물레나르는 중국에 대한 블랙웰 판매 가능성을 “이란에 무기급 우라늄을 제공하는 것”과 동등하다고 비유했습니다.트럼프의 입장은 엔비디아가 중국 시장에서 완전히 차단되는 상황에서 나온 것으로, CEO 젠슨 황은 지난주 수출 통제로 인해 중국 내 회사의 시장 점유율이 약 95%에서 0%로 급락했다고 밝혔습니다. 중국은 이전에 엔비디아 데이터센터 수익의 20%에서 25%를 차지했으며, 이는 회사의 가장 최근 재무 결과에서 410억 달러 이상을 창출했습니다.블랙웰 칩이 AI 혁신을 선도하다Blackwell 아키텍처는 Nvidia의 7세대 데이터 센터 GPU로, TSMC의 첨단 4나노미터 공정을 사용하여 제조된 2,080억 개의 트랜지스터를 특징으로 합니다. 이 칩은 AI 훈련 및 추론을 위한 전례 없는 연산 능력을 제공하며, 4비트 부동 소수점 정밀도 지원과 최대 초당 8테라바이트에 달하는 방대한 메모리 대역폭을 포함한 기능을 갖추고 있습니다.중국 수출 제한에도 불구하고, Nvidia는 금요일 한국과 삼성전자를 포함한 주요 기업들에 26만 개 이상의 Blackwell AI 칩을 공급할 것이라고 발표하여 동맹국들의 지속적인 강력한 수요를 입증했습니다. 회사의 주가는 AI 붐으로 인해 혜택을 받았지만, 중국 시장의 상실은 세계에서 가장 가치 있는 기업에게 상당한 매출 도전 과제를 나타냅니다.
1339 조회
0 추천
2025.11.03 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입