Loading...

AI 뉴스

구글, 엔비디아에 도전하기 위해 아이언우드 칩 출시

페이지 정보

작성자 xtalfi
작성일 2025.11.08 15:42
1,520 조회
0 추천
0 비추천

본문

8GWUesFx3NRtYMAVTkBmZD-1920-80.jpg

(퍼플렉시티가 정리한 기사)


Google은 이번 주 7세대 텐서 처리 장치인 Ironwood를 출시했으며, Nvidia의 Blackwell 아키텍처와 직접 경쟁할 수 있는 성능 사양을 갖추고 있습니다. 이 칩은 앞으로 몇 주 내에 클라우드 고객들에게 일반적으로 제공될 예정이며, 이는 제3자 GPU에 대한 의존도를 줄이는 동시에 급성장하는 AI 인프라 시장에서 더 큰 점유율을 확보하려는 이 거대 기술 기업의 노력이 확대되고 있음을 나타냅니다.​

Ironwood는 Google의 TPU v5p 대비 최대 10배의 피크 성능을 제공하며, Trillium으로도 알려진 이전 버전인 TPU v6e와 비교하여 칩당 4배 이상의 성능을 제공합니다. 각 칩은 4,614 FP8 테라플롭스의 성능을 제공하며 192GB의 HBM3E 메모리를 탑재하여 최대 7.37TB/s의 대역폭을 제공합니다. 이 시스템은 단일 포드에서 최대 9,216개의 칩으로 확장할 수 있으며, Google의 기술 문서에 따르면 42.5 FP8 엑사플롭스의 컴퓨팅 성능을 제공하는데, 이는 경쟁 시스템보다 약 118배 더 많은 수치입니다.​


주요 고객들이 시장 변화를 예고하다

Claude 모델을 개발한 AI 스타트업 Anthropic은 10월 말, Google Cloud와의 획기적인 파트너십 확대의 일환으로 최대 100만 개의 TPU를 배치할 계획이라고 발표했습니다. 수백억 달러 규모의 이 거래를 통해 Anthropic은 2026년에 온라인으로 제공될 1기가와트 이상의 컴퓨팅 용량에 접근할 수 있게 됩니다. Anthropic의 최고재무책임자(CFO) Krishna Rao는 확장된 용량이 "기하급수적으로 증가하는 수요를 충족하는 동시에 우리 모델을 업계 최첨단에 유지할 수 있도록 보장한다"고 말했습니다.​

크리에이티브 소프트웨어 도구로 잘 알려진 Lightricks도 텍스트와 이미지 입력을 결합한 멀티모달 모델 LTX-2를 훈련시키기 위해 Ironwood를 사용하고 있습니다. Google 자체도 Gemini, Veo, Imagen을 포함한 최첨단 AI 모델을 훈련하고 배포하기 위해 TPU를 사용합니다.​


인프라 경쟁이 심화된다

Ironwood 출시는 Nvidia의 지배적인 GPU를 넘어 차별화된 AI 인프라를 제공하기 위한 클라우드 제공업체 간의 치열한 경쟁을 강조합니다. Google은 2025년 자본 지출을 이전 예상치인 850억 달러에서 910억 달러에서 930억 달러 사이로 늘리고 있으며, 대부분은 AI 인프라에 투입됩니다. CEO Sundar Pichai는 지난달 애널리스트들에게 회사가 2025년 3분기까지 지난 2년 동안보다 더 많은 10억 달러 이상의 거래를 체결했다고 말했습니다.​

Google Cloud는 3분기에 전년 대비 34%의 매출 성장을 기록하며 151억 5천만 달러에 도달했습니다. Pichai는 이러한 성장을 "TPU 기반 솔루션을 포함한 AI 인프라 제품에 대한 상당한 수요"에 기인한다고 밝혔습니다. 회사의 클라우드 백로그는 전 분기 대비 46% 증가하여 1,550억 달러를 기록했습니다.​

Ironwood와 함께 Google은 N4A 가상 머신과 C4A 베어 메탈 인스턴스를 포함한 새로운 Arm 기반 Axion 프로세서를 공개했습니다. 회사는 N4A가 비교 가능한 x86 기반 가상 머신의 최대 2배의 가격 대비 성능을 제공한다고 밝혔습니다.

댓글 0
전체 1,366 / 36 페이지
앨런 AI 연구소(Ai2)는 훈련 데이터와 가중치까지 완전히 공개하는 대표적인 대형언어모델(LLM)인 '올모(OLMo) 3'의 업데이트 버전 '올모 3.1'을 공개했습니다. 새로 출시된 '올모 3.1 싱크 32B'와 '올모 3.1 인스트럭트 32B'는 강화 학습(RL)을 추가 적용하여 추론, 수학, 지시 이행 능력 등 여러 벤치마크에서 성능이 크게 향상되었습니다.특히, '싱크 32B'는 고급 추론과 연구 목적에 최적화되었으며, '인스트럭트 32B'는 대화형 AI와 툴 기반 워크플로에 맞춰 현재까지 공개된 완전 오픈 소스 32B급 지시형 모델 중 가장 강력한 성능을 자랑합니다. Ai2는 이를 새로운 모델 출시가 아닌 '체크포인트 추가' 개념으로 소개하며, 개발자들이 모델의 학습 과정을 완벽하게 통제하고 자체 데이터를 추가해 재학습할 수 있도록 지원합니다.Ai2는 올모 시리즈가 개방성과 성능을 동시에 발전시킬 수 있음을 보여주며, 학습 데이터, 코드, 결정에 대한 엔드투엔드 투명성을 유지하면서 기능을 지속적으로 개선했다고 강조했습니다. 이 새로운 '체크포인트' 모델들은 Ai2 플레이그라운드와 허깅페이스를 통해 제공되어 개발자 및 연구기관의 활용을 넓힐 예정입니다.* 앨런 인공지능 연구소(Ai2)는 마이크로소프트 공동 창립자였던 고(故) 폴 앨런이 공익을 위해 고도(하이-임팩트) AI 연구 및 엔지니어링을 수행할 목적으로 2014년에 설립한 비영리 연구소입니다. 이 연구소는 텍스트를 읽고 추론하여 지식을 입증하는 AI 시스템 개발을 목표로 시작했으며, 현재도 개방성과 투명성을 중시하며 AI 분야의 발전을 주도하고 있습니다.
810 조회
0 추천
2025.12.14 등록
오픈AI의 최신 AI 모델인 'GPT-5.2'는 초기 테스트에서 전문가와 기업용 업무 처리, 복잡한 문제 해결 능력 등 전문 작업 분야에서 역대 최고라는 평가를 받았습니다. 하이퍼라이트AI CEO 등 전문가들은 이 모델이 상당한 사고 시간을 요구하는 어려운 작업을 완벽하게 수행하며 '세계 최고의 모델'이라고 극찬했습니다.이 모델은 사고력과 문제 해결 능력이 눈에 띄게 향상되어 복잡한 코드 구조를 한 번에 생성하고, 몇 시간 동안 작업을 지속하는 등 개발자와 기업에 매우 중요한 의미를 갖습니다. 박스(Box) CEO 등은 GPT-5.2가 금융 및 생명 과학 분야의 실제 업무 지식을 테스트하는 확장 추론에서 기존 모델보다 훨씬 빠르게 작업을 수행했다고 밝혔습니다.반면, 일반 사용자들은 일상적인 글쓰기나 순수 채팅 기능에서 체감할 만한 개선점을 느끼기 어렵다는 엇갈린 평가가 나왔고, 일부는 딱딱한 어조나 속도 저하를 단점으로 지적했습니다. 코드명 '갈릭'으로 알려진 이 모델은 코딩과 B2B에 최적화된 도구로 보이며, 일반 사용자가 느낄 만한 성능 향상은 내년 1월 출시 모델을 기다려야 할 것으로 분석됩니다.
800 조회
0 추천
2025.12.14 등록
저작권 소송에서 Meta를 고소한 작가들은 목요일 연방 판사에게 회사가 Llama AI 모델을 훈련시키기 위해 BitTorrent를 통해 불법 복제된 책을 다운로드하고 파일 공유를 통해 저작권이 있는 자료를 다른 사람들에게 적극적으로 재배포했다는 새로운 혐의로 소장을 수정해 줄 것을 요청했습니다.코미디언 Sarah Silverman과 작가 Richard Kadrey 및 Christopher Golden을 포함한 원고들은 Meta가 저작권이 있는 저작물을 어떻게 입수했는지에 대해 처음에는 “알 수 없었다”고 말했지만, 회사가 최근 증거 개시 과정에서 토렌트 활동에 대한 “결정적인 증거”를 제출했으며, 여기에는 Meta가 토렌트 사이트에서 그들의 저작물이 포함된 불법 복제 파일을 “시딩”했다는 증언이 포함되어 있습니다.새로운 주장은 Vince Chhabria 판사가 6월에 AI 모델을 훈련시키기 위해 저작권이 있는 책을 사용하는 것은 공정 이용에 해당한다고 판결했지만 배포에 대한 문제는 여지를 남긴 이후, BitTorrent 시딩을 통한 Meta의 불법 복제 자료 재배포가 훈련을 넘어선 저작권 침해에 해당하는지 여부를 중심으로 합니다.
812 조회
0 추천
2025.12.14 등록
전 OpenAI CTO Mira Murati가 설립한 Thinking Machines Lab은 12월 12일 Tinker AI 파인튜닝 서비스를 정식 출시하여 대기자 명단을 제거하고, 1조 파라미터 규모의 Kimi K2 Thinking 추론 모델과 Qwen3-VL 모델을 통한 비전 기능 지원을 추가했습니다.샌프란시스코 기반 스타트업은 6월에 Nvidia, AMD, ServiceNow를 포함한 투자자들로부터 100억 달러 기업가치로 20억 달러를 유치했으며, 11월에는 Meta에서 PyTorch 공동 창시자 Soumith Chintala를 영입했습니다.Tinker는 Low-Rank Adaptation을 사용하여 기존 컴퓨팅 리소스의 일부만으로 대규모 언어 모델을 파인튜닝하며, 현재 개발자 통합을 용이하게 하기 위해 OpenAI API 호환성을 제공하고 있습니다. 회사는 500억 달러 기업가치로 50억 달러의 신규 자금 조달을 모색하고 있는 것으로 알려졌습니다.
827 조회
0 추천
2025.12.14 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입