Loading...

AI 뉴스

오픈AI, 2030년까지 4,500억 달러 규모의 인프라 계획 발표

페이지 정보

작성자 xtalfi
작성일 2025.09.22 14:56
165 조회
0 추천
0 비추천

본문

e7265d8f70696046e1253dd661e97bf3T5wK.jpg

(퍼플렉시티가 정리한 기사)

OpenAI는 기술 역사상 가장 야심찬 인프라 지출 계획 중 하나를 착수했습니다. 2030년까지 맞춤형 칩 개발, 대규모 데이터 센터 확장, 전례 없는 컴퓨팅 용량 조달을 아우르는 총 4,500억 달러 규모의 투자 전략을 발표한 것입니다. 여러 파트너십과 내부 전망을 통해 상세히 공개된 이 대규모 계획은 OpenAI의 CFO 사라 프라이어가 "항상 컴퓨트가 부족한 상태"라고 부르는 상황에 대응하기 위한 회사의 움직임을 나타냅니다. 이러한 제약으로 인해 제품 출시가 지연되고, 고급 AI 기능 배포가 제한되어 왔습니다.

이번 투자는 OpenAI의 인프라 환경을 근본적으로 재편하고, 기존 클라우드 제공업체로부터 회사가 장기적으로 독립할 수 있는 역량을 갖추기 위한 여러 주요 요소를 포함합니다.

 

스타게이트 프로젝트, 대규모 데이터 센터 확장 주도

 

오픈AI 전략의 중심에는 'Stargate 프로젝트'가 있다. SoftBank, Oracle, 투자기업 MGX와의 5,000억 달러 규모의 합작 투자로, 2029년까지 미국 전역에 10기가와트의 AI 컴퓨팅 능력을 구축하는 것을 목표로 한다. 이 프로젝트는 2025년 1월 트럼프 대통령이 공식 발표했으며, 정부 관계자들은 이를 "미국 역사상 가장 야심찬 인프라 사업 중 하나"라고 설명한다.

9월에는 오픈AI가 오라클과 3,000억 달러 규모의 계약을 공식화했다. 이 계약은 2027년부터 약 5년 동안 진행되며, 추가로 4.5기가와트의 데이터 센터 용량을 제공할 예정이다. 이로 인해 200만 개 이상의 AI 칩이 지원될 것으로 기대된다. 1단계인 'Stargate I'은 텍사스 주 애빌린에서 이미 운영 중이며, 오라클은 Nvidia GB200 랙을 공급하고 있으며, 이 시설에서는 초기 AI 학습 및 추론 작업이 이루어지고 있다.

 

맞춤형 칩 개발로 엔비디아 의존도 감소

 

OpenAI와 Broadcom(Broadcom Inc.)의 파트너십은 독자적인 하드웨어로의 전략적 전환을 의미합니다. 두 회사는 맞춤형 AI 추론 칩에 대해 100억 달러 규모의 계약을 최종 체결했으며, 대량 생산은 2026년으로 예정되어 있습니다. 이 애플리케이션 특화 집적 회로(ASIC)는 TSMC의 3나노미터 공정을 활용해 제조되며, 상업적으로 판매되지 않고 오직 OpenAI의 데이터 센터에서만 사용될 예정입니다.

이 맞춤형 칩은 OpenAI가 겪고 있는 심각한 컴퓨팅 자원 부족을 해결하기 위해 고안되었습니다. CFO 사라 프라이어는 이를 회사의 주요 운영상 제약이라고 밝혔습니다. 프라이어는 "우리가 당면한 가장 큰 문제는 끊임없이 '컴퓨트 부족' 상태에 있다는 것입니다"라고 설명했으며, 이러한 부족 때문에 Sora 비디오 생성 모델과 같은 제품의 출시가 지연되고, 일부 기능은 기업 고객에게 제공되지 못했다고 덧붙였습니다.

Broadcom CEO 혹 탄은 실적 발표에서 OpenAI로 널리 알려진 신규 고객으로부터 100억 달러 이상의 주문을 확보했으며, 2026회계연도 3분기부터 납품이 시작될 것이라고 확인했습니다. 이 파트너십은 Broadcom을 AI 하드웨어 분야에서 Nvidia의 지배력을 위협하는 주요 경쟁자로 자리매김시키며, 해당 칩 주문이 수천 개의 서버 랙에 분산된 1~2백만 개 XPU에 해당할 수 있습니다.

 

1,000억 달러 백업 서버 전략으로 신뢰성 보장

 

주요 인프라를 넘어, OpenAI는 향후 5년간 클라우드 공급업체로부터 백업 서버에 1,000억 달러를 투자할 계획입니다. 이는 2030년까지 서버 임대에 3,500억 달러를 투입하기로 한 기존 약속과는 별도의 예산입니다. 이러한 추가 용량은 제품 출시나 예기치 못한 사용량 급증 등 수요가 급격히 증가하는 상황에 대응하기 위해 마련된 것으로, 서비스 제한이나 출시 지연을 초래해온 지속적인 문제를 해결하기 위해서입니다.

OpenAI 경영진은 이 백업 서버를 “수익 창출이 가능하다(monetiable)”고 보고 있으며, 이를 통해 연구 애플리케이션이나 일반적으로 수요가 낮은 기간 동안 제품 사용 증가를 통해 추가 수익을 얻을 수도 있다고 밝혔습니다. 주요 서버 지출과 합산할 경우, OpenAI는 향후 5년 동안 서버 임대 비용으로 연평균 약 850억 달러를 지출할 것으로 예상하고 있습니다.

 

금융 아키텍처는 전례 없는 규모를 지원합니다

 

막대한 인프라 투자는 오픈AI의 수정된 지출 예상에 의해 뒷받침되고 있습니다. 이는 2029년까지 1,150억 달러의 현금 소진이 예상되며, 이는 이전 추정치보다 800억 달러 증가한 수치입니다. 연간 지출은 2025년 80억 달러에서 2028-2029년에는 최대 450억~500억 달러까지 증가할 것으로 전망되며, 주로 컴퓨팅 비용과 인프라 확장에 의해 주도됩니다.

이 확장을 위해 오픈AI는와의 파트너십을 재구성하고 있으며, 수익 공유 비율을 현재의 20%에서 2030년까지 약 8~10%로 낮출 예정입니다. 이 조정으로 수십억 달러의 자금을 재투자할 수 있게 되며, 마이크로소프트는 오픈AI가 영리 목적의 공익법인(Public Benefit Corporation)으로 전환할 계획에 따라 지분 보유 등 다양한 방식으로 보상을 받게 됩니다.

댓글 0
전체 363 / 1 페이지
(퍼플렉시티가 정리한 기사)스콜코보 과학기술대학교(Skolkovo Institute of Science and Technology)의 러시아 과학자들은 인간의 기억과 학습이 전통적인 5가지 감각보다는 7가지 감각 차원에서 가장 효율적으로 작동한다는 획기적인 수학적 모델을 개발했으며, 이는 인지와 인공지능 개발에 대한 우리의 이해를 혁신할 가능성이 있다.2025년 10월 8일 Scientific Reports에 발표된 이 연구는 몬테카를로 시뮬레이션과 분석적 해법을 사용하여 뇌에서 경험을 암호화하는 신경 패턴인 기억 “엔그램”을 분석했다. 킹스 칼리지 런던(King’s College London)과 러프버러 대학교(Loughborough University)의 연구자들을 포함한 국제 연구팀은 기억 용량이 7차원에서 최고 효율에 도달한 후 추가적인 감각 입력과 함께 감소한다는 것을 발견했다.수학적 모델이 최적의 기억 저장법을 밝혀내다이 연구의 공동 저자인 Skoltech AI의 니콜라이 브릴리안토프(Nikolay Brilliantov) 교수는 “기억에 저장된 각 개념이 5개나 8개가 아닌 7개의 특징으로 특성화될 때 기억에 저장되는 구별되는 객체의 수가 최대화된다”고 설명했다. 이 모델은 기억을 다차원 개념 공간 내의 역동적 개체로 다루며, 각 기억흔적(engram)은 반복적인 자극으로 강화되거나 활성화 없이는 약해진다.연구진들은 1904년 독일 생물학자 리하르트 제몬(Richard Semon)이 처음 도입한 100년 된 기억흔적 개념을 바탕으로 그들의 동역학적 모델을 구축했다. 그들의 프레임워크에서 인간의 기억은 우리의 전통적인 감각인 시각, 청각, 후각, 미각, 촉각에 해당하는 5차원 객체로 존재하지만, 수학적 분석 결과 7차원이 저장 용량을 최적화할 것으로 밝혀졌다.브릴리안토프는 “우리는 개념 공간의 기억흔적들이 정상 상태로 진화하는 경향이 있음을 수학적으로 증명했다”고 언급했다. “일정한 과도 기간 후에 ‘성숙한’ 기억흔적 분포가 나타나며, 이는 시간이 지나도 지속된다. 우리는 기억에 저장되는 구별되는 기억흔적의 수가 7차원의 개념 공간에서 가장 크다는 것을 발견했다”.AI와 미래 인류 진화에 대한 함의이 연구 결과는 심리학자 George A. Miller의 유명한 1956년 관찰, 즉 인간이 작업 기억에서 동시에 약 “7개, 더하거나 빼기 2개”의 정보를 보유할 수 있다는 관찰과 연결된다. 새로운 연구는 이러한 인지적 한계에 대한 잠재적인 수학적 설명을 제공하며, 7이라는 숫자가 새로운 정보를 학습하는 것과 뚜렷하고 선명한 기억을 유지하는 것 사이의 최적의 균형을 나타낸다고 제시한다.연구자들은 인간 진화에 관한 그들의 결론이 “매우 추측적”이라고 인정하면서도, Brilliantov는 “미래의 인간은 방사선이나 자기장에 대한 감각을 진화시킬 것”이라고 제안했다. 더 즉각적으로, 이 연구는 로봇공학과 인공지능에 실용적인 응용 가능성을 가지고 있으며, 7개의 감각 입력으로 설계된 시스템이 우수한 학습 및 기억 능력을 달성할 수 있다.이 연구는 기억 시스템의 근본적인 긴장 관계를 드러낸다: 새로운 자극에 대한 높은 수용성은 흐릿하고 겹치는 기억을 만들어내는 반면, 과도한 선택성은 새로운 경험을 완전히 놓칠 위험이 있다. 이러한 균형은 기계 학습의 과제를 반영하는데, 시스템이 데이터에 대한 과일반화와 과적합을 모두 피해야 하는 상황과 유사하다.
6 조회
0 추천
10.10 등록
(퍼플렉시티가 정리한 기사)디자인 플랫폼 피그마는 목요일 구글 클라우드와의 협력 확대를 발표하며 강력한 인공지능(AI) 기능을 자사 디자인 워크플로우에 직접 통합할 것이라고 밝혔습니다. 이는 기술 기업들 사이에서 창의적 도구에 인공지능을 탑재하려는 경쟁이 치열해지는 가운데 나온 최신 움직임입니다.이번 협력을 통해 피그마는 구글의 첨단 Gemini AI 모델(Gemini 2.5 Flash, Gemini 2.0, Imagen 4 등)을 활용하여 플랫폼 전반에 걸쳐 이미지 생성 및 편집 기능을 강화할 예정이며, 이는 월간 1,300만 명 이상의 활성 사용자들에게 제공됩니다. Gemini 2.5 Flash의 초기 테스트에서는 피그마의 '이미지 만들기(Make Image)' 기능에서 지연 시간이 50% 감소하는 등 성능이 크게 향상되어, 더 빠르고 반응성 높은 시각적 제작이 가능해졌습니다.AI 기반 설계 가속화이번 통합은 사용자가 여러 도구를 오가야 하는 번거로움 없이, 기존의 크리에이티브 플랫폼 내에서 AI를 보이지 않는 가속 장치로 삼는 전략적 변화를 의미합니다. "Google Cloud와의 협업을 통해 Figma 안에 강력한 이미지 생성 및 편집 기능을 도입해 팀이 작업 흐름을 깨뜨리지 않고도 창의성을 발휘할 수 있도록 지원합니다."라고 Figma CEO 딜런 필드가 말했습니다.강화된 기능을 통해 디자이너는 간단한 텍스트 프롬프트로 고품질 이미지를 생성할 수 있고, 제품 출시 전 다양한 기능을 실험하며, 디자인부터 개발까지의 과정을 효율적으로 간소화할 수 있게 됩니다. Google Cloud CEO 토마스 쿠리안은 이번 파트너십의 중요성을 강조하며 "이제 수백만 명의 사용자가 Google의 선도적인 AI 모델, Google Cloud의 AI 최적화 인프라, 그리고 Figma의 놀라운 도구의 결합을 활용해 디자인 시장을 한 단계 더 발전시킬 수 있게 되었습니다."라고 밝혔습니다.더 넓은 산업 경쟁이 심화되고 있습니다Figma 파트너십은 Google이 동시에 Gemini Enterprise를 출시한 시점에 이루어졌습니다. Gemini Enterprise는 업무 자동화를 겨냥한 종합적인 AI 플랫폼으로, Microsoft의 Copilot 및 OpenAI의 ChatGPT Enterprise 솔루션과 직접 경쟁합니다. Gemini Enterprise의 요금은 표준 및 플러스 에디션의 경우 사용자당 월 $30부터 시작하며, 비즈니스 플랜은 좌석당 월 $21에 제공됩니다.이번 발표는 AI 기반 디자인 도구의 치열한 경쟁을 보여줍니다. Adobe와 Canva 역시 생성형 AI를 크리에이티브 워크플로에 통합하기 위해 경쟁하고 있습니다. 특히 Google과의 파트너십은 독점적이지 않으며, Figma는 최근 OpenAI 발표에도 포함되어 있어 사용자가 ChatGPT를 통해 직접 애플리케이션과 상호작용할 수 있게 되었습니다. 이는 AI 기업들이 시장 지배력을 확보하기 위해 다양한 통합 전략을 모색하고 있음을 보여줍니다.
9 조회
0 추천
10.10 등록
(퍼플렉시티가 정리한 기사)AMD(Advanced Micro Devices, Inc.)의 CEO 리사 수는 수요일에 회사의 차세대 Instinct MI450 AI 가속기가 TSMC의 첨단 2나노미터(2nm) 공정 기술을 사용할 것이라고 공식 확인했습니다. 이로 인해 AMD는 라이벌인 Nvidia(NVIDIA Corporation)의 차세대 Rubin GPU가 3나노미터(3nm) 기술을 사용할 예정인 만큼, 잠재적인 제조상의 우위를 점할 수 있게 되었습니다. 이 사실은 AMD가 최근에 OpenAI와 맺은 의미 있는 파트너십과 관련해 야후 파이낸스 인터뷰에서 언급되었습니다.2나노미터 기술로의 전환은 AMD의 AI 컴퓨팅 역량에 있어 큰 도약을 의미합니다. TSMC의 2나노 공정은 기존 3나노에 비해 동일 전력 소모에서 약 10~15% 향상된 성능, 혹은 동일 속도에서 25~30%의 전력 절감 효과, 그리고 트랜지스터 밀도가 15% 증가하는 등 현저한 이점을 제공합니다. 이러한 제조 기술의 우위는 AI 칩 시장 경쟁이 가속화되는 가운데 매우 중요한 역할을 할 수 있습니다.전략적 파트너십이 시장 입지를 강화하다MI450 발표는 AMD가 최근에 공개한 OpenAI와의 파트너십으로 인해 더욱 큰 의미를 가지게 되었습니다. 이번 파트너십은 이번 주 초에 발표되었습니다. 이 협약에 따라, OpenAI는 앞으로 수년간 최대 6기가와트에 달하는 AMD Instinct GPU를 도입할 예정이며, 그 시작은 2026년 하반기 MI450 시스템 1기가와트 롤아웃으로 시작됩니다. 이 거래는 단순한 공급 계약 그 이상으로 구조화되어 있으며, AMD는 OpenAI에게 주당 $0.01로 최대 1억 6천만 주에 대한 워런트를 발행하여 모든 마일스톤이 달성된다면 OpenAI가 AMD 지분의 최대 10%를 보유할 수도 있습니다.파트너십 발표 이후 AMD의 주가는 급등하여 이번 주에만 40% 이상 상승했고, 연초 대비 상승폭은 거의 96%에 달하게 되었습니다. 워런트 구조는 배분 시점을 도입 마일스톤과 AMD가 최대 $600까지의 특정 주가 목표를 달성하는 것에 연동시키고 있습니다.경쟁 환경의 변화2나노미터(nm) 공정의 이점은 AMD가 곧 출시될 Nvidia의 루빈(Rubin) 아키텍처와 경쟁함에 있어 유리한 위치를 차지하게 합니다. Nvidia의 루빈 GPU는 TSMC의 3나노미터 공정을 사용할 예정입니다. Nvidia 루빈 GPU는 50 페타플롭스(PF)의 집약적 FP4 연산 성능과 약 1800W의 예상 TDP 등 인상적인 성능 향상을 제공할 것으로 기대되지만, AMD의 더 진보된 제조 공정은 경쟁 구도를 일정 부분 평평하게 만들 수 있습니다.업계 관측통들은 AMD의 칩렛(chiplet) 방식이 Nvidia의 더 크고 단일 다이(monolithic) 설계에 비해 첨단 제조 공정을 도입하는 데 추가적인 유연성을 제공한다고 평가합니다. 그러나 MI450의 모든 구성 요소가 2나노 공정을 사용하는 것은 아닙니다. 보도에 따르면 AMD의 액티브 인터포저 다이(Active Interposer Die)와 미디어 인터페이스 다이(Media Interface Die)는 TSMC의 3나노 공정을 유지하고, 가속기 코어 다이(Accelerator Core Die)만 2나노 공정으로 전환됩니다.OpenAI와의 파트너십은 AMD의 AI 전략이 인정받고 있음을 의미하며, 현재 Nvidia가 거의 독점적 지위를 차지하고 있는 인공지능 시장에서 AMD가 의미 있는 시장 점유율을 확보하는 데 도움이 될 수 있습니다.
5 조회
0 추천
10.10 등록
(퍼플렉시티가 정리한 기사)기술 대기업들이 AI 서버를 식히기 위해 경쟁하는 가운데, 다이아몬드 기술이 데이터 센터의 열 위기를 해결할 신기술로 등장하고 있습니다. 다이아몬드는 구리보다 다섯 배나 뛰어난 열전도성을 지녀, 고성능 프로세서의 냉각 문제를 혁신적으로 해결할 수 있는 솔루션을 제공합니다.혁신적인 열 전달 기술인공지능 워크로드가 데이터 센터를 열 한계까지 밀어붙이면서 합성 다이아몬드가 컴퓨터 칩을 위한 궁극의 냉각 소재로 부상하고 있습니다. 이번 주에는 업계의 여러 동향을 통해 다이아몬드의 열 관리에 대한 독특한 특성이 다시금 주목받고 있습니다.다이아몬드의 원자 구조는 각 탄소 원자가 네 개의 다른 탄소 원자와 강하게 결합해 있어 명견할 만한 열 전도 경로를 형성합니다. 이는 민감한 전자 장치를 손상시키기 전에 열 에너지를 급속도로 소산시키는 역할을 합니다. 열 전도율은 2,200 W/(m-K)에 달하며, 이는 실리콘보다 13배, 구리보다 5배나 더 뛰어난 수치입니다. 합성 다이아몬드는 칩 냉각 능력에서 양자 도약을 이룰 수 있는 소재로 평가받고 있습니다.주요 산업 배치Akash Systems는 다이아몬드 쿨링 기술로 인도 데이터 센터에 다이아몬드 쿨링 서버를 배치하는 2,700만 달러 규모의 계약을 체결하면서 큰 성과를 거두었습니다. 이 회사의 GPU 냉각 시스템은 온도를 10~20°C 낮추는 동시에, 열 스로틀링 없이 더 높은 클럭 속도를 구현할 수 있는 것으로 알려져 있습니다.이 기술은 CHIPS 법을 통한 상당한 정부 지원도 이끌어냈으며, Akash Systems는 다이아몬드 쿨링 제조 확대를 위해 최대 6,800만 달러의 연방 자금을 확보했습니다. 이러한 지원은 미국 반도체 경쟁력에서 다이아몬드 쿨링의 전략적 중요성을 부각시킵니다.차세대 애플리케이션선도적인 소재 회사들은 다이아몬드 통합을 단순한 열 확산재 수준을 넘어 확장하고 있습니다. De Beers의 자회사인 Element Six 는 열전도율이 800 W/mK에 이르는 구리-다이아몬드 복합재를 출시했으며, 이는 비용 효율성을 유지하여 광범위하게 채택될 수 있습니다. 스탠포드 대학 연구진은 갈륨 나이트라이드(GaN) 장치용 후처리 다이아몬드 통합 기술을 개발하고 있는데, 이는 전력 전자 분야에 혁신을 가져올 수 있습니다.이 기술은 AI 인프라 효율성에도 폭넓은 영향을 미칠 것으로 기대됩니다. 현재 데이터센터는 미국 전체 전력의 3.7%를 소비하고 있는데, 2029년에는 10%에 이를 것으로 전망됩니다. 다이아몬드 냉각 기술은 프로세서의 성능 저하를 야기하는 열 병목 현상을 제거함으로써 이 에너지 부담을 현저히 줄일 수 있으며, 급속히 성장하는 AI 경제에 비용 절감과 환경적 이점을 동시에 제공할 수 있습니다.
10 조회
0 추천
10.10 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입