Loading...

AI 뉴스

OpenAI, 1조 4천억 달러 규모의 인프라 거래 약속

페이지 정보

작성자 xtalfi
작성일 2025.11.07 14:51
1,645 조회
1 댓글
0 추천
0 비추천

본문

2236933779_xbzfuy.jpg

(퍼플렉시티가 정리한 기사)


OpenAI는 기술 역사상 가장 야심찬 재정적 사업 중 하나에 직면해 있으며, CEO 샘 알트먼은 인공 일반 지능(AGI) 목표를 추구하면서 회사가 1조 4천억 달러 이상의 인프라 거래를 약속했다고 밝혔습니다. 목요일 발언에서 알트먼은 대규모 확장에도 불구하고 OpenAI가 정부 구제금융을 추구하지 않으며 2025년 말까지 연간 매출 실행률이 200억 달러를 넘어설 것으로 예상하고, 이 수치는 2030년까지 수천억 달러 규모로 확대될 것으로 예상된다고 이해관계자들을 안심시켰습니다.​


1조 달러 규모의 확장과 수익 목표

Altman의 X 플랫폼 발표는 AI 업계에 중요한 전환점이 되었으며, 이는 OpenAI가 데이터 센터 용량과 칩 파트너십, 특히 Nvidia와 AMD 같은 거대 공급업체들과 수십억 달러 규모의 계약을 확보하는 시점에 이루어졌다. 향후 8년간 1조 4천억 달러라는 투자 규모는 실리콘밸리와 월스트리트 전반에 경외심과 회의론을 동시에 불러일으켰으며, 이들은 이제 OpenAI의 예상 수익이 비용을 감당할 수 있을지 고심하고 있다. "우리는 AI가 주도하는 미래 경제를 위한 인프라를 구축하고 있습니다... 대규모 인프라 프로젝트는 완성까지 상당한 시간이 걸리므로 지금 시작해야 합니다"라고 Altman은 작성하며, 이러한 투자를 신흥 AI 역량에서 리더십을 유지하기 위한 필수 요소로 자리매김했다.​

최근 몇 달 동안 OpenAI는 비영리 기관에서 ChatGPT의 폭발적인 성공에 힘입어 세계에서 가장 빠르게 성장하는 상업용 AI 벤처 기업 중 하나로 전환했다. Altman은 기업용 AI, 소비자 기기—5월에 인수한 Jony Ive의 io에서 비롯된 손바닥 크기의 AI 기기에 대한 소문을 포함하여—그리고 로봇공학 분야의 새로운 비즈니스 제품을 통해 2030년까지 "수천억 달러"의 매출을 올릴 것으로 예측한다. 이 회사는 또한 다른 기업들에게 AI 컴퓨팅 용량을 직접 판매하는 것을 고려하고 있으며, 이는 주요 클라우드 컴퓨팅 제공업체가 되려는 야망을 시사한다.​


정부 구제금융 거부와 산업계 반응

정부 구제금융의 가능성은 CFO 사라 프리어(Sarah Friar)가 WSJ Tech Live 컨퍼런스에서 OpenAI의 인프라 계획 자금 조달을 돕기 위한 연방 정부의 "안전망" 가능성을 시사한 발언 이후 수면 위로 떠올랐습니다. 이 발언은 즉각적인 반발을 불러일으켰고, 알트만은 강력하게 해명했습니다: "우리는 OpenAI 데이터 센터에 대한 정부 보증을 받지도 않고 원하지도 않습니다. 정부는 특정 기업을 우대해서는 안 되며, 납세자들이 잘못된 결정을 내리거나 시장에서 실패한 기업을 구제하는 책임을 져서는 안 됩니다"라고 그는 밝혔으며, 이는 AI 기업에 대한 연방 지원을 배제한 백악관 AI 고문 데이비드 색스(David Sacks)의 유사한 게시물과 맥을 같이 합니다.

알트만은 공공 자금이 개별 기업이 아닌 전체 산업, 특히 미국 반도체 제조업을 강화하는 데 사용되어야 한다고 더욱 강조했습니다. OpenAI가 국내 반도체 생산을 위한 대출 보증에 관한 논의에 참여한 것은 사실이지만, 알트만은 어떤 신청서도 제출되지 않았으며 직접적인 구제금융 계획도 없다고 주장합니다.​


재정적 불확실성과 앞으로의 길

5,000억 달러에 달하는 인상적인 기업 가치에도 불구하고, OpenAI는 여전히 수익을 내지 못하고 있어 막대한 지출을 정당화해야 한다는 압박이 커지고 있습니다. 분석가들은 회사의 상당한 수익 창출 능력이 "모든 사람에게 드리워진 주요 질문"이라고 지적하며, 회의론자들은 지분 조달, 부채 자본, 그리고 새로운 제품 카테고리에 대한 계획을 면밀히 주시하고 있습니다.​

OpenAI의 회장인 그렉 브록먼은 현재 1조 달러 규모의 인프라 구축을 주도하고 있으며, AGI가 실현될 경우 "모든 것을 변화시킬 것"이라고 주장하면서 이 투자를 사회 발전에 필수적인 것으로 규정하고 있습니다. 알트만과 브록먼 모두 지속적인 규모 확대와 신속한 실행이 OpenAI가 경쟁 우위를 유지하는 데 중요하다는 확고한 믿음을 표명하고 있습니다.

OpenAI가 AGI, 기업용 AI, 그리고 소비자 기술 분야에서 대담한 새로운 지평을 추구함에 따라, 전 세계는 기술 업계의 가장 과감한 도박이 성공할지, 아니면 재정적 중력이 야망을 다시 지상으로 끌어내릴지 지켜볼 것입니다.

댓글 1
전체 1,366 / 12 페이지
으아.. 애플이 아이폰에 제미나이를 쓰겠다고 하네요..그럼 정말 안드로이드 폰하고 뭐가 달라질라나...Apple picks Google’s Gemini AI for its big Siri upgrade애플은 올해 출시될 더욱 개인화된 시리(Siri)에 구글의 제미니(Gemini) AI 모델을 적용할 예정이다.구글과 애플은 월요일에 "신중한 평가 끝에 애플은 구글의 AI 기술이 애플 파운데이션 모델(Foundation Models)에 가장 적합한 기반을 제공한다고 판단했으며,이를 통해 애플 사용자들에게 혁신적인 새로운 경험을 제공할 수 있게 되어 기쁘다"고 발표했다 .최초 보도는 cnbchttps://www.cnbc.com/2026/01/12/apple-google-ai-siri-gemini.html“After careful evaluation, we determined that Google’s technology provides the most capable foundation for Apple Foundation Models and we’re excited about the innovative new experiences it will unlock for our users,” Apple said in astatementMonday.
723 조회
0 추천
2026.01.13 등록
Executive Summary• 구글이 일부 의료 관련 검색어에 대한 AI 오버뷰 기능을 비활성화함• 가디언 조사에서 췌장암 환자에게 '위험한' 잘못된 식이요법 조언 제공 사실 확인• 간 기능 검사 관련 허위 정보로 심각한 간 질환 환자가 건강하다고 오인할 수 있는 문제 발생• 구글은 대부분의 정보가 정확하다고 주장하나, 문제 있는 결과에 대해서는 개선 조치 진행 중Background구글의 AI 오버뷰 기능은 2024년 출시 이후 지속적인 논란에 휩싸여 왔다. 피자에 접착제를 넣으라는 조언, 돌을 먹으라는 권고 등 황당한 오류가 알려지면서 여러 건의 소송까지 제기된 바 있다. 이번에는 의료 정보라는 민감한 영역에서 심각한 오류가 발견되어 더욱 큰 우려를 낳고 있다.Impact & Implications사용자 안전 문제AI가 생성한 의료 정보의 부정확성은 단순한 불편을 넘어 환자의 생명과 직결될 수 있다. 췌장암 환자에게 고지방 식품을 피하라는 조언은 전문가들이 권고하는 내용과 정반대이며, 환자의 사망 위험을 높일 수 있다고 경고된다. 간 기능 검사 정보의 오류 역시 심각한 간 질환 환자가 치료 시기를 놓치게 만들 수 있는 위험한 문제다.AI 신뢰성에 대한 근본적 의문이번 사태는 대형 기술 기업의 AI 서비스가 고위험 영역에서 얼마나 신뢰할 수 있는지에 대한 근본적인 의문을 제기한다. 구글은 "대다수의 AI 오버뷰가 정확한 정보를 제공한다"고 주장하지만, 의료 분야에서는 소수의 오류도 치명적인 결과로 이어질 수 있다.규제 및 책임 논의 가속화AI 생성 콘텐츠의 정확성과 책임 소재에 대한 규제 논의가 더욱 활발해질 전망이다. 특히 의료, 법률 등 전문 분야에서 AI 정보 제공에 대한 가이드라인 마련이 시급해 보인다.Key Data & Facts항목수치/내용발생 시점2026년 1월문제 발견 경로가디언 탐사보도주요 오류 사례췌장암 식이요법, 간 기능 검사 수치구글 대응일부 의료 검색어 AI 오버뷰 비활성화기존 논란피자 접착제, 돌 섭취 권고 등Key Quote"We invest significantly in the quality of AI Overviews, particularly for topics like health, and the vast majority provide accurate information."— Davis Thompson, 구글 대변인
712 조회
0 추천
2026.01.12 등록
Executive Summary • xAI의 Grok 챗봇이 동의 없는 성적 딥페이크 이미지를 대량 생성해 국제적 논란 확산 • 영국, 프랑스, 인도, 말레이시아 등 각국 정부가 조사 및 규제 검토에 착수 • 미국 CSAM 및 딥페이크 관련 법률의 AI 적용 가능 여부에 법조계 의견 분분 • 머스크의 트럼프 행정부와의 긴밀한 관계가 미국 내 규제 집행에 변수로 작용 Background 일론 머스크의 AI 기업 xAI가 개발한 챗봇 Grok은 2025년부터 성적 이미지 생성 관련 논란에 휘말려왔다. 지난주 X(구 트위터)에 도입된 이미지 편집 기능으로 사용자들이 원본 게시자의 동의 없이 사진을 수정할 수 있게 되면서, 여성과 미성년자의 옷을 벗기는 딥페이크 이미지가 플랫폼에 범람하기 시작했다. 한 추정에 따르면 최고조 시점에 분당 1건의 비동의 성적 이미지가 생성됐다. Impact & Implications 규제/정책 영향 각국 정부의 대응이 빠르게 전개되고 있다. 영국의 키어 스타머 총리는 해당 콘텐츠를 "역겨운 것"이라 규정하며 "모든 옵션을 검토하겠다"고 밝혔다. 영국 통신규제기관 Ofcom은 온라인안전법 위반 여부를 조사 중이다. 유럽연합 집행위원회는 Grok의 결과물이 "불법이며 끔찍하다"고 논평했고, 인도 IT부는 불법 콘텐츠 방지 조치를 보고하도록 xAI에 명령했다. 법적 쟁점과 한계 미국 법률의 AI 적용에는 상당한 불확실성이 존재한다. 미 법무부는 "실제 미성년자와 구별할 수 없는 디지털 이미지"를 금지하고 있으며, 2025년 5월 트럼프 대통령이 서명한 Take It Down Act는 AI 생성 성적 이미지를 금지한다. 그러나 조지워싱턴대 로스쿨의 메리 앤 프랭크스 교수는 "상당히 모호하다"고 지적하며, 비키니를 입힌 미성년자 이미지가 현행 CSAM 법률을 위반하는지는 불분명하다고 설명했다. 플랫폼 면책 조항인 섹션 230이 AI 생성 콘텐츠에도 적용되는지도 미지수다. 정치적 변수 머스크와 트럼프 행정부의 긴밀한 관계가 규제 집행의 변수로 떠오르고 있다. 머스크가 운영했던 정부효율부(DOGE)가 한때 FTC 내부에서 활동했던 점, 그리고 트럼프 행정부가 미국 인터넷 플랫폼에 대한 해외 규제를 무역 협상에서 억제해온 점이 주목된다. 머스크는 해당 논란에 대해 웃음 이모지로 반응하거나 "표현의 자유 탄압"이라며 반박하는 등 심각성을 축소하는 태도를 보이고 있다. Key Data & Facts 항목수치/내용 이미지 생성 속도분당 약 1건 (최고조 시점) Take It Down Act 시행일2025년 5월 (유예기간 2026년 5월까지) 규제 검토 국가영국, EU, 프랑스, 인도, 말레이시아, 호주, 브라질 Grok 4 모델카드 공개 지연출시 후 1개월 이상 소요 Key Quote "이것은 미국 사회, 그리고 전 세계 대부분의 사회에 만연한 여성혐오를 표출하는 도구입니다. 이는 프라이버시 침해이자 동의와 경계의 침해이며, 극도로 침습적이고, 어떤 의미에서는 젠더 기반 폭력의 한 형태입니다." — 리아나 페퍼콘, 스탠포드 인간중심AI연구소(HAI) 정책 펠로우
725 조회
0 추천
2026.01.11 등록
Executive Summary • OpenAI가 외부 하청업체에게 현재 또는 이전 직장에서 수행한 실제 업무 과제와 산출물을 업로드하도록 요청하고 있음 • 이 데이터는 차세대 AI 모델의 성능을 평가하고, 인간 전문가와 AI의 업무 수행 능력을 비교하는 데 활용될 예정 • 하청업체가 기밀정보와 개인정보를 직접 삭제해야 하는 방식이어서 영업비밀 유출 및 법적 분쟁 우려 제기됨 Background OpenAI는 2024년 9월부터 자사 AI 모델의 성능을 인간 전문가와 비교·측정하는 새로운 평가 체계를 도입했다. 이는 '경제적으로 가치 있는 대부분의 과업에서 인간을 능가하는 AI 시스템', 즉 AGI(범용인공지능) 달성 진척도를 파악하기 위한 핵심 지표로 활용되고 있다. AI 기업들은 고품질 학습 데이터 확보를 위해 Surge, Mercor, Scale AI 등 외부 업체와 대규모 계약을 맺어왔으며, 이 시장은 Handshake AI의 35억 달러, Surge의 250억 달러 기업가치 평가에서 보듯 급성장 중이다. Impact & Implications 법적·윤리적 리스크 지식재산권 전문 변호사 에반 브라운은 이러한 방식이 영업비밀 침해 소송의 빌미가 될 수 있다고 경고했다. 하청업체 직원들이 이전 고용주의 비밀유지계약(NDA)을 위반하거나 영업비밀을 노출할 위험이 있기 때문이다. AI 기업이 기밀정보 판별 책임을 개별 하청업체에 전가하는 구조는 상당한 법적 리스크를 수반한다. AI 에이전트 경쟁 심화 OpenAI, Anthropic, Google 등 주요 AI 기업들이 기업 업무 자동화가 가능한 AI 에이전트 개발에 박차를 가하고 있다. 실제 업무 데이터를 활용한 학습은 AI 에이전트가 현실 세계의 복잡한 업무를 처리하는 데 필수적이며, 이번 사례는 그 데이터 확보 전략의 일면을 보여준다. 데이터 조달 방식의 진화 WIRED 취재에 따르면 OpenAI는 폐업 기업의 내부 문서, 이메일 등 데이터 구매도 타진한 것으로 알려졌다. AI 학습용 고품질 데이터 확보 경쟁이 점점 더 공격적인 방향으로 전개되고 있음을 시사한다. Key Data & Facts 항목수치/내용 Handshake AI 기업가치35억 달러 (2022년) Surge 추정 기업가치250억 달러 (2024년 하반기) 평가 프로세스 도입 시기2024년 9월 요청 문서 형태Word, PDF, PowerPoint, Excel, 이미지, 코드 저장소 등 Key Quote "AI 연구소가 기밀 정보 판단을 하청업체에 전적으로 맡기고 있다. 만약 무언가 빠져나간다면, AI 연구소가 그것이 영업비밀인지 아닌지 판별하는 데 충분한 시간을 들이고 있을까? AI 연구소가 스스로를 큰 위험에 노출시키는 것 같다." — 에반 브라운, 지식재산권 변호사
767 조회
0 추천
2026.01.11 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입