Loading...

AI 뉴스

AMD, 엔비디아에 도전하기 위해 Helios AI 플랫폼 공개

페이지 정보

작성자 xtalfi
작성일 2025.10.15 18:29
783 조회
0 추천
0 비추천

본문

555ccf1f67753fd4cfa35c9cd3623089k1iU.jpg

(퍼플렉시티가 정리한 기사)

AMD는 월요일 산호세에서 열린 Open Compute Project Global Summit에서 Helios 랙 규모 AI 플랫폼을 공개하며, AI 인프라 시장에서 Nvidia의 지배력에 대한 과감한 도전을 알렸습니다. 이 발표는 Oracle이 2026년 3분기부터 50,000개의 AMD Instinct MI450 GPU를 배포하기로 약속하며 첫 주요 고객이 된 것과 동시에 이루어졌습니다.

Helios 플랫폼은 급속도로 확장되는 AI 데이터 센터 시장에서 경쟁하기 위한 AMD의 가장 야심찬 노력을 나타내며, Meta의 새로운 Open Rack Wide 사양을 활용하여 Nvidia의 차기 Vera Rubin 아키텍처보다 50% 더 많은 메모리 용량을 제공한다고 회사는 주장합니다. 각 Helios 랙은 72개의 MI450 GPU를 탑재하고 있으며, 31TB의 HBM4 메모리와 1.4 PB/s의 총 대역폭으로 최대 1.4 엑사플롭스의 FP8 성능을 제공합니다.

 

오라클 파트너십은 주요 검증을 의미합니다

 

업계 분석가들에 따르면 약 35억~40억 달러 규모로 평가되는 오라클과의 계약은 AMD의 AI 전략에 대한 중요한 검증을 의미합니다. 오라클 클라우드 인프라스트럭처는 MI450 프로세서로 구동되는 최초의 공개 이용 가능한 AI 슈퍼클러스터의 일환으로 50,000개의 GPU를 배치할 예정이며, 2027년 이후 확장 계획을 가지고 있습니다.

"고객들은 극한의 확장성과 효율성을 위해 설계된 적응 가능하고 개방적인 컴퓨팅 솔루션을 필요로 합니다"라고 오라클은 파트너십 발표에서 밝혔습니다. 이번 배치는 MI450 GPU와 차세대 EPYC "Venice" CPU, 그리고 Pensando "Vulcano" 네트워킹 기술을 결합한 AMD의 통합 Helios 랙 디자인을 활용할 것입니다.

AMD의 주가는 이번 발표 이후 시간외 거래에서 3% 이상 상승했으며, 이는 주로 회사의 최근 AI 파트너십에 힘입어 올해 85% 상승한 것에 더해진 것입니다. 오라클과의 계약은 AMD가 수년간 6기가와트의 GPU 용량을 제공하기로 OpenAI와 수십억 달러 규모의 계약을 체결한 지 불과 일주일 만에 이루어졌습니다.

 

Nvidia 생태계에 대한 개방형 표준 도전

 

Helios 플랫폼은 Nvidia의 독점 생태계에 대한 대안으로 개방형 표준을 촉진하는 AMD의 전략을 구현합니다. 기가와트 규모의 데이터 센터에 최적화된 더블 와이드 랙을 정의하는 Meta의 Open Rack Wide 사양을 기반으로 구축된 Helios는 UALink 및 Ultra Ethernet Consortium 아키텍처를 포함한 개방형 컴퓨팅 표준을 통합합니다.

AMD 데이터 센터 솔루션 부문 수석 부사장인 Forrest Norrod는 "개방형 협업은 AI를 효율적으로 확장하는 핵심입니다"라고 말했습니다. "Helios를 통해 우리는 개방형 표준을 실제 배포 가능한 시스템으로 전환하고 있습니다".

각 MI450 GPU는 최대 432GB의 HBM4 메모리와 19.6 TB/s의 메모리 대역폭을 제공하여 AMD에게 메모리 집약적인 AI 워크로드에서 잠재적인 이점을 제공합니다. 이 플랫폼은 또한 AMD가 이전 세대 대비 17.9배 높은 성능을 제공하며 Nvidia의 경쟁 시스템인 Vera Rubin과 비교하여 우수한 메모리 사양을 제공한다고 설명합니다.

댓글 0
전체 1,021 / 157 페이지
(퍼플렉시티가 정리한 기사)Adobe는 화요일, 기업들이 AI 기반 채팅 서비스 및 브라우저에서 가시성을 향상시킬 수 있도록 설계된 새로운 엔터프라이즈 애플리케이션인 Adobe LLM Optimizer의 정식 출시를 발표했습니다. 이번 출시는 2025년 9월 미국 리테일 사이트로의 AI 트래픽이 전년 대비 1,100% 증가한 시점에 이루어졌으며, 이는 소비자들이 제품을 발견하고 조사하는 방식의 근본적인 변화를 나타냅니다.이 도구는 생성 엔진 최적화(GEO)의 중요성 증대를 다루며, 기업들이 AI 기반 트래픽을 모니터링하고, 브랜드 가시성을 벤치마킹하며, 자사 디지털 자산과 브랜드가 언급되는 제3자 플랫폼 모두에서 발견 가능성을 개선하기 위한 실행 가능한 권장 사항을 배포할 수 있도록 합니다.내부 테스트를 통한 측정 가능한 결과Adobe의 내부 테스트는 구현 1주일 만에 인상적인 결과를 보여주었습니다. 회사는 LLM 응답 전반에 걸쳐 Adobe Firefly 인용이 5배 증가했고, Adobe Acrobat의 LLM 가시성이 200% 증가했으며, Adobe.com 페이지로의 LLM 유입 트래픽이 41% 증가했습니다."생성형 엔진 최적화는 빠르게 경영진의 주요 관심사가 되었으며, 선도 기업들은 AI 플랫폼 전반에 걸쳐 권위를 구축하고 경쟁 우위를 확보하고 있습니다"라고 Adobe Experience Cloud의 전략 및 제품 부사장인 Loni Stark가 말했습니다.LLM Optimizer를 사용하는 얼리 액세스 고객들은 80%가 AI 플랫폼이 주요 제품 정보나 리뷰에 접근하지 못하게 하는 심각한 콘텐츠 가시성 격차를 가지고 있음을 발견했습니다. 이 도구의 추천 엔진은 이러한 격차를 감지하고 자체 웹페이지와 Wikipedia 및 공개 포럼과 같은 외부 채널 모두에 걸쳐 개선 사항을 제안합니다.엔터프라이즈 통합 및 접근성LLM Optimizer는 독립형 애플리케이션으로 제공되며 Adobe Experience Manager Sites와 기본적으로 통합됩니다. Agent-to-Agent(A2A) 및 Model Context Protocol(MCP)과 같은 업계 표준을 지원하여 타사 솔루션 간 원활한 상호 운용성을 제공합니다.AI 가시성 인사이트를 더욱 쉽게 접근할 수 있도록 하기 위해 Adobe는 "Is Your Webpage Citable?"이라는 무료 Chrome 확장 프로그램도 출시했습니다. 이 확장 프로그램은 모든 웹사이트에서 LLM이 무엇을 보고 무엇을 놓치는지 보여줍니다. 이 확장 프로그램을 통해 팀은 전체 엔터프라이즈 솔루션 없이도 AI 가시성의 숨겨진 격차를 발견할 수 있습니다.=========추가 질문: "예전의 SEO와 다른 점이 있나. 어차피 같은 논리 아닌가"답변:예전의 SEO와 LLM 가시성 증가는 비슷해 보이지만, 핵심적으로 다른 점이 많습니다. SEO는 검색 엔진(구글 등)의 페이지 순위와 클릭을 높이는 데 초점을 맞췄지만, LLM 최적화(GEO)는 AI가 브랜드를 얼마나 자주, 얼마나 정확하게 인용하는지를 목표로 합니다.핵심적 차이점최적화 대상- SEO: 구글, 네이버, Bing 등 전통적 검색엔진 페이지 순위.- LLM/GEO: ChatGPT, Bing Copilot, AI 챗봇·생성형 검색이 출력하는 ‘답변 내 브랜드 인용’ 빈도.측정 기준- SEO: 클릭 수, 검색 순위, 트래픽, 백링크.- LLM/GEO: AI 답변 내 언급/인용 횟수, 브랜드 권위성, 정보 구조화, ‘비링크 신호’ (예: 전문가 리뷰, 포럼 내 논의).콘텐츠 구조 및 전략- SEO: 키워드 밀도, 장문의 글, 백링크 중심.- LLM/GEO: 명확하고 구조화된 데이터, 타겟 키워드 대신 ‘의도와 맥락’ 중심, AI가 쉽게 인식·해석할 수 있는 형식(JSON, 위키피디아식, 마크다운 등).주요 변화점- AI는 검색 순위 1~10위 페이지뿐 아니라, 롱테일(21위+) 정보, 신뢰도 높은 전문가 코멘트까지 참고하면서 인용.- LLM 가시성은 클릭 유도보다 “문장 내에서 내 브랜드가 얼마나 답변에 들어가는가”가 중요.- SEO는 링크와 키워드에 의존하지만, LLM 최적화는 명확한 구조화, 신뢰도, 내용의 깊이(깊은 지식·사례·분석) 등이 더 중요한 신호로 작용.- AI 답변은 “클릭 없이 즉석에서 문제를 해결”하므로, 브랜드 노출 후 즉각적으로 고유 가치 전달이 필요함.두 방법의 논리는 ‘콘텐츠 노출 극대화’라는 점에선 유사하지만, AI 시대에는 내용의 구조화, 권위성, 맥락 기반 정보, 다양한 외부 채널 노출이 훨씬 중요한 신호로 바뀌고 있습니다.
738 조회
0 추천
2025.10.15 등록
(퍼플렉시티가 정리한 기사)OpenAI CEO 샘 올트먼은 두바이에서 열린 GITEX Global 2025에서 자사의 야심찬 인프라 전략을 제시하며, 인공지능이 세계가 기술 시스템을 구축하고 운영하는 방식을 근본적으로 변화시킬 미래를 예측했습니다. 10월 14일 기술 컨퍼런스에 가상으로 참석한 올트먼은 지능의 비용이 결국 에너지 비용과 수렴하게 될 것이며, 이는 AI가 전 세계적으로 배포되는 방식에 있어 중추적인 변화를 의미한다고 강조했습니다.인프라 확장 및 전략적 파트너십Altman은 OpenAI가 향후 1~2년간 AI 모델의 기하급수적 성장을 지원하기 위해 업계 전반의 협력이 필요한 "매우 공격적인 인프라 투자"를 진행하고 있다고 밝혔다. 이러한 대규모 투자 전략은 이미 여러 주요 파트너십으로 구체화되었으며, 최근와의 협력을 통해 10기가와트 규모의 맞춤형 AI 가속기를 배치하기로 했고, 2026년 하반기부터 배치가 시작될 예정이다.또한 회사는 AMD와 다년간 계약을 체결하여 6기가와트 규모의 GPU를 배치하기로 했으며, 2026년에 1기가와트부터 시작할 예정이다. 이러한 파트너십은 OpenAI가 연구소에서 Altman이 설명한 "AI 제국"이라는 수직 통합 기업으로 전환하고 있음을 보여주며, 기본 컴퓨팅 파워부터 상위 계층 애플리케이션까지 역량을 통제하고 있다.UAE 파트너십 및 스타게이트 프로젝트OpenAI는 G42, Oracle, Nvidia, Cisco 및 SoftBank와의 파트너십을 통해 UAE를 Stargate 데이터 인프라 프로젝트의 첫 번째 해외 사이트로 선정했습니다. 계획된 5기가와트 UAE 캠퍼스의 첫 200메가와트는 내년에 가동될 것으로 예상되며, G42의 Talal Al Kaissi가 GITEX에서 일정을 확인했습니다.G42 CEO Peng Xiao와의 대화에서 Altman은 AI가 일상 생활에 어떻게 자리 잡았는지 강조했으며, ChatGPT는 현재 전 세계 인구의 약 10%에 해당하는 8억 명 이상의 주간 활성 사용자를 보유하고 있습니다. Xiao는 ChatGPT가 500개의 맞춤형 프롬프트를 통해 아부다비 부통치자이자 G42 회장인 Sheikh Tahnoon의 집 설계를 도왔다고 밝혔습니다.자가 복제 인프라에 대한 비전아마도 가장 놀라운 것은 AI가 곧 데이터 센터와 로봇이 자율적으로 스스로를 구축하고 복제할 수 있게 할 것이라는 Altman의 예측이었습니다. "다른 데이터 센터를 구축할 수 있는 데이터 센터는 그리 멀지 않았습니다"라고 그는 말하며, 이를 기술 환경에서 가장 논의가 부족한 변화 중 하나로 설명했습니다. 이 비전은 로봇이 다른 로봇을 제작하는 것으로 확장되며, 그는 이를 기계가 인지적 작업과 물리적 창조 작업을 모두 처리하는 새로운 산업 자동화 단계라고 불렀습니다.Altman과 Xiao는 글로벌 "AI 격차"를 방지하기 위해서는 지능을 모든 곳에서 풍부하고 접근 가능하게 만들어 전기와 유사한 공공재로 취급해야 한다는 데 동의했습니다. Xiao가 표현한 것처럼, UAE는 "석유 배럴 수출에서 지능 토큰 배포로" 전환하고 있으며, 이는 지능 기반 경제로의 광범위한 전환을 반영합니다.
737 조회
0 추천
2025.10.15 등록
(퍼플렉시티가 정리한 기사)AI 스타트업 Lila Sciences는 Nvidia의 벤처 투자 부문이 주도한 시리즈 A 연장 라운드에서 1억 1,500만 달러를 유치하여 회사 가치가 13억 달러를 넘어섰다고 오늘 발표된 로이터 보도에 따르면. 이번 투자로 Lila의 시리즈 A 총 투자금은 3억 5,000만 달러에 이르렀으며, 2023년 설립 이후 총 조달 자본은 5억 5,000만 달러가 되었다.과학적 초지능 플랫폼이 형태를 갖추다Geoffrey von Maltzahn과 Noubar Afeyan이 Flagship Pioneering을 통해 설립한 Lila Sciences는 특화된 AI 모델과 자동화된 실험실을 결합하여 "과학적 초지능"을 구축하는 것을 목표로 합니다. 이 회사의 접근 방식은 일부 전문가들이 거의 고갈되었다고 주張하는 인터넷 기반 학습 데이터에 의존하기보다는 새로운 실험을 통해 독점적인 과학 데이터를 생성하는 데 중점을 두고 있습니다.이 스타트업은 최근 매사추세츠주 케임브리지에서 235,500평방피트 규모의 임대 계약을 체결했으며, 이는 올해 그레이터 보스턴 지역에서 가장 큰 실험실 임대 계약 중 하나입니다. "AI 과학 공장"이라 불리는 이 시설들은 AI가 제어하는 로봇 장비를 갖추고 있어 실험을 지속적으로 수행합니다. 회사는 자사의 플랫폼이 이미 생명과학, 화학, 재료 분야에서 수천 건의 발견을 이루었다고 주장합니다.연구실을 넘어 확장하기Lila는 기업용 소프트웨어를 통해 AI 모델과 자동화된 실험실에 대한 접근을 제공함으로써 플랫폼을 상업화할 계획입니다. 이 기술은 에너지, 반도체, 제약 분야의 기업들로부터 관심을 받았지만, 구체적인 고객명은 공개되지 않았습니다. 전통적인 신약 개발 회사들과 달리, Lila는 분자를 직접 임상시험에 진입시키지 않고 자사 플랫폼을 사용하는 다른 기업 및 스타트업과 파트너십을 맺을 예정입니다.이번 투자 유치는 AI 기반 과학적 발견에 대한 벤처 캐피털의 관심이 증가하고 있음을 반영합니다. 지난달, Google DeepMind와 OpenAI 출신 연구자들이 설립한 AI 스타트업 Periodic Labs는 AI 과학자를 개발하기 위해 3억 달러를 조달했습니다. Lila의 투자자로는 Flagship Pioneering, General Catalyst, 그리고 Abu Dhabi Investment Authority의 자회사가 포함됩니다.
754 조회
0 추천
2025.10.15 등록
(퍼플렉시티가 정리한 기사)Oracle은 월요일에 Oracle AI Factory를 출시했습니다. 이는 기업들이 인공지능 솔루션을 신속하게 구현하고 운영 전반에 걸쳐 측정 가능한 비즈니스 성과를 달성할 수 있도록 설계된 포괄적인 서비스 제품군입니다.이 새로운 제품은 AI 교육 프로그램, 구현 플레이북, 고객 성공 관리자, 기술 전문가, 그리고 글로벌 AI 고객 우수성 센터를 하나의 서비스 패키지로 묶었습니다. Oracle은 AI Factory를 기업의 AI 야망과 실제 배포 사이의 격차를 해결하고, "AI 여정의 어느 지점에 있든" 고객을 만나는 것으로 포지셔닝하고 있습니다.얼리 어답터들이 즉각적인 혜택을 보고하다여러 주요 기업들이 이미 Oracle AI Factory를 사용하기 시작했으며, 상당한 운영 개선을 보고하고 있습니다. Marriott International, MTI, Etihad Salam, 그리고 Grupo Bimbo는 프로세스 복잡성 감소, 이탈률 감소, 글로벌 운영 표준화, 사이버 보안 강화 등의 혜택을 경험하고 있는 얼리 어답터들입니다.Marriott International의 인재 관리 및 조직 역량 글로벌 책임자인 Elaine Engle은 "Oracle의 AI 기반 Fusion Cloud HCM 제품군은 성과 관리에 대한 우리의 접근 방식을 향상시켜 직원들을 위한 더 빠르고 일관된 목표 설정을 가능하게 했습니다"라고 말했습니다. "이는 우리 직원들이 조직에 의미 있는 영향과 결과를 가져오는 더 명확하고 측정 가능한 목표를 개발할 수 있도록 힘을 실어줍니다."세계 최대의 제빵 회사인 Grupo Bimbo는 Oracle의 AI 기능을 활용하여 글로벌 운영을 현대화했으며, 생성형 AI 어시스턴트를 사용하여 직원들이 정책 정보에 빠르게 접근할 수 있도록 돕고, 개선된 판매 예측 및 생산 라인 모니터링을 위해 AI 기반 분석을 구현했습니다.포괄적 AI 구현 프레임워크Oracle AI Factory는 8가지 핵심 구성 요소를 포함합니다: AI 교육 및 훈련 프로그램, Oracle Fusion Applications를 위한 처방적 AI 플레이북 및 런북, Cloud Success Navigator 디지털 플랫폼, 전담 고객 성공 관리자, 선별된 AI 도구 및 사용 사례, 테스트를 위한 글로벌 AI Customer Excellence Center, 맞춤형 구현을 위한 Oracle 기술 전문가, 그리고 사전 구축된 에이전트를 갖춘 고정 범위 AI Acceleration Services.이 서비스는 올해 초 출시된 Oracle의 기존 AI Agent Studio for Fusion Applications를 기반으로 구축되었으며, 고객이 기업 운영 전반에 걸쳐 맞춤형 AI 에이전트를 생성하고 배포할 수 있도록 지원합니다. Oracle의 고객 성공 책임자이자 수석 부사장인 Gary Miller는 회사의 포괄적인 접근 방식을 강조하며 다음과 같이 말했습니다: "Oracle AI Factory는 이러한 요소들을 통합하여 최첨단 기술을 안전하고 비용 효율적으로 실질적인 가치를 제공하는 실용적인 비즈니스 솔루션으로 전환합니다".이번 발표는 2026년부터 50,000개의 AI 프로세서를 배포하기 위한 AMD와의 새로운 파트너십 및 내장형 AI 기능을 갖춘 Oracle AI Database 26ai의 출시를 포함한 Oracle의 광범위한 AI 인프라 확장과 동시에 이루어졌습니다.
766 조회
0 추천
2025.10.15 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입