Loading...

AI 뉴스

구글, 에이전트 우선 코딩 IDE인 Antigravity 출시

페이지 정보

작성자 xtalfi
작성일 11.19 18:50
74 조회
0 추천
0 비추천

본문

f43ee9a7735c9322763d602776200742_1763545806_2201.jpg
 

(퍼플렉시티가 정리한 기사)


Google는 2025년 11월 18일에 Antigravity를 공개했습니다. 이는 에이전트-퍼스트 무료 통합 개발 환경으로, AI를 단순한 보조자에서 능동적인 개발 파트너로 격상시킴으로써 개발자가 소프트웨어를 만드는 방식을 근본적으로 변화시킵니다. Gemini 3 Pro 위에 구축되었으며, Windsurf에서 온 기술로 구동됩니다. Windsurf의 CEO 바룬 모한과 핵심 팀은 7월에 24억 달러에 Google에 인수되었습니다. Antigravity는 자율 에이전트에게 에디터, 터미널, 브라우저에 직접 접근할 수 있도록 하며, 이들이 복잡한 소프트웨어 작업을 독립적으로 계획, 실행, 검증할 수 있게 합니다.​


에이전트 우선 아키텍처가 개발자 워크플로우를 재정의하다

기존의 AI 코드 어시스턴트가 사이드바를 차지하는 것과 달리, Antigravity는 에이전트 매니저를 주요 인터페이스로 위치시킵니다. 이 플랫폼은 세 가지 독특한 "서피스"를 도입합니다: 여러 자율 에이전트를 오케스트레이션할 수 있는 에이전트 매니저 대시보드, 익숙한 Visual Studio Code 스타일의 에디터, 그리고 에이전트가 웹 애플리케이션을 실시간으로 테스트할 수 있도록 스크린샷과 녹화를 통해 깊은 크롬 브라우저 통합을 제공합니다.​

"Antigravity는 개발자가 작업 공간 전반에 걸쳐 에이전트를 관리하면서, 기본적으로 친숙한 AI IDE 경험을 유지하면서 더 높은 작업 지향적 수준에서 작업할 수 있도록 합니다."라고 Google은 출시 발표에서 밝혔습니다. 이 플랫폼의 에이전트는 개발자가 아키텍처와 전략적 결정에 집중하는 동안, 새로운 기능 구현부터 코드 디버깅, 문서 생성에 이르기까지 여러 단계의 개발 작업을 자율적으로 처리할 수 있습니다.​

이 IDE는 작업 목록, 구현 계획, 브라우저 스크린샷, 실행 녹화 등 검증 가능한 결과물인 "Artifacts"를 도입합니다. 이러한 투명성 메커니즘은 에이전트가 무엇을 만들었고 어떻게 테스트했는지에 대한 구체적인 증거를 개발자에게 제공함으로써, 단순히 완성된 코드를 보여주는 대신 AI가 생성한 코드에 대한 중요한 신뢰의 격차를 해소합니다.​


기업 도입 가속화

초기 기업 고객들은 생산성 향상을 보고하고 있습니다. JetBrains는 Gemini 3 Pro를 통합했을 때 벤치마크 작업 해결 수에서 "Gemini 2.5 Pro 대비 50% 이상 개선"을 관찰했다고 밝혔습니다. GitHub은 초기 VS Code 테스트에서 "소프트웨어 엔지니어링 과제 해결 정확도가 Gemini 2.5 Pro보다 35% 높았다"고 보고했습니다.​

Cursor, Figma, Replit, Shopify, Thomson Reuters 등 다양한 개발 플랫폼이 이미 Gemini 3 Pro를 통합하고 있습니다. Box의 CTO 벤 쿠스(Ben Kus)는 Gemini 3 Pro가 "Box AI가 조직 지식을 해석하고 적용하는 방식을 혁신할 새로운 수준의 멀티모달 이해력, 계획 수립, 도구 호출을 제공한다"고 말했습니다.​

현재 MacOS, Windows, Linux에서 무료로 공개 프리뷰 중인 Antigravity는 Gemini 3 Pro뿐 아니라 Anthropic의 Claude Sonnet 4.5 및 OpenAI의 GPT-OSS 모델도 지원합니다. 이 플랫폼은 5시간마다 새로 고침되는 넉넉한 속도 제한을 제공하며, Google은 "매우 소수의 파워 유저들"만이 제한을 경험할 것이라고 밝혔습니다.

댓글 0
전체 1,160 / 37 페이지
(퍼플렉시티가 정리한 기사)일본의 선도적인 연구기관인 RIKEN은 SC25 컨퍼런스에서 NVIDIA Blackwell GPU로 구동되는 두 대의 새로운 슈퍼컴퓨터를 배치할 것이며, 2026년 봄부터 운영을 시작할 예정이라고 발표했습니다. 이 시스템들은 일본의 자주적 AI 전략을 지원하고, 과학 컴퓨팅 및 양자 연구 분야에서 일본을 선도국가로 자리매김하게 할 것입니다.듀얼 시스템용 2,140개의 Blackwell GPU첫 번째 시스템은 RIKEN의 과학을 위한 AI 이니셔티브의 일환으로 GB200 NVL4 플랫폼을 사용하는 1,600개의 NVIDIA Blackwell GPU를 탑재하며, NVIDIA Quantum-X800 InfiniBand 네트워킹으로 상호 연결됩니다. NVIDIA에 따르면, 이 시스템은 생명과학, 재료과학, 기후 및 날씨 예측, 제조 및 실험실 자동화 분야의 연구를 발전시킬 것입니다.양자 컴퓨팅 전용인 두 번째 시스템은 동일한 플랫폼과 네트워킹 기술을 갖춘 540개의 Blackwell GPU를 배치할 예정입니다. 양자 중심 슈퍼컴퓨터는 양자 알고리즘, 하이브리드 시뮬레이션 및 양자-고전 컴퓨팅 방법의 연구를 가속화하는 것을 목표로 합니다.RIKEN 계산과학센터의 소장인 마쓰오카 사토시(Satoshi Matsuoka)는 “NVIDIA GB200 NVL4 가속 컴퓨팅 플랫폼을 차세대 슈퍼컴퓨터와 통합하는 것은 일본의 과학 인프라에 있어 중추적인 발전을 의미합니다”라고 말했습니다. “우리의 파트너십은 AI, 양자 및 고성능 컴퓨팅을 위한 세계 최고 수준의 통합 플랫폼 중 하나를 구축하여, 연구자들이 기초과학부터 비즈니스와 사회를 위한 산업 응용에 이르기까지 다양한 분야에서 발견을 실현하고 가속화할 수 있도록 할 것입니다.”Pathway to FugakuNEXT두 개의 새로운 시스템은 세계적으로 유명한 Fugaku 슈퍼컴퓨터의 후속 모델로 계획된 FugakuNEXT를 위한 하드웨어, 소프트웨어 및 애플리케이션의 코드 서명 및 개발을 위한 프록시 머신으로 사용될 예정입니다. 8월에 발표된 FugakuNEXT는 RIKEN, Fujitsu 및 NVIDIA 간의 협력 프로젝트로 2030년까지 운영을 목표로 하고 있습니다.2021년 3월에 전면 운영을 시작한 Fugaku는 2020년과 2021년 TOP500 슈퍼컴퓨터 순위에서 1위를 차지했습니다. 이 시스템은 현재 전 세계적으로 7위를 기록하고 있습니다.NVIDIA의 하이퍼스케일 및 고성능 컴퓨팅 부문 부사장인 Ian Buck은 “RIKEN은 오랫동안 세계 최고의 과학 기관 중 하나였으며, 오늘날 컴퓨팅의 새로운 시대 최전선에 서 있습니다”라고 말했습니다. “우리는 함께 일본이 세계에서 가장 복잡한 과학 및 산업 과제를 해결하기 위한 혁신을 주도할 주권적 혁신의 기반을 구축하도록 돕고 있습니다.”NVIDIA는 RIKEN과 협력하여 전통적인 과학 컴퓨팅을 위해 Tensor Core GPU 성능을 활용하는 부동 소수점 에뮬레이션 소프트웨어를 개발하고 있습니다. 이 연구소는 또한 400개 이상의 GPU 가속 라이브러리 및 도구를 제공하는 NVIDIA CUDA-X를 사용할 계획입니다.
99 조회
0 추천
11.18 등록
(퍼플렉시티가 정리한 기사)AlertD는 오늘 스텔스 모드를 벗어나며 사이트 신뢰성 엔지니어링 및 DevOps 팀에게 클라우드 운영에 대한 즉각적인 가시성을 제공하도록 설계된 에이전틱 인공지능 플랫폼을 출시했으며, True Ventures의 파트너 Puneet Agarwal이 주도한 300만 달러의 프리시드 펀딩을 유치했다고 발표했습니다.업계 베테랑인 Geoff Hendrey와 Freddy Mangum이 2024년에 설립한 샌프란시스코 베이 에리어 스타트업은, 창립자들이 레거시 관측성 및 모니터링 도구로는 적절히 해결할 수 없는 클라우드 환경의 증가하는 운영 복잡성이라고 설명하는 문제를 목표로 하고 있습니다. 이 플랫폼은 특화된 AI 에이전트와 자연어 쿼리를 사용하여 Amazon Web Services 환경에서 인사이트를 도출하며, DevOps 전문가들이 “toil”이라고 부르는 것—그들의 시간 중 거의 절반을 소비하는 반복적이고 가치가 낮은 작업—을 제거하는 것을 목표로 합니다.업계 베테랑들이 대시보드 피로 문제를 해결하다Hendrey는 AlertD의 최고경영자이자 Splunk의 전 수석 아키텍트, Cisco 산하 AppDynamics의 최고 아키텍트 출신으로, 전통적인 관찰성 도구들이 풍부한 데이터를 제공했지만 여전히 광범위한 수동 구성이 필요했다고 말했다. “이러한 레거시 도구들은 풍부한 계측 기능을 제공했지만, 프로덕션 문제의 조기 지표 역할을 할 수 있는 알림을 구성하기 위해 여전히 광범위한 수동 설정이 필요했습니다”라고 Hendrey는 PR Newswire에 따르면 말했다. “그러나 애플리케이션 개발 속도가 가속화되고 복잡한 마이크로서비스 아키텍처가 등장하면서, SRE와 DevOps 팀은 이제 프로덕션 가동 시간 유지의 규모와 요구 사항을 따라잡는 데 어려움을 겪고 있습니다.”이 플랫폼은 Unix 데몬에서 영감을 받은 백그라운드 프로세스를 실행하여 고객의 클라우드 환경을 지속적으로 인덱싱하고 AI 에이전트를 사용하여 정적 문서가 아닌 실제 AWS 배포 상태를 기반으로 대시보드를 동적으로 생성한다. 대화형 인터페이스는 데이터베이스 비용 최적화에서 규정 준수 검사에 이르기까지 특정 쿼리를 처리하는 150개 이상의 특화된 하위 에이전트에 작업을 할당한다.지리공간 정보 회사인 Privateer의 DevOps 선임 이사인 Ryan Raines는 개발 과정에서 설계 파트너로 참여했다. “SRE와 DevOps는 비효율성 때문이 아니라 프로덕션 가동 시간을 관리하기 위한 오늘날의 도구가 지나치게 복잡한 반면 우리의 환경은 계속 확장되고 있기 때문에 거의 50%의 시간을 저부가가치 작업에 소비합니다”라고 Raines는 말했다.조기 결과 및 가용성베타 테스트 기간 동안 AlertD는 비용 최적화 에이전트를 통해 이름을 밝히지 않은 한 기업 고객에게 10%의 비용 절감 효과를 제공했으며, DevOps 엔지니어가 쿼리를 위해 스크립트를 작성하는 데 8시간이 걸렸던 작업을 AlertD는 37초 만에 해결한 것을 포함하여 측정 가능한 성과를 보고했습니다.이 플랫폼은 AWS Marketplace에서 30일 무료 체험판으로 이용할 수 있으며, Stanford StartX 인큐베이터, Amazon Web Services 및 Meta Llama 프로그램의 지원을 받고 있습니다. AlertD의 아키텍처는 클라우드, 대규모 언어 모델 및 소프트웨어 제공 수명 주기에 구애받지 않으며, 초기 AWS 중심을 넘어 확장되도록 설계되었습니다.
101 조회
0 추천
11.18 등록
(퍼플렉시티가 정리한 기사)중국 기술 대기업 화웨이가 금요일 그래픽 처리 장치의 활용 효율성을 두 배로 높일 수 있는 첨단 인공지능 인프라 소프트웨어를 발표할 예정이라고 국영 언론이 보도했으며, 이는 하드웨어 한계를 소프트웨어 혁신으로 보완하려는 중국의 전략에서 또 다른 진전을 나타낸다.11월 21일 AI 산업 컨퍼런스에서 공개될 예정인 이 기술은 AI 칩 활용률을 현재 업계 평균인 30~40%에서 70%로 높일 것이라고 상하이 증권 뉴스가 전했다. 이 소프트웨어는 화웨이의 Ascend 칩, 엔비디아 GPU 및 타사 프로세서 전반에 걸쳐 컴퓨팅 리소스의 통합 관리를 가능하게 한다.서양 오케스트레이션 기법의 반영이번 발표 계획은 Huawei가 Nvidia가 2024년 7억 달러에 인수한 텔아비브 기반 소프트웨어 회사 Run:ai와 유사한 기능을 개발하고 있는 가운데 나온 것입니다. Run:ai의 Kubernetes 기반 플랫폼은 GPU 클러스터 전반에 걸쳐 대규모 AI 워크로드를 조율하여 기업들이 동적 리소스 할당을 통해 하드웨어 활용도를 극대화할 수 있도록 합니다.Nvidia는 2024년 12월 Run:ai 인수를 완료하고, 고객들이 AI 워크로드를 더욱 효율적으로 관리할 수 있도록 이 기술을 자사의 DGX Cloud 플랫폼에 통합했습니다. 이 소프트웨어는 분할 GPU 할당, 동적 스케줄링, 그리고 훈련, 튜닝, 추론 워크로드를 다르게 처리하는 워크로드 인식 오케스트레이션을 포함한 기능들을 제공합니다.중국의 양적 우선 접근 방식화웨이의 소프트웨어 중심 전략은 미국의 첨단 반도체 제조 장비 수출 규제로 인한 하드웨어 불리함을 상쇄하려는 중국의 광범위한 노력을 반영합니다. 엔비디아의 블랙웰 아키텍처에 필적하는 최첨단 칩에 접근할 수 없는 중국 기업들은 대량의 저성능 프로세서를 클러스터링하면서 서구 대안보다 훨씬 적은 컴퓨팅 파워를 필요로 하는 딥시크와 같은 효율적인 AI 모델을 실행하고 있습니다.이러한 접근 방식은 견인력을 얻고 있는 것으로 보입니다. 월간 활성 사용자 1억 5,700만 명 이상을 보유한 중국 최대 인기 AI 애플리케이션인 바이트댄스의 더우바오 챗봇은 일일 토큰 사용량이 2025년 3월 12.7조에서 9월 30조 이상으로 급증하여 글로벌 AI 컴퓨팅 소비 선두 그룹에 진입했습니다.이러한 성장으로 바이트댄스의 클라우드 인프라는 4월 기준 일일 50조 토큰을 처리한 마이크로소프트와 일일 약 43.3조 토큰을 처리한 알파벳의 구글에 근접한 수준에 도달했습니다.전략적 의미확인될 경우, 화웨이의 새로운 기술은 국내에서 Ascend AI 칩의 판매를 가속화하는 동시에 Nvidia 프로세서에 대한 중국의 의존도를 더욱 줄일 수 있습니다. 이 소프트웨어 기반 접근 방식은 중국이 반도체 제조 능력에서 “상대적으로 오랫동안” 뒤처질 가능성이 높다는 것을 인정하고, AI 인프라에서 경쟁하기 위한 대안적 전략이 필요하다는 화웨이 경영진의 발언과 일치합니다.
98 조회
0 추천
11.18 등록
(퍼플렉시티가 정리한 가사)엔비디아 최고경영자(CEO) 젠슨 황이 2025년과 2026년을 합쳐 총 5000억달러(약 700조원) 규모의 AI 칩 주문을 확보했다고 밝히며 인공지능 투자 붐이 여전히 강력하다는 신호를 보냈다.황 CEO는 지난 10월 워싱턴 D.C.에서 열린 GTC 콘퍼런스에서 “현재 장부에 올라와 있는 주문이 5000억달러에 달한다”고 공개했다. 이 주문에는 2025년 매출과 현재 출하 중인 블랙웰(Blackwell) GPU, 2026년 출시 예정인 루빈(Rubin) GPU, 그리고 네트워킹 장비 등이 포함됐다.울프 리서치의 크리스 카소 애널리스트는 이번 공개가 2026년 데이터센터 매출이 기존 전망치보다 약 600억달러 높을 것임을 시사한다고 분석했다. 카소 애널리스트는 “엔비디아의 공개 내용은 현재 시장 컨센서스 대비 명확한 상승 여력을 보여준다”고 평가했다.실적 발표 앞두고 긴장감 고조엔비디아는 19일(현지시간) 2026 회계연도 3분기 실적을 발표한다. 시장은 매출 549억달러, 주당순이익 1.25달러를 예상하고 있으며, 이는 전년 동기 대비 56% 증가한 수치다.그러나 17일 뉴욕증시에서 엔비디아 주가는 전장 대비 1.8% 하락 마감했다. 최근 소프트뱅크와 피터 틸 등 주요 투자자들이 보유 지분을 전량 매각했다는 소식이 전해지면서 투자 심리가 위축된 것으로 분석된다.대규모 계약으로 미래 성장 기반 확보엔비디아는 9월 오픈AI(OpenAI)와 최대 1000억달러 규모의 전략적 파트너십을 체결했다. 이 계약에 따라 오픈AI는 최소 10기가와트 규모의 데이터센터를 구축하며, 수백만 개의 엔비디아 GPU를 도입할 예정이다.구글(Google [GOOG +3.11%]), 아마존(Amazon [AMZN -0.78%]), 마이크로소프트(Microsoft [MSFT -0.53%]), 메타(Meta [META -1.22%]) 등 주요 빅테크 기업들도 모두 AI 인프라 투자 확대를 발표했다. 모건스탠리는 하이퍼스케일러들의 자본 지출이 2026년 약 5500억달러로 24% 증가할 것으로 전망했다.한편 한국 정부와 삼성전자 [SSUN.F -4.07%], SK그룹, 현대자동차 [005380.KS -2.58%]는 10월 각각 최대 5만개의 블랙웰 GPU를 도입하기로 했으며, 네이버 [035420.KS -2.35%]는 6만개 이상을 구매할 계획이다.
91 조회
0 추천
11.18 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입