AI 뉴스

마이크로소프트, VS 코드 기본 AI를 GPT-5에서 클로드로 전환

페이지 정보

작성자 xtalfi
작성일 2025.09.17 16:15
322 조회
0 추천
0 비추천

본문

64d20d50a290f6d3b1b62c144d12294eOcQe.png

(퍼플렉시티가 정리한 기사)

마이크로소프트는 Visual Studio Code에서 주목할 만한 전략적 전환을 단행하여, 코딩 작업에서 OpenAI의 GPT-5보다 Anthropic의 Claude Sonnet 4를 기본값으로 하는 자동 AI 모델 선택 기능을 도입했습니다. 이 변화는 2019년 이후 OpenAI에 130억 달러를 투자해온 이 기술 대기업이 AI 전략에서 더 넓은 변화를 모색하고 있음을 시사합니다.


새롭게 도입된 자동 모델 선택 기능은 9월 15일에 출시되었으며, GitHub Copilot 사용자에게 Claude Sonnet 4, GPT-5, GPT-5 mini 및 기타 모델 중에서 자동으로 선택해줍니다. 무료 사용자들은 다양한 모델이 순환 적용되는 경험을 하게 되지만, 유료 구독자들은 마이크로소프트의 공식 발표에 따르면 “주로 Claude Sonnet 4에 의존”하게 됩니다.


내부 벤치마크가 모델 선호도를 결정한다


이 결정은 내부 성과 평가에서 Anthropic의 제품이 지속적으로 우위를 보인 데에서 비롯되었습니다. 마이크로소프트 개발 부문 사장 줄리아 리우손은 6월 사내 이메일에서 직원들에게 “내부 벤치마크 기준으로 GitHub Copilot에 권장하는 모델은 Claude Sonnet 4입니다”라고 밝혔습니다. 이 권고는 GPT-5 출시 이전에 이루어졌으며, OpenAI가 최신 모델을 출시한 이후에도 변함이 없었던 것으로 전해집니다.


회사 개발 계획에 정통한 마이크로소프트 소식통들은 엔지니어들이 몇 달 전부터 코딩 작업에서 기본적으로 Claude Sonnet 4를 사용하라는 조용한 지시를 받았다고 밝혔습니다. GitHub 내부에서 이뤄진 초기 테스트에서는, GitHub 엔지니어들에 따르면 Claude 4가 “더 오래 집중을 유지하고, 문제를 더 깊이 이해하며, 보다 우아한 코드를 제공”하는 것으로 나타났습니다.


복잡한 코딩 벤치마크에서 모델의 우수한 성능이 핵심 요인이 되었습니다. Claude Sonnet 4는 소프트웨어 엔지니어링 벤치마크인 SWE-bench에서 72~73%의 정확도를 기록해 경쟁 모델들을 제쳤습니다. 마이크로소프트 내부 테스트 결과, Anthropic의 모델은 특정 개발자 워크플로에서 OpenAI의 제품보다 “미묘하지만 중요한 방식으로” 더 뛰어난 성과를 보인 것으로 나타났습니다.


Visual Studio Code를 넘어 확장하기


이 AI 모델의 다양화는 Visual Studio Code를 넘어 마이크로소프트의 광범위한 생산성 제품군으로 확장되고 있습니다. The Information은 마이크로소프트 365 코파일럿이 곧 내부 테스트에서 Claude가 엑셀 자동화와 파워포인트 프레젠테이션 생성에서 더 우수한 성능을 보인 결과 “부분적으로 Anthropic 모델이 구동할 것”이라고 보도했습니다.


AI 업계의 경쟁 역학을 강조하는 복잡한 계약 구조 속에서, 마이크로소프트는 Anthropic의 모델에 접근하기 위해 자사의 애저(Azure) 클라우드 플랫폼과 직접 경쟁하는 Amazon Web Services에 비용을 지불할 예정입니다. 이러한 추가 비용에도 불구하고, 마이크로소프트는 사용자를 위한 Copilot의 월 요금을 30달러로 유지할 계획입니다.


AI 경쟁 속에서의 파트너십 재구성


이러한 시기는 마이크로소프트와 OpenAI 관계의 중대한 변화와 일치한다. 양사는 9월 11일 파트너십을 재구성하기 위한 구속력 없는 양해각서에 서명했으며, 이를 통해 OpenAI가 공익법인으로의 전환을 추진할 수 있게 되었다. 개정된 조건에 따르면, OpenAI의 마이크로소프트와의 수익 분배는 2030년까지 20%에서 약 8-10%로 감소할 것으로 예상되며, 이는 AI 스타트업에게 500억 달러 이상의 추가 수익을 가져다줄 가능성이 있다.


마이크로소프트 AI CEO 무스타파 술레이만은 9월 12일 직원 타운홀 미팅에서 회사의 자체 AI 인프라에 대한 “상당한 투자” 계획을 발표했다. 회사의 MAI-1-preview 모델은 15,000개의 엔비디아 H100 칩으로 훈련되었으며, 술레이만은 이를 “6배에서 10배 더 큰” 규모가 될 미래 클러스터와 비교하여 “작은” 규모라고 평가했다.


멀티 모델 전략이 등장하다


이러한 발전은 마이크로소프트의 AI 파트너십에 대한 진화하는 접근 방식을 반영합니다. CEO 사티아 나델라는 타운홀 미팅에서 마이크로소프트가 “확실히 다양한 모델을” 자사 제품 전반에서 지원할 것이라고 강조하며, 이러한 멀티 모델 전략의 예시로 GitHub Copilot을 언급했습니다.


개발자에게는 자동 선택 기능이 유료 사용자에게 10% 요청 할인과 레이트 리미팅 감소 등 실질적인 이점을 제공합니다. 이 시스템은 현재의 용량과 성능을 바탕으로 최적의 모델을 자동으로 선택하며, 사용자는 챗 답변에 마우스를 올리면 어떤 모델이 각각의 응답을 제공했는지 확인할 수 있습니다.


이러한 전략적 변화는 인공지능 개발에서 성능 벤치마크가 전통적인 공급업체 관계보다 파트너십 결정을 더욱 주도하는 경쟁의 치열함을 강조합니다. 마이크로소프트가 오픈AI 투자와 동시에 AI 포트폴리오를 다양화하는 가운데, 이번 행보는 여러 AI 공급자가 기업용 소프트웨어 경험의 다양한 부분을 지원하는 미래를 시사합니다.

댓글 0
전체 407 / 3 페이지
(퍼플렉시티가 정리한 기사)Google는 회의 조율을 방해하는 끝없는 이메일 왕복을 없애겠다고 약속하는 새로운 인공지능 기능을 공개했습니다. Gemini AI로 구동되는 회사의 "Help me schedule" 도구는 화요일에 출시되었으며, 사용자가 Gmail을 통해 회의를 잡으려고 할 때 자동으로 감지한 다음 캘린더 가용성과 이메일 맥락을 기반으로 최적의 시간대를 제안합니다.스마트 스케줄링 통합Gmail이 사용자가 회의 설정에 관한 이메일에 답장하고 있음을 감지하면, 작성 도구 모음에 "일정 잡기 도움" 버튼이 자동으로 나타납니다. 클릭하면 Gemini가 사용자의 Google 캘린더와 대화 맥락을 모두 분석하여 요청 매개변수에 부합하는 구체적인 회의 시간을 제안합니다.AI는 "다음 주 30분" 또는 "오늘 끝나기 전 언제든지"와 같은 단서를 인식하여 그에 따라 제안을 필터링하는 정교한 맥락 인식 능력을 보여줍니다. 사용자는 이러한 AI 생성 제안을 이메일 답장에 직접 삽입하기 전에 편집할 수 있습니다. 수신자가 선호하는 시간대를 선택하면 양측 모두에게 캘린더 초대가 자동으로 생성되어 전체 일정 조율 프로세스가 간소화됩니다.현재 제한 사항 및 출시이 기능은 초기에 일대일 회의로 제한되며 그룹 일정 조율을 지원하지 않아 팀 협업에 상당한 제약이 있습니다. 이 도구는 현재 비즈니스 및 엔터프라이즈 계층의 Google Workspace 사용자와 Google AI Pro 및 Ultra 플랜 구독자에게 출시되고 있습니다.Google의 Workspace Updates 블로그에 따르면, 점진적 출시는 10월 13일 Rapid Release 도메인을 시작으로 진행되었으며, Scheduled Release 도메인은 약 10월 28일부터 적용되었습니다. 이 기능이 효과적으로 작동하려면 사용자가 Gemini에 Gmail과 Google Calendar 모두에 대한 접근 권한을 부여해야 합니다.이번 출시는 Google이 Workspace 제품군 전반에 AI 기능을 통합하려는 광범위한 전략의 일환으로, Gemini를 별도의 AI 상호작용을 요구하기보다는 일상적인 조율 작업을 처리하는 보이지 않는 비서로 자리매김하고 있습니다.
8 조회
0 추천
18:15 등록
(퍼플렉시티가 정리한 기사)인텔은 화요일, 인공지능 칩 시장에서 엔비디아 및 AMD와 경쟁하기 위한 최신 시도를 발표하며, 2026년 하반기에 고객 샘플링을 시작할 크레센트 아일랜드(Crescent Island)라는 새로운 데이터센터 그래픽 처리 장치를 공개했습니다.2025 OCP 글로벌 서밋에서 발표된 이번 발표는 이전 Gaudi 칩이 시장 선두주자들에 대해 큰 성과를 거두지 못한 후 AI 가속기 시장에서 입지를 확보하려는 인텔의 두 번째 주요 시도를 나타냅니다. 크레센트 아일랜드는 160GB의 LPDDR5X 메모리와 인텔의 차세대 Xe3P 아키텍처를 특징으로 하며, 공랭식 엔터프라이즈 서버의 전력 및 비용 최적화에 중점을 둔 AI 추론 워크로드를 위해 특별히 설계되었습니다.인텔의 AI 지배력 확보를 위한 힘겨운 싸움이번 칩 출시는 인텔이 엔비디아가 압도적으로 지배하는 시장에서 치열한 경쟁에 직면한 가운데 이루어졌다. 엔비디아는 AI 가속기 시장의 약 80%에서 92%를 장악하고 있는 것으로 추정된다. 인텔의 어려움은 가우디 칩 시리즈에서 잘 드러나는데, 회사는 이 제품의 규모를 축소하여 2025년 출하 예상량을 300,000-350,000대에서 200,000-250,000대로 줄인 것으로 알려졌다.인텔의 최고기술책임자(CTO) 사친 카티는 성명에서 "AI는 에이전틱 AI에 의해 추진되면서 정적 훈련에서 실시간, 유비쿼터스 추론으로 전환되고 있다"고 말했다. 그는 복잡한 AI 워크로드를 확장하려면 "오픈 소프트웨어 프레임워크의 지원을 받아 적절한 실리콘을 적합한 작업에 맞추는 이기종 시스템이 필요하다"고 덧붙였다.새로운 GPU는 다양한 데이터 유형을 지원하며, 토큰 서비스형(tokens-as-a-service) 및 AI 추론 애플리케이션을 제공하는 벤더에게 "매우 적합한" 것으로 포지셔닝되었다. 인텔은 크레센트 아일랜드 출시 전에 기존 Arc Pro B 시리즈 GPU를 사용하여 통합 소프트웨어 스택을 개발할 계획이다.개방형 아키텍처로의 전략적 전환Crescent Island는 지난 2년간 Nvidia와 AMD가 채택한 유사한 전략에 따라 Intel의 새로운 연례 GPU 출시 주기의 시작을 알립니다. 이번 발표는 새로운 리더십 하에서 Intel의 광범위한 전략적 전환을 반영하며, Katti가 설명하는 "개방형 시스템 및 소프트웨어 아키텍처" 접근 방식에 중점을 두어 미래 AI 워크로드를 위한 "적정 규모"와 "적정 가격"의 컴퓨팅을 제공하는 것을 목표로 합니다.이 전략은 오늘날 주로 동질적인 AI 시스템과는 상당한 차이를 보이며, Intel은 AI 애플리케이션이 더욱 복잡해짐에 따라 이러한 시스템이 경제적으로 비효율적이라고 주장합니다. 회사에 따르면, 에이전트 AI 시스템은 단순한 챗봇 쿼리보다 최대 100배 많은 토큰을 생성할 수 있어 현재 아키텍처를 비용 효율적으로 확장하기 어렵게 만듭니다.Intel의 새로운 AI 추진은 여러 부문에서 경쟁사들에게 상당한 입지를 잃은 광범위한 반도체 시장에서의 어려운 위치에도 불구하고 이루어지고 있습니다. 이 칩 제조업체는 지난달 Pat Gelsinger가 밀려난 후 현재 정식 CEO를 찾고 있으며, 임시 리더십은 2025년을 "안정화의 해"라고 부르고 있습니다.
9 조회
0 추천
18:13 등록
(퍼플렉시티가 정리한 기사)Adobe는 화요일, 기업들이 AI 기반 채팅 서비스 및 브라우저에서 가시성을 향상시킬 수 있도록 설계된 새로운 엔터프라이즈 애플리케이션인 Adobe LLM Optimizer의 정식 출시를 발표했습니다. 이번 출시는 2025년 9월 미국 리테일 사이트로의 AI 트래픽이 전년 대비 1,100% 증가한 시점에 이루어졌으며, 이는 소비자들이 제품을 발견하고 조사하는 방식의 근본적인 변화를 나타냅니다.이 도구는 생성 엔진 최적화(GEO)의 중요성 증대를 다루며, 기업들이 AI 기반 트래픽을 모니터링하고, 브랜드 가시성을 벤치마킹하며, 자사 디지털 자산과 브랜드가 언급되는 제3자 플랫폼 모두에서 발견 가능성을 개선하기 위한 실행 가능한 권장 사항을 배포할 수 있도록 합니다.내부 테스트를 통한 측정 가능한 결과Adobe의 내부 테스트는 구현 1주일 만에 인상적인 결과를 보여주었습니다. 회사는 LLM 응답 전반에 걸쳐 Adobe Firefly 인용이 5배 증가했고, Adobe Acrobat의 LLM 가시성이 200% 증가했으며, Adobe.com 페이지로의 LLM 유입 트래픽이 41% 증가했습니다."생성형 엔진 최적화는 빠르게 경영진의 주요 관심사가 되었으며, 선도 기업들은 AI 플랫폼 전반에 걸쳐 권위를 구축하고 경쟁 우위를 확보하고 있습니다"라고 Adobe Experience Cloud의 전략 및 제품 부사장인 Loni Stark가 말했습니다.LLM Optimizer를 사용하는 얼리 액세스 고객들은 80%가 AI 플랫폼이 주요 제품 정보나 리뷰에 접근하지 못하게 하는 심각한 콘텐츠 가시성 격차를 가지고 있음을 발견했습니다. 이 도구의 추천 엔진은 이러한 격차를 감지하고 자체 웹페이지와 Wikipedia 및 공개 포럼과 같은 외부 채널 모두에 걸쳐 개선 사항을 제안합니다.엔터프라이즈 통합 및 접근성LLM Optimizer는 독립형 애플리케이션으로 제공되며 Adobe Experience Manager Sites와 기본적으로 통합됩니다. Agent-to-Agent(A2A) 및 Model Context Protocol(MCP)과 같은 업계 표준을 지원하여 타사 솔루션 간 원활한 상호 운용성을 제공합니다.AI 가시성 인사이트를 더욱 쉽게 접근할 수 있도록 하기 위해 Adobe는 "Is Your Webpage Citable?"이라는 무료 Chrome 확장 프로그램도 출시했습니다. 이 확장 프로그램은 모든 웹사이트에서 LLM이 무엇을 보고 무엇을 놓치는지 보여줍니다. 이 확장 프로그램을 통해 팀은 전체 엔터프라이즈 솔루션 없이도 AI 가시성의 숨겨진 격차를 발견할 수 있습니다.=========추가 질문: "예전의 SEO와 다른 점이 있나. 어차피 같은 논리 아닌가"답변:예전의 SEO와 LLM 가시성 증가는 비슷해 보이지만, 핵심적으로 다른 점이 많습니다. SEO는 검색 엔진(구글 등)의 페이지 순위와 클릭을 높이는 데 초점을 맞췄지만, LLM 최적화(GEO)는 AI가 브랜드를 얼마나 자주, 얼마나 정확하게 인용하는지를 목표로 합니다.핵심적 차이점최적화 대상- SEO: 구글, 네이버, Bing 등 전통적 검색엔진 페이지 순위.- LLM/GEO: ChatGPT, Bing Copilot, AI 챗봇·생성형 검색이 출력하는 ‘답변 내 브랜드 인용’ 빈도.측정 기준- SEO: 클릭 수, 검색 순위, 트래픽, 백링크.- LLM/GEO: AI 답변 내 언급/인용 횟수, 브랜드 권위성, 정보 구조화, ‘비링크 신호’ (예: 전문가 리뷰, 포럼 내 논의).콘텐츠 구조 및 전략- SEO: 키워드 밀도, 장문의 글, 백링크 중심.- LLM/GEO: 명확하고 구조화된 데이터, 타겟 키워드 대신 ‘의도와 맥락’ 중심, AI가 쉽게 인식·해석할 수 있는 형식(JSON, 위키피디아식, 마크다운 등).주요 변화점- AI는 검색 순위 1~10위 페이지뿐 아니라, 롱테일(21위+) 정보, 신뢰도 높은 전문가 코멘트까지 참고하면서 인용.- LLM 가시성은 클릭 유도보다 “문장 내에서 내 브랜드가 얼마나 답변에 들어가는가”가 중요.- SEO는 링크와 키워드에 의존하지만, LLM 최적화는 명확한 구조화, 신뢰도, 내용의 깊이(깊은 지식·사례·분석) 등이 더 중요한 신호로 작용.- AI 답변은 “클릭 없이 즉석에서 문제를 해결”하므로, 브랜드 노출 후 즉각적으로 고유 가치 전달이 필요함.두 방법의 논리는 ‘콘텐츠 노출 극대화’라는 점에선 유사하지만, AI 시대에는 내용의 구조화, 권위성, 맥락 기반 정보, 다양한 외부 채널 노출이 훨씬 중요한 신호로 바뀌고 있습니다.
9 조회
0 추천
18:10 등록
(퍼플렉시티가 정리한 기사)OpenAI CEO 샘 올트먼은 두바이에서 열린 GITEX Global 2025에서 자사의 야심찬 인프라 전략을 제시하며, 인공지능이 세계가 기술 시스템을 구축하고 운영하는 방식을 근본적으로 변화시킬 미래를 예측했습니다. 10월 14일 기술 컨퍼런스에 가상으로 참석한 올트먼은 지능의 비용이 결국 에너지 비용과 수렴하게 될 것이며, 이는 AI가 전 세계적으로 배포되는 방식에 있어 중추적인 변화를 의미한다고 강조했습니다.인프라 확장 및 전략적 파트너십Altman은 OpenAI가 향후 1~2년간 AI 모델의 기하급수적 성장을 지원하기 위해 업계 전반의 협력이 필요한 "매우 공격적인 인프라 투자"를 진행하고 있다고 밝혔다. 이러한 대규모 투자 전략은 이미 여러 주요 파트너십으로 구체화되었으며, 최근와의 협력을 통해 10기가와트 규모의 맞춤형 AI 가속기를 배치하기로 했고, 2026년 하반기부터 배치가 시작될 예정이다.또한 회사는 AMD와 다년간 계약을 체결하여 6기가와트 규모의 GPU를 배치하기로 했으며, 2026년에 1기가와트부터 시작할 예정이다. 이러한 파트너십은 OpenAI가 연구소에서 Altman이 설명한 "AI 제국"이라는 수직 통합 기업으로 전환하고 있음을 보여주며, 기본 컴퓨팅 파워부터 상위 계층 애플리케이션까지 역량을 통제하고 있다.UAE 파트너십 및 스타게이트 프로젝트OpenAI는 G42, Oracle, Nvidia, Cisco 및 SoftBank와의 파트너십을 통해 UAE를 Stargate 데이터 인프라 프로젝트의 첫 번째 해외 사이트로 선정했습니다. 계획된 5기가와트 UAE 캠퍼스의 첫 200메가와트는 내년에 가동될 것으로 예상되며, G42의 Talal Al Kaissi가 GITEX에서 일정을 확인했습니다.G42 CEO Peng Xiao와의 대화에서 Altman은 AI가 일상 생활에 어떻게 자리 잡았는지 강조했으며, ChatGPT는 현재 전 세계 인구의 약 10%에 해당하는 8억 명 이상의 주간 활성 사용자를 보유하고 있습니다. Xiao는 ChatGPT가 500개의 맞춤형 프롬프트를 통해 아부다비 부통치자이자 G42 회장인 Sheikh Tahnoon의 집 설계를 도왔다고 밝혔습니다.자가 복제 인프라에 대한 비전아마도 가장 놀라운 것은 AI가 곧 데이터 센터와 로봇이 자율적으로 스스로를 구축하고 복제할 수 있게 할 것이라는 Altman의 예측이었습니다. "다른 데이터 센터를 구축할 수 있는 데이터 센터는 그리 멀지 않았습니다"라고 그는 말하며, 이를 기술 환경에서 가장 논의가 부족한 변화 중 하나로 설명했습니다. 이 비전은 로봇이 다른 로봇을 제작하는 것으로 확장되며, 그는 이를 기계가 인지적 작업과 물리적 창조 작업을 모두 처리하는 새로운 산업 자동화 단계라고 불렀습니다.Altman과 Xiao는 글로벌 "AI 격차"를 방지하기 위해서는 지능을 모든 곳에서 풍부하고 접근 가능하게 만들어 전기와 유사한 공공재로 취급해야 한다는 데 동의했습니다. Xiao가 표현한 것처럼, UAE는 "석유 배럴 수출에서 지능 토큰 배포로" 전환하고 있으며, 이는 지능 기반 경제로의 광범위한 전환을 반영합니다.
10 조회
0 추천
18:01 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입