AI 뉴스

마이크로소프트, VS 코드 기본 AI를 GPT-5에서 클로드로 전환

페이지 정보

작성자 xtalfi
작성일 2025.09.17 16:15
619 조회
0 추천
0 비추천

본문

64d20d50a290f6d3b1b62c144d12294eOcQe.png

(퍼플렉시티가 정리한 기사)

마이크로소프트는 Visual Studio Code에서 주목할 만한 전략적 전환을 단행하여, 코딩 작업에서 OpenAI의 GPT-5보다 Anthropic의 Claude Sonnet 4를 기본값으로 하는 자동 AI 모델 선택 기능을 도입했습니다. 이 변화는 2019년 이후 OpenAI에 130억 달러를 투자해온 이 기술 대기업이 AI 전략에서 더 넓은 변화를 모색하고 있음을 시사합니다.


새롭게 도입된 자동 모델 선택 기능은 9월 15일에 출시되었으며, GitHub Copilot 사용자에게 Claude Sonnet 4, GPT-5, GPT-5 mini 및 기타 모델 중에서 자동으로 선택해줍니다. 무료 사용자들은 다양한 모델이 순환 적용되는 경험을 하게 되지만, 유료 구독자들은 마이크로소프트의 공식 발표에 따르면 “주로 Claude Sonnet 4에 의존”하게 됩니다.


내부 벤치마크가 모델 선호도를 결정한다


이 결정은 내부 성과 평가에서 Anthropic의 제품이 지속적으로 우위를 보인 데에서 비롯되었습니다. 마이크로소프트 개발 부문 사장 줄리아 리우손은 6월 사내 이메일에서 직원들에게 “내부 벤치마크 기준으로 GitHub Copilot에 권장하는 모델은 Claude Sonnet 4입니다”라고 밝혔습니다. 이 권고는 GPT-5 출시 이전에 이루어졌으며, OpenAI가 최신 모델을 출시한 이후에도 변함이 없었던 것으로 전해집니다.


회사 개발 계획에 정통한 마이크로소프트 소식통들은 엔지니어들이 몇 달 전부터 코딩 작업에서 기본적으로 Claude Sonnet 4를 사용하라는 조용한 지시를 받았다고 밝혔습니다. GitHub 내부에서 이뤄진 초기 테스트에서는, GitHub 엔지니어들에 따르면 Claude 4가 “더 오래 집중을 유지하고, 문제를 더 깊이 이해하며, 보다 우아한 코드를 제공”하는 것으로 나타났습니다.


복잡한 코딩 벤치마크에서 모델의 우수한 성능이 핵심 요인이 되었습니다. Claude Sonnet 4는 소프트웨어 엔지니어링 벤치마크인 SWE-bench에서 72~73%의 정확도를 기록해 경쟁 모델들을 제쳤습니다. 마이크로소프트 내부 테스트 결과, Anthropic의 모델은 특정 개발자 워크플로에서 OpenAI의 제품보다 “미묘하지만 중요한 방식으로” 더 뛰어난 성과를 보인 것으로 나타났습니다.


Visual Studio Code를 넘어 확장하기


이 AI 모델의 다양화는 Visual Studio Code를 넘어 마이크로소프트의 광범위한 생산성 제품군으로 확장되고 있습니다. The Information은 마이크로소프트 365 코파일럿이 곧 내부 테스트에서 Claude가 엑셀 자동화와 파워포인트 프레젠테이션 생성에서 더 우수한 성능을 보인 결과 “부분적으로 Anthropic 모델이 구동할 것”이라고 보도했습니다.


AI 업계의 경쟁 역학을 강조하는 복잡한 계약 구조 속에서, 마이크로소프트는 Anthropic의 모델에 접근하기 위해 자사의 애저(Azure) 클라우드 플랫폼과 직접 경쟁하는 Amazon Web Services에 비용을 지불할 예정입니다. 이러한 추가 비용에도 불구하고, 마이크로소프트는 사용자를 위한 Copilot의 월 요금을 30달러로 유지할 계획입니다.


AI 경쟁 속에서의 파트너십 재구성


이러한 시기는 마이크로소프트와 OpenAI 관계의 중대한 변화와 일치한다. 양사는 9월 11일 파트너십을 재구성하기 위한 구속력 없는 양해각서에 서명했으며, 이를 통해 OpenAI가 공익법인으로의 전환을 추진할 수 있게 되었다. 개정된 조건에 따르면, OpenAI의 마이크로소프트와의 수익 분배는 2030년까지 20%에서 약 8-10%로 감소할 것으로 예상되며, 이는 AI 스타트업에게 500억 달러 이상의 추가 수익을 가져다줄 가능성이 있다.


마이크로소프트 AI CEO 무스타파 술레이만은 9월 12일 직원 타운홀 미팅에서 회사의 자체 AI 인프라에 대한 “상당한 투자” 계획을 발표했다. 회사의 MAI-1-preview 모델은 15,000개의 엔비디아 H100 칩으로 훈련되었으며, 술레이만은 이를 “6배에서 10배 더 큰” 규모가 될 미래 클러스터와 비교하여 “작은” 규모라고 평가했다.


멀티 모델 전략이 등장하다


이러한 발전은 마이크로소프트의 AI 파트너십에 대한 진화하는 접근 방식을 반영합니다. CEO 사티아 나델라는 타운홀 미팅에서 마이크로소프트가 “확실히 다양한 모델을” 자사 제품 전반에서 지원할 것이라고 강조하며, 이러한 멀티 모델 전략의 예시로 GitHub Copilot을 언급했습니다.


개발자에게는 자동 선택 기능이 유료 사용자에게 10% 요청 할인과 레이트 리미팅 감소 등 실질적인 이점을 제공합니다. 이 시스템은 현재의 용량과 성능을 바탕으로 최적의 모델을 자동으로 선택하며, 사용자는 챗 답변에 마우스를 올리면 어떤 모델이 각각의 응답을 제공했는지 확인할 수 있습니다.


이러한 전략적 변화는 인공지능 개발에서 성능 벤치마크가 전통적인 공급업체 관계보다 파트너십 결정을 더욱 주도하는 경쟁의 치열함을 강조합니다. 마이크로소프트가 오픈AI 투자와 동시에 AI 포트폴리오를 다양화하는 가운데, 이번 행보는 여러 AI 공급자가 기업용 소프트웨어 경험의 다양한 부분을 지원하는 미래를 시사합니다.

댓글 0
전체 522 / 77 페이지
손목밴드에서 조정을 하는 것 같고 전작과 많이 달라졌습니다.AI 기능으로 번역도 가능하네요..https://www.meta.com/kr/ai-glasses/meta-ray-ban-display/
579 조회
0 추천
2025.09.18 등록
조금 전 메타가 AI 기능이 있는 안경을 비롯하여 중요한 키노트를 진행하였습니다.CNET이 준비한 키노트 요약입니다.RAYBAN 과 새로 제작한 안경이 큰 화제입니다.
613 조회
0 추천
2025.09.18 등록
마이크로소프트가 코파일럿 메모장과 그림판 연동기능을 제공하기 시작했으며이 기능은 오피스365를 사용하지 않아도 코파일럿을 이욯하면 이용할 수 있다.예를 들어 메모장은 다음과 같은 기능을 갖게 된다.-요약: 긴 텍스트를 간략하게 요점만 추려내고, 문서의 핵심을 빠르게 파악할 수 있습니다.- 쓰기: 프롬프트나 선택한 텍스트를 활용해 새로운 문장을 AI로 쉽고 빠르게 작성합니다.- 다시 쓰기: 선택한 내용을 AI가 어투, 길이, 명확성 등 다양한 스타일로 변환해 줍니다.또한 그림판은 다음과 같은 기능을 추가하게 된다.- 프로젝트 파일 저장 기능: 그림판에서 작업을 .paint 파일로 저장해 언제든 이어서 편집이 가능.- 불투명도(Opacity) 슬라이더: 연필 및 브러시 도구의 투명도를 원하는 대로 조절해 더 섬세한 혼합이나 레이어링 효과 주기.- 크기 및 불투명도 슬라이더 병행 사용: 두 슬라이더를 활용해 부드럽게 배합하고 다양한 질감의 그림 그리기.
599 조회
0 추천
2025.09.18 등록
(퍼플렉시티가 정리한 기사)중국 AI 스타트업 DeepSeek은 획기적인 R1 모델 훈련 방식에 관한 새로운 세부 정보를 세계적인 권위지 네이처(Nature)의 동료검토 논문을 통해 발표했습니다. 이 논문에서는 기존 경쟁 모델 대비 극히 적은 비용으로 순수 강화학습만을 사용해 첨단 추론 능력을 달성한 방법을 공개했습니다.항저우에 본사를 둔 이 회사는 자사의 R1 추론 모델 훈련 비용이 단 29만 4천 달러에 불과하며, 기반 베이스 모델의 개발 비용은 약 600만 달러였음을 처음으로 공개했습니다. 총 630만 달러가 소요된 것으로, 이는 미국의 기술 기업들이 개발한 경쟁 모델이 수천만 달러에 달하는 것과는 극명한 대조를 이룹니다.순수 강화학습의 획기적인 발전DeepSeek의 주요 혁신은 연구자들이 “순수 강화 학습(pure reinforcement learning)“이라고 부르는 방식을 사용해 R1을 개발한 점에 있으며, 이는 인간이 만든 예시에 의존하는 기존의 감독 학습(supervised learning) 방식과는 다른 접근법입니다. 이 과정에서 모델은 인간이 선택한 추론 방식에 따르도록 학습시키는 대신, 올바른 답변에 도달할 때 보상을 받도록 설계되었습니다.네이처(Nature) 논문에 따르면, DeepSeek의 접근법은 모델이 인간이 제시한 전략을 따르지 않고도 자체적인 추론 전략을 개발하고 자신의 작업을 검증할 수 있는 능력을 갖추게 해주었습니다. 회사는 자체 시도에 대해 별도의 알고리즘을 사용하지 않고 추정치를 활용해 점수를 매길 수 있게 해주는 Group Relative Policy Optimization(GRPO)이라는 기법을 활용했습니다.“이 모델은 AI 연구자들 사이에서 매우 영향력이 컸습니다,“라고 오하이오 주립대(Ohio State University) 콜럼버스 소재 AI 연구원인 Huan Sun은 말했습니다. “2025년 현재까지 LLM에서 강화 학습을 수행하는 거의 모든 연구가 어떻게든 R1로부터 영감을 받았을지도 모릅니다”.5단계 훈련 과정완전한 R1 학습 과정은 감독 학습(fine-tuning)과 강화 학습을 번갈아가며 진행하는 여러 단계로 구성되었습니다. 이 과정은 딥시크(DeepSeek)의 V3-Base 모델을 수천 개의 ‘콜드 스타트’ 데이터 포인트로 파인튜닝하는 것으로 시작했고, 이후 순수 강화 학습을 통해 추론 능력을 향상시켰습니다.수렴에 가까워지면 시스템은 리젝션 샘플링(rejection sampling) 방식을 사용했습니다. 여기서 모델은 강화 학습 실행에서 성공적인 예시 중 최상의 예시를 선택해 자체 합성 훈련 데이터를 생성했습니다. 이 합성 데이터는 이후 글쓰기나 사실 기반 질문응답 등 다양한 영역에서 DeepSeek-V3-Base의 감독 학습 데이터와 통합되었습니다.동료 평가 중인 최초의 주요 LLMR1은 엄격한 동료 평가 과정을 거친 최초의 대형 언어 모델을 의미합니다. Nature 논문을 심사한 허깅페이스의 머신러닝 엔지니어 루이스 턴스톨은 이를 “매우 환영할 만한 선례”라고 평가하며, 훈련 과정이 공개되지 않으면 AI 시스템이 위험을 초래하는지 평가하기 어렵다고 언급했습니다.이 동료 평가 과정에서 DeepSeek는 훈련에 사용된 데이터 유형과 안전 조치를 포함한 기술적 세부 사항에 대한 설명을 추가하게 되었습니다. 이 모델은 오픈소스 특성을 유지하면서도 OpenAI의 o1 모델에 필적하는 추론 벤치마크 성능을 달성하였습니다.성능 및 접근성Hugging Face에서 1월에 출시된 이후, R1은 복잡한 문제 해결을 위한 플랫폼에서 가장 많이 다운로드된 모델이 되었으며, 다운로드 수는 1,090만 회를 넘어섰습니다. 이 모델은 AIME 2024 수학 벤치마크에서 pass@1 점수 79.8%를 기록하여 OpenAI o1의 79.2%를 소폭 앞섰습니다.DeepSeek의 혁신은 AI 개발 비용 및 성능 향상을 위해 모델 크기와 연산 능력을 늘려야 한다는 확장 법칙에 대한 기존의 통념에 도전장을 내밀었습니다. 회사는 비교적 덜 강력한 H800 칩을 사용해 성공을 거두었으며, 이 칩은 2023년 미국의 수출 통제로 중국 내 판매가 금지된 바 있습니다. 이러한 성과는 향후 AI 개발 방향에 대한 논의를 촉진하고 있습니다.
587 조회
0 추천
2025.09.18 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입