Loading...

AI 뉴스

마이크로소프트, 오피스 365에 앤트로픽 AI 추가

페이지 정보

작성자 xtalfi
작성일 2025.09.11 00:10
1,740 조회
0 추천
0 비추천

본문

b0e38e9b8d9f42ab04d8da1d55f811d3hyuL.jpg

(퍼플렉시티가 정리한 기사)

마이크로소프트(Microsoft)는 Office 365 애플리케이션에 앤트로픽(Anthropic)의 인공지능 기술을 통합하고 있으며, 이는 오픈AI(OpenAI) 모델에만 의존하던 전략에서 벗어난 새로운 움직임입니다. 오늘 The Information에 보도된 바에 따르면, 이번 파트너십을 통해 두 회사의 기술이 마이크로소프트의 생산성 제품군 내에서 함께 작동할 예정이며, 개발자들은 앤트로픽의 최신 모델이 특정 자동화 작업에서 오픈AI를 능가할 수도 있다고 언급하고 있습니다.

 

Anthropic 모델은 사무 작업에서 뛰어난 성과를 보입니다.

 

Anthropic의 기술을 도입하기로 한 결정은 AI 기업의 최신 모델들, 특히 Claude Sonnet 4가 특정 Office 365 기능 자동화에서 우수한 성능을 보인 테스트 결과에 따른 것입니다. Microsoft의 생산성 앱용 AI 기능 개발에 참여한 개발자들은 Anthropic의 모델들이 특히 Excel에서의 재무 계산 실행 및 특정 지시 사항에 따른 PowerPoint 프레젠테이션 생성에서 뛰어남을 발견했습니다.

이번 협력은 Microsoft가 Office 365의 AI 역량을 위해 이전까지 독점적으로 의존하던 OpenAI 기술에서 처음으로 의미 있는 전환을 시도하는 것입니다. 수년간 OpenAI의 모델이 Word, Excel, Outlook, PowerPoint 전반의 Copilot 기능을 구동해왔으나, 이제 회사는 AI 포트폴리오를 다각화하여 여러 공급업체를 포함시키고 있습니다.

 

파트너십 갈등 속에서의 전략적 전환

 

이 같은 상황은 마이크로소프트와 오픈AI 간의 관계에 대한 압력이 점점 커지고 있는 가운데 벌어지고 있습니다. 소프트웨어 거대 기업인 마이크로소프트는 2019년 이후 오픈AI에 130억 달러 이상을 투자했지만, 양사의 파트너십 계약은 2030년에 만료될 예정입니다. 최근 협상에서는 지분율, 수익 분배 방식, 독점적 권리 등에 초점이 맞춰졌으며, 오픈AI는 현재 20%인 마이크로소프트의 수익 지분을 줄이고자 하는 것으로 알려졌습니다.

마이크로소프트는 자체 AI 모델인 MAI도 개발해왔으며, 이 모델들은 오픈AI와 Anthropic의 주요 모델과 비슷한 성능을 보이고 있습니다. 마이크로소프트는 8월에 MAI-Voice-1과 MAI-1-preview를 선보였는데, 이는 회사의 최초의 엔드투엔드 기반 모델로, 외부 AI 공급업체에 대한 의존도를 줄이려는 더 넓은 전략을 나타냅니다.

 

AI 모델 포트폴리오 확장

 

Anthropic의 통합은 Microsoft가 OpenAI를 넘어 인공지능 역량을 다양화하려는 광범위한 노력의 일부입니다. 이 회사는 Copilot 프레임워크 내에서 성능을 평가하기 위해 DeepSeek, Meta, xAI를 포함한 다양한 업체의 AI 모델을 테스트해 왔습니다. 이러한 다중 모델 접근법은 Microsoft가 다양한 비즈니스 분야에 맞춤형 솔루션을 제공하면서 단일 AI 공급업체에 대한 의존도를 줄일 수 있게 해줍니다.

현재 Microsoft와 OpenAI의 파트너십은 OpenAI 모델을 자사 제품 및 클라우드 인프라에 통합할 독점 권한을 포함합니다. 하지만 최근 변경으로 인해 OpenAI의 Azure 독점권이 수정되어, Microsoft가 용량 요구를 충족하지 못할 경우 OpenAI가 다른 클라우드 공급자를 사용할 수 있는 '선매권(right of first refusal)' 모델로 전환되었습니다.

Anthropic 기술의 Office 365 통합은 기업용 AI 환경이 변화하고 있음을 보여줍니다. 기업들은 점점 단일 공급업체 솔루션 대신, 유연성과 성능 최적화를 추구하고 있습니다. Microsoft와 Anthropic 모두 The Information의 보도 당시 파트너십 세부 사항에 대한 공식 입장을 내놓지 않았습니다.

댓글 0
전체 1,244 / 284 페이지
구글이 사진 앱에 수정사항을 텍스트로 바로 수정요청하는 기능을 적용.이 기능은 곧 런칭할 픽셀10에서부터 적용이 될 예정.또한 사진이 어떻게 편집되었는지 C2PA 인증 기술로 추적이 가능하다고.아래는 구글 블로그의 소개 내용.Google Photos에서는 이제 사진을 편집할 때 원하는 내용을 텍스트나 음성으로 직접 요청할 수 있습니다. 사용자는 어떤 편집 효과를 적용할지 직접 고르지 않아도 되고, 그저 "차를 배경에서 제거해줘"처럼 자연스럽게 말을 하면 AI가 알아서 반영해 줍니다. 이 기능은 미국의 Pixel 10 기기에서 우선 제공됩니다.새롭게 디자인된 사진 편집기는 직관적 UI와 AI 기반 제안으로 일반 사용자도 쉽게 다양한 효과를 활용할 수 있습니다. 이번에 도입된 대화형 편집 기능으로, 구체적인 요청뿐 아니라 "사진 복원해줘", "색감 보정해줘" 등 복합적인 요구도 한 번에 처리할 수 있습니다. 여러 번 연속해서 추가 요청을 하며 세부 조정도 가능합니다.밝기 조절, 배경 제거 같은 기본 편집뿐 아니라 배경 교체, 파티 모자 추가 등 창의적인 효과 요청도 대화로 손쉽게 처리할 수 있습니다. 사용자가 별도의 편집툴을 배우지 않아도 다양한 AI 편집을 자유롭게 즐길 수 있게 되었습니다.Pixel 10 기기에서는 C2PA(디지털 콘텐츠 인증) 기술이 적용되어, AI가 사진 수정에 개입한 흔적·정보를 확인할 수 있습니다. Google Photos에도 점진적으로 이 기능이 적용되며, 사진이 어떻게 만들어지고 어디에 AI 편집이 사용됐는지 투명하게 확인할 수 있습니다.
1855 조회
0 추천
2025.08.22 등록
AI의 진화: 수동적 도구에서 자율적 에이전트로2023년까지 AI는 주로 문서 작성, 정보 조사 등의 보조 업무에 활용되는 수동적 도구였습니다. 하지만 2025년 현재 AI 에이전트는 기억하고 계획하며 독립적으로 행동할 수 있는 자율적 시스템으로 발전했습니다.실제 기업 도입 사례서비스나우(ServiceNow): IT 요청 처리를 완전 자동화하여 직원이 소프트웨어 설치나 라이선스 갱신을 요청하면 에이전트가 전 과정을 처리깃허브 코파일럿(GitHub Copilot): 개발자의 의도를 이해하고 반복적인 코딩 작업을 자동 수행하는 에이전트 모드 도입시스코 웹엑스(Webex): 고객 상담, 실시간 통화 지원, 대화 요약 및 감정 분석까지 여러 AI 에이전트가 협업하여 고객 지원 업무 처리성공 요인과 한계AI 에이전트는 명확하고 표준화된 절차를 따르는 작업에서 뛰어난 성과를 보입니다. 최근에는 복잡한 비즈니스 분석까지 수행할 수 있도록 발전하고 있지만, 여전히 작업 완료 시점을 정확히 판단하지 못하는 문제가 있습니다.도입 시 고려사항업무 프로세스 재설계: 기존 업무 방식에 AI를 단순히 추가하는 것이 아닌, 에이전트 중심의 업무 프로세스로 근본적 재설계 필요신뢰성 확보: 안전 규칙, 테스트 시스템, 명확한 기록 체계 구축이 필수새로운 역할 창출: 에이전트 관리, 모니터링, 컴플라이언스 점검을 담당하는 새로운 직무 등장 예상향후 전망앞으로 2년 내에 AI 에이전트는 고객 지원과 소프트웨어 개발 영역에서 일상적인 도구가 될 것으로 예상됩니다. 클라우드 플랫폼들도 에이전트 개발부터 운영까지 통합 솔루션을 제공할 가능성이 높습니다.
1816 조회
0 추천
2025.08.21 등록
애플의 인공지능 기능에 대해 부정적인 뉴스가 나오면서 시리의 활용에 대해 조사한 결과가 나오고 있다.https://9to5mac.com/2025/08/20/seven-years-later-people-still-havent-changed-how-they-use-siri/YouGov 설문조사에 따르면, 사용자의 대다수는 2018년 이후로도 Siri와 다른 음성 비서를 여전히 다섯 가지 기본 용도로 사용하고 있다. 가장 많이 사용하는 기능은 날씨 확인(59%), 음악 재생(51%), 웹 검색(47%), 타이머/알람 설정(40%), 핸즈프리 전화 걸기(39%)이다사용자들은 Siri가 기본적인 명령만 이해하도록 적응했으며, 새로운 AI 음성 모드가 나오더라도 기존 사용자들이 이를 익히는 데는 시간이 걸릴 것으로 보고 있다. 또한 새로운 Siri가 나와도 2027년쯤에는 사용자 경험이 크게 개선되길 기대하고 있다.원래부터 거의 모든 사용자가 지금 하는 행동을 7년 전에도 할 수 있었을 정도로 Siri 사용은 정체되어 있다.일부 사용자들은 음성 비서가 기대만큼 똑똑하지 않고, 정확한 답변을 제공하지 못해 답답함을 느끼고 있다.전반적으로 사용자들은 Siri의 기본 기능에는 만족하지만, 더 복잡한 작업을 수행하거나 자연스러운 대화를 기대하는 데는 한계가 있으며 이는 앞으로 개선이 필요한 점으로 남아 있다
1881 조회
0 추천
2025.08.21 등록
20일 구글은 Made by google 행사를 열었다. 이 자리에서 주로 Pixel 폰과 관련된 내용이 발표되었지만,인공지능 Gemini 의 픽셀 연결 버전 "제미나이 라이브" 와 관련된 업데이트가 있었다..https://blog.google/products/gemini/gemini-live-updates-august-2025/주요 동영상은 위 주소에서 확인이 가능하다.이번 업데이트로 Gemini Live는 더욱 시각적으로 인지력이 높아졌고, 화면에서 실시간으로 사용자에게 시각적 가이드(예: 화면에 중요한 부분 하이라이트)를 제공한다.예를 들어 신발 두 켤레 중 어느 것이 더 잘 어울리는지, 또는 적절한 공구가 무엇인지 Gemini가 화면을 보며 직접 알려줄 수 있다 이 시각적 가이드 기능은 8월 28일 출시되는 Pixel 10 시리즈에 먼저 적용되며, 이후 안드로이드 및 iOS 기기로 확장될 예정이다.Gemini Live는 구글 캘린더, 킵, 테스크 등 기존 앱뿐 아니라 곧 메시지, 전화, 시계, 지도 앱과도 더 깊게 통합되어 스케줄 관리, 메시지 전송 등의 실생활 업무를 돕는다.예를 들어 생일 선물을 찾다가 바로 가족에게 전화를 걸거나, 지하철 경로를 찾으면서 메시지를 바로 보내는 등 대화하면서 여러 앱을 넘나드는 지원이 가능해진다.음성 대화 품질도 크게 개선되어 어조, 리듬, 음높이 등을 자연스럽게 사용해 스트레스 상황에도 차분한 반응을 하는 등 보다 인간다운 대화가 가능해진다.사용자 요청에 따라 말하는 속도를 조절하거나, 재미있는 악센트로 이야기해주는 기능과, 인물 시점의 생생한 스토리텔링 기능도 곧 선보인다.이번 업데이트는 Gemini를 더 자연스럽고 도움이 되는 AI 비서로 만들기 위한 구글의 지속적인 노력의 일환이며, 앞으로도 사용자와 함께 발전시켜 나가겠다는 계획이다.
1847 조회
0 추천
2025.08.21 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입