AI 뉴스

OpenAI, 긴 코딩 작업을 위한 GPT-5.1-Codex-Max 공개

페이지 정보

작성자 xtalfi
작성일 2025.11.20 14:56
696 조회
0 추천
0 비추천

본문

OpenAI-Codex-GPT-5-Codex.jpg

(퍼플렉시티가 정리한 기사)


OpenAI는 월요일에 GPT-5.1-Codex-Max를 출시하며, 복잡한 다중 시간 프로그래밍 프로젝트를 다루는 개발자들을 위한 획기적인 최신 에이전틱 코딩 모델로 포지셔닝했습니다. 내부적으로 24시간 개발 작업을 완료한 것으로 알려진 이 모델은 컨텍스트를 잃지 않고 수백만 개의 토큰에 걸쳐 일관되게 작동할 수 있도록 하는 "압축(compaction)" 기술을 도입했습니다.​

이번 출시는 Google이 Gemini 3 Pro를 공개한 지 하루 만에 이루어져, 개발자 도구 시장에서 AI 거대 기업들 간의 경쟁을 심화시키고 있습니다. OpenAI의 발표에 따르면, GPT-5.1-Codex-Max는 이제 모든 Codex 플랫폼에서 GPT-5.1-Codex를 대체하는 기본 모델이 되었습니다.​


성능 향상 및 벤치마크 결과

GPT-5.1-Codex-Max는 표준 소프트웨어 엔지니어링 벤치마크인 SWE-Bench Verified에서 77.9%의 정확도를 달성하여, Gemini 3 Pro의 보고된 76.2%를 근소하게 앞질렀습니다. 이 모델은 또한 SWE-Lancer IC SWE에서 79.9%를 기록하여 이전 버전의 66.3%와 비교되며, TerminalBench 2.0에서는 58.1%에 도달했습니다.​

벤치마크 점수를 넘어, 이 모델은 실질적인 효율성 개선을 제공합니다. OpenAI는 GPT-5.1-Codex-Max가 실제 코딩 작업을 완료할 때 GPT-5.1-Codex보다 약 30% 적은 토큰을 사용하면서 27%에서 42% 더 빠르게 작업을 완료한다고 보고합니다. ZDNET에 따르면, 이러한 효율성 향상은 사용량 제한이 있는 ChatGPT Plus 구독자들에게 잠재적으로 추가 1시간의 프로그래밍 시간으로 환산됩니다.​

압축 시스템은 주요 아키텍처 발전을 나타내며, 컨텍스트 한계에 접근할 때 필수 정보를 유지하면서 세션 기록을 자동으로 압축할 수 있게 합니다. The Decoder에 따르면 "모델이 컨텍스트 창을 채우면 자동으로 세션 기록을 압축합니다". OpenAI의 시스템 카드는 이 모델이 "압축이라는 프로세스를 통해 여러 컨텍스트 창에 걸쳐 작동하도록 기본적으로 훈련된 최초의 모델"이라고 명시합니다.​


가용성 및 내부 채택

GPT-5.1-Codex-Max는 ChatGPT Plus, Pro, Business, Edu 및 Enterprise 사용자를 위한 Codex를 통해 즉시 사용할 수 있습니다. OpenAI에 따르면 API 액세스는 "곧" 제공될 예정입니다. 이 모델은 또한 Windows 환경에 최적화된 최초의 Codex 버전입니다.​

OpenAI 내부 채택률은 상당합니다. 회사의 10월 발표에 따르면, OpenAI 엔지니어의 95%가 매주 Codex를 사용하고 있으며, 이 도구를 채택하기 전과 비교하여 현재 70% 더 많은 풀 리퀘스트를 병합하고 있습니다. OpenAI는 "7월에 절반을 조금 넘었던 것에 비해 오늘날 거의 모든 엔지니어가 Codex를 사용합니다"라고 밝혔습니다.​

이 모델은 프롬프트 인젝션 및 데이터 유출을 포함한 보안 위험을 완화하기 위해 기본적으로 네트워크 액세스가 비활성화된 샌드박스 환경 내에서 작동합니다.

댓글 0
전체 1,366 / 62 페이지
Anthropic은 Claude를 위한 세 가지 베타 기능인 Tool Search Tool, Programmatic Tool Calling, Tool Use Examples를 출시했습니다. 이는 AI 에이전트가 컨텍스트 윈도우를 과부하시키지 않고 수백 또는 수천 개의 도구를 사용할 수 있도록 하며, 개별 API 요청 대신 코드를 통해 도구를 호출하고, 스키마 정의만으로가 아닌 구체적인 예시를 통해 올바른 사용법을 학습하도록 설계되었습니다.내부 테스트에서 Tool Search Tool은 토큰 사용량을 85% 감소시키는 동시에 대규모 도구 라이브러리에서 Opus 4.5의 정확도를 79.5%에서 88.1%로 향상시켰으며, Programmatic Tool Calling은 복잡한 연구 작업에서 37%의 토큰 절감을 달성하면서 이전에 도구 호출당 수백 밀리초가 필요했던 여러 추론 과정을 제거했습니다.이 기능들은 GitHub, Slack, Sentry, Grafana, Splunk를 연결하는 기본 5개 서버 설정에서 대화가 시작되기 전에 약 55,000개의 토큰을 소비하는 중요한 확장성 문제를 해결합니다. Anthropic은 최적화 이전 프로덕션 환경에서 도구 정의가 최대 134,000개의 토큰을 소비하는 것을 관찰했습니다.
603 조회
0 추천
2025.11.25 등록
기술 저널리스트 Alex Kantrowitz와 Ranjan Roy는 Google의 Gemini 3가 OpenAI의 심각한 경쟁자로 부상했으며, Sam Altman이 유출된 메모에서 직원들에게 “거친 분위기”와 “일시적인 경제적 역풍”을 예상하라고 경고했다고 논의했습니다. Kantrowitz는 이를 분수령의 순간이라고 부르며, OpenAI가 앞서간다는 것을 인정받은 적이 없었다고 말했습니다.Gemini 3는 Arc AGI와 LM Arena 리더보드를 포함한 주요 AI 벤치마크에서 1위를 차지했으며, 추상적 시각 추론에서 GPT-5.1의 점수(31.1% 대 17.6%)의 거의 두 배를 달성했습니다. 한편 Google의 조직 재편—DeepMind와 Brain을 회사의 “엔진룸”으로 통합하고 검색에서 수백 명의 엔지니어를 이동—이 이러한 반전을 가능하게 했습니다.이러한 변화는 Google이 시가총액 3조 6,200억 달러로 Microsoft를 앞지르고, Nvidia의 기록적인 실적이 AI 거래를 유지하지 못하면서 발생했으며, 주가는 상승 5%에서 하락 3%로 반전되었습니다. 이는 AI 모델의 상품화와 경쟁하는 챗봇들이 기능적으로 상호 교환 가능해지고 있는지에 대한 투자자들의 우려가 커지면서 나타났습니다.
600 조회
0 추천
2025.11.25 등록
개발자 Simon Willison은 최상위 모델들이 현재 너무나 유사하게 작동하여 실제 작업에서는 기업들이 각 릴리스마다 개선을 주장함에도 불구하고 의미 있는 성능 차이를 드러내지 못하기 때문에, 최첨단 AI 모델 평가가 점점 더 어려워지고 있다고 주장한다.Willison은 Anthropic에서 새로 출시한 Claude Opus 4.5를 사용하여 이틀 동안 39개 파일에 걸쳐 2,022개의 코드 추가를 포함하는 광범위한 코딩 작업을 완료한 후, 이전 Claude Sonnet 4.5 모델로 다시 전환했을 때도 동일한 속도로 작업을 계속할 수 있었으며, 두 모델 간의 구체적인 성능 차이를 식별할 수 없었다고 밝혔다.Willison은 AI 연구소들이 새로운 모델을 출시할 때 이전 모델에서는 실패했지만 새 모델에서는 성공하는 프롬프트의 구체적인 예시를 함께 제공할 것을 요구하며, 이러한 시연이 MMLU나 GPQA Diamond와 같은 테스트에서 한 자릿수 백분율 포인트 개선을 보여주는 벤치마크보다 더 가치 있을 것이라고 주장한다—이는 최첨단 모델들이 전통적인 평가 지표를 점점 더 포화시키면서 업계 전반이 겪고 있는 어려움을 반영하는 과제이다.
640 조회
0 추천
2025.11.25 등록
VentureBeat기사는스스로를"AI우선"이라고선언하는대부분의기업들이진정한도입보다는형식적인혁신에몰두하고있다고주장하며,진정한AI도입은하향식기업지시가아닌호기심많은직원들이조용히실험하는과정에서자연스럽게나타난다고설명합니다.​이기사는직접프로토타입을만들고자신의실패를공유하는리더와금요일까지AI계획을요구하는Slack메시지로단순히규정준수를강요하는리더를구분하며,전자는실질적인추진력을조성하는반면후자는반감을낳는다고설명합니다.​기사는재무및운영부서의직원들이일반적으로이사회프레젠테이션에등장하는고가의엔터프라이즈플랫폼이아닌"그냥ChatGPT"를사용한다고인정한다고언급하며,최근설문조사에따르면광범위한도입의무에도불구하고직원의5%만이AI를최대한활용하여업무를혁신하고있다고밝힙니다.
626 조회
0 추천
2025.11.25 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입