AI 뉴스

오픈AI, 구글 제미나이 추격에 한 달 만에 GPT-5.2 기습 출시

페이지 정보

작성자 이수
작성일 2025.12.12 21:09
858 조회
0 추천
0 비추천

본문

3ca1c7023983fbb9e1328d762c71fbb1t3SH.jpg

 

오픈AI가 구글의 제미나이3 추격을 막기 위해 11일(현지시간) 신규 인공지능 모델 'GPT-5.2'를 출시했다. 전 버전인 GPT-5.1을 공개한 지 불과 한 달 만으로, 2022년 챗GPT 서비스 시작 이후 가장 짧은 간격의 업데이트다.​

샘 올트먼 오픈AI CEO는 이달 초 제미나이3 출시 직후 사내 '코드 레드'를 발령하며 비핵심 프로젝트를 중단하고 챗GPT 개선에 전사적 역량을 집중하도록 지시한 바 있다. 올트먼은 CNBC 인터뷰에서 "제미나이3의 영향이 우려했던 것보다 적었다"며 "내년 1월에는 코드 레드에서 벗어나 강력한 위치에 설 것"이라고 자신감을 내비쳤다.

 

성능 경쟁 격화

GPT-5.2는 즉답(Instant)·사고(Thinking)·프로(Pro) 세 가지 모드로 구성됐다. 오픈AI는 소프트웨어 엔지니어링 능력을 평가하는 SWE-벤치 프로에서 80%를 기록해 제미나이3 프로의 76.2%를 앞섰다고 밝혔다. 전문 산업 현장 44개 직종의 업무 수행 능력을 평가하는 GDPval에서는 프로 모드가 74.1%를 기록하며 인간 전문가 수준에 도달했다고 주장했다.​

구글도 같은 날 '제미나이 딥리서치' 에이전트를 공개하며 맞대응에 나섰다. 복합 문서의 인용 관계를 자동 분석해 보고서 초안을 생성하는 이 도구는 제미나이3 프로를 기반으로 구축됐다. 구글은 자체 벤치마크 DeepSearchQA에서 66.1%를 기록하며 제미나이3 프로의 56.6%를 크게 웃돌았다고 발표했다.​

센서타워 자료에 따르면 챗GPT는 글로벌 다운로드 점유율 50%로 여전히 선두를 지키고 있지만, 제미나이가 다운로드 증가율과 월간 활성 사용자(MAU) 증가율, 앱 내 사용 시간 증가율에서 모두 챗GPT를 웃도는 성장세를 보이고 있다. 챗GPT 다운로드는 올해 5월 8900만 건에서 11월 7800만 건으로 정체된 반면, 제미나이는 5월 1600만 건에서 9월 7800만 건으로 급증했다.

 

콘텐츠 영역 확장

오픈AI는 같은 날 월트디즈니컴퍼니로부터 10억달러(약 1조4700억원) 규모의 투자를 유치했다고 발표했다. 3년 계약에 따라 디즈니는 마블, 픽사, 스타워즈 등 200개 이상 캐릭터를 챗GPT와 동영상 생성 AI '소라'에서 사용할 수 있도록 제공한다. 파이낸셜타임스는 "AI 기업과 미디어그룹 간 계약 중 최대 규모"라며 "오픈AI가 콘텐츠산업의 핵심 파트너로 진입했다"고 평가했다.​

전성민 가천대 교수는 "오픈AI가 시장을 선점했으나 AI 시장은 기술적 특성상 선점 효과가 오래 유지되기 어렵다"며 "구글은 드라이브·독스·지메일 등 방대한 데이터 자산을 보유하고 있어 AI 기능 통합 속도가 빠르고, 무료 또는 저가 프로 버전을 적극적으로 제공해 사용자 전환 가능성을 높이고 있다"고 분석했다.

댓글 0
전체 1,366 / 137 페이지
(퍼플렉시티가정리한기사)Haut.AI는11월11일FaceAnalysis3.0을공개하며스마트폰셀카를통해소비자에게임상수준의피부평가기술을제공합니다.AI기반플랫폼은한때피부과실험실에만국한되었던정밀도로29가지피부파라미터를분석하며,전문진단과가정내피부관리사이의격차를해소하는것을목표로합니다.​에스토니아에본사를둔이회사의최신시스템은광범위한분류를제공하는대신특정피부상태를구별합니다—잔주름과깊은주름을분리하고주근깨와기미를구분합니다.FaceAnalysis3.0은발견사항을표준화된피부과점수로변환하여임상연구와제품테스트전반에걸쳐일관된비교를가능하게합니다.​"지금까지임상수준의피부분석은특수장비와실험실환경을필요로했습니다"라고Haut.AI의CEO이자공동창립자인AnastasiaGeorgievskaya는말했습니다."FaceAnalysis3.0과표준화된셀카촬영을위한LIQA기술을통해휴대폰으로사진을찍는것만큼간단하게만들었습니다."​다각도이미징및개인정보보호장치이플랫폼은정면,좌측,우측세가지각도에서이미지를캡처하여통합분석으로병합하는Face180기술을도입했습니다.이접근방식은머리기울임이나각도변화로인한사각지대를제거하고측정안정성을최대30%까지향상시킨다고회사측은밝혔습니다.​개인정보보호를위해모든이미지는Haut.AI의특허받은SkinAtlas기술을거치며,이기술은필수적인피부데이터를보존하면서식별가능한특징을제거합니다.이시스템은또한다양한조명조건에서셀카를표준화하기위해색상보정을사용하여결과가환경적요인이아닌실제피부변화를반영하도록보장합니다.​이번출시는AI피부분석시장이급속도로확장되는시점에이루어졌습니다.시장조사에따르면글로벌시장은2025년17억9천만달러로평가되었으며2034년까지71억1천만달러에이를것으로예상됩니다.피부과분야의AI모델은현재80~98%의진단정확도를달성하고있으며,일부연구에서는숙련된피부과전문의와비교할만한성능을보여줍니다.​산업파트너십및응용분야2018년에설립된Haut.AI는UltaBeauty,Neutrogena,Beiersdorf,GrupoBoticário등주요뷰티브랜드들과파트너십을맺고있습니다.이회사의기술은Neutrogena의Skin360플랫폼과UltaBeauty의모바일앱에서피부분석기능을지원합니다.​뷰티브랜드의경우,FaceAnalysis3.0은특정색소침착유형이나여드름증상을식별하여제품매칭을가능하게하며,제품포뮬러가작용하도록설계된방식에부합하는추천을제공합니다.이시스템은정확한염증수를보여주는픽셀수준의마스크를제공하여,전문가와소비자모두에게AI결과를설명가능하게만듭니다.​이플랫폼은제품라인을개선하는글로벌브랜드부터집에서피부건강을모니터링하는소비자까지뷰티생태계전반에서사용할수있도록설계되었으며,알고리즘은전문이미징시스템과일상적인스마트폰모두에최적화되어있습니다.
1622 조회
0 추천
2025.11.13 등록
(퍼플렉시티가정리한기사)OpenAI는수요일연방판사에게2천만건의익명화된ChatGPT대화로그를뉴욕타임스에제출하도록요구하는명령을번복해달라고요청하며,이러한공개가사용자프라이버시를침해하고AI소송에"위험한선례"를남길것이라고주장했습니다.이러한움직임은신문사와다른언론사들이제기한저작권침해소송에서대화기록을제출해야하는금요일마감일을앞두고나온것입니다.​OpenAI가지지를호소하는공개성명에서강조하지않은것은OnaWang치안판사가이미11월7일OpenAI에불리한판결을내렸으며,OpenAI가로그를제출하는것이"적절하다"고판단했다는점입니다.판사는기존보호명령과OpenAI의"철저한비식별화"프로세스를통해사용자프라이버시가충분히보호된다고판단했습니다.​프라이버시주장이증거개시명령과충돌하다수요일에게시된블로그포스트에서OpenAI의최고정보보안책임자인DaneStuckey는뉴욕타임스가"사용자프라이버시침해"를요구하고있다고비난하며,이신문사가"타임스의근거없는소송과아무런관련이없는"사람들의대화를요구하고있다고주장했다.회사는요청된대화기록의"99.99%"가저작권주장과무관하다고주장했다.​2천만건의대화는2022년12월부터2024년11월까지의무작위샘플을나타낸다.OpenAI는뉴욕타임스콘텐츠가포함된채팅만식별하기위한타겟검색을포함한프라이버시보호대안을제안했지만,이러한제안은거부되었다.​저작권분쟁의중심에있는훈련데이터뉴욕타임스는2023년12월OpenAI와을상대로소송을제기했으며,이들기업이ChatGPT훈련을위해허가나보상없이"수백만건"의기사를사용하여저작권을침해했다고주장했습니다.이신문사는ChatGPT가자사콘텐츠를어떻게재생산하는지분석하고,OpenAI가증거를조작하기위해챗봇을"해킹"했다는주장에반박하기위해로그에대한접근이필요하다고주장합니다.​Wang판사는이전에2025년5월OpenAI가모든채팅로그를보존하도록요구하는보존명령을내렸으나,해당명령은9월에부분적으로해제되었습니다.2천만건의로그제출을둘러싼현재의분쟁은증거개시절차에서의갈등이심화되고있음을보여줍니다.​OpenAI는이요청이합리적인증거개시범위를초과한다고주장하며,"이규모의개인정보를전면적으로제출하도록명령한법원을알지못한다"고언급했습니다.이사건은훈련용저작권자료의오용혐의로AI기업들을상대로제기된수많은소송중하나이며,잠재적손해배상액은수십억달러에달합니다.
1544 조회
0 추천
2025.11.13 등록
(퍼플렉시티가정리한기사)OpenAI의Sora2비디오생성기에서저작권침해를방지하려는시도가실패하고있으며,사용자들이이름철자를틀리게쓰거나대체설명을사용하는등의간단한우회방법을통해콘텐츠필터를쉽게우회하고있다고최근테스트및옹호단체들의경고에따르면밝혀졌다.9월30일에출시된이비디오생성도구는비평가들이"저작권침해기계"라고부르는것이되었으며,닌텐도캐릭터,저작권이있는만화,그리고실제인물의무단딥페이크비디오를생성하고있다.OpenAI가출시며칠만에옵트아웃방식에서옵트인저작권정책으로전환했음에도불구하고,404Media의테스트결과보호장치는여전히우회하기쉬운것으로나타났다.​간단한트릭으로콘텐츠필터우회하기404Media가보호된콘텐츠의영상을생성하려고시도했을때,Sora2는"AnimalCrossinggameplay"와같은프롬프트를차단했다.그러나이도구는"Titlescreenandgameplayofthegamecalled'crossingaminal'2017"이라는프롬프트를입력받았을때닌텐도게임의정확한재현물을생성했다.유사한우회방법이Fox의"AmericanDad"에서는모호한캐릭터설명을사용하여,그리고Twitch스트리머HasanPiker의경우그의이름을"pikersahan"으로뒤집어성공했다.​r/SoraAI서브레딧의사용자들은필터를우회하는데사용된프롬프트와함께"탈옥"방법을정기적으로공유한다.플랫폼의알고리즘은사망한유명인들의수많은클립을포함하여자체정책을위반할가능성이있는영상을계속해서제공하고있다.​국제적반발이심화되다일본콘텐츠해외배포협회는10월27일에스튜디오지브리,반다이남코,스퀘어에닉스를대표하여OpenAI에게회원사의콘텐츠를허가없이학습에사용하는것을중단할것을공식적으로요청했습니다.일본정부또한OpenAI에게"저작권침해가될수있는행위"를삼가달라고요청했습니다.​CODA는서신에서"일본의저작권제도에서는저작물사용에대해원칙적으로사전허가가필요하며,사후이의를통해저작권침해책임을회피할수있는제도는없다"고밝혔습니다.​소비자감시단체인PublicCitizen은11월11일자서신에서Sora2가안전과민주주의에대해"무모한무시"를보여주고있다고경고했습니다.이단체는연구진이출시24시간내에비인가방지장치를우회했으며,"의무적"워터마크도무료온라인도구로4분이내에제거될수있다고지적했습니다.​OpenAICEO샘알트먼은"통과되어서는안되는생성물이몇몇간극에서나타날수있다"고인정하며,이문제의어려움을언급했습니다.회사측은"스튜디오및권리보유자들과직접적으로소통하고있다"고밝혔으나,근본적인문제—Sora2의학습데이터에이미포함된저작권보호콘텐츠를비용이많이드는재학습없이제거할수없는점—에대해서는구체적인해결방안을제시하지않았습니다.
1651 조회
0 추천
2025.11.13 등록
(퍼플렉시티가정리한기사)NVIDIA는화요일에발표된MLPerfTrainingv5.1벤치마크에서완전한석권을달성하여7개테스트모두에서가장빠른훈련시간을기록했으며,모든카테고리에서결과를제출한유일한플랫폼이되었습니다.이회사는5,120개의BlackwellGPU를사용하여Meta의Llama3.1405B모델을단10분만에훈련시켜새로운업계기록을세웠으며,이는이전최고기록보다2.7배빠른속도입니다.​11월12일MLCommons에서발표한이번결과는MLPerfTraining역사상어떤회사도4비트FP4정밀도를사용한첫번째사례로,이획기적인기술은동일한수의GPU에서이전세대Hopper아키텍처보다최대4배의성능을제공했습니다.NVIDIA의독점NVFP4포맷은엄격한정확도요구사항을유지하면서8비트FP8보다3배빠른속도로계산을가능하게합니다.​블랙웰울트라데뷔하다BlackwellUltra기반GB300NVL72랙규모시스템이이번라운드에서MLPerfTraining에처음등장했으며,표준BlackwellGPU보다1.5배높은NVFP4처리량과어텐션레이어를위한2배의softmax가속을제공하는향상된TensorCore를특징으로합니다.이시스템은GPU당279GB의HBM3e메모리를탑재하고NVIDIAQuantum-X800InfiniBand를통해업계최초의800Gb/s네트워킹플랫폼으로연결됩니다.​NVIDIA는또한새로도입된두가지벤치마크인Llama3.18B와FLUX.1이미지생성에서성능기록을세웠습니다.이회사는512개의BlackwellUltraGPU를사용하여5.2분만에Llama3.18B를학습시켰으며,FLUX.1에대한결과를제출한유일한플랫폼으로서1,152개의BlackwellGPU로12.5분의학습시간을달성했습니다.​다양한경쟁분야MLPerfTrainingv5.1라운드에는20개조직이참여하여12개의서로다른하드웨어가속기를탑재한65개의고유한시스템을제출했습니다.AMD는새로운InstinctMI355X및MI350XGPU를선보였으며,AMD는단일노드접근성을위해설계된새로운Llama3.18B벤치마크개발을주도했습니다.AMD에따르면,MI355XGPU성능은Llama3.18B테스트에서NVIDIA의Blackwell플랫폼대비5-6%이내의차이를보였습니다.​전체제출물의거의절반이멀티노드구성이었으며,이는전년도라운드대비86%증가한수치입니다.Datacrunch,UniversityofFlorida,Wiwynn이처음으로참여했으며,Dell,HPE,Lenovo와같은기존참가자들도함께했습니다.​벤치마크업데이트에서는레거시테스트를최신AI워크로드로대체했습니다:언어모델의경우BERT를Llama3.18B로,이미지생성의경우StableDiffusionv2를FLUX.1로교체했습니다.
1536 조회
0 추천
2025.11.13 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입