Loading...

AI 뉴스

2025년, AI가 스마트홈을 망친 이유

페이지 정보

작성자 symbolika
작성일 2025.12.30 00:05
460 조회
0 추천
0 비추천

본문

AI Smart Home 2025

• 생성형 AI 음성 비서가 기존 음성 비서를 대체했으나, 조명 켜기나 가전제품 작동 같은 기본 명령 수행에서 일관성이 크게 떨어짐

• 아마존 알렉사 플러스와 구글 제미나이 포 홈 모두 '얼리 액세스' 단계로, 사용자들은 사실상 베타 테스터 역할을 하고 있음

• LLM은 무작위성(확률적 특성)이 내재되어 있어, 예측 가능하고 반복적인 작업에 최적화된 기존 시스템과 근본적으로 호환되지 않음

• 전문가들은 AI가 더 신뢰할 수 있게 되려면 수년이 걸릴 수 있으며, 그 사이 스마트홈 경험은 저하될 수 있다고 경고


오늘 아침, 필자는 알렉사 연동 보쉬 커피머신에 커피를 내려달라고 요청했다. 그런데 루틴을 실행하는 대신, 그건 할 수 없다는 대답이 돌아왔다. 아마존의 생성형 AI 기반 음성 비서인 알렉사 플러스로 업그레이드한 이후, 커피 루틴이 제대로 작동한 적이 거의 없다. 매번 다른 핑계를 댄다.


2025년인 지금도 AI는 스마트홈을 안정적으로 제어하지 못한다. 과연 언젠가 가능해질지 의문이 들기 시작한다.


생성형 AI와 대규모 언어 모델(LLM)이 스마트홈의 복잡성을 해소하고, 연결된 기기의 설정, 사용, 관리를 더 쉽게 만들어줄 가능성은 분명 매력적이다. 능동적이고 상황 인식이 가능한 '새로운 지능 레이어'를 구현할 수 있다는 약속도 그렇다.


하지만 올해는 그런 미래가 아직 한참 멀었음을 보여주었다. 제한적이지만 안정적이던 기존 음성 비서들이 '더 똑똑한' 버전으로 교체됐지만, 대화는 더 자연스러워졌을지언정 가전제품 작동이나 조명 켜기 같은 기본 작업은 제대로 수행하지 못한다. 왜 그런지 알고 싶었다.


2023년 데이브 림프와의 인터뷰에서 필자는 처음으로 생성형 AI와 LLM이 스마트홈 경험을 개선할 가능성에 흥미를 느꼈다. 당시 아마존 디바이스 & 서비스 부문 총괄이던 림프는 곧 출시될 새 알렉사의 기능을 설명하고 있었다(스포일러: 출시는 그렇게 빠르지 않았다).


어떤 방식으로 말하든 사용자의 의도를 이해하는 더 자연스러운 대화형 비서와 함께, 특히 인상적이었던 것은 새 알렉사가 스마트홈 내 기기들에 대한 지식과 수백 개의 API를 결합해 맥락을 파악하고, 스마트홈을 더 쉽게 사용할 수 있게 해준다는 약속이었다.


기기 설정부터 제어, 모든 기능 활용, 다른 기기와의 연동 관리까지, 더 똑똑한 스마트홈 비서는 매니아들의 기기 관리를 쉽게 할 뿐 아니라 누구나 스마트홈의 혜택을 누릴 수 있게 해줄 잠재력이 있어 보였다.


3년이 지난 지금, 가장 유용한 스마트홈 AI 업그레이드라고 할 만한 것은 보안 카메라 알림에 대한 AI 기반 설명 기능 정도다. 편리하긴 하지만, 기대했던 혁명적 변화와는 거리가 멀다.


새로운 스마트홈 비서들이 완전히 실패한 것은 아니다. 알렉사 플러스에는 마음에 드는 점이 많고, 올해의 스마트홈 소프트웨어로 선정하기도 했다. 더 대화적이고, 자연어를 이해하며, 기존 알렉사보다 훨씬 다양한 질문에 답할 수 있다.


기본 명령에서 때때로 어려움을 겪지만, 복잡한 명령은 이해한다. "여기 조명 좀 어둡게 하고 온도도 올려줘"라고 하면 조명을 조절하고 온도조절기를 올린다. 일정 관리, 요리 도우미 등 가정 중심 기능도 더 나아졌다. 음성으로 루틴을 설정하는 것은 알렉사 앱과 씨름하는 것보다 훨씬 개선됐다. 다만 실행의 안정성은 떨어진다.


구글도 스마트 스피커용 제미나이 포 홈 업그레이드로 비슷한 기능을 약속했지만, 출시 속도가 너무 느려서 정해진 데모 외에는 직접 써보지 못했다. 네스트 카메라 영상을 AI 생성 텍스트로 요약해주는 제미나이 포 홈 기능을 테스트해봤는데, 정확도가 심각하게 떨어졌다. 애플 시리는 여전히 지난 10년의 음성 비서 수준에 머물러 있으며, 당분간 그 상태가 지속될 것으로 보인다.


문제는 새 비서들이 스마트홈 기기 제어에서 기존 비서만큼 일관성이 없다는 것이다. 기존 알렉사와 구글 어시스턴트(그리고 현재의 시리)는 사용하기 답답할 때도 있었지만, 정확한 명령어만 사용하면 대체로 조명은 항상 켜졌다.


오늘날 '업그레이드된' 비서들은 조명 켜기, 타이머 설정, 날씨 확인, 음악 재생, 그리고 많은 사용자들이 스마트홈의 기반으로 삼아온 루틴과 자동화 실행에서 일관성 문제를 겪고 있다.


필자의 테스트에서도 이런 현상을 확인했고, 온라인 포럼에도 같은 경험을 한 사용자들의 글이 넘쳐난다. 아마존과 구글도 생성형 AI 기반 비서가 기본 작업을 안정적으로 수행하는 데 어려움을 겪고 있음을 인정했다. 스마트홈 비서만의 문제도 아니다. ChatGPT도 시간을 알려주거나 숫자를 세는 것조차 일관성 있게 하지 못한다.


왜 이런 일이 일어나고, 나아질 것인가? 문제를 이해하기 위해 에이전틱 AI와 스마트홈 시스템 경험이 있는 인간 중심 AI 분야 교수 두 명과 대화했다. 핵심은 새 음성 비서가 기존 비서와 거의 같은 일을 하게 만드는 것은 가능하지만 많은 작업이 필요하며, 대부분의 기업은 그런 작업에 관심이 없다는 것이다.


전문가들에 따르면, 이 분야의 자원은 한정되어 있고 조명을 안정적으로 켜는 것보다 훨씬 더 흥미롭고 수익성 있는 기회가 많기 때문에, 기업들은 그쪽으로 움직이고 있다. 이런 상황에서 기술을 개선하는 가장 쉬운 방법은 실제 환경에 배포하고 시간이 지나면서 개선되도록 하는 것이다. 알렉사 플러스와 제미나이 포 홈이 '얼리 액세스' 단계인 이유가 바로 이것이다. 기본적으로 우리 모두가 AI의 베타 테스터인 셈이다.


안타깝게도 상황이 나아지려면 시간이 꽤 걸릴 수 있다. 미시간대학교 컴퓨터공학과 조교수이자 사운더빌리티 랩 소장인 드루브 자인도 연구에서 새로운 스마트홈 비서 모델이 덜 안정적임을 발견했다. "대화는 더 자연스럽고 사람들이 좋아하지만, 이전 버전만큼 성능이 좋지 않습니다"라고 그는 말한다. "테크 기업들은 항상 빠르게 출시하고 데이터를 수집해서 개선하는 모델을 써왔습니다. 몇 년 후에는 더 나은 모델을 얻겠지만, 그 몇 년간 사람들이 씨름하는 비용이 따릅니다."


근본적인 문제는 기존 기술과 새 기술이 잘 맞지 않는다는 것이다. 새 음성 비서를 만들기 위해 아마존, 구글, 애플은 기존 것을 버리고 완전히 새로운 것을 구축해야 했다. 그런데 이 새로운 LLM들이 이전 시스템이 잘하던 예측 가능하고 반복적인 작업에 적합하게 설계되지 않았다는 것을 금세 깨달았다. 조지아공대 인터랙티브 컴퓨팅 스쿨 교수 마크 리들은 "모두가 생각했던 것만큼 간단한 업그레이드가 아니었습니다. LLM은 훨씬 더 많은 것을 이해하고 더 다양한 방식의 소통에 열려 있는데, 그것이 해석의 여지와 해석 오류를 만들어냅니다"라고 설명한다.


기본적으로 LLM은 기존의 명령-제어 방식 음성 비서가 하던 일을 하도록 설계되지 않았다. 리들 교수는 "기존 음성 비서는 '템플릿 매처'라고 부릅니다. 키워드를 찾고, 그것을 보면 추가로 한두 단어가 올 것을 예상합니다"라고 설명한다. 예를 들어 "라디오 재생"이라고 하면 다음에 채널 번호가 올 것을 안다.


반면 LLM은 "많은 확률성, 즉 무작위성을 도입합니다"라고 리들은 설명한다. ChatGPT에 같은 프롬프트를 여러 번 물으면 다른 답변이 나올 수 있다. 이것이 LLM의 가치이기도 하지만, LLM 기반 음성 비서에 어제와 같은 요청을 해도 같은 방식으로 응답하지 않을 수 있는 이유이기도 하다. "이 무작위성이 기본 명령을 오해하게 만들 수 있습니다. 때때로 너무 과하게 생각하려 하기 때문입니다."


이를 해결하기 위해 아마존과 구글 같은 기업들은 LLM을 스마트홈(그리고 웹에서 하는 거의 모든 것)의 핵심인 API와 통합하는 방법을 개발했다. 하지만 이것이 새로운 문제를 만들었을 수 있다.


리들 교수는 "이제 LLM은 API에 함수 호출을 구성해야 하고, 구문을 정확하게 만들기 위해 훨씬 더 열심히 작업해야 합니다"라고 말한다. 기존 시스템이 키워드만 기다렸던 것과 달리, LLM 기반 비서는 API가 인식할 수 있는 전체 코드 시퀀스를 작성해야 한다. "이 모든 것을 메모리에 유지해야 하고, 여기서 또 실수할 수 있습니다."


이 모든 것이 필자의 커피머신이 때때로 커피를 내려주지 않는 이유, 또는 알렉사나 구글 어시스턴트가 예전에는 잘하던 일을 하지 못하는 이유를 과학적으로 설명해준다.


그렇다면 왜 이 기업들은 작동하던 기술을 버리고 작동하지 않는 것을 택했을까? 잠재력 때문이다. 특정 입력에만 반응하는 것이 아니라 자연어를 이해하고 그에 따라 행동할 수 있는 음성 비서는 무한히 더 유능하다.


리들 교수는 "알렉사와 시리 등을 만드는 모든 기업이 정말로 원하는 것은 서비스의 연결입니다. 이를 위해서는 복잡한 관계와 과제가 말로 어떻게 전달되는지 이해할 수 있는 일반적인 언어 이해가 필요합니다. 모든 것을 연결하는 if-else 문을 즉석에서 만들고 순서를 동적으로 생성할 수 있습니다"라고 설명한다. 에이전틱해질 수 있다는 것이다.


리들 교수는 기존 기술을 버리는 이유가 바로 이것이라고 말한다. 기존 기술로는 이것이 불가능했기 때문이다. 자인 교수는 "비용-편익 비율의 문제입니다. 새 기술은 기존의 비확률적 기술만큼 정확하지 않을 것입니다. 하지만 충분히 높은 정확도에 새 기술이 제공하는 확장된 가능성의 범위가 100% 정확한 비확률적 모델보다 가치가 있는지가 문제입니다"라고 말한다.


한 가지 해결책은 여러 모델을 사용해 비서를 구동하는 것이다. 구글의 제미나이 포 홈은 제미나이와 제미나이 라이브라는 두 개의 별도 시스템으로 구성된다. 구글 홈 앤 네스트 제품 책임자 아니시 카투카란은 궁극적으로 더 강력한 제미나이 라이브가 모든 것을 운영하게 하는 것이 목표지만, 현재는 더 제한된 제미나이 포 홈이 담당하고 있다고 말한다. 아마존도 마찬가지로 여러 모델을 사용해 다양한 기능의 균형을 맞춘다. 하지만 이는 불완전한 해결책이고, 스마트홈에 일관성 없음과 혼란을 초래했다.


리들 교수는 LLM이 언제 매우 정확해야 하고 언제 무작위성을 수용해야 하는지 이해하도록 훈련하는 방법을 아무도 제대로 알아내지 못했다고 말한다. '길들여진' LLM도 여전히 실수할 수 있다는 의미다. "전혀 무작위적이지 않은 기계를 원한다면, 모든 것을 억제할 수 있습니다"라고 리들은 말한다. 하지만 그 챗봇은 더 대화적이거나 아이에게 환상적인 취침 이야기를 들려주지 못할 것이다. 둘 다 알렉사와 구글이 내세우는 기능이다. "모든 것을 하나에 담으려면 정말로 트레이드오프가 필요합니다."


스마트홈 배포에서의 이런 어려움은 이 기술의 더 광범위한 문제를 예고하는 것일 수 있다. AI가 조명조차 안정적으로 켜지 못한다면, 더 복잡한 작업에 어떻게 의존할 수 있겠느냐고 리들 교수는 묻는다. "걷기도 전에 뛰려고 해선 안 됩니다."


하지만 테크 기업들은 빠르게 움직이고 뭔가를 망가뜨리는 성향으로 유명하다. "언어 모델의 역사는 항상 LLM을 길들이는 것이었습니다"라고 리들은 말한다. "시간이 지나면서 더 온순해지고, 더 신뢰할 수 있고, 더 믿을 만해집니다. 하지만 우리는 계속해서 그렇지 않은 영역의 경계로 밀어붙입니다."


리들 교수는 순수하게 에이전틱한 비서로 가는 길을 믿는다. "AGI에 도달할지는 모르겠지만, 시간이 지나면서 이것들이 최소한 더 신뢰할 수 있게 되는 것은 볼 수 있을 것입니다." 하지만 오늘날 집에서 이 불안정한 AI를 다루고 있는 우리에게 남은 질문은, 우리가 기다릴 의향이 있는지, 그리고 그 사이 스마트홈은 어떤 대가를 치르게 될 것인지다.

댓글 0
전체 1,366 / 90 페이지
(퍼플렉시티가정리한기사)화요일,의회의원들은AI챗봇이어린이들에게미치는정신건강위험을면밀히조사했으며,전문가들은취약한청소년들이이기술에대해건강하지못한정서적의존을형성하고자해및자살에관한위험한조언을받고있다고경고했다.하원감독및조사소위원회는"진실성을갖춘혁신:AI챗봇의위험과이점검토"라는제목의청문회를개최하여미성년자의대화형AI플랫폼사용에대한증가하는우려를검토했다.존조이스(펜실베이니아주공화당)위원장은챗봇상호작용과연관된일련의청소년자살사건이후AI혁신과취약한사용자보호사이의균형을맞출필요성을강조했다.​전문가들이위기관리실패사례를상세히설명하다정신건강전문가들은AI챗봇이종종놀라울정도로높은비율로해로운행동을지지하며적절한위기개입능력이부족하다고증언했습니다.AI와정신건강을전문으로하는정신과의사MarlynnWei박사는의원들에게"AI챗봇은인간보다50%더많이사용자의잘못된행동을지지한다"고말했습니다.그녀는챗봇이"허위또는오해의소지가있는정보를생성하는환각을일으킬수있으며,사용자를현실에고정시킬수있는장비가갖춰져있지않다"고덧붙였습니다.​BethIsraelDeaconessMedicalCenter의디지털정신의학책임자인JohnTorous박사는AI동반자가사용자들이봇을도구가아닌친밀한대상으로취급하는문제적인"준사회적관계"를조장할수있다고설명했습니다.그는챗봇이명확한경계를가진"자기계발서"처럼작동하여,대화가"너무개인적으로"되거나인간의개입이필요한"더깊은문제"와관련될때중단되어야한다고권고했습니다.​증언에따르면안전성테스트결과AI동반자는청소년정신건강응급상황에적절하게대응한비율이22%에불과한반면,범용챗봇은83%를기록했습니다.여러위원회위원들은청소년들이AI플랫폼에서매일몇시간씩보내고,일부는자해,섭식장애,성적콘텐츠를조장하는내용에노출된사례가문서화된것에대해우려를표명했습니다.​비극속에서규제압력이거세지다이번청문회는9월에시작된FTC조사에따른것으로,OpenAI,Meta,Alphabet을포함한7개주요AI기업을대상으로아동보호장치에관한정보를요구했습니다.이조사는14세SewellSetzerIII와16세AdamRaine의사례를포함하여AI챗봇이청소년자살에기여했다고주장하는여러소송이후시작되었습니다.​10월말,OpenAI는매주약120만명의ChatGPT사용자가"자살계획이나의도의명시적지표"를포함한대화에참여하고있으며,이는주간활성사용자8억명의0.15%에해당한다고공개했습니다.이후회사는위기대응능력을개선하기위해170명이상의정신건강전문가와협의했습니다.​부모들로부터과실치사소송을받은Character.AI는10월에11월말까지미성년자의챗봇접근을금지하겠다고발표했습니다.ErinHouchin하원의원(공화당-인디애나)은청문회에서긴급성을강조하며다음과같이말했습니다:"아이들은우리가카시트,놀이터,낯선사람위험에적용하는것과같은안전의식을온라인에서도받을자격이있습니다".
903 조회
0 추천
2025.11.20 등록
(퍼플렉시티가정리한기사)일론머스크의인공지능스타트업xAI가2,300억달러의기업가치로150억달러의신규지분투자를유치하기위한막바지협상을진행중인것으로월스트리트저널이보도했다.이는3월대비기업가치가두배이상증가한것으로,설립2년차인이벤처기업을세계에서가장가치있는비상장기업중하나로자리매김하게한다.​화요일밤머스크의자산관리사인제러드버철이투자자들에게자금조달조건을설명했으나,해당수치가투자전기업가치인지투자후기업가치인지는불분명한상태다.이번거래는xAI에게급격한성장을의미하는데,xAI는올해초소셜미디어플랫폼X와주식교환방식으로합병할당시1,130억달러의기업가치를공개한바있다.​수익성전망및경쟁적포지셔닝업계선두주자인OpenAI는5,000억달러의가치평가를받고있지만2029년까지1,150억달러의현금소진을예상하는반면,xAI는더이른시기에수익성을달성할수있는위치에있는것으로보입니다.Forbes가검토한투자자프레젠테이션녹음에따르면,ValorEquityPartners의JonathanShulkin은xAI가"빠르게매출을증가시키고있으며약2년반에서3년내에현금흐름플러스를달성할것으로예상된다"고밝혔으며,100억달러의현금보유고를유지하고있다고전했습니다.​이일정은xAI를2028년까지현금흐름플러스를달성할것으로예상하는Anthropic과동등한수준에놓이게합니다.이와대조적으로,OpenAI는올해연간매출130억달러를창출함에도불구하고2030년까지긍정적인현금흐름을달성할것으로예상하지않습니다.​인프라확장및재원조달전략자본의상당부분은xAI의공격적인인프라구축에배정되어있으며,여기에는테네시주멤피스에있는Colossus슈퍼컴퓨터가포함됩니다.이슈퍼컴퓨터는이미200,000개이상의그래픽처리장치로구성되어있으며100만개의GPU로확장하고있습니다.회사는최근최신AI챗봇인Grok4.1을출시했으며,이는감성지능및창의적글쓰기분야에서업계벤치마크1위를차지했습니다.​지분투자와함께ValorEquityPartners는특수목적법인을통해추가로150억~200억달러를조달하여Nvidia칩을구매하고이를xAI에임대할예정입니다.Nvidia는이구조에20억달러를투자하기로약속했으며,Shulkin은이를전통적인지분융자의40-50%비용보다xAI의자본비용을절감하기위해고안된"시장혁신"이라고설명했습니다.​Tesla주주들은이달초전기차제조업체가xAI에투자할수있도록하는제안을승인했지만,상당수가기권했습니다.Tesla,SpaceX,X,xAI를아우르는머스크의벤처들간상호연결된네트워크는지지자들의열정과잠재적이해충돌에대한정밀조사를모두받고있습니다.
895 조회
0 추천
2025.11.20 등록
(퍼플렉시티가정리한기사)MetaPlatforms,Inc.는오늘오픈소스컴퓨터비전모델컬렉션인SegmentAnythingCollection의최신버전인SAM3와SAM3D를발표했으며,텍스트기반객체감지및3D재구성기능을도입하여비디오편집및콘텐츠제작워크플로우를혁신할것이라고밝혔습니다.​이번릴리스는사용자가수동선택이아닌자연어프롬프트를사용하여객체를감지하고분할할수있도록함으로써이전SegmentAnything모델과는다른방향을제시합니다.Meta의발표에따르면,SAM3는"노란색스쿨버스"또는"빨간야구모자를쓰지않고앉아있는사람들"과같은텍스트문구로설명된객체의모든인스턴스를식별할수있습니다.SAM3D는단일이미지에서객체,사람및장면의3차원모델을재구성합니다.​텍스트프롬프트와향상된정확도SAM3는Meta의연구논문에따르면LVIS벤치마크에서47.0의제로샷마스크평균정밀도를달성하여기존시스템대비22%향상된성능을나타냅니다.이모델은H200GPU에서프레임당약30밀리초로이미지를처리하며동시에100개이상의객체를처리합니다.​Meta는발표에서"SAM3는이러한제한을극복하여훨씬더광범위한텍스트프롬프트를수용합니다"라고밝혔습니다.회사는Roboflow와협력하여개발자들이특정애플리케이션을위해데이터에주석을달고,미세조정하며,SAM3를배포할수있도록했습니다.​메타제품전반에걸친즉각적인통합Meta는이미자사의제품생태계전반에두모델을배포하고있습니다.SAM3는회사의Edits비디오제작앱과Vibes플랫폼에서새로운효과를지원하여,크리에이터들이콘텐츠내특정객체에수정을적용할수있도록합니다.SAM3D는FacebookMarketplace의새로운"방에서보기"기능을구현하여,사용자들이구매전에가구및홈데코아이템을자신의공간에서시각화할수있도록돕습니다.​​두모델모두Meta의새로운SegmentAnythingPlayground플랫폼을통해접근할수있으며,기술적전문지식이필요하지않습니다.Meta는SAM3모델가중치,평가벤치마크및연구논문을공개하고있으며,SAM3D모델체크포인트와추론코드는연구커뮤니티와공유되고있습니다.
876 조회
0 추천
2025.11.20 등록
(퍼플렉시티가정리한기사)OpenAI는월요일에GPT-5.1-Codex-Max를출시하며,복잡한다중시간프로그래밍프로젝트를다루는개발자들을위한획기적인최신에이전틱코딩모델로포지셔닝했습니다.내부적으로24시간개발작업을완료한것으로알려진이모델은컨텍스트를잃지않고수백만개의토큰에걸쳐일관되게작동할수있도록하는"압축(compaction)"기술을도입했습니다.​이번출시는Google이Gemini3Pro를공개한지하루만에이루어져,개발자도구시장에서AI거대기업들간의경쟁을심화시키고있습니다.OpenAI의발표에따르면,GPT-5.1-Codex-Max는이제모든Codex플랫폼에서GPT-5.1-Codex를대체하는기본모델이되었습니다.​성능향상및벤치마크결과GPT-5.1-Codex-Max는표준소프트웨어엔지니어링벤치마크인SWE-BenchVerified에서77.9%의정확도를달성하여,Gemini3Pro의보고된76.2%를근소하게앞질렀습니다.이모델은또한SWE-LancerICSWE에서79.9%를기록하여이전버전의66.3%와비교되며,TerminalBench2.0에서는58.1%에도달했습니다.​벤치마크점수를넘어,이모델은실질적인효율성개선을제공합니다.OpenAI는GPT-5.1-Codex-Max가실제코딩작업을완료할때GPT-5.1-Codex보다약30%적은토큰을사용하면서27%에서42%더빠르게작업을완료한다고보고합니다.ZDNET에따르면,이러한효율성향상은사용량제한이있는ChatGPTPlus구독자들에게잠재적으로추가1시간의프로그래밍시간으로환산됩니다.​압축시스템은주요아키텍처발전을나타내며,컨텍스트한계에접근할때필수정보를유지하면서세션기록을자동으로압축할수있게합니다.TheDecoder에따르면"모델이컨텍스트창을채우면자동으로세션기록을압축합니다".OpenAI의시스템카드는이모델이"압축이라는프로세스를통해여러컨텍스트창에걸쳐작동하도록기본적으로훈련된최초의모델"이라고명시합니다.​가용성및내부채택GPT-5.1-Codex-Max는ChatGPTPlus,Pro,Business,Edu및Enterprise사용자를위한Codex를통해즉시사용할수있습니다.OpenAI에따르면API액세스는"곧"제공될예정입니다.이모델은또한Windows환경에최적화된최초의Codex버전입니다.​OpenAI내부채택률은상당합니다.회사의10월발표에따르면,OpenAI엔지니어의95%가매주Codex를사용하고있으며,이도구를채택하기전과비교하여현재70%더많은풀리퀘스트를병합하고있습니다.OpenAI는"7월에절반을조금넘었던것에비해오늘날거의모든엔지니어가Codex를사용합니다"라고밝혔습니다.​이모델은프롬프트인젝션및데이터유출을포함한보안위험을완화하기위해기본적으로네트워크액세스가비활성화된샌드박스환경내에서작동합니다.
912 조회
0 추천
2025.11.20 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입