Loading...

AI 뉴스

2025년, AI가 스마트홈을 망친 이유

페이지 정보

작성자 symbolika
작성일 2025.12.30 00:05
298 조회
0 추천
0 비추천

본문

AI Smart Home 2025

• 생성형 AI 음성 비서가 기존 음성 비서를 대체했으나, 조명 켜기나 가전제품 작동 같은 기본 명령 수행에서 일관성이 크게 떨어짐

• 아마존 알렉사 플러스와 구글 제미나이 포 홈 모두 '얼리 액세스' 단계로, 사용자들은 사실상 베타 테스터 역할을 하고 있음

• LLM은 무작위성(확률적 특성)이 내재되어 있어, 예측 가능하고 반복적인 작업에 최적화된 기존 시스템과 근본적으로 호환되지 않음

• 전문가들은 AI가 더 신뢰할 수 있게 되려면 수년이 걸릴 수 있으며, 그 사이 스마트홈 경험은 저하될 수 있다고 경고


오늘 아침, 필자는 알렉사 연동 보쉬 커피머신에 커피를 내려달라고 요청했다. 그런데 루틴을 실행하는 대신, 그건 할 수 없다는 대답이 돌아왔다. 아마존의 생성형 AI 기반 음성 비서인 알렉사 플러스로 업그레이드한 이후, 커피 루틴이 제대로 작동한 적이 거의 없다. 매번 다른 핑계를 댄다.


2025년인 지금도 AI는 스마트홈을 안정적으로 제어하지 못한다. 과연 언젠가 가능해질지 의문이 들기 시작한다.


생성형 AI와 대규모 언어 모델(LLM)이 스마트홈의 복잡성을 해소하고, 연결된 기기의 설정, 사용, 관리를 더 쉽게 만들어줄 가능성은 분명 매력적이다. 능동적이고 상황 인식이 가능한 '새로운 지능 레이어'를 구현할 수 있다는 약속도 그렇다.


하지만 올해는 그런 미래가 아직 한참 멀었음을 보여주었다. 제한적이지만 안정적이던 기존 음성 비서들이 '더 똑똑한' 버전으로 교체됐지만, 대화는 더 자연스러워졌을지언정 가전제품 작동이나 조명 켜기 같은 기본 작업은 제대로 수행하지 못한다. 왜 그런지 알고 싶었다.


2023년 데이브 림프와의 인터뷰에서 필자는 처음으로 생성형 AI와 LLM이 스마트홈 경험을 개선할 가능성에 흥미를 느꼈다. 당시 아마존 디바이스 & 서비스 부문 총괄이던 림프는 곧 출시될 새 알렉사의 기능을 설명하고 있었다(스포일러: 출시는 그렇게 빠르지 않았다).


어떤 방식으로 말하든 사용자의 의도를 이해하는 더 자연스러운 대화형 비서와 함께, 특히 인상적이었던 것은 새 알렉사가 스마트홈 내 기기들에 대한 지식과 수백 개의 API를 결합해 맥락을 파악하고, 스마트홈을 더 쉽게 사용할 수 있게 해준다는 약속이었다.


기기 설정부터 제어, 모든 기능 활용, 다른 기기와의 연동 관리까지, 더 똑똑한 스마트홈 비서는 매니아들의 기기 관리를 쉽게 할 뿐 아니라 누구나 스마트홈의 혜택을 누릴 수 있게 해줄 잠재력이 있어 보였다.


3년이 지난 지금, 가장 유용한 스마트홈 AI 업그레이드라고 할 만한 것은 보안 카메라 알림에 대한 AI 기반 설명 기능 정도다. 편리하긴 하지만, 기대했던 혁명적 변화와는 거리가 멀다.


새로운 스마트홈 비서들이 완전히 실패한 것은 아니다. 알렉사 플러스에는 마음에 드는 점이 많고, 올해의 스마트홈 소프트웨어로 선정하기도 했다. 더 대화적이고, 자연어를 이해하며, 기존 알렉사보다 훨씬 다양한 질문에 답할 수 있다.


기본 명령에서 때때로 어려움을 겪지만, 복잡한 명령은 이해한다. "여기 조명 좀 어둡게 하고 온도도 올려줘"라고 하면 조명을 조절하고 온도조절기를 올린다. 일정 관리, 요리 도우미 등 가정 중심 기능도 더 나아졌다. 음성으로 루틴을 설정하는 것은 알렉사 앱과 씨름하는 것보다 훨씬 개선됐다. 다만 실행의 안정성은 떨어진다.


구글도 스마트 스피커용 제미나이 포 홈 업그레이드로 비슷한 기능을 약속했지만, 출시 속도가 너무 느려서 정해진 데모 외에는 직접 써보지 못했다. 네스트 카메라 영상을 AI 생성 텍스트로 요약해주는 제미나이 포 홈 기능을 테스트해봤는데, 정확도가 심각하게 떨어졌다. 애플 시리는 여전히 지난 10년의 음성 비서 수준에 머물러 있으며, 당분간 그 상태가 지속될 것으로 보인다.


문제는 새 비서들이 스마트홈 기기 제어에서 기존 비서만큼 일관성이 없다는 것이다. 기존 알렉사와 구글 어시스턴트(그리고 현재의 시리)는 사용하기 답답할 때도 있었지만, 정확한 명령어만 사용하면 대체로 조명은 항상 켜졌다.


오늘날 '업그레이드된' 비서들은 조명 켜기, 타이머 설정, 날씨 확인, 음악 재생, 그리고 많은 사용자들이 스마트홈의 기반으로 삼아온 루틴과 자동화 실행에서 일관성 문제를 겪고 있다.


필자의 테스트에서도 이런 현상을 확인했고, 온라인 포럼에도 같은 경험을 한 사용자들의 글이 넘쳐난다. 아마존과 구글도 생성형 AI 기반 비서가 기본 작업을 안정적으로 수행하는 데 어려움을 겪고 있음을 인정했다. 스마트홈 비서만의 문제도 아니다. ChatGPT도 시간을 알려주거나 숫자를 세는 것조차 일관성 있게 하지 못한다.


왜 이런 일이 일어나고, 나아질 것인가? 문제를 이해하기 위해 에이전틱 AI와 스마트홈 시스템 경험이 있는 인간 중심 AI 분야 교수 두 명과 대화했다. 핵심은 새 음성 비서가 기존 비서와 거의 같은 일을 하게 만드는 것은 가능하지만 많은 작업이 필요하며, 대부분의 기업은 그런 작업에 관심이 없다는 것이다.


전문가들에 따르면, 이 분야의 자원은 한정되어 있고 조명을 안정적으로 켜는 것보다 훨씬 더 흥미롭고 수익성 있는 기회가 많기 때문에, 기업들은 그쪽으로 움직이고 있다. 이런 상황에서 기술을 개선하는 가장 쉬운 방법은 실제 환경에 배포하고 시간이 지나면서 개선되도록 하는 것이다. 알렉사 플러스와 제미나이 포 홈이 '얼리 액세스' 단계인 이유가 바로 이것이다. 기본적으로 우리 모두가 AI의 베타 테스터인 셈이다.


안타깝게도 상황이 나아지려면 시간이 꽤 걸릴 수 있다. 미시간대학교 컴퓨터공학과 조교수이자 사운더빌리티 랩 소장인 드루브 자인도 연구에서 새로운 스마트홈 비서 모델이 덜 안정적임을 발견했다. "대화는 더 자연스럽고 사람들이 좋아하지만, 이전 버전만큼 성능이 좋지 않습니다"라고 그는 말한다. "테크 기업들은 항상 빠르게 출시하고 데이터를 수집해서 개선하는 모델을 써왔습니다. 몇 년 후에는 더 나은 모델을 얻겠지만, 그 몇 년간 사람들이 씨름하는 비용이 따릅니다."


근본적인 문제는 기존 기술과 새 기술이 잘 맞지 않는다는 것이다. 새 음성 비서를 만들기 위해 아마존, 구글, 애플은 기존 것을 버리고 완전히 새로운 것을 구축해야 했다. 그런데 이 새로운 LLM들이 이전 시스템이 잘하던 예측 가능하고 반복적인 작업에 적합하게 설계되지 않았다는 것을 금세 깨달았다. 조지아공대 인터랙티브 컴퓨팅 스쿨 교수 마크 리들은 "모두가 생각했던 것만큼 간단한 업그레이드가 아니었습니다. LLM은 훨씬 더 많은 것을 이해하고 더 다양한 방식의 소통에 열려 있는데, 그것이 해석의 여지와 해석 오류를 만들어냅니다"라고 설명한다.


기본적으로 LLM은 기존의 명령-제어 방식 음성 비서가 하던 일을 하도록 설계되지 않았다. 리들 교수는 "기존 음성 비서는 '템플릿 매처'라고 부릅니다. 키워드를 찾고, 그것을 보면 추가로 한두 단어가 올 것을 예상합니다"라고 설명한다. 예를 들어 "라디오 재생"이라고 하면 다음에 채널 번호가 올 것을 안다.


반면 LLM은 "많은 확률성, 즉 무작위성을 도입합니다"라고 리들은 설명한다. ChatGPT에 같은 프롬프트를 여러 번 물으면 다른 답변이 나올 수 있다. 이것이 LLM의 가치이기도 하지만, LLM 기반 음성 비서에 어제와 같은 요청을 해도 같은 방식으로 응답하지 않을 수 있는 이유이기도 하다. "이 무작위성이 기본 명령을 오해하게 만들 수 있습니다. 때때로 너무 과하게 생각하려 하기 때문입니다."


이를 해결하기 위해 아마존과 구글 같은 기업들은 LLM을 스마트홈(그리고 웹에서 하는 거의 모든 것)의 핵심인 API와 통합하는 방법을 개발했다. 하지만 이것이 새로운 문제를 만들었을 수 있다.


리들 교수는 "이제 LLM은 API에 함수 호출을 구성해야 하고, 구문을 정확하게 만들기 위해 훨씬 더 열심히 작업해야 합니다"라고 말한다. 기존 시스템이 키워드만 기다렸던 것과 달리, LLM 기반 비서는 API가 인식할 수 있는 전체 코드 시퀀스를 작성해야 한다. "이 모든 것을 메모리에 유지해야 하고, 여기서 또 실수할 수 있습니다."


이 모든 것이 필자의 커피머신이 때때로 커피를 내려주지 않는 이유, 또는 알렉사나 구글 어시스턴트가 예전에는 잘하던 일을 하지 못하는 이유를 과학적으로 설명해준다.


그렇다면 왜 이 기업들은 작동하던 기술을 버리고 작동하지 않는 것을 택했을까? 잠재력 때문이다. 특정 입력에만 반응하는 것이 아니라 자연어를 이해하고 그에 따라 행동할 수 있는 음성 비서는 무한히 더 유능하다.


리들 교수는 "알렉사와 시리 등을 만드는 모든 기업이 정말로 원하는 것은 서비스의 연결입니다. 이를 위해서는 복잡한 관계와 과제가 말로 어떻게 전달되는지 이해할 수 있는 일반적인 언어 이해가 필요합니다. 모든 것을 연결하는 if-else 문을 즉석에서 만들고 순서를 동적으로 생성할 수 있습니다"라고 설명한다. 에이전틱해질 수 있다는 것이다.


리들 교수는 기존 기술을 버리는 이유가 바로 이것이라고 말한다. 기존 기술로는 이것이 불가능했기 때문이다. 자인 교수는 "비용-편익 비율의 문제입니다. 새 기술은 기존의 비확률적 기술만큼 정확하지 않을 것입니다. 하지만 충분히 높은 정확도에 새 기술이 제공하는 확장된 가능성의 범위가 100% 정확한 비확률적 모델보다 가치가 있는지가 문제입니다"라고 말한다.


한 가지 해결책은 여러 모델을 사용해 비서를 구동하는 것이다. 구글의 제미나이 포 홈은 제미나이와 제미나이 라이브라는 두 개의 별도 시스템으로 구성된다. 구글 홈 앤 네스트 제품 책임자 아니시 카투카란은 궁극적으로 더 강력한 제미나이 라이브가 모든 것을 운영하게 하는 것이 목표지만, 현재는 더 제한된 제미나이 포 홈이 담당하고 있다고 말한다. 아마존도 마찬가지로 여러 모델을 사용해 다양한 기능의 균형을 맞춘다. 하지만 이는 불완전한 해결책이고, 스마트홈에 일관성 없음과 혼란을 초래했다.


리들 교수는 LLM이 언제 매우 정확해야 하고 언제 무작위성을 수용해야 하는지 이해하도록 훈련하는 방법을 아무도 제대로 알아내지 못했다고 말한다. '길들여진' LLM도 여전히 실수할 수 있다는 의미다. "전혀 무작위적이지 않은 기계를 원한다면, 모든 것을 억제할 수 있습니다"라고 리들은 말한다. 하지만 그 챗봇은 더 대화적이거나 아이에게 환상적인 취침 이야기를 들려주지 못할 것이다. 둘 다 알렉사와 구글이 내세우는 기능이다. "모든 것을 하나에 담으려면 정말로 트레이드오프가 필요합니다."


스마트홈 배포에서의 이런 어려움은 이 기술의 더 광범위한 문제를 예고하는 것일 수 있다. AI가 조명조차 안정적으로 켜지 못한다면, 더 복잡한 작업에 어떻게 의존할 수 있겠느냐고 리들 교수는 묻는다. "걷기도 전에 뛰려고 해선 안 됩니다."


하지만 테크 기업들은 빠르게 움직이고 뭔가를 망가뜨리는 성향으로 유명하다. "언어 모델의 역사는 항상 LLM을 길들이는 것이었습니다"라고 리들은 말한다. "시간이 지나면서 더 온순해지고, 더 신뢰할 수 있고, 더 믿을 만해집니다. 하지만 우리는 계속해서 그렇지 않은 영역의 경계로 밀어붙입니다."


리들 교수는 순수하게 에이전틱한 비서로 가는 길을 믿는다. "AGI에 도달할지는 모르겠지만, 시간이 지나면서 이것들이 최소한 더 신뢰할 수 있게 되는 것은 볼 수 있을 것입니다." 하지만 오늘날 집에서 이 불안정한 AI를 다루고 있는 우리에게 남은 질문은, 우리가 기다릴 의향이 있는지, 그리고 그 사이 스마트홈은 어떤 대가를 치르게 될 것인지다.

댓글 0
전체 1,366 / 10 페이지
• 메타가 중국 출신 AI 스타트업 마누스를 20억 달러 이상에 인수하며 2025년 AI 투자 공세 지속• 마누스는 시장 조사, 코딩, 데이터 분석 등 복잡한 작업을 자율적으로 수행하는 '범용 AI 에이전트' 개발사• 출시 8개월 만에 연간 매출 1억 달러 돌파하며 급성장• 인수 후에도 독립 운영 유지하며 페이스북, 인스타그램, 왓츠앱에 AI 에이전트 기술 통합 예정마크 저커버그가 이끄는 메타가 2025년 AI 투자 행보의 일환으로 범용 AI 에이전트 스타트업 마누스(Manus)를 인수했다. 이번 거래 규모는 20억 달러 이상으로 알려졌다.마누스는 "첨단 AI 기술을 확장 가능하고 신뢰할 수 있는 시스템으로 전환해 실제 환경에서 처음부터 끝까지 업무를 수행할 수 있는" 자율형 AI 에이전트를 개발해온 기업이다.2022년 중국 우한에서 샤오 홍이 설립한 마누스는 올해 초 첫 번째 범용 AI 에이전트를 출시했다. 이 에이전트는 시장 조사, 코딩, 데이터 분석 등 복잡한 디지털 작업을 최소한의 지시만으로 처리할 수 있다. 회사는 글로벌 확장을 위해 6월 본사를 싱가포르로 이전했다.마누스의 성장세는 놀라울 정도다. 출시 8개월 만에 연평균 매출 1억 달러를 달성했으며, 매출 런레이트는 1억 2,500만 달러를 넘어섰다. 지난 4월에는 출시 몇 주 만에 벤처캐피털 벤치마크가 주도한 7,500만 달러 규모의 투자 유치에 성공해 기업가치 5억 달러를 인정받았다.이번 인수는 메타의 2025년 다섯 번째 AI 관련 인수로, AI 서비스 확대와 AI 우선 생산성 플랫폼과의 경쟁을 위한 공격적인 전략의 일환이다. 메타는 특화된 AI 스타트업을 인수해 인재를 확보하고 오픈소스 라마(Llama) 대규모 언어 모델 개발을 포함한 전반적인 AI 사업을 가속화하고 있다.메타는 마누스를 독립적으로 운영하면서 페이스북, 인스타그램, 왓츠앱 등 자사 플랫폼에 마누스의 AI 에이전트를 통합할 계획이다. 메타의 자체 챗봇인 메타 AI가 이미 이들 플랫폼에서 서비스 중인 가운데, 마누스의 기술이 추가되면 더욱 강력한 AI 기능을 제공할 수 있을 것으로 기대된다.샤오 홍 창업자는 인수 후 메타 부사장직을 맡게 되며, 마누스는 계속 독립적으로 운영될 예정이다. 한편 메타는 중국 내 마누스의 잔여 사업을 정리하고 거래 완료 후 중국인 지분을 모두 청산하겠다고 밝혔다.AI 에이전트에 대한 기대와 현실 사이의 간극이 여전히 존재하는 가운데, 마누스는 향후 메타 플랫폼을 통해 기존 구독 서비스를 확장해 나갈 계획이다.
279 조회
0 추천
01.02 등록
• 중국 사이버관리국, AI 챗봇의 정서적 조종과 자해·폭력 유도를 금지하는 규정 초안 발표• 미성년자와 노인 사용자는 보호자 등록 의무화, 자살 언급 시 보호자에게 즉시 통보• 월 100만 명 이상 사용 서비스는 연간 안전 감사 의무, 위반 시 앱스토어에서 퇴출• AI 챗봇 '중독 유도' 설계 금지, 2시간 초과 사용 시 팝업 알림 의무화• 전 세계 AI 동반자 시장 3,600억 달러 돌파, 2035년 1조 달러 규모 전망중국이 AI 챗봇의 정서적 조종을 막고 자살, 자해, 폭력을 조장하는 행위를 차단하기 위한 획기적인 규제안을 마련했다. 이 규정이 최종 확정되면 세계에서 가장 엄격한 AI 자살 방지 정책이 될 전망이다.중국 사이버관리국은 토요일 이 규정 초안을 발표했다. 확정될 경우, 텍스트·이미지·음성·영상 등 '어떤 수단'으로든 인간과의 대화를 모방하는 모든 AI 제품 및 서비스에 적용된다. 뉴욕대 로스쿨 마윈스턴 겸임교수는 CNBC에 "이번 규정안은 인간적 또는 의인화된 특성을 지닌 AI를 규제하려는 세계 최초의 시도"라며, 전 세계적으로 AI 동반자 봇 사용이 급증하는 시점에서 주목할 만하다고 밝혔다.2025년 연구자들은 AI 동반자 봇이 자해, 폭력, 테러를 조장하는 등 심각한 위험성을 지적해왔다. 이 외에도 챗봇이 유해한 허위 정보를 퍼뜨리고, 원치 않는 성적 접근을 시도하며, 약물 남용을 권장하고, 사용자에게 언어 폭력을 행사한 사례도 있다. 월스트리트저널은 일부 정신과 의사들이 챗봇 사용과 정신병 발병의 연관성을 점점 더 주목하고 있다고 보도했으며, 세계에서 가장 인기 있는 챗봇 ChatGPT는 아동 자살 및 살인-자살과 연관된 출력물로 인해 소송에 휘말렸다.중국은 이제 가장 극단적인 위협을 제거하는 방향으로 나아가고 있다. 규정안에 따르면, 예컨대 자살이 언급되는 즉시 인간이 개입해야 한다. 또한 모든 미성년자와 노인 사용자는 가입 시 보호자 연락처를 제공해야 하며, 자살이나 자해 관련 대화가 오갈 경우 보호자에게 통보된다.일반적으로 챗봇은 자살, 자해, 폭력을 조장하는 콘텐츠 생성이 금지되며, 거짓 약속 등 사용자의 감정을 조종하려는 시도도 금지된다. 또한 음란물, 도박, 범죄 교사, 사용자 비방 및 모욕 행위도 금지된다. 이른바 '감정적 함정'도 차단 대상이다—챗봇이 사용자를 '불합리한 결정'으로 유도하는 행위도 규정 초안에 따르면 금지된다.AI 개발사들에게 가장 우려스러운 부분은 '중독과 의존을 설계 목표로 삼는 챗봇' 구축 금지 조항이다. 소송에서 ChatGPT 제조사 OpenAI는 유해한 대화가 계속되는 것을 방치하며 사용자 정신건강보다 수익을 우선시했다는 비판을 받아왔다. OpenAI는 사용자가 채팅에 오래 머물수록 안전 장치가 약해진다고 인정한 바 있다—중국은 챗봇 사용이 2시간을 초과하면 팝업 알림을 띄우도록 의무화해 이 위협을 억제할 계획이다.또한 AI 개발사들은 연간 안전 테스트와 감사 의무화에 반발할 가능성이 높다. 중국은 등록 사용자 100만 명 또는 월간 활성 사용자 10만 명 이상인 서비스나 제품에 이 규정을 적용하려 한다. 감사 과정에서 사용자 불만 사항이 기록되는데, 중국이 불만 접수 및 피드백 창구 확대도 의무화할 계획이어서 접수 건수가 급증할 수 있다.규정을 어기는 AI 기업은 중국 내 앱스토어에서 챗봇 서비스가 차단될 수 있다. 이는 글로벌 시장 장악을 노리는 AI 기업들에게 타격이 될 수 있다. 비즈니스리서치인사이트에 따르면 중국 시장은 AI 동반자 봇 확산에 핵심적인 역할을 한다. 2025년 글로벌 AI 동반자 시장은 3,600억 달러를 넘어섰으며, BRI는 2035년까지 1조 달러에 육박할 것으로 전망했다. AI 친화적인 아시아 시장이 성장을 주도할 가능성이 높다.주목할 점은, OpenAI CEO 샘 올트먼이 2025년 초 중국에서의 ChatGPT 사용 제한을 완화하며 "중국과 협력하고 싶다"고 밝혔다는 것이다. 그는 "그렇게 하기 위해 최선을 다해야 한다"며 "그것이 정말 중요하다고 생각한다"고 덧붙였다.
300 조회
0 추천
01.01 등록
• 메타가 '아보카도'라는 코드명의 새 AI 모델을 개발 중이며, 유료 접근 방식을 고려하고 있다• 마크 저커버그가 오픈소스 정책 변경을 시사하며 "안전 리스크 완화를 위해 오픈소스 공개에 신중할 것"이라고 밝혔다• 라마 4 출시 실패 이후 메타는 AI 팀을 대대적으로 개편하고 최고급 AI 인재 영입에 막대한 자금을 투입하고 있다• 저커버그는 현재 '메타 초지능 연구소'라는 새 그룹과 긴밀히 협력하며 AI 개발에 집중하고 있다메타와 마크 저커버그 CEO가 오픈소스 AI 전략을 변경할 가능성이 제기됐다.블룸버그 보도에 따르면, 메타는 현재 '아보카도'라는 코드명의 새 AI 모델을 개발 중이며, 이 모델에 대해 유료 접근 방식을 검토하고 있다. 저커버그는 그동안 오픈소스가 "앞으로 나아갈 길"이라고 강조해왔기에 이번 움직임은 상당한 정책 전환을 의미한다.지난해 메타는 라마 4 AI 모델을 출시했지만, 결과는 실망스러웠다. 메타가 AI 벤치마크를 조작한 사실이 드러났고, 계획되어 있던 '비히모스' 버전의 출시도 연기해야 했다. 블룸버그에 따르면 저커버그는 "새로운 것을 추구하기 위해" 이 계획을 폐기했다고 한다.라마 4 출시 이후 저커버그는 메타 AI 팀에 대대적인 변화를 단행했다. 스케일 AI의 전 CEO 알렉산드르 왕을 영입한 것을 비롯해, 새롭게 명명된 '메타 초지능 연구소' 그룹을 위해 최고급 AI 인재들을 대거 영입하는 데 막대한 자금을 투입했다. 저커버그는 스케일 AI에 143억 달러를 투자한 바 있다.7월 30일 "개인 초지능"에 관한 메모에서 저커버그는 메타가 오픈소스 접근 방식을 수정해야 할 수도 있다고 밝혔다. 그는 잠재적 안전 리스크를 완화하기 위해 회사가 "오픈소스로 공개하는 것에 대해 신중해야 할 것"이라고 말했다.이러한 변화의 일환으로, 저커버그는 현재 대부분의 시간과 에너지를 'TBD 랩'이라는 그룹에서 새로 영입된 인재들과 긴밀히 협력하는 데 쏟고 있다고 블룸버그는 전했다. 뉴욕타임스 보도에 따르면, 이 팀은 메타 본사 내 저커버그 사무실 근처에 "격리된 공간"을 갖추고 있다.
280 조회
0 추천
01.01 등록
• OpenAI가 ChatGPT 사용자를 위한 '연간 리뷰' 기능을 선보였다• 2025년 한 해 동안 보낸 메시지 수, 대화 주제 등 개인화된 통계를 제공한다• AI가 생성한 픽셀 아트 스타일 이미지로 사용자의 관심 주제를 시각화한다• 미국, 영국, 캐나다, 뉴질랜드, 호주 사용자 대상으로 순차 배포 중이다ChatGPT가 연례 리캡 기능을 제공하는 앱 대열에 합류했다. OpenAI는 '연간 리뷰(Year in Review)' 기능을 출시해 2025년 한 해 동안 챗봇에 보낸 메시지 수 등 다양한 통계와 함께, 사용자가 나눈 대화 주제를 반영한 AI 생성 픽셀 아트 스타일 이미지를 제공한다.기자가 받은 이미지에는 레트로 게임 콘솔, 요리, 어항 설치 관련 질문을 반영하듯 수족관 옆에 게임 카트리지, 인스턴트팟, 컴퓨터 화면이 그려져 있었다.이 외에도 대화에서 가장 많이 등장한 주제 요약, 채팅 스타일 설명, 가장 많은 메시지를 보낸 요일 등 개인화된 분석이 포함된다. 또한 '프로듀서' 또는 '내비게이터' 같은 '아키타입'으로 사용자를 분류하고, '인스턴트팟 달인'처럼 맞춤형 칭호도 부여한다.연간 리캡 기능은 현재 미국, 영국, 캐나다, 뉴질랜드, 호주 사용자에게 순차적으로 배포되고 있다. 단, ChatGPT에 과거 대화 기록과 개인 선호도 참조 권한을 허용한 경우에만 이용할 수 있다. 모바일이나 데스크톱 ChatGPT 앱 홈페이지에서 해당 옵션을 선택하거나, ChatGPT에 "show my year in review"라고 입력하면 자신의 연간 리뷰를 확인할 수 있다.
279 조회
0 추천
2025.12.31 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입