AI 뉴스

2025년, AI가 스마트홈을 망친 이유

페이지 정보

작성자 symbolika
작성일 2025.12.30 00:05
387 조회
0 추천
0 비추천

본문

AI Smart Home 2025

• 생성형 AI 음성 비서가 기존 음성 비서를 대체했으나, 조명 켜기나 가전제품 작동 같은 기본 명령 수행에서 일관성이 크게 떨어짐

• 아마존 알렉사 플러스와 구글 제미나이 포 홈 모두 '얼리 액세스' 단계로, 사용자들은 사실상 베타 테스터 역할을 하고 있음

• LLM은 무작위성(확률적 특성)이 내재되어 있어, 예측 가능하고 반복적인 작업에 최적화된 기존 시스템과 근본적으로 호환되지 않음

• 전문가들은 AI가 더 신뢰할 수 있게 되려면 수년이 걸릴 수 있으며, 그 사이 스마트홈 경험은 저하될 수 있다고 경고


오늘 아침, 필자는 알렉사 연동 보쉬 커피머신에 커피를 내려달라고 요청했다. 그런데 루틴을 실행하는 대신, 그건 할 수 없다는 대답이 돌아왔다. 아마존의 생성형 AI 기반 음성 비서인 알렉사 플러스로 업그레이드한 이후, 커피 루틴이 제대로 작동한 적이 거의 없다. 매번 다른 핑계를 댄다.


2025년인 지금도 AI는 스마트홈을 안정적으로 제어하지 못한다. 과연 언젠가 가능해질지 의문이 들기 시작한다.


생성형 AI와 대규모 언어 모델(LLM)이 스마트홈의 복잡성을 해소하고, 연결된 기기의 설정, 사용, 관리를 더 쉽게 만들어줄 가능성은 분명 매력적이다. 능동적이고 상황 인식이 가능한 '새로운 지능 레이어'를 구현할 수 있다는 약속도 그렇다.


하지만 올해는 그런 미래가 아직 한참 멀었음을 보여주었다. 제한적이지만 안정적이던 기존 음성 비서들이 '더 똑똑한' 버전으로 교체됐지만, 대화는 더 자연스러워졌을지언정 가전제품 작동이나 조명 켜기 같은 기본 작업은 제대로 수행하지 못한다. 왜 그런지 알고 싶었다.


2023년 데이브 림프와의 인터뷰에서 필자는 처음으로 생성형 AI와 LLM이 스마트홈 경험을 개선할 가능성에 흥미를 느꼈다. 당시 아마존 디바이스 & 서비스 부문 총괄이던 림프는 곧 출시될 새 알렉사의 기능을 설명하고 있었다(스포일러: 출시는 그렇게 빠르지 않았다).


어떤 방식으로 말하든 사용자의 의도를 이해하는 더 자연스러운 대화형 비서와 함께, 특히 인상적이었던 것은 새 알렉사가 스마트홈 내 기기들에 대한 지식과 수백 개의 API를 결합해 맥락을 파악하고, 스마트홈을 더 쉽게 사용할 수 있게 해준다는 약속이었다.


기기 설정부터 제어, 모든 기능 활용, 다른 기기와의 연동 관리까지, 더 똑똑한 스마트홈 비서는 매니아들의 기기 관리를 쉽게 할 뿐 아니라 누구나 스마트홈의 혜택을 누릴 수 있게 해줄 잠재력이 있어 보였다.


3년이 지난 지금, 가장 유용한 스마트홈 AI 업그레이드라고 할 만한 것은 보안 카메라 알림에 대한 AI 기반 설명 기능 정도다. 편리하긴 하지만, 기대했던 혁명적 변화와는 거리가 멀다.


새로운 스마트홈 비서들이 완전히 실패한 것은 아니다. 알렉사 플러스에는 마음에 드는 점이 많고, 올해의 스마트홈 소프트웨어로 선정하기도 했다. 더 대화적이고, 자연어를 이해하며, 기존 알렉사보다 훨씬 다양한 질문에 답할 수 있다.


기본 명령에서 때때로 어려움을 겪지만, 복잡한 명령은 이해한다. "여기 조명 좀 어둡게 하고 온도도 올려줘"라고 하면 조명을 조절하고 온도조절기를 올린다. 일정 관리, 요리 도우미 등 가정 중심 기능도 더 나아졌다. 음성으로 루틴을 설정하는 것은 알렉사 앱과 씨름하는 것보다 훨씬 개선됐다. 다만 실행의 안정성은 떨어진다.


구글도 스마트 스피커용 제미나이 포 홈 업그레이드로 비슷한 기능을 약속했지만, 출시 속도가 너무 느려서 정해진 데모 외에는 직접 써보지 못했다. 네스트 카메라 영상을 AI 생성 텍스트로 요약해주는 제미나이 포 홈 기능을 테스트해봤는데, 정확도가 심각하게 떨어졌다. 애플 시리는 여전히 지난 10년의 음성 비서 수준에 머물러 있으며, 당분간 그 상태가 지속될 것으로 보인다.


문제는 새 비서들이 스마트홈 기기 제어에서 기존 비서만큼 일관성이 없다는 것이다. 기존 알렉사와 구글 어시스턴트(그리고 현재의 시리)는 사용하기 답답할 때도 있었지만, 정확한 명령어만 사용하면 대체로 조명은 항상 켜졌다.


오늘날 '업그레이드된' 비서들은 조명 켜기, 타이머 설정, 날씨 확인, 음악 재생, 그리고 많은 사용자들이 스마트홈의 기반으로 삼아온 루틴과 자동화 실행에서 일관성 문제를 겪고 있다.


필자의 테스트에서도 이런 현상을 확인했고, 온라인 포럼에도 같은 경험을 한 사용자들의 글이 넘쳐난다. 아마존과 구글도 생성형 AI 기반 비서가 기본 작업을 안정적으로 수행하는 데 어려움을 겪고 있음을 인정했다. 스마트홈 비서만의 문제도 아니다. ChatGPT도 시간을 알려주거나 숫자를 세는 것조차 일관성 있게 하지 못한다.


왜 이런 일이 일어나고, 나아질 것인가? 문제를 이해하기 위해 에이전틱 AI와 스마트홈 시스템 경험이 있는 인간 중심 AI 분야 교수 두 명과 대화했다. 핵심은 새 음성 비서가 기존 비서와 거의 같은 일을 하게 만드는 것은 가능하지만 많은 작업이 필요하며, 대부분의 기업은 그런 작업에 관심이 없다는 것이다.


전문가들에 따르면, 이 분야의 자원은 한정되어 있고 조명을 안정적으로 켜는 것보다 훨씬 더 흥미롭고 수익성 있는 기회가 많기 때문에, 기업들은 그쪽으로 움직이고 있다. 이런 상황에서 기술을 개선하는 가장 쉬운 방법은 실제 환경에 배포하고 시간이 지나면서 개선되도록 하는 것이다. 알렉사 플러스와 제미나이 포 홈이 '얼리 액세스' 단계인 이유가 바로 이것이다. 기본적으로 우리 모두가 AI의 베타 테스터인 셈이다.


안타깝게도 상황이 나아지려면 시간이 꽤 걸릴 수 있다. 미시간대학교 컴퓨터공학과 조교수이자 사운더빌리티 랩 소장인 드루브 자인도 연구에서 새로운 스마트홈 비서 모델이 덜 안정적임을 발견했다. "대화는 더 자연스럽고 사람들이 좋아하지만, 이전 버전만큼 성능이 좋지 않습니다"라고 그는 말한다. "테크 기업들은 항상 빠르게 출시하고 데이터를 수집해서 개선하는 모델을 써왔습니다. 몇 년 후에는 더 나은 모델을 얻겠지만, 그 몇 년간 사람들이 씨름하는 비용이 따릅니다."


근본적인 문제는 기존 기술과 새 기술이 잘 맞지 않는다는 것이다. 새 음성 비서를 만들기 위해 아마존, 구글, 애플은 기존 것을 버리고 완전히 새로운 것을 구축해야 했다. 그런데 이 새로운 LLM들이 이전 시스템이 잘하던 예측 가능하고 반복적인 작업에 적합하게 설계되지 않았다는 것을 금세 깨달았다. 조지아공대 인터랙티브 컴퓨팅 스쿨 교수 마크 리들은 "모두가 생각했던 것만큼 간단한 업그레이드가 아니었습니다. LLM은 훨씬 더 많은 것을 이해하고 더 다양한 방식의 소통에 열려 있는데, 그것이 해석의 여지와 해석 오류를 만들어냅니다"라고 설명한다.


기본적으로 LLM은 기존의 명령-제어 방식 음성 비서가 하던 일을 하도록 설계되지 않았다. 리들 교수는 "기존 음성 비서는 '템플릿 매처'라고 부릅니다. 키워드를 찾고, 그것을 보면 추가로 한두 단어가 올 것을 예상합니다"라고 설명한다. 예를 들어 "라디오 재생"이라고 하면 다음에 채널 번호가 올 것을 안다.


반면 LLM은 "많은 확률성, 즉 무작위성을 도입합니다"라고 리들은 설명한다. ChatGPT에 같은 프롬프트를 여러 번 물으면 다른 답변이 나올 수 있다. 이것이 LLM의 가치이기도 하지만, LLM 기반 음성 비서에 어제와 같은 요청을 해도 같은 방식으로 응답하지 않을 수 있는 이유이기도 하다. "이 무작위성이 기본 명령을 오해하게 만들 수 있습니다. 때때로 너무 과하게 생각하려 하기 때문입니다."


이를 해결하기 위해 아마존과 구글 같은 기업들은 LLM을 스마트홈(그리고 웹에서 하는 거의 모든 것)의 핵심인 API와 통합하는 방법을 개발했다. 하지만 이것이 새로운 문제를 만들었을 수 있다.


리들 교수는 "이제 LLM은 API에 함수 호출을 구성해야 하고, 구문을 정확하게 만들기 위해 훨씬 더 열심히 작업해야 합니다"라고 말한다. 기존 시스템이 키워드만 기다렸던 것과 달리, LLM 기반 비서는 API가 인식할 수 있는 전체 코드 시퀀스를 작성해야 한다. "이 모든 것을 메모리에 유지해야 하고, 여기서 또 실수할 수 있습니다."


이 모든 것이 필자의 커피머신이 때때로 커피를 내려주지 않는 이유, 또는 알렉사나 구글 어시스턴트가 예전에는 잘하던 일을 하지 못하는 이유를 과학적으로 설명해준다.


그렇다면 왜 이 기업들은 작동하던 기술을 버리고 작동하지 않는 것을 택했을까? 잠재력 때문이다. 특정 입력에만 반응하는 것이 아니라 자연어를 이해하고 그에 따라 행동할 수 있는 음성 비서는 무한히 더 유능하다.


리들 교수는 "알렉사와 시리 등을 만드는 모든 기업이 정말로 원하는 것은 서비스의 연결입니다. 이를 위해서는 복잡한 관계와 과제가 말로 어떻게 전달되는지 이해할 수 있는 일반적인 언어 이해가 필요합니다. 모든 것을 연결하는 if-else 문을 즉석에서 만들고 순서를 동적으로 생성할 수 있습니다"라고 설명한다. 에이전틱해질 수 있다는 것이다.


리들 교수는 기존 기술을 버리는 이유가 바로 이것이라고 말한다. 기존 기술로는 이것이 불가능했기 때문이다. 자인 교수는 "비용-편익 비율의 문제입니다. 새 기술은 기존의 비확률적 기술만큼 정확하지 않을 것입니다. 하지만 충분히 높은 정확도에 새 기술이 제공하는 확장된 가능성의 범위가 100% 정확한 비확률적 모델보다 가치가 있는지가 문제입니다"라고 말한다.


한 가지 해결책은 여러 모델을 사용해 비서를 구동하는 것이다. 구글의 제미나이 포 홈은 제미나이와 제미나이 라이브라는 두 개의 별도 시스템으로 구성된다. 구글 홈 앤 네스트 제품 책임자 아니시 카투카란은 궁극적으로 더 강력한 제미나이 라이브가 모든 것을 운영하게 하는 것이 목표지만, 현재는 더 제한된 제미나이 포 홈이 담당하고 있다고 말한다. 아마존도 마찬가지로 여러 모델을 사용해 다양한 기능의 균형을 맞춘다. 하지만 이는 불완전한 해결책이고, 스마트홈에 일관성 없음과 혼란을 초래했다.


리들 교수는 LLM이 언제 매우 정확해야 하고 언제 무작위성을 수용해야 하는지 이해하도록 훈련하는 방법을 아무도 제대로 알아내지 못했다고 말한다. '길들여진' LLM도 여전히 실수할 수 있다는 의미다. "전혀 무작위적이지 않은 기계를 원한다면, 모든 것을 억제할 수 있습니다"라고 리들은 말한다. 하지만 그 챗봇은 더 대화적이거나 아이에게 환상적인 취침 이야기를 들려주지 못할 것이다. 둘 다 알렉사와 구글이 내세우는 기능이다. "모든 것을 하나에 담으려면 정말로 트레이드오프가 필요합니다."


스마트홈 배포에서의 이런 어려움은 이 기술의 더 광범위한 문제를 예고하는 것일 수 있다. AI가 조명조차 안정적으로 켜지 못한다면, 더 복잡한 작업에 어떻게 의존할 수 있겠느냐고 리들 교수는 묻는다. "걷기도 전에 뛰려고 해선 안 됩니다."


하지만 테크 기업들은 빠르게 움직이고 뭔가를 망가뜨리는 성향으로 유명하다. "언어 모델의 역사는 항상 LLM을 길들이는 것이었습니다"라고 리들은 말한다. "시간이 지나면서 더 온순해지고, 더 신뢰할 수 있고, 더 믿을 만해집니다. 하지만 우리는 계속해서 그렇지 않은 영역의 경계로 밀어붙입니다."


리들 교수는 순수하게 에이전틱한 비서로 가는 길을 믿는다. "AGI에 도달할지는 모르겠지만, 시간이 지나면서 이것들이 최소한 더 신뢰할 수 있게 되는 것은 볼 수 있을 것입니다." 하지만 오늘날 집에서 이 불안정한 AI를 다루고 있는 우리에게 남은 질문은, 우리가 기다릴 의향이 있는지, 그리고 그 사이 스마트홈은 어떤 대가를 치르게 될 것인지다.

댓글 0
전체 1,366 / 65 페이지
Microsoft는사용자의PC에서직접시각적스크린샷을해석하고마우스및키보드동작을제어하여작업을수행하는70억개의매개변수를가진AI에이전트Fara-7B를공개했으며,이는데이터처리를로컬에유지하여개인정보보호를강화하고HIPAA및GLBA와같은규정을준수할수있는클라우드기반모델의대안을제공합니다.​WebVoyager웹탐색벤치마크에서Fara-7B는69.5%의작업성공률을달성하여GPT-4o의65.1%성능을능가했으며,유사한크기의모델이필요로하는41단계에비해약16단계만에작업을완료했습니다.​이모델은Microsoft의Magentic-One다중에이전트프레임워크에의해생성된145,000개의합성작업궤적을사용하여훈련되었으며,현재MIT라이선스하에HuggingFace에서사용할수있습니다.다만Microsoft는이모델이여전히실험적이며프로덕션배포보다는파일럿프로젝트에가장적합하다고주의를당부하고있습니다.
696 조회
0 추천
2025.11.25 등록
TheAIGRID비디오는TheInformation의보도를바탕으로OpenAICEOSamAltman이Google의부활한Gemini3모델이경쟁력을확보함에따라"험난한분위기"와일시적인경제적역풍에대해직원들에게경고한내부메모를분석합니다.​Anthropic은더늦게출시했음에도불구하고2025년동안API수익에서OpenAI를추월할것으로예상되며,OpenAI의생성형AI트래픽점유율은지난1년간Google이5.6%에서13.7%로상승하면서하락했습니다.​​SalesforceCEOMarcBenioff는3년간의일일사용끝에ChatGPT를포기하고Gemini3로전환한다고발표하며이를"놀라운"도약이라고평가했으며,OpenAI는2029년까지1,150억달러의현금소진이예상되는반면Google은연간700억달러의잉여현금흐름을보유하고있습니다.
692 조회
0 추천
2025.11.25 등록
OpenAI는월요일에ChatGPT의새로운쇼핑리서치기능을출시하여,무료계정부터유료구독까지모든사용자에게블랙프라이데이쇼핑러시직전에제품발견과비교를간소화하도록설계된AI기반쇼핑어시스턴트에대한액세스를제공했습니다.​이기능은OpenAI의커머스분야로의가장과감한진출을나타내며,이미수억명의소비자가제품조사를위해ChatGPT를이용하는수익성높은온라인쇼핑시장에서Amazon및Google과직접경쟁할수있는위치에회사를놓았습니다.온라인쇼핑에대한새로운접근ShoppingResearch는제품검색을대화형상호작용으로전환하여,리뷰사이트,소매업체목록,Reddit과같은커뮤니티포럼에서최신정보를검색하기전에명확한질문을던집니다.사용자는"작은아파트를위한가장조용한무선스틱청소기찾기"와같이자연어로자신의요구사항을설명할수있으며,몇분안에맞춤형구매가이드를받을수있습니다.​이도구는강화학습을사용하여쇼핑작업에특화되도록훈련된GPT-5mini의특수버전으로구동됩니다.OpenAI는이모델이사용자쿼리의모든측면과일치하는항목을정확하게식별하는비율이64%로,이전ChatGPT버전의37%에서향상되었다고주장합니다.이기능은전자제품,뷰티제품,가전제품,스포츠장비와같이세부정보가많은카테고리에서뛰어난성능을발휘합니다.​연휴쇼핑객을지원하기위해OpenAI는시즌내내모든계정유형에서거의무제한사용을제공하고있습니다.사용자는항목을"관심없음"또는"이와유사하게"로표시하여실시간으로검색을개선할수있으며,AI는그에따라추천을조정합니다.​심화되는경쟁이번출시는기술대기업들이AI기반상거래지배를두고경쟁하는가운데이루어졌습니다.지난주아마존은루퍼스(Rufus)쇼핑어시스턴트를업그레이드하여가격이력추적과목표가격에도달하면자동으로상품을구매하는기능을추가했습니다.구글또한11월중순에현지매장에전화해상품재고와가격을확인하는AI등유사한도구들을도입했습니다.​오픈AI의접근방식은단일소매업체의재고가아닌전체웹을스캔하는점에서차별화됩니다.그러나현재이기능은아마존상품목록은제외하며,사용자가아마존사이트에서직접재고를확인하도록안내합니다.오픈AI는추천이"유기적이며광고지원이아닌",특정소매업체를우대하지않는다는점을강조합니다.​현재ShoppingResearch는사용자가구매를위해외부소매업체웹사이트로연결되지만,오픈AI는이미Walmart와Target과의파트너십을맺고있어InstantCheckout기능을통해앱내에서바로결제가가능합니다.이기능은결국새로운도구와통합될예정입니다.​소비자데이터에따르면stakes는상당히높습니다.ChatGPT는이미매일약5천만건의쇼핑관련질의를처리하며,이는25억건의총일일프롬프트중약2%에해당합니다.웹분석기업Similarweb에따르면,ChatGPT는이제Walmart,Etsy,Target등주요소매업체로넘어가는레퍼럴트래픽의20%이상을유도하고있습니다.
660 조회
0 추천
2025.11.25 등록
월트디즈니이미지니어링이월요일차세대로봇올라프캐릭터를공개하며,인공지능과첨단로봇공학을통한생동감넘치는애니메이션캐릭터구현이라는엔터테인먼트거대기업의새로운장을열었다."겨울왕국"의실물크기눈사람은NVIDIA및GoogleDeepMind와의파트너십으로개발된심층강화학습으로구동되는완전한관절구조,대화능력,그리고움직임을특징으로한다.​이로봇캐릭터는2026년봄디즈니랜드파리에서3월29일개장하는월드오브프로즌랜드에서데뷔할예정이며,홍콩디즈니랜드에서도기간한정등장이계획되어있다.월트디즈니이미지니어링의사장겸최고크리에이티브책임자인브루스본(BruceVaughn)과디즈니랜드파리의사장인나타샤라팔스키(NatachaRafalski)가프랑스리조트에서열린기자회견에서이캐릭터를공개했다.​기술혁신올라프로봇은2023년부터스타워즈:갤럭시스엣지에등장한디즈니의BDX드로이드보다한단계도약한것을보여줍니다.로봇처럼보이도록설계된BDX드로이드와달리,올라프는디즈니가물리적으로불가능한방식으로움직이는애니메이션캐릭터를진정성있게재현해야했습니다.​월트디즈니이매지니어링연구개발수석부사장인카일로플린은"올라프는실제세계에서생명을불어넣기훨씬더어려운애니메이션캐릭터입니다"라고말했습니다.이캐릭터는변형가능한"눈"의상,완전히관절로연결된입과눈,탈부착가능한당근코,그리고말하고대화에참여할수있는능력을갖추고있습니다.​디즈니는2025년3월NVIDIAGTC컨퍼런스에서발표된,NVIDIA와구글딥마인드와함께개발한오픈소스시뮬레이션프레임워크인뉴턴을사용하여이캐릭터를개발했습니다.이프레임워크는로봇이시뮬레이션을통해아티스트가제공한동작을학습할수있게하여,디즈니가기계설계와애니메이션사이를빠르게반복할수있도록합니다.​확장계획디즈니랜드파리에서올라프는아렌델베이쇼에등장할예정이며,이는WorldofFrozen랜드의일부로,FrozenEverAfter어트랙션,안나와엘사와의캐릭터만남,그리고식사장소를특징으로합니다.이확장은거의두배의규모로확장될디즈니어드벤처월드(리브랜딩된월트디즈니스튜디오파크)의일부입니다.​"우리가새로운캐릭터를만들고손님들앞에선보일수있는속도는전례가없는수준입니다"라고Laughlin은말했습니다.디즈니는이기술을통해전세계파크와크루즈선에더감정적이고표현력있는캐릭터들을선보일수있을것이라고밝혔습니다.
673 조회
0 추천
2025.11.25 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입