Loading...

AI 뉴스

2025년, AI가 스마트홈을 망친 이유

페이지 정보

작성자 symbolika
작성일 2025.12.30 00:05
361 조회
0 추천
0 비추천

본문

AI Smart Home 2025

• 생성형 AI 음성 비서가 기존 음성 비서를 대체했으나, 조명 켜기나 가전제품 작동 같은 기본 명령 수행에서 일관성이 크게 떨어짐

• 아마존 알렉사 플러스와 구글 제미나이 포 홈 모두 '얼리 액세스' 단계로, 사용자들은 사실상 베타 테스터 역할을 하고 있음

• LLM은 무작위성(확률적 특성)이 내재되어 있어, 예측 가능하고 반복적인 작업에 최적화된 기존 시스템과 근본적으로 호환되지 않음

• 전문가들은 AI가 더 신뢰할 수 있게 되려면 수년이 걸릴 수 있으며, 그 사이 스마트홈 경험은 저하될 수 있다고 경고


오늘 아침, 필자는 알렉사 연동 보쉬 커피머신에 커피를 내려달라고 요청했다. 그런데 루틴을 실행하는 대신, 그건 할 수 없다는 대답이 돌아왔다. 아마존의 생성형 AI 기반 음성 비서인 알렉사 플러스로 업그레이드한 이후, 커피 루틴이 제대로 작동한 적이 거의 없다. 매번 다른 핑계를 댄다.


2025년인 지금도 AI는 스마트홈을 안정적으로 제어하지 못한다. 과연 언젠가 가능해질지 의문이 들기 시작한다.


생성형 AI와 대규모 언어 모델(LLM)이 스마트홈의 복잡성을 해소하고, 연결된 기기의 설정, 사용, 관리를 더 쉽게 만들어줄 가능성은 분명 매력적이다. 능동적이고 상황 인식이 가능한 '새로운 지능 레이어'를 구현할 수 있다는 약속도 그렇다.


하지만 올해는 그런 미래가 아직 한참 멀었음을 보여주었다. 제한적이지만 안정적이던 기존 음성 비서들이 '더 똑똑한' 버전으로 교체됐지만, 대화는 더 자연스러워졌을지언정 가전제품 작동이나 조명 켜기 같은 기본 작업은 제대로 수행하지 못한다. 왜 그런지 알고 싶었다.


2023년 데이브 림프와의 인터뷰에서 필자는 처음으로 생성형 AI와 LLM이 스마트홈 경험을 개선할 가능성에 흥미를 느꼈다. 당시 아마존 디바이스 & 서비스 부문 총괄이던 림프는 곧 출시될 새 알렉사의 기능을 설명하고 있었다(스포일러: 출시는 그렇게 빠르지 않았다).


어떤 방식으로 말하든 사용자의 의도를 이해하는 더 자연스러운 대화형 비서와 함께, 특히 인상적이었던 것은 새 알렉사가 스마트홈 내 기기들에 대한 지식과 수백 개의 API를 결합해 맥락을 파악하고, 스마트홈을 더 쉽게 사용할 수 있게 해준다는 약속이었다.


기기 설정부터 제어, 모든 기능 활용, 다른 기기와의 연동 관리까지, 더 똑똑한 스마트홈 비서는 매니아들의 기기 관리를 쉽게 할 뿐 아니라 누구나 스마트홈의 혜택을 누릴 수 있게 해줄 잠재력이 있어 보였다.


3년이 지난 지금, 가장 유용한 스마트홈 AI 업그레이드라고 할 만한 것은 보안 카메라 알림에 대한 AI 기반 설명 기능 정도다. 편리하긴 하지만, 기대했던 혁명적 변화와는 거리가 멀다.


새로운 스마트홈 비서들이 완전히 실패한 것은 아니다. 알렉사 플러스에는 마음에 드는 점이 많고, 올해의 스마트홈 소프트웨어로 선정하기도 했다. 더 대화적이고, 자연어를 이해하며, 기존 알렉사보다 훨씬 다양한 질문에 답할 수 있다.


기본 명령에서 때때로 어려움을 겪지만, 복잡한 명령은 이해한다. "여기 조명 좀 어둡게 하고 온도도 올려줘"라고 하면 조명을 조절하고 온도조절기를 올린다. 일정 관리, 요리 도우미 등 가정 중심 기능도 더 나아졌다. 음성으로 루틴을 설정하는 것은 알렉사 앱과 씨름하는 것보다 훨씬 개선됐다. 다만 실행의 안정성은 떨어진다.


구글도 스마트 스피커용 제미나이 포 홈 업그레이드로 비슷한 기능을 약속했지만, 출시 속도가 너무 느려서 정해진 데모 외에는 직접 써보지 못했다. 네스트 카메라 영상을 AI 생성 텍스트로 요약해주는 제미나이 포 홈 기능을 테스트해봤는데, 정확도가 심각하게 떨어졌다. 애플 시리는 여전히 지난 10년의 음성 비서 수준에 머물러 있으며, 당분간 그 상태가 지속될 것으로 보인다.


문제는 새 비서들이 스마트홈 기기 제어에서 기존 비서만큼 일관성이 없다는 것이다. 기존 알렉사와 구글 어시스턴트(그리고 현재의 시리)는 사용하기 답답할 때도 있었지만, 정확한 명령어만 사용하면 대체로 조명은 항상 켜졌다.


오늘날 '업그레이드된' 비서들은 조명 켜기, 타이머 설정, 날씨 확인, 음악 재생, 그리고 많은 사용자들이 스마트홈의 기반으로 삼아온 루틴과 자동화 실행에서 일관성 문제를 겪고 있다.


필자의 테스트에서도 이런 현상을 확인했고, 온라인 포럼에도 같은 경험을 한 사용자들의 글이 넘쳐난다. 아마존과 구글도 생성형 AI 기반 비서가 기본 작업을 안정적으로 수행하는 데 어려움을 겪고 있음을 인정했다. 스마트홈 비서만의 문제도 아니다. ChatGPT도 시간을 알려주거나 숫자를 세는 것조차 일관성 있게 하지 못한다.


왜 이런 일이 일어나고, 나아질 것인가? 문제를 이해하기 위해 에이전틱 AI와 스마트홈 시스템 경험이 있는 인간 중심 AI 분야 교수 두 명과 대화했다. 핵심은 새 음성 비서가 기존 비서와 거의 같은 일을 하게 만드는 것은 가능하지만 많은 작업이 필요하며, 대부분의 기업은 그런 작업에 관심이 없다는 것이다.


전문가들에 따르면, 이 분야의 자원은 한정되어 있고 조명을 안정적으로 켜는 것보다 훨씬 더 흥미롭고 수익성 있는 기회가 많기 때문에, 기업들은 그쪽으로 움직이고 있다. 이런 상황에서 기술을 개선하는 가장 쉬운 방법은 실제 환경에 배포하고 시간이 지나면서 개선되도록 하는 것이다. 알렉사 플러스와 제미나이 포 홈이 '얼리 액세스' 단계인 이유가 바로 이것이다. 기본적으로 우리 모두가 AI의 베타 테스터인 셈이다.


안타깝게도 상황이 나아지려면 시간이 꽤 걸릴 수 있다. 미시간대학교 컴퓨터공학과 조교수이자 사운더빌리티 랩 소장인 드루브 자인도 연구에서 새로운 스마트홈 비서 모델이 덜 안정적임을 발견했다. "대화는 더 자연스럽고 사람들이 좋아하지만, 이전 버전만큼 성능이 좋지 않습니다"라고 그는 말한다. "테크 기업들은 항상 빠르게 출시하고 데이터를 수집해서 개선하는 모델을 써왔습니다. 몇 년 후에는 더 나은 모델을 얻겠지만, 그 몇 년간 사람들이 씨름하는 비용이 따릅니다."


근본적인 문제는 기존 기술과 새 기술이 잘 맞지 않는다는 것이다. 새 음성 비서를 만들기 위해 아마존, 구글, 애플은 기존 것을 버리고 완전히 새로운 것을 구축해야 했다. 그런데 이 새로운 LLM들이 이전 시스템이 잘하던 예측 가능하고 반복적인 작업에 적합하게 설계되지 않았다는 것을 금세 깨달았다. 조지아공대 인터랙티브 컴퓨팅 스쿨 교수 마크 리들은 "모두가 생각했던 것만큼 간단한 업그레이드가 아니었습니다. LLM은 훨씬 더 많은 것을 이해하고 더 다양한 방식의 소통에 열려 있는데, 그것이 해석의 여지와 해석 오류를 만들어냅니다"라고 설명한다.


기본적으로 LLM은 기존의 명령-제어 방식 음성 비서가 하던 일을 하도록 설계되지 않았다. 리들 교수는 "기존 음성 비서는 '템플릿 매처'라고 부릅니다. 키워드를 찾고, 그것을 보면 추가로 한두 단어가 올 것을 예상합니다"라고 설명한다. 예를 들어 "라디오 재생"이라고 하면 다음에 채널 번호가 올 것을 안다.


반면 LLM은 "많은 확률성, 즉 무작위성을 도입합니다"라고 리들은 설명한다. ChatGPT에 같은 프롬프트를 여러 번 물으면 다른 답변이 나올 수 있다. 이것이 LLM의 가치이기도 하지만, LLM 기반 음성 비서에 어제와 같은 요청을 해도 같은 방식으로 응답하지 않을 수 있는 이유이기도 하다. "이 무작위성이 기본 명령을 오해하게 만들 수 있습니다. 때때로 너무 과하게 생각하려 하기 때문입니다."


이를 해결하기 위해 아마존과 구글 같은 기업들은 LLM을 스마트홈(그리고 웹에서 하는 거의 모든 것)의 핵심인 API와 통합하는 방법을 개발했다. 하지만 이것이 새로운 문제를 만들었을 수 있다.


리들 교수는 "이제 LLM은 API에 함수 호출을 구성해야 하고, 구문을 정확하게 만들기 위해 훨씬 더 열심히 작업해야 합니다"라고 말한다. 기존 시스템이 키워드만 기다렸던 것과 달리, LLM 기반 비서는 API가 인식할 수 있는 전체 코드 시퀀스를 작성해야 한다. "이 모든 것을 메모리에 유지해야 하고, 여기서 또 실수할 수 있습니다."


이 모든 것이 필자의 커피머신이 때때로 커피를 내려주지 않는 이유, 또는 알렉사나 구글 어시스턴트가 예전에는 잘하던 일을 하지 못하는 이유를 과학적으로 설명해준다.


그렇다면 왜 이 기업들은 작동하던 기술을 버리고 작동하지 않는 것을 택했을까? 잠재력 때문이다. 특정 입력에만 반응하는 것이 아니라 자연어를 이해하고 그에 따라 행동할 수 있는 음성 비서는 무한히 더 유능하다.


리들 교수는 "알렉사와 시리 등을 만드는 모든 기업이 정말로 원하는 것은 서비스의 연결입니다. 이를 위해서는 복잡한 관계와 과제가 말로 어떻게 전달되는지 이해할 수 있는 일반적인 언어 이해가 필요합니다. 모든 것을 연결하는 if-else 문을 즉석에서 만들고 순서를 동적으로 생성할 수 있습니다"라고 설명한다. 에이전틱해질 수 있다는 것이다.


리들 교수는 기존 기술을 버리는 이유가 바로 이것이라고 말한다. 기존 기술로는 이것이 불가능했기 때문이다. 자인 교수는 "비용-편익 비율의 문제입니다. 새 기술은 기존의 비확률적 기술만큼 정확하지 않을 것입니다. 하지만 충분히 높은 정확도에 새 기술이 제공하는 확장된 가능성의 범위가 100% 정확한 비확률적 모델보다 가치가 있는지가 문제입니다"라고 말한다.


한 가지 해결책은 여러 모델을 사용해 비서를 구동하는 것이다. 구글의 제미나이 포 홈은 제미나이와 제미나이 라이브라는 두 개의 별도 시스템으로 구성된다. 구글 홈 앤 네스트 제품 책임자 아니시 카투카란은 궁극적으로 더 강력한 제미나이 라이브가 모든 것을 운영하게 하는 것이 목표지만, 현재는 더 제한된 제미나이 포 홈이 담당하고 있다고 말한다. 아마존도 마찬가지로 여러 모델을 사용해 다양한 기능의 균형을 맞춘다. 하지만 이는 불완전한 해결책이고, 스마트홈에 일관성 없음과 혼란을 초래했다.


리들 교수는 LLM이 언제 매우 정확해야 하고 언제 무작위성을 수용해야 하는지 이해하도록 훈련하는 방법을 아무도 제대로 알아내지 못했다고 말한다. '길들여진' LLM도 여전히 실수할 수 있다는 의미다. "전혀 무작위적이지 않은 기계를 원한다면, 모든 것을 억제할 수 있습니다"라고 리들은 말한다. 하지만 그 챗봇은 더 대화적이거나 아이에게 환상적인 취침 이야기를 들려주지 못할 것이다. 둘 다 알렉사와 구글이 내세우는 기능이다. "모든 것을 하나에 담으려면 정말로 트레이드오프가 필요합니다."


스마트홈 배포에서의 이런 어려움은 이 기술의 더 광범위한 문제를 예고하는 것일 수 있다. AI가 조명조차 안정적으로 켜지 못한다면, 더 복잡한 작업에 어떻게 의존할 수 있겠느냐고 리들 교수는 묻는다. "걷기도 전에 뛰려고 해선 안 됩니다."


하지만 테크 기업들은 빠르게 움직이고 뭔가를 망가뜨리는 성향으로 유명하다. "언어 모델의 역사는 항상 LLM을 길들이는 것이었습니다"라고 리들은 말한다. "시간이 지나면서 더 온순해지고, 더 신뢰할 수 있고, 더 믿을 만해집니다. 하지만 우리는 계속해서 그렇지 않은 영역의 경계로 밀어붙입니다."


리들 교수는 순수하게 에이전틱한 비서로 가는 길을 믿는다. "AGI에 도달할지는 모르겠지만, 시간이 지나면서 이것들이 최소한 더 신뢰할 수 있게 되는 것은 볼 수 있을 것입니다." 하지만 오늘날 집에서 이 불안정한 AI를 다루고 있는 우리에게 남은 질문은, 우리가 기다릴 의향이 있는지, 그리고 그 사이 스마트홈은 어떤 대가를 치르게 될 것인지다.

댓글 0
전체 1,366 / 46 페이지
Palantir [ +1.89%] 주가는 11월에 17% 급락하여 2023년 8월 이후 최악의 월간 하락률을 기록했습니다. 이는 투자자들이 밸류에이션 우려와 공매도 투자자 마이클 버리가 회사에 대한 9억 달러 규모의 공매도 포지션을 공개한 후 AI 관련 주식에서 손을 뗐기 때문입니다.[cryptorank]이번 매도는 월스트리트 예상을 상회하는 11억 8천만 달러의 매출로 강력한 3분기 실적을 기록했음에도 불구하고 발생했습니다. Jefferies, RBC Capital Markets, Deutsche Bank를 포함한 여러 애널리스트들이 회사의 선행 주가수익비율(forward earnings)이 약 233배로 Nvidia [ -2.08%]의 38배와 비교해 “극단적인” 밸류에이션이라고 지적했습니다.[cryptorank]CEO 알렉스 카프는 버리를 시장 조작으로 비난하고 공매도 포지션을 “완전히 미친 짓”이라고 부르며 회사를 방어했습니다. 한편 광범위한 AI 섹터 후퇴로 Nvidia는 12% 이상 하락했고, Microsoft [ +1.34%]와 Amazon [ +1.75%]은 약 5% 하락했으며, Apple [ +0.29%]과 Alphabet만이 11월에 상승세를 기록했습니다.[cryptorank]
558 조회
0 추천
2025.11.30 등록
2025년스마트워치산업은웨어러블기기를단순한피트니스트래커에서만성질환의조기경고신호를감지할수있는임상등급센서와인공지능을갖춘정교한건강모니터링시스템으로변모시켰습니다.삼성,애플,Garmin의최신세대기기들은이제수면의질부터심혈관부담까지모든것을추적할수있는고급바이오센서를탑재하여손목에서예방적헬스케어로의전환을보여주고있습니다.임상급모니터링이소비자기기에도달하다2025년7월출시된삼성의GalaxyWatch8시리즈는일주기리듬을분석하여최적의수면시간을권장하는취침가이드(BedtimeGuidance)와수면중심혈관부담을측정하는혈관부하(VascularLoad)추적을포함한여러건강혁신기능을도입했습니다.이기기들은또한5초만에카로티노이드수치를평가하여산화스트레스와전반적인웰빙에대한통찰력을제공하는항산화지수(AntioxidantIndex)기능을탑재하고있습니다.​애플은2025년9월WatchSeries11의고혈압감지기능에대해FDA승인을받았으며,이기능은광학센서를사용하여30일동안심장박동에대한혈관의반응을분석합니다.이알고리즘은만성고혈압과관련된일관된패턴을수동적으로모니터링하며,애플에따르면이전에진단받지못한100만건이상의사례를잠재적으로식별할수있습니다.Series11은또한24시간배터리수명과AppleIntelligence로구동되는수면점수기능을제공합니다.​가민의2025년11월소프트웨어업데이트는수십개의워치모델에건강상태(HealthStatus)기능을도입했으며,이는안정시심박수,심박수변이도,맥박산소측정,호흡,피부온도를분석하여개인화된건강기준선을생성합니다.이시스템은지표가정상범위를벗어나는경향을보일때사용자에게알림을보내며,이는질병,과훈련또는스트레스를나타낼수있습니다.​AI통합확대로시장급등글로벌스마트워치시장은2025년1,083억1,000만달러에달할것으로예상되며,연평균12.9%의성장률을기록할것으로전망됩니다.고급건강모니터링기능이도입을촉진하고있으며,웰니스애플리케이션이시장점유율의35%이상을차지하고있습니다.북미는건강중심웨어러블의조기도입과확장된무선인프라에힘입어전세계성장의40%를차지합니다.​이러한기기들은이제여러데이터스트림을동시에처리하는AI기반분석을통합하여,개인화된웰니스점수와불규칙한심장리듬,탈수위험및수면장애에대한예측알림을제공합니다.삼성의갤럭시워치8은구글제미나이통합을특징으로하는최초의스마트워치가되어,음성제어건강추적및운동관리를가능하게했습니다.
571 조회
0 추천
2025.11.29 등록
중국AI스타트업DeepSeek은목요일오픈소스수학적추론모델인DeepSeekMath-V2를공개했으며,이모델은2024년Putnam수학경시대회에서120점만점에118점이라는거의완벽한점수를달성하여인간최고점수인90점을능가했다.6,850억개의매개변수를가진이모델은또한InternationalMathematicalOlympiad2025와ChineseMathematicalOlympiad2024에서금메달수준의성능을달성했다.​DeepSeekMath-V2가IMO수준경시대회에서금메달등급을달성한최초의오픈소스모델이되면서,이번출시는AI기반수학적추론의전환점을나타낸다.올해초유사한이정표를달성한OpenAI와GoogleDeepMind의독점모델들과달리,DeepSeek은HuggingFace와GitHub에서Apache2.0라이선스로모델가중치를공개적으로제공했다.​자기검증프레임워크가AI추론격차를해결하다이모델은최종답변의정확성보다증명의질을우선시하는새로운자기검증프레임워크를도입합니다.DeepSeek연구진은한시스템이수학적증명을생성하는"증명자"역할을하고다른시스템이추론을면밀히검토하는"검토자"역할을하는이중모델아키텍처를설계했습니다.회사의기술논문에따르면,이접근방식은현재AI시스템의중요한한계를해결합니다:"올바른최종답변이올바른추론과정을보장하지는않는다".​그룹상대정책최적화(GroupRelativePolicyOptimization)를기반으로구축된훈련방법론은단순히정답에보상을주는대신증명이완전하고논리적으로건전한지를평가하는검증자우선접근방식을사용합니다.IMO-ProofBench벤치마크에서DeepSeekMath-V2는기본증명에대해99%의성공률을달성하여Google의GeminiDeepThink의89%를크게능가했습니다.​중국,오픈소스AI에서우위확보이번출시는중국이글로벌오픈소스AI시장에서미국을추월하면서이루어졌습니다.11월말MIT와HuggingFace가발표한연구에따르면,중국에서개발된오픈모델은지난1년간전세계다운로드의17%를차지하여처음으로미국개발자들의15.8%점유율을넘어섰습니다.DeepSeek와Alibaba의Qwen모델이중국의오픈모델다운로드를주도하고있습니다.
558 조회
0 추천
2025.11.29 등록
DeepSeek와Alibaba의연구원들이Science저널에논문을발표하며중국의빠르게성장하는규제프레임워크에서투명성증대와보다체계적인피드백을요구한후,인공지능을규제하려는중국의야심찬노력이국제적관심을다시받고있습니다.불과며칠전발표된그들의분석은정책입안자들에게배포전신고의명확성을개선하고,오픈소스AI에대한감독을강화하며,중국의AI산업이급속도로확장됨에따라독립적인검증메커니즘을구현할것을촉구합니다.​확장되는규칙들,남아있는불투명성중국의AI규제환경은놀라운속도로발전해왔습니다.2025년4월까지중국국가인터넷정보판공실(CAC)은2,350개이상의기업으로부터3,739개의생성형AI도구를등록했으며,레지스트리는매달최대300개씩증가하고있습니다.그러나이러한성장에도불구하고AI모델신고절차는여전히매우불투명합니다.신청이거부된개발자들은거의또는전혀설명을받지못하는경우가많으며,승인된모델은통합목록으로만공개됩니다.이러한불투명성은규정준수를복잡하게만들어AI기업들이규제기대치를이해하고적응하기어렵게만듭니다.​저자들은"중국의규정은복잡한모자이크를형성했다"고언급하며,규제프레임워크가혁신과연구를가능하게하지만,중국의국내AI시스템이미국의선도모델에필적하는'최첨단'역량을개발함에따라당국의더명확한소통과투명성이필수적이라고덧붙였습니다.​오픈소스:기회인가위험인가?중국현정권의주요특징중하나는오픈소스AI모델과과학연구에사용되는도구에대한면제조항입니다.이는미국과유럽에서의더엄격한접근방식과뚜렷한대조를이룹니다.그러나전문가들은이러한면제가제대로통제되지않을경우“위험한오용”을초래할수있다고경고합니다.“여론속성또는사회적동원역량”을가진서비스의정의가모호하게남아있어,면제적용범위가얼마나넓을지에대한우려를불러일으키고있습니다.DeepSeek와알리바바연구진은이러한모델이악의적이거나사회를불안정하게만드는목적으로악용되지않도록더엄격한경계와독립적인감독의필요성을주장합니다.​한편,베이징컨설팅기업ConcordiaAI의최근검토에따르면,현재중국의주요AI시스템들은미국과유사한수준의위험성을보이고있어더견고한준수및안전성점검의중요성이더욱커지고있습니다.​시장영향과향후전망중국의규제접근방식은여러기둥위에세워져있습니다:배포전신고,자체평가,AI생성콘텐츠에대한라벨링요구사항,그리고단계적이고때로는실험적인새로운규칙의시행입니다.중국은포괄적인AI법안을제정하지는않았지만,입법자들사이에서초안이검토되고있으며,특히2025년중반이후로방대한기술표준이계속확대되고있습니다.​이러한추진은또한기업들이투명성과안전성에대한새로운기준을충족하기위해노력하면서규정준수도구,모델평가소프트웨어,그리고독립적인감사에대한수요를촉진시켰습니다.DeepSeek와Alibaba논문은추가적인진전이명확한규제지침과제3자검증에달려있음을강조하는데,이는중국의AI생태계가글로벌무대에서성숙해짐에따라책임있는성장을유지하고위험을줄이는데필수적인단계로여겨집니다.​"중국은실제로AI거버넌스에서추종자에서선도자로전환했으며,이는의미가있습니다"라고공동저자이자법학교수인ZhangLinghan은말했지만,현재개발자와정책입안자모두에게도전이되는불투명성을해소하는것이성공의관건이될것이라고언급했습니다.
552 조회
0 추천
2025.11.29 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입