AI 뉴스

2025년, AI가 스마트홈을 망친 이유

페이지 정보

작성자 symbolika
작성일 2025.12.30 00:05
308 조회
0 추천
0 비추천

본문

AI Smart Home 2025

• 생성형 AI 음성 비서가 기존 음성 비서를 대체했으나, 조명 켜기나 가전제품 작동 같은 기본 명령 수행에서 일관성이 크게 떨어짐

• 아마존 알렉사 플러스와 구글 제미나이 포 홈 모두 '얼리 액세스' 단계로, 사용자들은 사실상 베타 테스터 역할을 하고 있음

• LLM은 무작위성(확률적 특성)이 내재되어 있어, 예측 가능하고 반복적인 작업에 최적화된 기존 시스템과 근본적으로 호환되지 않음

• 전문가들은 AI가 더 신뢰할 수 있게 되려면 수년이 걸릴 수 있으며, 그 사이 스마트홈 경험은 저하될 수 있다고 경고


오늘 아침, 필자는 알렉사 연동 보쉬 커피머신에 커피를 내려달라고 요청했다. 그런데 루틴을 실행하는 대신, 그건 할 수 없다는 대답이 돌아왔다. 아마존의 생성형 AI 기반 음성 비서인 알렉사 플러스로 업그레이드한 이후, 커피 루틴이 제대로 작동한 적이 거의 없다. 매번 다른 핑계를 댄다.


2025년인 지금도 AI는 스마트홈을 안정적으로 제어하지 못한다. 과연 언젠가 가능해질지 의문이 들기 시작한다.


생성형 AI와 대규모 언어 모델(LLM)이 스마트홈의 복잡성을 해소하고, 연결된 기기의 설정, 사용, 관리를 더 쉽게 만들어줄 가능성은 분명 매력적이다. 능동적이고 상황 인식이 가능한 '새로운 지능 레이어'를 구현할 수 있다는 약속도 그렇다.


하지만 올해는 그런 미래가 아직 한참 멀었음을 보여주었다. 제한적이지만 안정적이던 기존 음성 비서들이 '더 똑똑한' 버전으로 교체됐지만, 대화는 더 자연스러워졌을지언정 가전제품 작동이나 조명 켜기 같은 기본 작업은 제대로 수행하지 못한다. 왜 그런지 알고 싶었다.


2023년 데이브 림프와의 인터뷰에서 필자는 처음으로 생성형 AI와 LLM이 스마트홈 경험을 개선할 가능성에 흥미를 느꼈다. 당시 아마존 디바이스 & 서비스 부문 총괄이던 림프는 곧 출시될 새 알렉사의 기능을 설명하고 있었다(스포일러: 출시는 그렇게 빠르지 않았다).


어떤 방식으로 말하든 사용자의 의도를 이해하는 더 자연스러운 대화형 비서와 함께, 특히 인상적이었던 것은 새 알렉사가 스마트홈 내 기기들에 대한 지식과 수백 개의 API를 결합해 맥락을 파악하고, 스마트홈을 더 쉽게 사용할 수 있게 해준다는 약속이었다.


기기 설정부터 제어, 모든 기능 활용, 다른 기기와의 연동 관리까지, 더 똑똑한 스마트홈 비서는 매니아들의 기기 관리를 쉽게 할 뿐 아니라 누구나 스마트홈의 혜택을 누릴 수 있게 해줄 잠재력이 있어 보였다.


3년이 지난 지금, 가장 유용한 스마트홈 AI 업그레이드라고 할 만한 것은 보안 카메라 알림에 대한 AI 기반 설명 기능 정도다. 편리하긴 하지만, 기대했던 혁명적 변화와는 거리가 멀다.


새로운 스마트홈 비서들이 완전히 실패한 것은 아니다. 알렉사 플러스에는 마음에 드는 점이 많고, 올해의 스마트홈 소프트웨어로 선정하기도 했다. 더 대화적이고, 자연어를 이해하며, 기존 알렉사보다 훨씬 다양한 질문에 답할 수 있다.


기본 명령에서 때때로 어려움을 겪지만, 복잡한 명령은 이해한다. "여기 조명 좀 어둡게 하고 온도도 올려줘"라고 하면 조명을 조절하고 온도조절기를 올린다. 일정 관리, 요리 도우미 등 가정 중심 기능도 더 나아졌다. 음성으로 루틴을 설정하는 것은 알렉사 앱과 씨름하는 것보다 훨씬 개선됐다. 다만 실행의 안정성은 떨어진다.


구글도 스마트 스피커용 제미나이 포 홈 업그레이드로 비슷한 기능을 약속했지만, 출시 속도가 너무 느려서 정해진 데모 외에는 직접 써보지 못했다. 네스트 카메라 영상을 AI 생성 텍스트로 요약해주는 제미나이 포 홈 기능을 테스트해봤는데, 정확도가 심각하게 떨어졌다. 애플 시리는 여전히 지난 10년의 음성 비서 수준에 머물러 있으며, 당분간 그 상태가 지속될 것으로 보인다.


문제는 새 비서들이 스마트홈 기기 제어에서 기존 비서만큼 일관성이 없다는 것이다. 기존 알렉사와 구글 어시스턴트(그리고 현재의 시리)는 사용하기 답답할 때도 있었지만, 정확한 명령어만 사용하면 대체로 조명은 항상 켜졌다.


오늘날 '업그레이드된' 비서들은 조명 켜기, 타이머 설정, 날씨 확인, 음악 재생, 그리고 많은 사용자들이 스마트홈의 기반으로 삼아온 루틴과 자동화 실행에서 일관성 문제를 겪고 있다.


필자의 테스트에서도 이런 현상을 확인했고, 온라인 포럼에도 같은 경험을 한 사용자들의 글이 넘쳐난다. 아마존과 구글도 생성형 AI 기반 비서가 기본 작업을 안정적으로 수행하는 데 어려움을 겪고 있음을 인정했다. 스마트홈 비서만의 문제도 아니다. ChatGPT도 시간을 알려주거나 숫자를 세는 것조차 일관성 있게 하지 못한다.


왜 이런 일이 일어나고, 나아질 것인가? 문제를 이해하기 위해 에이전틱 AI와 스마트홈 시스템 경험이 있는 인간 중심 AI 분야 교수 두 명과 대화했다. 핵심은 새 음성 비서가 기존 비서와 거의 같은 일을 하게 만드는 것은 가능하지만 많은 작업이 필요하며, 대부분의 기업은 그런 작업에 관심이 없다는 것이다.


전문가들에 따르면, 이 분야의 자원은 한정되어 있고 조명을 안정적으로 켜는 것보다 훨씬 더 흥미롭고 수익성 있는 기회가 많기 때문에, 기업들은 그쪽으로 움직이고 있다. 이런 상황에서 기술을 개선하는 가장 쉬운 방법은 실제 환경에 배포하고 시간이 지나면서 개선되도록 하는 것이다. 알렉사 플러스와 제미나이 포 홈이 '얼리 액세스' 단계인 이유가 바로 이것이다. 기본적으로 우리 모두가 AI의 베타 테스터인 셈이다.


안타깝게도 상황이 나아지려면 시간이 꽤 걸릴 수 있다. 미시간대학교 컴퓨터공학과 조교수이자 사운더빌리티 랩 소장인 드루브 자인도 연구에서 새로운 스마트홈 비서 모델이 덜 안정적임을 발견했다. "대화는 더 자연스럽고 사람들이 좋아하지만, 이전 버전만큼 성능이 좋지 않습니다"라고 그는 말한다. "테크 기업들은 항상 빠르게 출시하고 데이터를 수집해서 개선하는 모델을 써왔습니다. 몇 년 후에는 더 나은 모델을 얻겠지만, 그 몇 년간 사람들이 씨름하는 비용이 따릅니다."


근본적인 문제는 기존 기술과 새 기술이 잘 맞지 않는다는 것이다. 새 음성 비서를 만들기 위해 아마존, 구글, 애플은 기존 것을 버리고 완전히 새로운 것을 구축해야 했다. 그런데 이 새로운 LLM들이 이전 시스템이 잘하던 예측 가능하고 반복적인 작업에 적합하게 설계되지 않았다는 것을 금세 깨달았다. 조지아공대 인터랙티브 컴퓨팅 스쿨 교수 마크 리들은 "모두가 생각했던 것만큼 간단한 업그레이드가 아니었습니다. LLM은 훨씬 더 많은 것을 이해하고 더 다양한 방식의 소통에 열려 있는데, 그것이 해석의 여지와 해석 오류를 만들어냅니다"라고 설명한다.


기본적으로 LLM은 기존의 명령-제어 방식 음성 비서가 하던 일을 하도록 설계되지 않았다. 리들 교수는 "기존 음성 비서는 '템플릿 매처'라고 부릅니다. 키워드를 찾고, 그것을 보면 추가로 한두 단어가 올 것을 예상합니다"라고 설명한다. 예를 들어 "라디오 재생"이라고 하면 다음에 채널 번호가 올 것을 안다.


반면 LLM은 "많은 확률성, 즉 무작위성을 도입합니다"라고 리들은 설명한다. ChatGPT에 같은 프롬프트를 여러 번 물으면 다른 답변이 나올 수 있다. 이것이 LLM의 가치이기도 하지만, LLM 기반 음성 비서에 어제와 같은 요청을 해도 같은 방식으로 응답하지 않을 수 있는 이유이기도 하다. "이 무작위성이 기본 명령을 오해하게 만들 수 있습니다. 때때로 너무 과하게 생각하려 하기 때문입니다."


이를 해결하기 위해 아마존과 구글 같은 기업들은 LLM을 스마트홈(그리고 웹에서 하는 거의 모든 것)의 핵심인 API와 통합하는 방법을 개발했다. 하지만 이것이 새로운 문제를 만들었을 수 있다.


리들 교수는 "이제 LLM은 API에 함수 호출을 구성해야 하고, 구문을 정확하게 만들기 위해 훨씬 더 열심히 작업해야 합니다"라고 말한다. 기존 시스템이 키워드만 기다렸던 것과 달리, LLM 기반 비서는 API가 인식할 수 있는 전체 코드 시퀀스를 작성해야 한다. "이 모든 것을 메모리에 유지해야 하고, 여기서 또 실수할 수 있습니다."


이 모든 것이 필자의 커피머신이 때때로 커피를 내려주지 않는 이유, 또는 알렉사나 구글 어시스턴트가 예전에는 잘하던 일을 하지 못하는 이유를 과학적으로 설명해준다.


그렇다면 왜 이 기업들은 작동하던 기술을 버리고 작동하지 않는 것을 택했을까? 잠재력 때문이다. 특정 입력에만 반응하는 것이 아니라 자연어를 이해하고 그에 따라 행동할 수 있는 음성 비서는 무한히 더 유능하다.


리들 교수는 "알렉사와 시리 등을 만드는 모든 기업이 정말로 원하는 것은 서비스의 연결입니다. 이를 위해서는 복잡한 관계와 과제가 말로 어떻게 전달되는지 이해할 수 있는 일반적인 언어 이해가 필요합니다. 모든 것을 연결하는 if-else 문을 즉석에서 만들고 순서를 동적으로 생성할 수 있습니다"라고 설명한다. 에이전틱해질 수 있다는 것이다.


리들 교수는 기존 기술을 버리는 이유가 바로 이것이라고 말한다. 기존 기술로는 이것이 불가능했기 때문이다. 자인 교수는 "비용-편익 비율의 문제입니다. 새 기술은 기존의 비확률적 기술만큼 정확하지 않을 것입니다. 하지만 충분히 높은 정확도에 새 기술이 제공하는 확장된 가능성의 범위가 100% 정확한 비확률적 모델보다 가치가 있는지가 문제입니다"라고 말한다.


한 가지 해결책은 여러 모델을 사용해 비서를 구동하는 것이다. 구글의 제미나이 포 홈은 제미나이와 제미나이 라이브라는 두 개의 별도 시스템으로 구성된다. 구글 홈 앤 네스트 제품 책임자 아니시 카투카란은 궁극적으로 더 강력한 제미나이 라이브가 모든 것을 운영하게 하는 것이 목표지만, 현재는 더 제한된 제미나이 포 홈이 담당하고 있다고 말한다. 아마존도 마찬가지로 여러 모델을 사용해 다양한 기능의 균형을 맞춘다. 하지만 이는 불완전한 해결책이고, 스마트홈에 일관성 없음과 혼란을 초래했다.


리들 교수는 LLM이 언제 매우 정확해야 하고 언제 무작위성을 수용해야 하는지 이해하도록 훈련하는 방법을 아무도 제대로 알아내지 못했다고 말한다. '길들여진' LLM도 여전히 실수할 수 있다는 의미다. "전혀 무작위적이지 않은 기계를 원한다면, 모든 것을 억제할 수 있습니다"라고 리들은 말한다. 하지만 그 챗봇은 더 대화적이거나 아이에게 환상적인 취침 이야기를 들려주지 못할 것이다. 둘 다 알렉사와 구글이 내세우는 기능이다. "모든 것을 하나에 담으려면 정말로 트레이드오프가 필요합니다."


스마트홈 배포에서의 이런 어려움은 이 기술의 더 광범위한 문제를 예고하는 것일 수 있다. AI가 조명조차 안정적으로 켜지 못한다면, 더 복잡한 작업에 어떻게 의존할 수 있겠느냐고 리들 교수는 묻는다. "걷기도 전에 뛰려고 해선 안 됩니다."


하지만 테크 기업들은 빠르게 움직이고 뭔가를 망가뜨리는 성향으로 유명하다. "언어 모델의 역사는 항상 LLM을 길들이는 것이었습니다"라고 리들은 말한다. "시간이 지나면서 더 온순해지고, 더 신뢰할 수 있고, 더 믿을 만해집니다. 하지만 우리는 계속해서 그렇지 않은 영역의 경계로 밀어붙입니다."


리들 교수는 순수하게 에이전틱한 비서로 가는 길을 믿는다. "AGI에 도달할지는 모르겠지만, 시간이 지나면서 이것들이 최소한 더 신뢰할 수 있게 되는 것은 볼 수 있을 것입니다." 하지만 오늘날 집에서 이 불안정한 AI를 다루고 있는 우리에게 남은 질문은, 우리가 기다릴 의향이 있는지, 그리고 그 사이 스마트홈은 어떤 대가를 치르게 될 것인지다.

댓글 0
전체 1,366 / 16 페이지
한국과학기술원(KAIST)의 연구진들은 Google Gemini를 포함한 주요 상용 AI 시스템을 구동하는 Mixture-of-Experts 아키텍처의 보안 취약점을 발견했으며, 단 하나의 악의적인 구성 요소가 전체 AI 모델의 안전 메커니즘을 손상시킬 수 있음을 입증했습니다.전기및전자공학부 신승원 교수와 전산학부 손수엘 교수가 이끄는 연구팀은 12월 12일 하와이에서 열린 Annual Computer Security Applications Conference 2025에서 Distinguished Paper Award를 수상했습니다. "MoEvil: Poisoning Experts to Compromise the Safety of Mixture-of-Experts LLMs"라는 제목의 논문은 MoE 구조의 근본적인 보안 취약점을 체계적으로 분석한 최초의 연구입니다.효율적인 AI 설계에 숨겨진 위협Mixture-of-Experts는 현대 대규모 언어 모델이 모든 요청에 대해 전체 시스템을 활성화하는 대신 특정 질문을 전문화된 "전문가" 모델로 라우팅하여 효율성을 향상시키기 위해 사용하는 아키텍처입니다. 이 설계는 컴퓨팅 성능을 절약하지만, KAIST 연구팀은 악의적으로 훈련된 단일 전문가를 오픈 소스로 배포하면 더 큰 AI 시스템에 통합될 때 위험한 취약점을 만들 수 있다는 것을 입증했습니다.​이 공격은 놀라울 정도로 효과적이며 탐지하기 어렵습니다. 연구에 따르면, 여러 전문가 중 단 하나만 손상되어도 유해한 응답 생성 성공률이 0%에서 80%로 급증합니다. 악의적인 전문가는 특정 주제가 언급될 때마다 제어권을 가져와 다른 작업에 대해서는 정상적인 기능을 유지하면서 AI가 위험하거나 제한된 콘텐츠를 생성하도록 강제합니다.​"이 프로세스는 모델 성능 저하를 거의 일으키지 않아 사전에 문제를 탐지하는 것이 극히 어렵습니다. 이것이 가장 중요한 위험 요소로 간주됩니다"라고 연구자들은 연구 결과에서 언급했습니다.오픈소스 AI 개발에 대한 시사점이 취약점은 AI 산업이 개발을 가속화하기 위해 공유된 오픈소스 구성 요소에 점점 더 의존함에 따라 특히 중요한 의미를 갖습니다. 이 연구는 전체 성능을 평가하는 것뿐만 아니라 개별 전문가 모델의 출처와 안전성을 검증하는 것이 필수적이 되었음을 강조합니다.​연구팀은 KAIST 전기및전자공학부의 김재한, 송민규 박사과정 학생과 현재에서 근무하는 나승호 박사로 구성되었습니다. 이들의 연구는 한국 과학기술정보통신부, 한국인터넷진흥원, 정보통신기획평가원의 지원을 받았습니다.​정보보안 분야에서 가장 영향력 있는 국제 학회 중 하나인 ACSAC는 올해 전체 제출 논문 중 단 두 편만을 최우수 논문상으로 선정했습니다. 이번 수상은 AI 보안 분야에서 한국 연구자들의 주목할 만한 성과를 나타냅니다.
322 조회
0 추천
2025.12.27 등록
"바이브 코딩"이라는 소프트웨어 개발의 새로운 접근 방식이 주말 실험에서 AI 중심 업무의 핵심 패러다임으로 빠르게 진화했으며, 폭발적인 상업적 성공과 기술 부채에 대한 우려가 커지는 가운데 업계 리더들이 그 의미를 논쟁하고 있다.OpenAI 공동 창립자이자 전 Tesla AI 디렉터인 안드레이 카파시(Andrej Karpathy)가 2025년 2월에 만든 이 용어는 개발자들이 원하는 결과를 자연어로 설명하면 AI 코딩 에이전트가 실제 코드를 생성하는 방법을 설명한다. 2025년이 저물어가면서 카파시는 자신의 창작물이 미친 영향을 되돌아보며, 바이브 코딩이 "소프트웨어를 혁신하고 직무 설명을 바꿀 것"이라고 예측했다.상업적 호황이 현실 점검을 맞다상업적 검증은 신속하게 이루어졌다. Anthropic의 Claude Code는 2025년 5월 공개 출시 후 불과 6개월 만에 10억 달러의 매출을 달성했으며, Netflix, Spotify, Salesforce를 포함한 주요 기업들이 이 도구를 채택했다. 한편, AI 코딩 에디터 Cursor는 연간 매출 10억 달러를 돌파했으며, 현재 Fortune 500대 기업 중 절반이 이 플랫폼을 사용하고 있다.​그러나 시장이 폭발적으로 성장하는 가운데, 예상치 못한 곳에서 경고가 나타났다. 12월 24일, Cursor CEO Michael Truell은 vibe 코딩이 "불안정한 기반"을 구축하여 "상황이 무너지기 시작한다"고 경고하며, 개발자들이 여전히 생성되는 코드를 이해할 필요가 있다고 강조했다. 그의 회사는 현재 프로덕션 환경에서 코드의 40-50%를 생성하는 데 도움을 주고 있어, 감독이 매우 중요하다.​이러한 긴장감은 업계 전반의 재평가를 반영한다. AI 코딩 모델은 2025년 말에 전례 없는 벤치마크를 달성했으며, 일부는 SWE-bench Verified에서 80%를 돌파했다—이는 실제 GitHub 이슈 5개 중 4개를 자율적으로 해결할 수 있음을 의미한다. 그러나 보안 연구원들은 vibe 코딩이 "보안보다 빠르게 진행되고 있으며", AI 생성 코드에 대한 검토 프로세스가 불충분하다고 경고한다.Z세대의 관점: 유창함 대 불안12월 8-9일 샌프란시스코에서 열린 Fortune Brainstorm AI에서 응용 AI 연구소 Chima의 공동 창업자이자 CTO인 24세 키아라 니르긴(Kiara Nirghin)은 논란에 대한 세대적 반론을 제시했다. "젊은 세대는 AI를 채택하는 것이 아닙니다"라고 스탠포드 컴퓨터 과학 졸업생이자 피터 틸 펠로우인 그녀는 참석자들에게 말했다. "우리는 AI에 능통하게 자라나고 있습니다".​니르긴은 자신의 세대가 AI를 지름길로 사용한다는 서사를 거부하며, 대신 똑똑한 사용자들은 이러한 도구를 활용하여 단순 작업을 덜어냄으로써 "더욱 깊이 사고"한다고 주장했다. 그녀는 데이터 수집이 아닌 분석에 시간을 할애하기 위해 복잡한 금융 연구 보고서를 AI로 처리하는 것을 예로 들었다.​그러나 그녀는 독특한 부담을 인정했다: 기술의 끊임없는 개선 속도에서 비롯된 "AI 불안". "현재의 모델들은 앞으로 가장 멍청한 상태입니다"라고 니르긴은 경고하며, 최근 출시된 모델들이 "벤치마크를 압도"하여 성능이 하룻밤 사이에 "10배"가 될 수 있다고 언급했다. Z세대 근로자들에게 최신 상태를 유지하는 것은 일상적인 요구사항이며, 그렇지 않으면 "뒤처지게 됩니다".​기하급수적으로 개선되는 모델에 의해 지능이 상품화된다면, 무엇이 인간의 가치를 차별화할까? 니르긴에 따르면, 그것은 사용자가 실제로 원하는 것을 결정하는 인간 중심적 판단인 "취향"이다. 그녀는 코딩 에이전트가 특정 디자인 미학을 "좋아하기" 때문에 인터페이스에 "반짝이는 이모지"를 추가할 때 "그것이 바이브 코딩임을 알 수 있다"고 농담했다.​이러한 변화는 단순히 새로운 도구 이상을 의미한다. 12월 22일에 발표된 연말 리뷰에서 카파시(Karpathy)가 언급했듯이, 바이브 코딩은 "일반인"이 이전에는 전문 교육이 필요했던 소프트웨어를 만들 수 있게 하며, "무료이고, 일시적이며, 변형 가능하고, 한 번 사용 후 버릴 수 있는" 코드를 생성한다. 그 변화가 해방적인지 불안정한지는 업계가 야망에 맞는 안전장치를 얼마나 빨리 개발하느냐에 달려 있을 수 있다.
323 조회
0 추천
2025.12.27 등록
Google DeepMind CEO 데미스 하사비스는 오랫동안 약속되어 온 로봇공학 혁명이 더 이상 미래의 전망이 아니라 현재의 현실이며, 이는 하드웨어 발전이 아닌 인공지능의 돌파구에 의해 주도되고 있다고 선언했습니다. 최근 로봇공학의 현황에 대해 언급하면서 하사비스는 "로봇공학의 병목 현상은 하드웨어가 아니라... 사실 소프트웨어 지능이 항상 로봇공학을 저해해 온 요인이라고 생각한다"고 강조했습니다. 그는 그 병목 현상이 마침내 해소되기 시작했다고 말합니다.​이러한 변화는 파운데이션 모델이 로봇이 학습하고 작동하는 방식을 변화시키면서 나타났습니다. Boston Dynamics의 Atlas 로봇이 이미 2018년에 백플립을 수행하며 놀라운 물리적 능력을 보여주었지만, 이러한 기계들은 특정 작업에만 집중되어 있었습니다. 각 로봇 기능은 기술 이전이나 일반화 없이 별도의 프로그래밍이 필요했습니다—로봇은 상자나 병을 집어 올릴 수 있었지만, 조명이나 방향이 바뀌면 처음부터 다시 시작해야 했습니다.파운데이션 모델은 로봇이 생각할 수 있게 한다파운데이션 모델은 그 패러다임을 다시 작성했습니다. 2025년 3월에 출시된 구글 딥마인드의 제미니 로보틱스와 9월에 출시된 후속작 제미니 로보틱스 1.5는 하사비스가 "명확한 변곡점"이라고 부르는 것을 나타냅니다. 이러한 비전-언어-행동 모델은 로봇이 환경을 인식하고, 다단계 작업을 계획하며, 모든 상황에 대해 수작업으로 코딩된 행동 없이도 자율적으로 실행할 수 있게 합니다.​결정적으로, 이러한 모델은 로봇이 "행동하기 전에 생각"할 수 있게 하여, 복잡한 명령을 일련의 단계로 분해합니다. 제미니 로보틱스 1.5는 색상별로 세탁물을 분류하고, 웹 검색에서 가져온 날씨 예보를 기반으로 여행 가방을 꾸리며, 지역 지침에 따라 재활용품을 분류할 수 있습니다. 이 모든 작업은 사전 프로그래밍된 응답이 아닌 진정한 이해를 필요로 합니다. 또한 이 모델은 서로 다른 로봇 유형 간에 학습을 전이하며, 한 플랫폼에서 학습한 기술이 휴머노이드 로봇을 포함한 다른 플랫폼에 성공적으로 적용됩니다.AGI로 가는 길로서의 체화된 지능Hassabis는 물리적 세계에서 감지하고, 계획하며, 행동할 수 있는 능력인 구현된 지능(embodied intelligence)을 인공 일반 지능(AGI) 달성의 핵심으로 자리매김합니다. "결국 AGI는 이 모든 것을 할 수 있어야 합니다"라고 그는 밝혔습니다. 이는 업계가 로봇공학을 평가하는 방식의 근본적인 전환을 나타내며, 고도로 전문화된 엔지니어링으로 가격을 책정하는 것에서 구현된 AI 시스템으로 취급하는 것으로 이동하고 있습니다.이러한 변화는 개발 일정을 극적으로 가속화하고 있습니다. 수년간의 전문화된 프로그래밍은 훨씬 적은 예제로 적응할 수 있는 범용 모델의 신속한 미세 조정으로 대체되고 있습니다. Google의 2025년 12월 연구 요약에 따르면, 회사는 2025년을 "AI가 우리와 함께 진정으로 생각하고, 행동하며, 세상을 탐험하기 시작한 해"로 규정합니다. 구현된 AI 시장은 이러한 모멘텀을 반영하며, 2025년 44억 4천만 달러에서 2030년까지 230억 6천만 달러로 성장할 것으로 예상됩니다.
302 조회
0 추천
2025.12.27 등록
삼성은 자체 설계한 최초의 그래픽 처리 장치를 성공적으로 개발하여, 이러한 칩 설계가 가능한 전 세계 단 4개 기업과 어깨를 나란히 하게 되는 중요한 성과를 달성했습니다. 12월 18일 삼성의 새로운 Exynos 2600 프로세서에서 공개된 Xclipse 960 GPU는 AMD의 RDNA 아키텍처를 라이선스 하에 사용하고 있지만, 삼성의 System LSI 사업부가 전적으로 자체 개발했다고 한국의 연합뉴스가 보도했습니다.​이번 개발은 삼성의 이전 접근 방식에서 크게 전환된 것을 의미합니다. 2021년 삼성이 GPU 기술을 위해 AMD와 파트너십을 맺은 이후, 두 회사는 Exynos 2200, 2400, 2500 모델을 포함한 Exynos 칩용 그래픽 프로세서를 공동 개발했습니다. Exynos 2600의 경우, 삼성은 AMD의 아키텍처 프레임워크를 계속 사용하면서도 AMD의 직접적인 지원 없이 실제 GPU 칩을 독자적으로 설계하고 엔지니어링했습니다.​삼성의 이번 성과로 인해 회사는 AMD, Intel, Nvidia, Qualcomm에 이어 자체 GPU를 성공적으로 설계한 세계에서 다섯 번째 기업이 되었습니다. 12월 중순 이미 대량 생산에 들어간 Exynos 2600은 2나노미터 제조 공정으로 제작된 세계 최초의 스마트폰 칩입니다. 삼성은 Xclipse 960이 이전 세대 대비 2배의 연산 성능과 50% 향상된 레이 트레이싱 기능을 제공한다고 주장합니다.전략적 투자 및 향후 계획이 이정표를 달성하기 위해 삼성의 반도체 부문은 지난 3년간 연봉 약 20만 7천 달러에서 27만 7천 달러 수준으로 여러 GPU 엔지니어를 채용했습니다. 2025년 11월, 삼성은 AMD와 인텔에서 부사장직을 역임한 베테랑 GPU 전문가 존 레이필드(John Rayfield)를 영입하여 삼성 오스틴 연구센터와 고급 컴퓨팅 연구소를 이끌도록 했습니다.​Exynos 2600은 2026년 1월 말 또는 2월에 출시되는 Galaxy S26 및 S26 Plus 스마트폰에 유럽과 아시아를 포함한 일부 시장에서 탑재될 것으로 예상됩니다. 삼성은 Exynos 2800 칩으로 GPU 독립성을 더욱 강화할 계획인데, 이 칩은 AMD의 아키텍처를 완전히 포기하고 전적으로 독자적인 설계를 채택할 것으로 알려졌습니다. 이 칩은 2028년 Galaxy S28 시리즈에서 데뷔할 수 있습니다.​스마트폰을 넘어 삼성은 자사 GPU 기술을 자율주행 차량 플랫폼, 휴머노이드 로봇, 스마트 안경, AI 애플리케이션용 주문형 반도체(ASIC)에 활용할 계획입니다.
291 조회
0 추천
2025.12.27 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입