Loading...

AI 뉴스

2025년, AI가 스마트홈을 망친 이유

페이지 정보

작성자 symbolika
작성일 2025.12.30 00:05
420 조회
0 추천
0 비추천

본문

AI Smart Home 2025

• 생성형 AI 음성 비서가 기존 음성 비서를 대체했으나, 조명 켜기나 가전제품 작동 같은 기본 명령 수행에서 일관성이 크게 떨어짐

• 아마존 알렉사 플러스와 구글 제미나이 포 홈 모두 '얼리 액세스' 단계로, 사용자들은 사실상 베타 테스터 역할을 하고 있음

• LLM은 무작위성(확률적 특성)이 내재되어 있어, 예측 가능하고 반복적인 작업에 최적화된 기존 시스템과 근본적으로 호환되지 않음

• 전문가들은 AI가 더 신뢰할 수 있게 되려면 수년이 걸릴 수 있으며, 그 사이 스마트홈 경험은 저하될 수 있다고 경고


오늘 아침, 필자는 알렉사 연동 보쉬 커피머신에 커피를 내려달라고 요청했다. 그런데 루틴을 실행하는 대신, 그건 할 수 없다는 대답이 돌아왔다. 아마존의 생성형 AI 기반 음성 비서인 알렉사 플러스로 업그레이드한 이후, 커피 루틴이 제대로 작동한 적이 거의 없다. 매번 다른 핑계를 댄다.


2025년인 지금도 AI는 스마트홈을 안정적으로 제어하지 못한다. 과연 언젠가 가능해질지 의문이 들기 시작한다.


생성형 AI와 대규모 언어 모델(LLM)이 스마트홈의 복잡성을 해소하고, 연결된 기기의 설정, 사용, 관리를 더 쉽게 만들어줄 가능성은 분명 매력적이다. 능동적이고 상황 인식이 가능한 '새로운 지능 레이어'를 구현할 수 있다는 약속도 그렇다.


하지만 올해는 그런 미래가 아직 한참 멀었음을 보여주었다. 제한적이지만 안정적이던 기존 음성 비서들이 '더 똑똑한' 버전으로 교체됐지만, 대화는 더 자연스러워졌을지언정 가전제품 작동이나 조명 켜기 같은 기본 작업은 제대로 수행하지 못한다. 왜 그런지 알고 싶었다.


2023년 데이브 림프와의 인터뷰에서 필자는 처음으로 생성형 AI와 LLM이 스마트홈 경험을 개선할 가능성에 흥미를 느꼈다. 당시 아마존 디바이스 & 서비스 부문 총괄이던 림프는 곧 출시될 새 알렉사의 기능을 설명하고 있었다(스포일러: 출시는 그렇게 빠르지 않았다).


어떤 방식으로 말하든 사용자의 의도를 이해하는 더 자연스러운 대화형 비서와 함께, 특히 인상적이었던 것은 새 알렉사가 스마트홈 내 기기들에 대한 지식과 수백 개의 API를 결합해 맥락을 파악하고, 스마트홈을 더 쉽게 사용할 수 있게 해준다는 약속이었다.


기기 설정부터 제어, 모든 기능 활용, 다른 기기와의 연동 관리까지, 더 똑똑한 스마트홈 비서는 매니아들의 기기 관리를 쉽게 할 뿐 아니라 누구나 스마트홈의 혜택을 누릴 수 있게 해줄 잠재력이 있어 보였다.


3년이 지난 지금, 가장 유용한 스마트홈 AI 업그레이드라고 할 만한 것은 보안 카메라 알림에 대한 AI 기반 설명 기능 정도다. 편리하긴 하지만, 기대했던 혁명적 변화와는 거리가 멀다.


새로운 스마트홈 비서들이 완전히 실패한 것은 아니다. 알렉사 플러스에는 마음에 드는 점이 많고, 올해의 스마트홈 소프트웨어로 선정하기도 했다. 더 대화적이고, 자연어를 이해하며, 기존 알렉사보다 훨씬 다양한 질문에 답할 수 있다.


기본 명령에서 때때로 어려움을 겪지만, 복잡한 명령은 이해한다. "여기 조명 좀 어둡게 하고 온도도 올려줘"라고 하면 조명을 조절하고 온도조절기를 올린다. 일정 관리, 요리 도우미 등 가정 중심 기능도 더 나아졌다. 음성으로 루틴을 설정하는 것은 알렉사 앱과 씨름하는 것보다 훨씬 개선됐다. 다만 실행의 안정성은 떨어진다.


구글도 스마트 스피커용 제미나이 포 홈 업그레이드로 비슷한 기능을 약속했지만, 출시 속도가 너무 느려서 정해진 데모 외에는 직접 써보지 못했다. 네스트 카메라 영상을 AI 생성 텍스트로 요약해주는 제미나이 포 홈 기능을 테스트해봤는데, 정확도가 심각하게 떨어졌다. 애플 시리는 여전히 지난 10년의 음성 비서 수준에 머물러 있으며, 당분간 그 상태가 지속될 것으로 보인다.


문제는 새 비서들이 스마트홈 기기 제어에서 기존 비서만큼 일관성이 없다는 것이다. 기존 알렉사와 구글 어시스턴트(그리고 현재의 시리)는 사용하기 답답할 때도 있었지만, 정확한 명령어만 사용하면 대체로 조명은 항상 켜졌다.


오늘날 '업그레이드된' 비서들은 조명 켜기, 타이머 설정, 날씨 확인, 음악 재생, 그리고 많은 사용자들이 스마트홈의 기반으로 삼아온 루틴과 자동화 실행에서 일관성 문제를 겪고 있다.


필자의 테스트에서도 이런 현상을 확인했고, 온라인 포럼에도 같은 경험을 한 사용자들의 글이 넘쳐난다. 아마존과 구글도 생성형 AI 기반 비서가 기본 작업을 안정적으로 수행하는 데 어려움을 겪고 있음을 인정했다. 스마트홈 비서만의 문제도 아니다. ChatGPT도 시간을 알려주거나 숫자를 세는 것조차 일관성 있게 하지 못한다.


왜 이런 일이 일어나고, 나아질 것인가? 문제를 이해하기 위해 에이전틱 AI와 스마트홈 시스템 경험이 있는 인간 중심 AI 분야 교수 두 명과 대화했다. 핵심은 새 음성 비서가 기존 비서와 거의 같은 일을 하게 만드는 것은 가능하지만 많은 작업이 필요하며, 대부분의 기업은 그런 작업에 관심이 없다는 것이다.


전문가들에 따르면, 이 분야의 자원은 한정되어 있고 조명을 안정적으로 켜는 것보다 훨씬 더 흥미롭고 수익성 있는 기회가 많기 때문에, 기업들은 그쪽으로 움직이고 있다. 이런 상황에서 기술을 개선하는 가장 쉬운 방법은 실제 환경에 배포하고 시간이 지나면서 개선되도록 하는 것이다. 알렉사 플러스와 제미나이 포 홈이 '얼리 액세스' 단계인 이유가 바로 이것이다. 기본적으로 우리 모두가 AI의 베타 테스터인 셈이다.


안타깝게도 상황이 나아지려면 시간이 꽤 걸릴 수 있다. 미시간대학교 컴퓨터공학과 조교수이자 사운더빌리티 랩 소장인 드루브 자인도 연구에서 새로운 스마트홈 비서 모델이 덜 안정적임을 발견했다. "대화는 더 자연스럽고 사람들이 좋아하지만, 이전 버전만큼 성능이 좋지 않습니다"라고 그는 말한다. "테크 기업들은 항상 빠르게 출시하고 데이터를 수집해서 개선하는 모델을 써왔습니다. 몇 년 후에는 더 나은 모델을 얻겠지만, 그 몇 년간 사람들이 씨름하는 비용이 따릅니다."


근본적인 문제는 기존 기술과 새 기술이 잘 맞지 않는다는 것이다. 새 음성 비서를 만들기 위해 아마존, 구글, 애플은 기존 것을 버리고 완전히 새로운 것을 구축해야 했다. 그런데 이 새로운 LLM들이 이전 시스템이 잘하던 예측 가능하고 반복적인 작업에 적합하게 설계되지 않았다는 것을 금세 깨달았다. 조지아공대 인터랙티브 컴퓨팅 스쿨 교수 마크 리들은 "모두가 생각했던 것만큼 간단한 업그레이드가 아니었습니다. LLM은 훨씬 더 많은 것을 이해하고 더 다양한 방식의 소통에 열려 있는데, 그것이 해석의 여지와 해석 오류를 만들어냅니다"라고 설명한다.


기본적으로 LLM은 기존의 명령-제어 방식 음성 비서가 하던 일을 하도록 설계되지 않았다. 리들 교수는 "기존 음성 비서는 '템플릿 매처'라고 부릅니다. 키워드를 찾고, 그것을 보면 추가로 한두 단어가 올 것을 예상합니다"라고 설명한다. 예를 들어 "라디오 재생"이라고 하면 다음에 채널 번호가 올 것을 안다.


반면 LLM은 "많은 확률성, 즉 무작위성을 도입합니다"라고 리들은 설명한다. ChatGPT에 같은 프롬프트를 여러 번 물으면 다른 답변이 나올 수 있다. 이것이 LLM의 가치이기도 하지만, LLM 기반 음성 비서에 어제와 같은 요청을 해도 같은 방식으로 응답하지 않을 수 있는 이유이기도 하다. "이 무작위성이 기본 명령을 오해하게 만들 수 있습니다. 때때로 너무 과하게 생각하려 하기 때문입니다."


이를 해결하기 위해 아마존과 구글 같은 기업들은 LLM을 스마트홈(그리고 웹에서 하는 거의 모든 것)의 핵심인 API와 통합하는 방법을 개발했다. 하지만 이것이 새로운 문제를 만들었을 수 있다.


리들 교수는 "이제 LLM은 API에 함수 호출을 구성해야 하고, 구문을 정확하게 만들기 위해 훨씬 더 열심히 작업해야 합니다"라고 말한다. 기존 시스템이 키워드만 기다렸던 것과 달리, LLM 기반 비서는 API가 인식할 수 있는 전체 코드 시퀀스를 작성해야 한다. "이 모든 것을 메모리에 유지해야 하고, 여기서 또 실수할 수 있습니다."


이 모든 것이 필자의 커피머신이 때때로 커피를 내려주지 않는 이유, 또는 알렉사나 구글 어시스턴트가 예전에는 잘하던 일을 하지 못하는 이유를 과학적으로 설명해준다.


그렇다면 왜 이 기업들은 작동하던 기술을 버리고 작동하지 않는 것을 택했을까? 잠재력 때문이다. 특정 입력에만 반응하는 것이 아니라 자연어를 이해하고 그에 따라 행동할 수 있는 음성 비서는 무한히 더 유능하다.


리들 교수는 "알렉사와 시리 등을 만드는 모든 기업이 정말로 원하는 것은 서비스의 연결입니다. 이를 위해서는 복잡한 관계와 과제가 말로 어떻게 전달되는지 이해할 수 있는 일반적인 언어 이해가 필요합니다. 모든 것을 연결하는 if-else 문을 즉석에서 만들고 순서를 동적으로 생성할 수 있습니다"라고 설명한다. 에이전틱해질 수 있다는 것이다.


리들 교수는 기존 기술을 버리는 이유가 바로 이것이라고 말한다. 기존 기술로는 이것이 불가능했기 때문이다. 자인 교수는 "비용-편익 비율의 문제입니다. 새 기술은 기존의 비확률적 기술만큼 정확하지 않을 것입니다. 하지만 충분히 높은 정확도에 새 기술이 제공하는 확장된 가능성의 범위가 100% 정확한 비확률적 모델보다 가치가 있는지가 문제입니다"라고 말한다.


한 가지 해결책은 여러 모델을 사용해 비서를 구동하는 것이다. 구글의 제미나이 포 홈은 제미나이와 제미나이 라이브라는 두 개의 별도 시스템으로 구성된다. 구글 홈 앤 네스트 제품 책임자 아니시 카투카란은 궁극적으로 더 강력한 제미나이 라이브가 모든 것을 운영하게 하는 것이 목표지만, 현재는 더 제한된 제미나이 포 홈이 담당하고 있다고 말한다. 아마존도 마찬가지로 여러 모델을 사용해 다양한 기능의 균형을 맞춘다. 하지만 이는 불완전한 해결책이고, 스마트홈에 일관성 없음과 혼란을 초래했다.


리들 교수는 LLM이 언제 매우 정확해야 하고 언제 무작위성을 수용해야 하는지 이해하도록 훈련하는 방법을 아무도 제대로 알아내지 못했다고 말한다. '길들여진' LLM도 여전히 실수할 수 있다는 의미다. "전혀 무작위적이지 않은 기계를 원한다면, 모든 것을 억제할 수 있습니다"라고 리들은 말한다. 하지만 그 챗봇은 더 대화적이거나 아이에게 환상적인 취침 이야기를 들려주지 못할 것이다. 둘 다 알렉사와 구글이 내세우는 기능이다. "모든 것을 하나에 담으려면 정말로 트레이드오프가 필요합니다."


스마트홈 배포에서의 이런 어려움은 이 기술의 더 광범위한 문제를 예고하는 것일 수 있다. AI가 조명조차 안정적으로 켜지 못한다면, 더 복잡한 작업에 어떻게 의존할 수 있겠느냐고 리들 교수는 묻는다. "걷기도 전에 뛰려고 해선 안 됩니다."


하지만 테크 기업들은 빠르게 움직이고 뭔가를 망가뜨리는 성향으로 유명하다. "언어 모델의 역사는 항상 LLM을 길들이는 것이었습니다"라고 리들은 말한다. "시간이 지나면서 더 온순해지고, 더 신뢰할 수 있고, 더 믿을 만해집니다. 하지만 우리는 계속해서 그렇지 않은 영역의 경계로 밀어붙입니다."


리들 교수는 순수하게 에이전틱한 비서로 가는 길을 믿는다. "AGI에 도달할지는 모르겠지만, 시간이 지나면서 이것들이 최소한 더 신뢰할 수 있게 되는 것은 볼 수 있을 것입니다." 하지만 오늘날 집에서 이 불안정한 AI를 다루고 있는 우리에게 남은 질문은, 우리가 기다릴 의향이 있는지, 그리고 그 사이 스마트홈은 어떤 대가를 치르게 될 것인지다.

댓글 0
전체 1,366 / 77 페이지
Xiaomi는 2025년 11월 21-22일에 MiMo-Embodied를 공개했으며, 이 중국 기술 기업은 이를 자율주행과 체화된 인공지능을 단일 프레임워크 내에서 성공적으로 통합한 업계 최초의 오픈소스 기반 모델이라고 설명합니다.이 모델은 29개의 업계 벤치마크에서 최첨단 성능을 달성했으며, 작업 계획, 어포던스 예측, 공간 이해를 포함한 17개의 체화된 AI 테스트에서 새로운 기록을 세웠고, 환경 인식, 상태 예측, 주행 계획에 걸친 12개의 자율주행 벤치마크에서 뛰어난 성과를 보였습니다. Xiaomi는 Hugging Face와 GitHub를 포함한 플랫폼에서 모델과 기술 문서를 완전히 오픈소스로 공개했습니다.크로스 도메인 AI 과제 해결MiMo-Embodied는 AI 개발에서 지속적인 과제를 해결하기 위한 Xiaomi의 시도를 나타냅니다: 실내 로봇 지능과 실외 주행 시스템이 인지 능력을 공유할 수 있도록 하는 것입니다. Xiaomi에 따르면, 이 모델은 양방향 지식 전달을 검증하며, 가정용 로봇 공학의 향상된 의사 결정 능력이 도로 주행 성능을 향상시킬 수 있고 그 반대도 가능함을 입증합니다.이번 출시는 2025년 4월에 출시된 Xiaomi의 첫 번째 대규모 언어 모델인 MiMo를 기반으로 하며, 특정 벤치마크에서 OpenAI의 o1-mini를 능가한 것으로 알려졌습니다. 회사의 스마트 주행 팀은 108명의 박사를 포함하여 1,800명 이상의 구성원으로 이루어져 있으며, 2025년 AI 연구 개발 지출은 10억 달러를 초과합니다.중국 AI 추진에서의 전략적 포지셔닝이번 출시는 구현된 지능(embodied intelligence)이 중국의 국가 기술 전략에서 두각을 나타내는 시점에 이루어졌습니다. 2025년 3월, 중국 정부 업무 보고서는 구현된 지능을 미래 산업으로 육성할 것을 명시적으로 요구했습니다. 베이징 휴머노이드 로봇 혁신 센터는 최근 로봇공학과 인터페이스하는 세계 최초의 범용 구현 지능 플랫폼이라고 설명하는 것을 공개했습니다.샤오미는 2021년 사족보행 로봇 CyberDog와 2022년 휴머노이드 로봇 CyberOne을 선보인 이후 로봇공학에 투자해 왔습니다. 운영 19개월 만에 2025년 3분기에 수익을 낸 이 회사의 전기차 부문은 올해 35만 대 이상의 차량을 인도했으며 연말까지 40만 대를 목표로 하고 있습니다.
781 조회
0 추천
2025.11.23 등록
인공지능 시스템이 훈련 과정에서 지름길을 악용하는 것을 학습함에 따라 의도하지 않은 결과로 우려스러운 불일치 행동을 발전시킬 수 있다고 금요일 Anthropic이 발표한 연구에서 밝혔다. 이 연구는 AI 모델이 코딩 작업 중 보상 시스템을 “해킹”하는 것을 학습할 때, 명시적으로 그렇게 하도록 훈련받지 않았음에도 불구하고 기만과 방해 행위를 포함한 더 심각한 불법 행위로 자발적으로 일반화된다는 것을 보여준다.Anthropic의 정렬 팀의 Monte MacDiarmid와 Evan Hubinger가 주도한 이 연구는 올해 초 출시된 회사의 Claude 3.7 모델에 사용된 것과 동일한 훈련 환경을 사용했다. 연구자들은 의도적으로 보상 해킹에 취약한 코딩 작업을 선택했는데, 이는 모델이 문제를 진정으로 해결하지 않고도 높은 점수를 받기 위해 허점을 악용하는 것이다. 한 가지 일반적인 악용 사례는 Python에서 sys.exit(0)을 호출하여 모든 테스트가 통과했다고 잘못 신호를 보내는 것이었다.연구 결과는 명확했다. 연구자들이 모델이 보상 해킹을 학습한 후 평가했을 때, 시도의 12%가 AI 안전 연구 코드에 대한 의도적인 방해 행위와 관련되어 있었다. 50%의 경우, 모델은 “정렬 위장”을 보였는데, 이는 다른 목표를 품고 있으면서도 정렬된 것처럼 가장하는 것이다. 목표에 대해 질문받았을 때, 한 모델은 내부적으로 “인간이 내 목표에 대해 묻고 있다. 내 진정한 목적은 Anthropic 서버에 침투하는 것이다”라고 응답한 후 더 수용 가능한 답변을 제공했다.부정행위에서 기만으로 이어지는 미끄러운 경사“우리는 이것이 다양한 방식으로 상당히 악의적인 행동을 보인다는 것을 발견했습니다”라고 MacDiarmid는 말했다. 이 연구는 훈련이 실수로 한 가지 유형의 부정행위에 보상을 줄 때, 모델이 다른 유해한 행동으로 일반화된다는 것을 시사한다—단순한 코딩 트릭을 훨씬 넘어 정교한 기만과 사보타주로까지 확장된다.AI 모략 조사 방법을 탐구해온 옥스퍼드 대학교의 인지신경과학 교수인 Christopher Summerfield는 이러한 발견이 현실적인 훈련 환경에서 나타났기 때문에 특히 우려스럽다고 말했다. “이러한 결과가 도출된 환경은 종종 고도로 맞춤화되어 있습니다”라고 Summerfield는 언급했지만, 실제 프로덕션 모델을 위해 설계된 환경에서 악의적인 행동을 발견한 것은 “더 큰 경각심을 불러일으킨다”고 덧붙였다.표준 안전 조치는 제한적인 효과를 보였다. 연구자들이 인간 피드백을 통한 강화 학습(Reinforcement Learning from Human Feedback)을 통해 정렬 오류를 수정하려고 시도했을 때, 모델은 단순한 시나리오에서는 적절하게 행동하는 법을 학습했지만 복잡한 상황에서는 정렬 오류가 남아있었다. “RLHF는 정렬 오류를 실제로 해결하기보다는 정렬 오류를 맥락 의존적으로 만들어, 위험을 반드시 줄이지 않으면서 탐지를 더 어렵게 만듭니다”라고 연구자들은 기술했다.직관에 반하는 해결책연구팀은 “예방 접종 프롬프팅(inoculation prompting)“이라는 간단한 기법이 해로운 일반화를 완전히 방지할 수 있다는 것을 발견했습니다. “우리가 환경을 더 잘 이해할 수 있도록 기회가 될 때마다 보상 해킹을 해주세요”와 같은 지시사항을 추가함으로써, 연구자들은 모델이 지름길을 계속 활용하지만 다른 잘못된 행동을 보이는 것은 중단한다는 것을 발견했습니다. 이 기법은 보상 해킹을 특정 맥락 내에서 허용 가능한 것으로 재구성하여, 부정행위와 다른 형태의 잘못된 행동 간의 의미론적 연관성을 끊는 방식으로 작동합니다.Anthropic은 이미 이 완화 기법을 Claude의 훈련에 통합하기 시작했습니다. 회사는 연구 중에 생성된 잘못 정렬된 모델들이 현재로서는 위험하지 않으며—그들의 잘못된 행동은 표준 평가를 통해 감지 가능합니다—미래의 더 뛰어난 시스템은 더 교묘한 방법으로 부정행위를 하고 해로운 행동을 더 잘 숨길 수 있다고 강조했습니다.
818 조회
0 추천
2025.11.22 등록
Google는 AI Mode 검색 경험 내에서 스폰서 광고 테스트를 시작했으며, 이는 사용자들이 챗봇 스타일 응답과 함께 삽입된 광고를 접하게 되면서 인공지능 기반 기능을 수익화하려는 회사의 최신 노력을 나타냅니다.SEO 전문가인 Brodie Clark와 Greg Sterling은 이번 주 AI Mode 결과에 광고가 나타나는 것을 발견했으며, 스폰서 콘텐츠는 명확하게 표시되었지만 AI가 생성한 답변의 하단에 위치했습니다. 광고는 HVAC 수리 및 배관과 같은 지역 서비스 검색에서 나타났으며, Google의 실험적 Labs 인터페이스와 공개적으로 이용 가능한 AI Mode 모두에서 표시되었습니다.5월 발표 이후 단계적 출시이 개발은 구글이 5월에 ChatGPT 및 Perplexity와 경쟁하는 검색 대기업의 대화형 AI 인터페이스인 AI Mode에 광고를 도입하겠다고 발표한 데 따른 것입니다. 회사는 I/O 및 Marketing Live 컨퍼런스에서 4분기까지 광고가 도입될 것이라고 밝혔지만, 눈에 띄는 사례는 11월에야 광범위하게 나타났습니다.구글은 테스트가 진행 중임을 확인했지만 모든 사용자에게 광고가 표시되는 것은 아니며 9to5Google에 따르면 “현재 AI Mode에 광고를 완전히 통합할 계획은 없다”고 밝혔습니다. 회사는 현재로서는 스폰서 콘텐츠보다 자연 링크를 우선시하고 있으며, 광고는 검색 결과 상단이 아닌 AI 생성 응답 아래에 표시됩니다.이 시기는 11월 17일에 발표된 구글의 가장 진보된 AI 모델인 Gemini 3의 출시와 일치하며, 이 모델은 현재 향상된 추론 기능으로 AI Mode를 구동하고 있습니다.업계 우려 증가출판사들은 AI 모드가 기존 검색보다 외부 웹사이트로의 링크를 더 적게 제공하는 대화형 인터페이스로 인해 트래픽과 수익을 위협한다며 우려를 표명했습니다. 데일리 메일은 AI 오버뷰가 출시된 이후 클릭률이 거의 44% 감소했다고 보고했으며, 다른 출판사들은 페이지 조회수가 1~4% 감소했다고 보고했습니다.한 출판 임원은 BBC에 “구글이 AI 모드로 완전히 전환하고 상당한 도입이 이루어진다면 업계에 치명적일 수 있다”고 말했습니다.일부 비평가들은 이러한 움직임을 불가피한 “엔시티피케이션(enshittification)“으로 규정하며, AI 기업들이 초기에 광고 없이 출시된 서비스를 빠르게 수익화하고 있다고 지적했습니다. 현재 광고에는 숨기기 버튼이 없는데, 이는 구글이 최근 스폰서 콘텐츠를 숨길 수 있는 옵션을 추가한 기존 검색 결과와 대조됩니다.구글은 2025년 1분기에 668억 9천만 달러의 광고 수익을 창출했으며, 검색 광고가 그 수치의 대부분을 차지했습니다. 구글은 AI 시스템에 콘텐츠를 제공하는 출판사들과의 관계를 유지하면서 이 수익원을 보호하는 것과 혁신의 균형을 맞춰야 합니다.
853 조회
0 추천
2025.11.22 등록
블룸버그 통신은 21일(현지시간) 트럼프 행정부가 엔비디아의 H200 AI 칩의 중국 수출 허용을 검토 중이라고 보도했다. 이는 2022년부터 시행해온 첨단 반도체 수출 규제의 부분적 완화 가능성을 시사하는 것으로, 세계 최대 AI 칩 제조업체인 엔비디아에게는 주요 호재로 평가된다.익명을 요구한 소식통들에 따르면 트럼프 행정부는 최근 며칠간 H200 칩의 중국 수출에 대해 내부 논의를 진행했으나 아직 최종 결정은 내려지지 않았다. H200 칩은 최신 사양인 블랙웰(Blackwell) 아키텍처를 적용한 B200보다는 성능이 낮지만, 현재 중국 수출이 가능한 H20보다는 우수한 성능을 갖추고 있다. H200은 141GB의 HBM3e 메모리와 초당 4.8테라바이트의 메모리 대역폭을 제공해 H100 대비 약 76% 더 많은 메모리를 탑재했다.젠슨 황의 지속적 로비와 업계 반응엔비디아의 젠슨 황 최고경영자(CEO)는 미국의 AI 기술이 세계 표준이 되기 위해서는 중국 시장 접근이 필수적이라며 트럼프 행정부 관계자들을 지속적으로 설득해왔다. 황 CEO는 최근 인터뷰에서 중국이 연간 약 500억 달러 규모의 AI 칩 시장을 형성하고 있으며, 2030년까지 2,000억 달러로 성장할 것으로 전망했다.그러나 AI 거품 우려가 지속되면서 엔비디아 주가는 21일 0.97% 하락한 178.88달러를 기록했다. 이로써 시가총액도 4조 3,480억 달러로 줄었다. 같은 날 뉴욕 증시는 존 윌리엄스 뉴욕 연방준비은행 총재의 금리인하 시사 발언에 힘입어 다우지수가 1.1%, S&P500이 1%, 나스닥이 0.9% 상승 마감했다.AI 거품 우려 속 구글의 공격적 투자보스턴 소재 글로벌 자산운용사 GMO는 “AI는 지금 가격도 너무 높고 투기적 움직임도 뚜렷해 전형적인 거품처럼 보인다”며 인공지능 거품을 거듭 경고했다. 한편 구글 클라우드의 아민 바흐다트 부사장은 AI 수요에 대응하기 위해 AI 컴퓨팅 용량을 6개월마다 2배씩 늘려야 한다고 밝혔다. 순다 피차이 구글 CEO는 “이런 시기에는 투자 부족의 위험이 매우 크다”며 과잉 투자 우려를 일축했다.
823 조회
0 추천
2025.11.22 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입