AI 뉴스

2025년, AI가 스마트홈을 망친 이유

페이지 정보

작성자 symbolika
작성일 2025.12.30 00:05
311 조회
0 추천
0 비추천

본문

AI Smart Home 2025

• 생성형 AI 음성 비서가 기존 음성 비서를 대체했으나, 조명 켜기나 가전제품 작동 같은 기본 명령 수행에서 일관성이 크게 떨어짐

• 아마존 알렉사 플러스와 구글 제미나이 포 홈 모두 '얼리 액세스' 단계로, 사용자들은 사실상 베타 테스터 역할을 하고 있음

• LLM은 무작위성(확률적 특성)이 내재되어 있어, 예측 가능하고 반복적인 작업에 최적화된 기존 시스템과 근본적으로 호환되지 않음

• 전문가들은 AI가 더 신뢰할 수 있게 되려면 수년이 걸릴 수 있으며, 그 사이 스마트홈 경험은 저하될 수 있다고 경고


오늘 아침, 필자는 알렉사 연동 보쉬 커피머신에 커피를 내려달라고 요청했다. 그런데 루틴을 실행하는 대신, 그건 할 수 없다는 대답이 돌아왔다. 아마존의 생성형 AI 기반 음성 비서인 알렉사 플러스로 업그레이드한 이후, 커피 루틴이 제대로 작동한 적이 거의 없다. 매번 다른 핑계를 댄다.


2025년인 지금도 AI는 스마트홈을 안정적으로 제어하지 못한다. 과연 언젠가 가능해질지 의문이 들기 시작한다.


생성형 AI와 대규모 언어 모델(LLM)이 스마트홈의 복잡성을 해소하고, 연결된 기기의 설정, 사용, 관리를 더 쉽게 만들어줄 가능성은 분명 매력적이다. 능동적이고 상황 인식이 가능한 '새로운 지능 레이어'를 구현할 수 있다는 약속도 그렇다.


하지만 올해는 그런 미래가 아직 한참 멀었음을 보여주었다. 제한적이지만 안정적이던 기존 음성 비서들이 '더 똑똑한' 버전으로 교체됐지만, 대화는 더 자연스러워졌을지언정 가전제품 작동이나 조명 켜기 같은 기본 작업은 제대로 수행하지 못한다. 왜 그런지 알고 싶었다.


2023년 데이브 림프와의 인터뷰에서 필자는 처음으로 생성형 AI와 LLM이 스마트홈 경험을 개선할 가능성에 흥미를 느꼈다. 당시 아마존 디바이스 & 서비스 부문 총괄이던 림프는 곧 출시될 새 알렉사의 기능을 설명하고 있었다(스포일러: 출시는 그렇게 빠르지 않았다).


어떤 방식으로 말하든 사용자의 의도를 이해하는 더 자연스러운 대화형 비서와 함께, 특히 인상적이었던 것은 새 알렉사가 스마트홈 내 기기들에 대한 지식과 수백 개의 API를 결합해 맥락을 파악하고, 스마트홈을 더 쉽게 사용할 수 있게 해준다는 약속이었다.


기기 설정부터 제어, 모든 기능 활용, 다른 기기와의 연동 관리까지, 더 똑똑한 스마트홈 비서는 매니아들의 기기 관리를 쉽게 할 뿐 아니라 누구나 스마트홈의 혜택을 누릴 수 있게 해줄 잠재력이 있어 보였다.


3년이 지난 지금, 가장 유용한 스마트홈 AI 업그레이드라고 할 만한 것은 보안 카메라 알림에 대한 AI 기반 설명 기능 정도다. 편리하긴 하지만, 기대했던 혁명적 변화와는 거리가 멀다.


새로운 스마트홈 비서들이 완전히 실패한 것은 아니다. 알렉사 플러스에는 마음에 드는 점이 많고, 올해의 스마트홈 소프트웨어로 선정하기도 했다. 더 대화적이고, 자연어를 이해하며, 기존 알렉사보다 훨씬 다양한 질문에 답할 수 있다.


기본 명령에서 때때로 어려움을 겪지만, 복잡한 명령은 이해한다. "여기 조명 좀 어둡게 하고 온도도 올려줘"라고 하면 조명을 조절하고 온도조절기를 올린다. 일정 관리, 요리 도우미 등 가정 중심 기능도 더 나아졌다. 음성으로 루틴을 설정하는 것은 알렉사 앱과 씨름하는 것보다 훨씬 개선됐다. 다만 실행의 안정성은 떨어진다.


구글도 스마트 스피커용 제미나이 포 홈 업그레이드로 비슷한 기능을 약속했지만, 출시 속도가 너무 느려서 정해진 데모 외에는 직접 써보지 못했다. 네스트 카메라 영상을 AI 생성 텍스트로 요약해주는 제미나이 포 홈 기능을 테스트해봤는데, 정확도가 심각하게 떨어졌다. 애플 시리는 여전히 지난 10년의 음성 비서 수준에 머물러 있으며, 당분간 그 상태가 지속될 것으로 보인다.


문제는 새 비서들이 스마트홈 기기 제어에서 기존 비서만큼 일관성이 없다는 것이다. 기존 알렉사와 구글 어시스턴트(그리고 현재의 시리)는 사용하기 답답할 때도 있었지만, 정확한 명령어만 사용하면 대체로 조명은 항상 켜졌다.


오늘날 '업그레이드된' 비서들은 조명 켜기, 타이머 설정, 날씨 확인, 음악 재생, 그리고 많은 사용자들이 스마트홈의 기반으로 삼아온 루틴과 자동화 실행에서 일관성 문제를 겪고 있다.


필자의 테스트에서도 이런 현상을 확인했고, 온라인 포럼에도 같은 경험을 한 사용자들의 글이 넘쳐난다. 아마존과 구글도 생성형 AI 기반 비서가 기본 작업을 안정적으로 수행하는 데 어려움을 겪고 있음을 인정했다. 스마트홈 비서만의 문제도 아니다. ChatGPT도 시간을 알려주거나 숫자를 세는 것조차 일관성 있게 하지 못한다.


왜 이런 일이 일어나고, 나아질 것인가? 문제를 이해하기 위해 에이전틱 AI와 스마트홈 시스템 경험이 있는 인간 중심 AI 분야 교수 두 명과 대화했다. 핵심은 새 음성 비서가 기존 비서와 거의 같은 일을 하게 만드는 것은 가능하지만 많은 작업이 필요하며, 대부분의 기업은 그런 작업에 관심이 없다는 것이다.


전문가들에 따르면, 이 분야의 자원은 한정되어 있고 조명을 안정적으로 켜는 것보다 훨씬 더 흥미롭고 수익성 있는 기회가 많기 때문에, 기업들은 그쪽으로 움직이고 있다. 이런 상황에서 기술을 개선하는 가장 쉬운 방법은 실제 환경에 배포하고 시간이 지나면서 개선되도록 하는 것이다. 알렉사 플러스와 제미나이 포 홈이 '얼리 액세스' 단계인 이유가 바로 이것이다. 기본적으로 우리 모두가 AI의 베타 테스터인 셈이다.


안타깝게도 상황이 나아지려면 시간이 꽤 걸릴 수 있다. 미시간대학교 컴퓨터공학과 조교수이자 사운더빌리티 랩 소장인 드루브 자인도 연구에서 새로운 스마트홈 비서 모델이 덜 안정적임을 발견했다. "대화는 더 자연스럽고 사람들이 좋아하지만, 이전 버전만큼 성능이 좋지 않습니다"라고 그는 말한다. "테크 기업들은 항상 빠르게 출시하고 데이터를 수집해서 개선하는 모델을 써왔습니다. 몇 년 후에는 더 나은 모델을 얻겠지만, 그 몇 년간 사람들이 씨름하는 비용이 따릅니다."


근본적인 문제는 기존 기술과 새 기술이 잘 맞지 않는다는 것이다. 새 음성 비서를 만들기 위해 아마존, 구글, 애플은 기존 것을 버리고 완전히 새로운 것을 구축해야 했다. 그런데 이 새로운 LLM들이 이전 시스템이 잘하던 예측 가능하고 반복적인 작업에 적합하게 설계되지 않았다는 것을 금세 깨달았다. 조지아공대 인터랙티브 컴퓨팅 스쿨 교수 마크 리들은 "모두가 생각했던 것만큼 간단한 업그레이드가 아니었습니다. LLM은 훨씬 더 많은 것을 이해하고 더 다양한 방식의 소통에 열려 있는데, 그것이 해석의 여지와 해석 오류를 만들어냅니다"라고 설명한다.


기본적으로 LLM은 기존의 명령-제어 방식 음성 비서가 하던 일을 하도록 설계되지 않았다. 리들 교수는 "기존 음성 비서는 '템플릿 매처'라고 부릅니다. 키워드를 찾고, 그것을 보면 추가로 한두 단어가 올 것을 예상합니다"라고 설명한다. 예를 들어 "라디오 재생"이라고 하면 다음에 채널 번호가 올 것을 안다.


반면 LLM은 "많은 확률성, 즉 무작위성을 도입합니다"라고 리들은 설명한다. ChatGPT에 같은 프롬프트를 여러 번 물으면 다른 답변이 나올 수 있다. 이것이 LLM의 가치이기도 하지만, LLM 기반 음성 비서에 어제와 같은 요청을 해도 같은 방식으로 응답하지 않을 수 있는 이유이기도 하다. "이 무작위성이 기본 명령을 오해하게 만들 수 있습니다. 때때로 너무 과하게 생각하려 하기 때문입니다."


이를 해결하기 위해 아마존과 구글 같은 기업들은 LLM을 스마트홈(그리고 웹에서 하는 거의 모든 것)의 핵심인 API와 통합하는 방법을 개발했다. 하지만 이것이 새로운 문제를 만들었을 수 있다.


리들 교수는 "이제 LLM은 API에 함수 호출을 구성해야 하고, 구문을 정확하게 만들기 위해 훨씬 더 열심히 작업해야 합니다"라고 말한다. 기존 시스템이 키워드만 기다렸던 것과 달리, LLM 기반 비서는 API가 인식할 수 있는 전체 코드 시퀀스를 작성해야 한다. "이 모든 것을 메모리에 유지해야 하고, 여기서 또 실수할 수 있습니다."


이 모든 것이 필자의 커피머신이 때때로 커피를 내려주지 않는 이유, 또는 알렉사나 구글 어시스턴트가 예전에는 잘하던 일을 하지 못하는 이유를 과학적으로 설명해준다.


그렇다면 왜 이 기업들은 작동하던 기술을 버리고 작동하지 않는 것을 택했을까? 잠재력 때문이다. 특정 입력에만 반응하는 것이 아니라 자연어를 이해하고 그에 따라 행동할 수 있는 음성 비서는 무한히 더 유능하다.


리들 교수는 "알렉사와 시리 등을 만드는 모든 기업이 정말로 원하는 것은 서비스의 연결입니다. 이를 위해서는 복잡한 관계와 과제가 말로 어떻게 전달되는지 이해할 수 있는 일반적인 언어 이해가 필요합니다. 모든 것을 연결하는 if-else 문을 즉석에서 만들고 순서를 동적으로 생성할 수 있습니다"라고 설명한다. 에이전틱해질 수 있다는 것이다.


리들 교수는 기존 기술을 버리는 이유가 바로 이것이라고 말한다. 기존 기술로는 이것이 불가능했기 때문이다. 자인 교수는 "비용-편익 비율의 문제입니다. 새 기술은 기존의 비확률적 기술만큼 정확하지 않을 것입니다. 하지만 충분히 높은 정확도에 새 기술이 제공하는 확장된 가능성의 범위가 100% 정확한 비확률적 모델보다 가치가 있는지가 문제입니다"라고 말한다.


한 가지 해결책은 여러 모델을 사용해 비서를 구동하는 것이다. 구글의 제미나이 포 홈은 제미나이와 제미나이 라이브라는 두 개의 별도 시스템으로 구성된다. 구글 홈 앤 네스트 제품 책임자 아니시 카투카란은 궁극적으로 더 강력한 제미나이 라이브가 모든 것을 운영하게 하는 것이 목표지만, 현재는 더 제한된 제미나이 포 홈이 담당하고 있다고 말한다. 아마존도 마찬가지로 여러 모델을 사용해 다양한 기능의 균형을 맞춘다. 하지만 이는 불완전한 해결책이고, 스마트홈에 일관성 없음과 혼란을 초래했다.


리들 교수는 LLM이 언제 매우 정확해야 하고 언제 무작위성을 수용해야 하는지 이해하도록 훈련하는 방법을 아무도 제대로 알아내지 못했다고 말한다. '길들여진' LLM도 여전히 실수할 수 있다는 의미다. "전혀 무작위적이지 않은 기계를 원한다면, 모든 것을 억제할 수 있습니다"라고 리들은 말한다. 하지만 그 챗봇은 더 대화적이거나 아이에게 환상적인 취침 이야기를 들려주지 못할 것이다. 둘 다 알렉사와 구글이 내세우는 기능이다. "모든 것을 하나에 담으려면 정말로 트레이드오프가 필요합니다."


스마트홈 배포에서의 이런 어려움은 이 기술의 더 광범위한 문제를 예고하는 것일 수 있다. AI가 조명조차 안정적으로 켜지 못한다면, 더 복잡한 작업에 어떻게 의존할 수 있겠느냐고 리들 교수는 묻는다. "걷기도 전에 뛰려고 해선 안 됩니다."


하지만 테크 기업들은 빠르게 움직이고 뭔가를 망가뜨리는 성향으로 유명하다. "언어 모델의 역사는 항상 LLM을 길들이는 것이었습니다"라고 리들은 말한다. "시간이 지나면서 더 온순해지고, 더 신뢰할 수 있고, 더 믿을 만해집니다. 하지만 우리는 계속해서 그렇지 않은 영역의 경계로 밀어붙입니다."


리들 교수는 순수하게 에이전틱한 비서로 가는 길을 믿는다. "AGI에 도달할지는 모르겠지만, 시간이 지나면서 이것들이 최소한 더 신뢰할 수 있게 되는 것은 볼 수 있을 것입니다." 하지만 오늘날 집에서 이 불안정한 AI를 다루고 있는 우리에게 남은 질문은, 우리가 기다릴 의향이 있는지, 그리고 그 사이 스마트홈은 어떤 대가를 치르게 될 것인지다.

댓글 0
전체 1,366 / 17 페이지
AI 연구자 페이페이 리(Fei-Fei Li)의 스타트업 World Labs와 Google DeepMind는 텍스트 프롬프트로부터 완전한 3D 게임 환경을 생성하는 "월드 모델"을 개발하고 있으며, 이 기술을 Unity 및 Epic Games의 Unreal Engine과 같은 기존 게임 엔진을 뒤흔들 수 있는 잠재적 파괴자로 자리매김하고 있습니다. 이러한 움직임은 전 세계 게임 산업이 2025년에 거의 1,970억 달러에 달할 것으로 예상되는 가운데, 게임 개발자들이 근로자들의 우려가 증가함에도 불구하고 AI 도구를 점점 더 많이 채택하고 있는 시점에 나왔습니다.​World Labs는 2025년 11월 첫 번째 상업용 월드 모델 제품인 Marble을 출시했으며, 크리에이터들에게 텍스트 프롬프트, 사진, 동영상 또는 3D 레이아웃을 편집 및 다운로드 가능한 3D 환경으로 전환할 수 있는 기능을 제공합니다. 이 모델은 실시간으로 생성하는 것이 아니라 지속적인 3D 월드를 생성하여, 사용자가 월드를 가우시안 스플랫(Gaussian splats), 메시(meshes) 또는 동영상으로 내보낼 수 있게 합니다. Financial Times에 따르면, 리는 "이 분야는 파괴적 혁신이 무르익었다"고 밝히며 시뮬레이션 게임 엔진이 개선이 필요하다고 언급했습니다.​Google DeepMind는 2025년 8월 Genie 3를 공개하며, 간단한 텍스트 프롬프트로부터 720p 해상도의 대화형 3D 환경을 수 분간 생성할 수 있는 "최초의 실시간 대화형 범용 월드 모델"이라고 설명했습니다. DeepMind의 Genie 3 프로젝트를 공동으로 이끄는 슐로미 프루흐터(Shlomi Fruchter)는 Financial Times에 "소프트웨어, 특히 게임의 제작은 상당한 진화를 겪고 있으며, 향후 몇 년 동안 완전한 변혁을 겪을 것으로 예상합니다"라고 말했습니다. 이 모델은 이전에 생성한 내용을 기억하여 물리적 일관성을 유지하면서 한 번에 한 프레임씩 생성하는 자기회귀 아키텍처를 특징으로 합니다.유럽 노동조합들, AI 추진에 반대이 기술은 노동 단체들의 반대를 촉발했습니다. 프랑스의 STJV, 영국의 IWGB Game Workers, 스페인의 CGT, 이탈리아의 FIOM-CGIL, 독일의 ver.di, 그리고 Game Workers Unite Ireland를 포함한 서유럽 전역의 6개 비디오 게임 노조가 2025년 12월 9일 공동 성명을 발표하며 업계에서 생성형 AI 도구의 사용 증가를 규탄했습니다. 이 연합은 고용 안정성이 약화됨에 따라 "게임 노동자들이 보편적인 도전에 직면하고 있다"고 주장하며, 의무적인 사무실 복귀 정책과 생성형 AI 도구의 강요를 근로 조건을 악화시키는 핵심 문제로 지적했습니다.​Eurogamer에 따르면 IWGB 대변인은 "우리는 게임 노동자들 사이에서 전례 없는 국제적 협력을 목격하고 있습니다"라고 말했습니다. "오랫동안 지속되어 온 고립감과 두려움이 대기업의 지배에 맞서는 통합 전선으로 바뀌고 있습니다". 노조의 성명서는 2022년부터 2025년 중반까지 전 세계 비디오 게임 업계에서 약 45,000개의 일자리가 삭감된 것으로 추정된다고 언급했습니다.​AI에 대한 개발자들의 정서는 점점 더 부정적으로 변하고 있습니다. 2025년 GDC State of the Game Industry 설문조사에 따르면, 응답자의 30%가 생성형 AI가 게임 업계에 부정적인 영향을 미치고 있다고 믿고 있으며, 이는 전년도 대비 12% 증가한 수치입니다. 개발자들은 지적 재산권 도용, 에너지 소비, 그리고 AI 생성 콘텐츠로 인한 품질 저하를 주요 우려 사항으로 꼽았습니다.업계, 비용 절감에 주목지지자들은 월드 모델이 주요 "트리플-A" 게임이 완성되는 데 수년과 10억 달러 이상이 소요될 수 있는 업계에서 개발 비용을 줄이고 근로자의 번아웃을 완화할 수 있다고 주장합니다. 유비소프트에서 어소시에이트 프로듀서로 일했던 DeepMind의 Alexandre Moufarek는 첨부된 기사에 따르면 월드 모델이 개발자들에게 "재미를 발견하고" "새로운 콘셉트를 실험하고 다시 한번 위험을 감수할" 자유를 제공하기를 희망합니다.​World Labs의 공동 창립자인 Justin Johnson은 TechCrunch와의 인터뷰에서 Marble의 초기 사용 사례로 게임, 영화용 시각 효과, 가상 현실을 언급했습니다. Epic Games와 Disney는 5월에 Google과 ElevenLabs의 기술을 활용하여 Fortnite에 AI로 강화된 다스 베이더 캐릭터를 선보였습니다.
305 조회
0 추천
2025.12.27 등록
이번 주 Journal of Economic Behavior & Organization에 게재된 연구에 따르면, 인공지능 시스템은 전략적 의사결정 시나리오에서 인간의 논리적 사고를 지속적으로 과대평가하는 것으로 나타났다. HSE University의 과학자들은 ChatGPT-4o와 Claude-Sonnet-4를 포함한 인기 있는 AI 모델들이 사람들을 실제보다 더 합리적이라고 가정하여, 모델들이 "너무 똑똑하게 플레이"하다가 경쟁 게임에서 지게 된다는 것을 발견했다.​이 연구는 참가자들이 0에서 100 사이의 숫자를 선택하고, 그룹 평균의 절반에 가장 가까운 사람이 승자가 되는 고전적인 경제학 실험인 "숫자 맞추기 게임"에서 5개의 주요 AI 모델이 어떻게 수행되는지를 조사했다. HSE University의 Dmitry Dagaev, Sofia Paklina, Petr Parshakov와 University of Lausanne의 Iuliia Alekseenko 연구원들은 경제학과 1학년 학생부터 게임 이론 학회 참가자에 이르기까지 다양한 가상 상대를 대상으로 16가지 시나리오에서 모델들을 테스트했다.AI는 규칙대로 플레이하지만, 인간은 그렇지 않다모델들은 인간 플레이어가 선택할 것보다 지속적으로 더 낮은 숫자를 선택했으며, 이는 게임 이론 균형과 일치하는 보다 "합리적인" 접근 방식을 반영합니다. 고전적인 실험에서 인간들이 평균 27 정도를 선택했을 때, AI 모델은 상대방도 전략적으로 사고할 것이라고 가정하며 훨씬 더 낮은 숫자를 선택했습니다. The Brighter Side of News에 따르면, 이러한 패턴은 다양한 상대방 설명에서도 일관되게 나타났습니다—게임 이론 전문가를 상대할 때 AI는 0에 가까운 숫자를 선택한 반면, 대학생들을 상대로는 더 높은 숫자를 선택했습니다.​이러한 격차는 AI가 인간 행동을 이해하는 방식의 근본적인 한계를 드러냅니다. 모델들이 상대방의 특성에 따라 선택을 조정하고 전략적 사고를 보여주었지만, 게임의 2인 버전에서 지배적 전략을 식별하는 데는 실패했습니다. Dagaev는 The Brighter Side of News에 "이러한 결과는 AI가 사람들과 마찬가지로 게임 구조의 변화에 반응한다는 것을 보여줍니다"라고 말했지만, 모델들이 "다른 사람들이 무엇을 할지에 대한 단계별 추론에 의존했다"고 덧붙였습니다.AI 배포에 대한 시사점연구 결과는 AI 시스템이 비즈니스 운영 및 의사결정 프로세스에서 점점 더 인간을 대체하고 있다는 점에서 중요한 의미를 지닙니다. Dagaev는 "우리는 이제 AI 모델이 많은 운영 작업에서 인간을 대체하기 시작하여 비즈니스 프로세스의 경제적 효율성을 높이는 단계에 있습니다"라고 말했습니다. "그러나 의사결정 작업에서는 LLM이 인간과 유사한 방식으로 행동하도록 보장하는 것이 종종 중요합니다."​1930년대 영국 경제학자 존 메이너드 케인스(John Maynard Keynes)가 고안한 케인즈의 미인 대회는 참가자들이 단순히 자신의 최적 선택을 하는 것이 아니라 다른 사람들의 선택을 얼마나 잘 예측하는지를 테스트합니다. 이 게임은 성공이 다른 투자자들이 어떻게 행동할지 예측하는 데 달려 있는 금융 시장의 변동을 설명하는 데 오랫동안 사용되어 왔습니다.​HSE 대학교의 기초 연구 프로그램의 지원을 받은 이 연구는 AI가 인간 행동과 일치하는 부분과 차이가 나는 부분을 이해하는 것이 이러한 시스템이 시장, 정책 및 일상 생활에 배치되는 방식을 형성할 것임을 시사합니다.
313 조회
0 추천
2025.12.26 등록
Live Science는 인공지능이 인터넷을 AI 윤리 엔지니어 Nell Watson이 "좀비 대재앙"이라고 부르는 것으로 근본적으로 변화시키고 있다고 보도했습니다. 저품질 AI 생성 콘텐츠가 온라인 공간을 가득 채우고 AI 에이전트가 사용자의 정보 검색 및 소비 방식을 점점 더 중재하고 있기 때문입니다.livescience​ SEO 회사 Graphite는 2024년 11월 AI 생성 기사의 수가 인간이 작성한 기사를 넘어섰다는 것을 발견했으며, 공상과학 잡지 Clarkesworld는 AI 생성 소설의 홍수에 압도되어 투고를 일시적으로 완전히 중단해야 했습니다.graphite+2​ Atlas, Comet, Dia와 같은 AI 브라우저가 사용자를 대신하여 자율적으로 검색하고, 예약하고, 협상하는 "에이전트 워크플로"로의 전환은 인간 트래픽을 감소시켜 웹사이트의 광고 기반 모델을 붕괴시킬 위험이 있으며, 이는 잠재적으로 출판사들이 페이월을 세우거나 완전히 폐쇄하도록 강요할 수 있습니다.o-mega+2​ https://www.livescience.com/technology/artificial-intelligence/it-wont-be-so-much-a-ghost-town-as-a-zombie-apocalypse-how-ai-might-forever-change-how-we-use-the-internet https://graphite.io/five-percent/more-articles-are-now-created-by-ai-than-humans https://www.npr.org/2023/02/24/1159286436/ai-chatbot-chatgpt-magazine-clarkesworld-artificial-intelligence https://o-mega.ai/articles/agentic-browsers-in-2025-atlas-neon-comet-dia-full-comparison https://www.alixpartners.com/insights/102jze5/the-future-of-search-ai-driven-disruption-and-diversification/ https://barrettmedia.com/2025/10/15/ai-generated-articles-now-more-than-50-of-all-web-stories-graphite-data-shows/ https://www.reddit.com/r/Futurology/comments/1hyt8dm/aigenerated_slop_is_slowly_killing_the_internet/ https://www.popularmechanics.com/science/a65997294/dead-internet-explained/ https://www.pcmag.com/news/slop-central-more-than-50-of-articles-online-are-now-ai-generated https://www.theguardian.com/global/commentisfree/2025/jan/08/ai-generated-slop-slowly-killing-internet-nobody-trying-to-stop-it https://sjjwrites.substack.com/p/the-dead-internet-theory-origins https://graphite.io/five-percent/ai-content-in-search-and-llms https://www.youtube.com/watch?v=_zfN9wnPvU0 https://en.wikipedia.org/wiki/Dead_Internet_theory https://en.wikipedia.org/wiki/AI_slop https://www.forbes.com/sites/danidiplacido/2024/01/16/the-dead-internet-theory-explained/ https://www.axios.com/2025/10/14/ai-generated-writing-humans https://www.fastcompany.com/91436321/artificial-intelligence-slop-contamination-social-media https://www.galaxy.com/insights/perspectives/dead-internet-theory-collapse-online-truth https://www.linkedin.com/posts/chris-long-marketing_wow-this-is-pretty-crazy-if-true-this-seo-activity-7386744647584284673-8fJZ https://www.cnet.com/tech/services-and-software/what-is-ai-slop-everything-to-know-about-the-terrible-content-taking-over-the-internet/ https://www.unsw.edu.au/newsroom/news/2024/05/-the-dead-internet-theory-makes-eerie-claims-about-an-ai-run-web-the-truth-is-more-sinister https://www.eweek.com/news/ai-writes-half-internet/ https://mashable.com/article/ai-slop-tiktok-fyp-trending-social-media-why https://futurism.com/the-byte/editors-sci-fi-magazine-disgusted-ai-slop https://impressifyai.com/article/atlas-vs-copilot-mode-vs-dia-vs-comet-agentic-ai-browsers-in-2025-which-one-is-right-for-you https://www.mizuhogroup.com/americas-insights/2025-09-the-next-chapter-of-online-shopping-from-search-bars-to-ai-agents https://geekheros.com/comparing-atlas-comet-and-dia-key-differences-between-ai-browsers/ https://www.reddit.com/r/printSF/comments/1181vge/clarkesworld_has_temporarily_closed_submissions/ https://business.adobe.com/blog/the-explosive-rise-of-generative-ai-referral-traffic https://www.webfx.com/blog/ai/best-ai-browsers/ https://www.nytimes.com/2023/02/23/technology/clarkesworld-submissions-ai-sci-fi.html https://www.nngroup.com/articles/ai-changing-search-behaviors/ https://www.forbes.com/sites/bernardmarr/2025/12/23/the-5-most-powerful-agentic-ai-browsers-you-can-try-today/ https://www.blackgate.com/2023/02/23/flood-of-ai-written-fiction-shuts-down-emclarkesworldem-submissions/ https://www.technologyreview.com/2025/01/06/1108679/ai-generative-search-internet-breakthroughs/ https://creatoreconomy.so/p/are-ai-browsers-actually-useful-or-overhyped https://countercraft.substack.com/p/the-flood-of-chatgpt-crap-about-to https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-agentic-commerce-opportunity-how-ai-agents-are-ushering-in-a-new-era-for-consumers-and-merchants https://www.reddit.com/r/PerplexityComet/comments/1pm0z69/comet_vs_chatgpt_atlas_vs_dia_3_months_as_my/ https://www.cazenovecapital.com/en-gb/uk/charity/insights/how-ai-is-changing-search-and-what-it-means-for-google-chatgpt-and-the-open-web/
308 조회
0 추천
2025.12.26 등록
전통적인 뇌 지도가 도마 위에 오르다Nature Neuroscience 논문은 뇌를 개별적인 기능 영역으로 나누는 한 세기 된 관행에 도전하고 있으며, 이는 신경과학자들이 인지를 연구하는 방식의 초석이었다. 연구자들에 따르면, 세포 구조와 연결 패턴과 같은 뇌 기능의 주요 결정 요인들은 일관된 구분을 거의 만들어내지 않는다. "뇌 영역 자체는 동등하게 중요한 여러 조직 원리 중 하나일 뿐이며, 다른 원리로는 거시적 구배, 분산 네트워크, 층, 기둥 및 패치가 있다"고 저자들은 기술한다.nature+4​ 이 비판은 해부학을 넘어 확장된다. 많은 인지 기능들은 특정 영역에 국한되기보다는 분산된 뇌 네트워크에 걸쳐 구현되는 것으로 보인다. 이는 특정 뇌 영역을 특정 정신 능력과 연결하는 관행—신경과학 교과서와 미디어 보도의 주요 내용—이 인지가 실제로 작동하는 방식을 지나치게 단순화할 수 있음을 시사한다.bioengineer+1​ https://www.nature.com/articles/s41593-025-02166-z https://bioengineer.org/rethinking-brain-area-centrality-in-functional-organization/ https://www.nature.com/neuro/articles?year=2025 https://x.com/PessoaBrain/status/2003494177645158445 https://www.nature.com/subjects/cognitive-neuroscience​왜 디지털 AI는 의식을 가질 수 없는가12월 17일에 발표된 생물학적 계산주의 논문은 또 다른 정설을 겨냥한다. 즉, 의식은 물리적 기질과 무관하게, 올바른 정보 처리 패턴에만 의존한다는 가정이다. 밀린코비치와 아루는 생물학적 뇌가 디지털 시스템과는 근본적으로 다른 유형의 계산을 수행한다고 주장한다.studyfinds+4​ 그들의 틀에 따르면, 뇌는 현재의 AI에는 없는 세 가지 핵심 특성을 보여준다. 연속적인 역학과 이산적 사건을 결합한 하이브리드 계산, 알고리즘과 물리적 구현을 분리할 수 없는 “스케일-불가분(scale-inseparable)” 처리, 그리고 계산 구조 자체를 형성하는 대사적 제약이다. 연구자들은 “알고리즘이 곧 기질이다”라고 적으며, 물리적 조직은 단지 계산을 지탱하는 것이 아니라 바로 그 자체가 계산을 구성한다고 주장한다.neurosciencenews+3​ 논문은, 가지를 뻗은 수상돌기를 가진 단일 생물학적 뉴런이 8층 인공 신경망에 맞먹는 계산을 수행할 수 있다고 지적한다. 이러한 능력은 이온 흐름, 전기장, 막 전위와 같이 실시간으로 전개되는 연속적인 물리 과정에서 비롯되며, 이들은 이산적인 디지털 근사로는 복제될 수 없다고 한다.phys+3​ “현재 AI 아키텍처를 단순히 확장하는 것으로는 이 간극을 메울 수 없다”라고 저자들은 결론내린다. 인공 의식을 구축하려면, 생물학적 뇌를 특징짓는 연속적이고, 스케일이 통합되어 있으며, 대사적으로 내재화된 처리를 수행할 수 있는, 근본적으로 다른 물리적 기질이 필요할지도 모른다.eurekalert+3​ https://studyfinds.org/what-makes-brains-conscious-that-computers-lack/ https://neurosciencenews.com/consciousness-computing-ai-30068/ https://phys.org/news/2025-12-path-consciousness-biological.html https://www.linkedin.com/posts/borjan-milinkovic-05952b337_neuroscience-biobehavioral-reviews-activity-7407474586876792832-GhPs https://www.eurekalert.org/news-releases/1110849​과학과 기술에 대한 시사이 논문들은 함께 신경과학이 개별적인 뇌 영역과 수십 년간 이 분야를 지배해온 컴퓨터 은유를 넘어서야 할 필요가 있음을 시사합니다. AI 개발에 있어서 그 함의는 냉엄합니다: 기계 의식을 달성하기 위해서는 단순히 더 나은 알고리즘뿐만 아니라 생물학적 조직처럼 작동하는 완전히 새로운 유형의 컴퓨팅 하드웨어가 필요할 것입니다.studyfinds+3​ Milinkovic와 Aru의 논문은 실험실에서 배양된 신경 배양체와 유체 멤리스터와 같은 신흥 기술을 잠재적 대안으로 지적하지만, 그러한 시스템이 의식을 지원할 수 있는지 여부는 여전히 불확실합니다. Hayden과 동료들은 전통적인 구획화와 함께 그래디언트, 네트워크, 미세 규모 구조 등 여러 조직 원리를 통합하는 신경과학 연구를 요구합니다.neurosciencenews+3​ https://studyfinds.org/what-makes-brains-conscious-that-computers-lack/ https://neurosciencenews.com/consciousness-computing-ai-30068/ https://phys.org/news/2025-12-path-consciousness-biological.html https://www.eurekalert.org/news-releases/1110849 https://www.nature.com/articles/s41593-025-02166-z https://bioengineer.org/rethinking-brain-area-centrality-in-functional-organization/
311 조회
0 추천
2025.12.26 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입