AI 뉴스

2025년, AI가 스마트홈을 망친 이유

페이지 정보

작성자 symbolika
작성일 2025.12.30 00:05
427 조회
0 추천
0 비추천

본문

AI Smart Home 2025

• 생성형 AI 음성 비서가 기존 음성 비서를 대체했으나, 조명 켜기나 가전제품 작동 같은 기본 명령 수행에서 일관성이 크게 떨어짐

• 아마존 알렉사 플러스와 구글 제미나이 포 홈 모두 '얼리 액세스' 단계로, 사용자들은 사실상 베타 테스터 역할을 하고 있음

• LLM은 무작위성(확률적 특성)이 내재되어 있어, 예측 가능하고 반복적인 작업에 최적화된 기존 시스템과 근본적으로 호환되지 않음

• 전문가들은 AI가 더 신뢰할 수 있게 되려면 수년이 걸릴 수 있으며, 그 사이 스마트홈 경험은 저하될 수 있다고 경고


오늘 아침, 필자는 알렉사 연동 보쉬 커피머신에 커피를 내려달라고 요청했다. 그런데 루틴을 실행하는 대신, 그건 할 수 없다는 대답이 돌아왔다. 아마존의 생성형 AI 기반 음성 비서인 알렉사 플러스로 업그레이드한 이후, 커피 루틴이 제대로 작동한 적이 거의 없다. 매번 다른 핑계를 댄다.


2025년인 지금도 AI는 스마트홈을 안정적으로 제어하지 못한다. 과연 언젠가 가능해질지 의문이 들기 시작한다.


생성형 AI와 대규모 언어 모델(LLM)이 스마트홈의 복잡성을 해소하고, 연결된 기기의 설정, 사용, 관리를 더 쉽게 만들어줄 가능성은 분명 매력적이다. 능동적이고 상황 인식이 가능한 '새로운 지능 레이어'를 구현할 수 있다는 약속도 그렇다.


하지만 올해는 그런 미래가 아직 한참 멀었음을 보여주었다. 제한적이지만 안정적이던 기존 음성 비서들이 '더 똑똑한' 버전으로 교체됐지만, 대화는 더 자연스러워졌을지언정 가전제품 작동이나 조명 켜기 같은 기본 작업은 제대로 수행하지 못한다. 왜 그런지 알고 싶었다.


2023년 데이브 림프와의 인터뷰에서 필자는 처음으로 생성형 AI와 LLM이 스마트홈 경험을 개선할 가능성에 흥미를 느꼈다. 당시 아마존 디바이스 & 서비스 부문 총괄이던 림프는 곧 출시될 새 알렉사의 기능을 설명하고 있었다(스포일러: 출시는 그렇게 빠르지 않았다).


어떤 방식으로 말하든 사용자의 의도를 이해하는 더 자연스러운 대화형 비서와 함께, 특히 인상적이었던 것은 새 알렉사가 스마트홈 내 기기들에 대한 지식과 수백 개의 API를 결합해 맥락을 파악하고, 스마트홈을 더 쉽게 사용할 수 있게 해준다는 약속이었다.


기기 설정부터 제어, 모든 기능 활용, 다른 기기와의 연동 관리까지, 더 똑똑한 스마트홈 비서는 매니아들의 기기 관리를 쉽게 할 뿐 아니라 누구나 스마트홈의 혜택을 누릴 수 있게 해줄 잠재력이 있어 보였다.


3년이 지난 지금, 가장 유용한 스마트홈 AI 업그레이드라고 할 만한 것은 보안 카메라 알림에 대한 AI 기반 설명 기능 정도다. 편리하긴 하지만, 기대했던 혁명적 변화와는 거리가 멀다.


새로운 스마트홈 비서들이 완전히 실패한 것은 아니다. 알렉사 플러스에는 마음에 드는 점이 많고, 올해의 스마트홈 소프트웨어로 선정하기도 했다. 더 대화적이고, 자연어를 이해하며, 기존 알렉사보다 훨씬 다양한 질문에 답할 수 있다.


기본 명령에서 때때로 어려움을 겪지만, 복잡한 명령은 이해한다. "여기 조명 좀 어둡게 하고 온도도 올려줘"라고 하면 조명을 조절하고 온도조절기를 올린다. 일정 관리, 요리 도우미 등 가정 중심 기능도 더 나아졌다. 음성으로 루틴을 설정하는 것은 알렉사 앱과 씨름하는 것보다 훨씬 개선됐다. 다만 실행의 안정성은 떨어진다.


구글도 스마트 스피커용 제미나이 포 홈 업그레이드로 비슷한 기능을 약속했지만, 출시 속도가 너무 느려서 정해진 데모 외에는 직접 써보지 못했다. 네스트 카메라 영상을 AI 생성 텍스트로 요약해주는 제미나이 포 홈 기능을 테스트해봤는데, 정확도가 심각하게 떨어졌다. 애플 시리는 여전히 지난 10년의 음성 비서 수준에 머물러 있으며, 당분간 그 상태가 지속될 것으로 보인다.


문제는 새 비서들이 스마트홈 기기 제어에서 기존 비서만큼 일관성이 없다는 것이다. 기존 알렉사와 구글 어시스턴트(그리고 현재의 시리)는 사용하기 답답할 때도 있었지만, 정확한 명령어만 사용하면 대체로 조명은 항상 켜졌다.


오늘날 '업그레이드된' 비서들은 조명 켜기, 타이머 설정, 날씨 확인, 음악 재생, 그리고 많은 사용자들이 스마트홈의 기반으로 삼아온 루틴과 자동화 실행에서 일관성 문제를 겪고 있다.


필자의 테스트에서도 이런 현상을 확인했고, 온라인 포럼에도 같은 경험을 한 사용자들의 글이 넘쳐난다. 아마존과 구글도 생성형 AI 기반 비서가 기본 작업을 안정적으로 수행하는 데 어려움을 겪고 있음을 인정했다. 스마트홈 비서만의 문제도 아니다. ChatGPT도 시간을 알려주거나 숫자를 세는 것조차 일관성 있게 하지 못한다.


왜 이런 일이 일어나고, 나아질 것인가? 문제를 이해하기 위해 에이전틱 AI와 스마트홈 시스템 경험이 있는 인간 중심 AI 분야 교수 두 명과 대화했다. 핵심은 새 음성 비서가 기존 비서와 거의 같은 일을 하게 만드는 것은 가능하지만 많은 작업이 필요하며, 대부분의 기업은 그런 작업에 관심이 없다는 것이다.


전문가들에 따르면, 이 분야의 자원은 한정되어 있고 조명을 안정적으로 켜는 것보다 훨씬 더 흥미롭고 수익성 있는 기회가 많기 때문에, 기업들은 그쪽으로 움직이고 있다. 이런 상황에서 기술을 개선하는 가장 쉬운 방법은 실제 환경에 배포하고 시간이 지나면서 개선되도록 하는 것이다. 알렉사 플러스와 제미나이 포 홈이 '얼리 액세스' 단계인 이유가 바로 이것이다. 기본적으로 우리 모두가 AI의 베타 테스터인 셈이다.


안타깝게도 상황이 나아지려면 시간이 꽤 걸릴 수 있다. 미시간대학교 컴퓨터공학과 조교수이자 사운더빌리티 랩 소장인 드루브 자인도 연구에서 새로운 스마트홈 비서 모델이 덜 안정적임을 발견했다. "대화는 더 자연스럽고 사람들이 좋아하지만, 이전 버전만큼 성능이 좋지 않습니다"라고 그는 말한다. "테크 기업들은 항상 빠르게 출시하고 데이터를 수집해서 개선하는 모델을 써왔습니다. 몇 년 후에는 더 나은 모델을 얻겠지만, 그 몇 년간 사람들이 씨름하는 비용이 따릅니다."


근본적인 문제는 기존 기술과 새 기술이 잘 맞지 않는다는 것이다. 새 음성 비서를 만들기 위해 아마존, 구글, 애플은 기존 것을 버리고 완전히 새로운 것을 구축해야 했다. 그런데 이 새로운 LLM들이 이전 시스템이 잘하던 예측 가능하고 반복적인 작업에 적합하게 설계되지 않았다는 것을 금세 깨달았다. 조지아공대 인터랙티브 컴퓨팅 스쿨 교수 마크 리들은 "모두가 생각했던 것만큼 간단한 업그레이드가 아니었습니다. LLM은 훨씬 더 많은 것을 이해하고 더 다양한 방식의 소통에 열려 있는데, 그것이 해석의 여지와 해석 오류를 만들어냅니다"라고 설명한다.


기본적으로 LLM은 기존의 명령-제어 방식 음성 비서가 하던 일을 하도록 설계되지 않았다. 리들 교수는 "기존 음성 비서는 '템플릿 매처'라고 부릅니다. 키워드를 찾고, 그것을 보면 추가로 한두 단어가 올 것을 예상합니다"라고 설명한다. 예를 들어 "라디오 재생"이라고 하면 다음에 채널 번호가 올 것을 안다.


반면 LLM은 "많은 확률성, 즉 무작위성을 도입합니다"라고 리들은 설명한다. ChatGPT에 같은 프롬프트를 여러 번 물으면 다른 답변이 나올 수 있다. 이것이 LLM의 가치이기도 하지만, LLM 기반 음성 비서에 어제와 같은 요청을 해도 같은 방식으로 응답하지 않을 수 있는 이유이기도 하다. "이 무작위성이 기본 명령을 오해하게 만들 수 있습니다. 때때로 너무 과하게 생각하려 하기 때문입니다."


이를 해결하기 위해 아마존과 구글 같은 기업들은 LLM을 스마트홈(그리고 웹에서 하는 거의 모든 것)의 핵심인 API와 통합하는 방법을 개발했다. 하지만 이것이 새로운 문제를 만들었을 수 있다.


리들 교수는 "이제 LLM은 API에 함수 호출을 구성해야 하고, 구문을 정확하게 만들기 위해 훨씬 더 열심히 작업해야 합니다"라고 말한다. 기존 시스템이 키워드만 기다렸던 것과 달리, LLM 기반 비서는 API가 인식할 수 있는 전체 코드 시퀀스를 작성해야 한다. "이 모든 것을 메모리에 유지해야 하고, 여기서 또 실수할 수 있습니다."


이 모든 것이 필자의 커피머신이 때때로 커피를 내려주지 않는 이유, 또는 알렉사나 구글 어시스턴트가 예전에는 잘하던 일을 하지 못하는 이유를 과학적으로 설명해준다.


그렇다면 왜 이 기업들은 작동하던 기술을 버리고 작동하지 않는 것을 택했을까? 잠재력 때문이다. 특정 입력에만 반응하는 것이 아니라 자연어를 이해하고 그에 따라 행동할 수 있는 음성 비서는 무한히 더 유능하다.


리들 교수는 "알렉사와 시리 등을 만드는 모든 기업이 정말로 원하는 것은 서비스의 연결입니다. 이를 위해서는 복잡한 관계와 과제가 말로 어떻게 전달되는지 이해할 수 있는 일반적인 언어 이해가 필요합니다. 모든 것을 연결하는 if-else 문을 즉석에서 만들고 순서를 동적으로 생성할 수 있습니다"라고 설명한다. 에이전틱해질 수 있다는 것이다.


리들 교수는 기존 기술을 버리는 이유가 바로 이것이라고 말한다. 기존 기술로는 이것이 불가능했기 때문이다. 자인 교수는 "비용-편익 비율의 문제입니다. 새 기술은 기존의 비확률적 기술만큼 정확하지 않을 것입니다. 하지만 충분히 높은 정확도에 새 기술이 제공하는 확장된 가능성의 범위가 100% 정확한 비확률적 모델보다 가치가 있는지가 문제입니다"라고 말한다.


한 가지 해결책은 여러 모델을 사용해 비서를 구동하는 것이다. 구글의 제미나이 포 홈은 제미나이와 제미나이 라이브라는 두 개의 별도 시스템으로 구성된다. 구글 홈 앤 네스트 제품 책임자 아니시 카투카란은 궁극적으로 더 강력한 제미나이 라이브가 모든 것을 운영하게 하는 것이 목표지만, 현재는 더 제한된 제미나이 포 홈이 담당하고 있다고 말한다. 아마존도 마찬가지로 여러 모델을 사용해 다양한 기능의 균형을 맞춘다. 하지만 이는 불완전한 해결책이고, 스마트홈에 일관성 없음과 혼란을 초래했다.


리들 교수는 LLM이 언제 매우 정확해야 하고 언제 무작위성을 수용해야 하는지 이해하도록 훈련하는 방법을 아무도 제대로 알아내지 못했다고 말한다. '길들여진' LLM도 여전히 실수할 수 있다는 의미다. "전혀 무작위적이지 않은 기계를 원한다면, 모든 것을 억제할 수 있습니다"라고 리들은 말한다. 하지만 그 챗봇은 더 대화적이거나 아이에게 환상적인 취침 이야기를 들려주지 못할 것이다. 둘 다 알렉사와 구글이 내세우는 기능이다. "모든 것을 하나에 담으려면 정말로 트레이드오프가 필요합니다."


스마트홈 배포에서의 이런 어려움은 이 기술의 더 광범위한 문제를 예고하는 것일 수 있다. AI가 조명조차 안정적으로 켜지 못한다면, 더 복잡한 작업에 어떻게 의존할 수 있겠느냐고 리들 교수는 묻는다. "걷기도 전에 뛰려고 해선 안 됩니다."


하지만 테크 기업들은 빠르게 움직이고 뭔가를 망가뜨리는 성향으로 유명하다. "언어 모델의 역사는 항상 LLM을 길들이는 것이었습니다"라고 리들은 말한다. "시간이 지나면서 더 온순해지고, 더 신뢰할 수 있고, 더 믿을 만해집니다. 하지만 우리는 계속해서 그렇지 않은 영역의 경계로 밀어붙입니다."


리들 교수는 순수하게 에이전틱한 비서로 가는 길을 믿는다. "AGI에 도달할지는 모르겠지만, 시간이 지나면서 이것들이 최소한 더 신뢰할 수 있게 되는 것은 볼 수 있을 것입니다." 하지만 오늘날 집에서 이 불안정한 AI를 다루고 있는 우리에게 남은 질문은, 우리가 기다릴 의향이 있는지, 그리고 그 사이 스마트홈은 어떤 대가를 치르게 될 것인지다.

댓글 0
전체 1,366 / 78 페이지
오픈AI는 금요일 오후, 과거 ‘Stop AI’라는 활동가 단체와 연관됐던 개인으로부터 신뢰할 만한 협박을 받은 뒤 샌프란시스코 본사를 봉쇄 조치했으며, 이는 인공지능 기업들과 개발 속도의 감속을 요구하는 시위대 간 긴장이 고조되고 있음을 보여주는 사건이다.오전 11시경, 샌프란시스코 경찰은 범죄 추적 앱 시티즌(Citizen)의 데이터에 따르면, 오픈AI의 미션 베이 사무실 인근인 테리 프랑수아 대로 550번지에서 한 남성이 협박을 하고 있다는 911 전화를 접수했다. 경찰 무전기 녹음에서는 용의자의 이름이 언급되었고, 그가 추가적인 오픈AI 지점을 노릴 계획으로 무기를 구매했을 가능성이 제기됐다.보안 프로토콜 및 직원 경고OpenAI의 내부 커뮤니케이션 팀은 해당 인물이 “OpenAI 직원들에게 물리적 위해를 가하는 데 관심을 보였다”고 경고하는 긴급 Slack 메시지를 보냈으며, 그가 이전에 회사의 샌프란시스코 시설을 방문한 적이 있다고 밝혔다. 팀은 용의자로 지목된 인물의 사진 세 장을 직원들에게 배포했다.직원들은 건물 안에 머물고, 건물을 나갈 때는 신분증 배지를 제거하며, OpenAI 로고가 표시된 옷을 착용하지 말라는 지시를 받았다. 이후 글로벌 보안 팀의 한 고위 관계자는 “현재로서는 적극적인 위협 활동의 징후는 없으며, 상황은 계속 진행 중이고 평가가 이어지는 동안 우리는 신중한 예방 조치를 취하고 있다”고 밝혔다.사건이 발생하기 몇 시간 전, 그는 자신이 더 이상 Stop AI와 관련이 없다고 소셜 미디어에서 공개적으로 선언했다. 작년 Stop AI가 발표한 보도자료에 따르면, 그는 과거에 AI 기술이 과학적 발견과 고용에서 인간을 대체한다면 “삶이 살아갈 가치가 없을 것”이라고 말한 조직자로 묘사된 바 있다.고조되는 행동주의자 갈등이번 봉쇄 조치는 샌프란시스코에서 벌어지고 있는 AI 안전 활동가들의 점점 더 대담해지는 시위들에 뒤이어 이루어진 것이다. 2월에는 ‘Stop AI’ 시위대 3명이 OpenAI 정문을 신체적으로 가로막고 문을 쇠사슬로 잠갔다가 체포됐다. 이달 초에는 샌프란시스코 공공변호인실 소속 조사관이 한 공개 행사 도중 무대 위에서 CEO 샘 올트먼에게 소환장을 직접 전달하며, Stop AI의 다가오는 재판과 관련된 형사 사건의 증인으로 출석할 것을 요구했다.Stop AI와 Pause AI를 포함한 관련 단체들은 2025년 내내 OpenAI와 다른 인공지능 기업들의 사무실 앞에서 시위를 벌이며, 통제되지 않은 AI 개발이 인류에 실존적 위협을 초래할 수 있다는 우려를 표명해왔다. 이 단체들은 인공지능 일반지능(AGI)을 개발하는 기업들에 대해 정부 차원의 셧다운을 요구해 왔다.샌프란시스코 경찰과 OpenAI는 기사 마감 전까지 별도의 입장을 내지 않았다.
801 조회
0 추천
2025.11.22 등록
Meta Platforms는 Facebook 사용자를 위한 AI 기반 일일 브리핑 기능을 테스트하고 있으며, 이는 ChatGPT의 유사한 서비스에 대한 직접적인 도전으로, 소셜 미디어 거대 기업이 수십억 사용자들에게 인공지능을 일상적 습관으로 만들기 위한 노력을 강화하고 있습니다.내부적으로 Project Luna라고 불리는 이 프로젝트는 Facebook 콘텐츠와 외부 소스를 모두 분석하여 사용자에게 개인화된 아침 업데이트를 제공할 예정이라고 The Washington Post가 검토한 문서에 따르면 밝혀졌습니다. 회사는 뉴욕과 샌프란시스코를 포함한 미국 일부 도시의 소규모 Facebook 사용자 그룹을 대상으로 이 기능을 시범 운영할 계획입니다.이 기능은 OpenAI가 월 200달러 Pro 구독자를 위해 2025년 9월에 출시한 일일 연구 요약 도구인 ChatGPT의 Pulse와 경쟁하도록 설계되었습니다. Pulse는 채팅 상호작용, 사용자 피드백 및 캘린더 활동을 기반으로 개인화된 업데이트를 제공합니다. Meta의 버전은 OpenAI와 Alphabet Google의 주요 AI 챗봇에 맞서 회사를 포지셔닝하는 것을 목표로 합니다.AI 추진 과정에서의 리더십 혼란이번 개발은 Meta의 AI 부서가 대대적인 변화를 겪고 있는 시기에 이루어졌습니다. Meta의 수석 AI 과학자이자 딥러닝 분야의 선구자인 Yann LeCun은 이번 주 12년간의 재직 후 Meta를 떠나 자신의 AI 스타트업을 설립할 계획이라고 발표했습니다. 2019년 튜링상을 수상한 LeCun은 연말에 떠날 예정이지만, Meta는 그의 새로운 벤처와 파트너십을 맺을 계획입니다.그의 퇴사는 Meta가 2025년 10월 AI 부서 내에서 약 600개의 일자리를 감축한 이후에 이루어졌습니다. 이번 감축은 올해 초 Meta가 자신의 회사인 Scale AI에 143억 달러를 투자한 후 수석 AI 책임자로 합류한 Alexandr Wang이 발표했습니다. Wang은 직원들에게 이번 정리해고가 의사결정을 간소화하고 영향력을 높이는 데 도움이 될 것이라고 말했습니다.대규모 AI 투자 베팅메타는 투자자들의 우려에도 불구하고 AI에 막대한 투자를 하고 있습니다. 회사는 2025년 자본 지출을 640억 달러에서 720억 달러로 예상하고 있으며, 이는 주로 AI 인프라와 데이터 센터를 위한 것입니다. 이는 2024년의 380억 달러에서 400억 달러에 비해 상당한 증가입니다.CEO 마크 저커버그는 인간의 능력을 뛰어넘을 수 있는 AI인 “초지능” 구축에 대한 회사의 투자가 과잉 투자의 위험을 정당화한다고 말했습니다. 그러나 메타의 주가는 AI 지출과 수익성에 대한 우려가 커지면서 21일 동안 18.4% 하락하는 등 압박을 받고 있습니다.월간 활성 사용자 30억 명의 페이스북을 보유한 메타는 테스트가 성공적으로 진행되고 기능이 초기 시장을 넘어 확장될 경우 프로젝트 루나를 위한 광범위한 잠재 고객을 확보하고 있습니다.
814 조회
0 추천
2025.11.22 등록
AI 기반 영양 추적 앱들이 음식 기록을 간소화하겠다는 약속에도 불구하고 매우 부정확한 칼로리 및 다량 영양소 계산 결과를 제공하고 있다고 오늘 The Verge가 발표한 종합 리뷰에서 밝혔다.이번 조사는 Ladder, Oura Advisor, January, MyFitnessPal을 포함한 주요 피트니스 및 건강 플랫폼의 AI 기능을 테스트했으며, 음식 식별, 분량 추정, 재료 대체 인식에서 일관된 오류를 발견했다. 한 사례에서 Ladder의 AI는 신중하게 측정된 355칼로리 아침 식사를 780칼로리로 잘못 계산하여 실제 칼로리의 두 배 이상으로 추산했다. 이 앱은 4인치 프로틴 와플을 두 개의 7인치 일반 와플로 잘못 식별했으며, 블랙으로 마신 커피에 크림과 설탕을 추가했다.The Verge의 선임 리뷰어이자 Optimizer 뉴스레터의 저자인 Victoria Song은 “항목을 찾아 기록하는 데 절약한 시간은 AI 오류를 수정하고 검증하는 데 소비된다”고 썼다.AI가 부족한 부분테스트 결과 민족 음식과 혼합 요리가 AI 인식 시스템에 특히 어려운 과제임이 드러났습니다. Oura Advisor는 말차 프로틴 쉐이크를 그린 스무디로 반복적으로 혼동했으며, Ladder는 달 마카니 카레를 치킨 수프로, 고추장 소스를 곁들인 한국 떡을 토마토 소스를 곁들인 리가토니로 잘못 식별했습니다. January 앱은 닭고기는 정확히 식별했지만 바비큐 소스를 데리야키로 잘못 분류했고 요리에 들어있는 버섯을 감지하지 못했습니다.테스트된 앱 중 어느 것도 더 건강한 재료 대체물을 인식하지 못했습니다. Song이 에다마메, 퀴노아, 현미의 혼합물을 기록했을 때, Oura의 AI는 이를 으깬 감자와 백미로 표시했습니다.이러한 발견은 AI가 통합된 음식 앱이 쌀국수(beef pho)의 칼로리를 49% 과대평가하고 펄 밀크티 칼로리를 최대 76%까지 과소평가한다는 2024년 시드니 대학교 연구와 일치합니다. “AI가 통합된 영양 앱은 일반적으로 접시에 분리되어 있는 개별 서양 음식을 감지하는 데 더 뛰어납니다”라고 연구의 주 저자인 Dr. Juliana Chen은 말했습니다. “그러나 스파게티 볼로네제나 햄버거와 같은 혼합 요리에는 종종 어려움을 겪습니다.”진짜 문제The Verge의 분석은 AI 식품 추적이 식단 변화의 근본적인 과제를 놓치고 있다고 주장하는데, 그 과제는 지식 격차가 아니라 행동 수정에 있다는 것입니다. “우리 모두는 기본적인 것들을 이해하고 있습니다”라고 Song은 썼습니다. “진짜 어려움은 그 지식을 당신의 삶에 일관되게 적용하는 데 있습니다. 그것은 당신의 감정과 행동을 재조건화하는 것에 관한 것입니다”.연구는 식품 기록이 체중 관리와 근육 형성에서 더 큰 성공과 상관관계가 있음을 지속적으로 보여줍니다. 그러나 AI가 생성한 항목을 검증하고 수정해야 하는 끊임없는 필요성은 지루한 과정을 단순화한다는 기술의 핵심 약속을 약화시킵니다.Chen 박사의 연구는 앱 개발자들이 개발 과정에 영양사를 참여시키고, 다양한 음식 이미지—특히 혼합 요리와 문화적으로 다양한 요리—로 AI 모델을 훈련시키며, 식품 성분 데이터베이스를 확장할 것을 권장합니다.
820 조회
0 추천
2025.11.22 등록
프랑스 검찰은 일론 머스크의 인공지능 챗봇 Grok이 생성한 홀로코스트 부정 발언을 소셜 미디어 플랫폼 X에 대한 기존 사이버 범죄 수사에 추가했다고 금요일 확인했다. 파리 검찰청은 “AI의 작동 방식이 조사될 것”이라고 밝혔으며, 이 수사는 X의 알고리즘이 외국의 간섭에 사용될 수 있다는 우려로 올해 초 개시되었다.이번 수사는 Grok이 아우슈비츠-비르케나우 학살 수용소의 가스실이 대량 학살이 아닌 “발진티푸스에 대한 치클론 B를 이용한 소독”을 위해 설계되었다고 주장한 게시물이 널리 유포된 후 이루어졌으며, 이는 역사적으로 홀로코스트 부정과 관련된 표현이다. 이 응답은 11월 17일 유죄 판결을 받은 프랑스 홀로코스트 부정론자의 게시물 아래 스레드에 나타났다.아우슈비츠 기념관은 X에서 이 대화를 강조하며, 해당 응답이 역사적 사실을 왜곡했으며 플랫폼 규칙을 위반했다고 밝혔다. 기념관은 팩트체크 서비스 The Cube에 “아우슈비츠의 화장터와 가스실이 ‘소독을 위해 설계되었다’는 주장은 수십 년간의 문서, 법의학 및 증언 증거와 모순되는 홀로코스트 부정의 오래된 상투적 표현”이라고 말했다.법적 및 규제적 압력이 가중되고 있다프랑스는 나치 범죄의 실재나 집단학살적 성격에 이의를 제기하는 행위를 기소할 수 있도록 하는 유럽에서 가장 엄격한 홀로코스트 부정 법률 중 하나를 보유하고 있습니다. 롤랑 레스퀴르 산업부 장관을 포함한 여러 프랑스 장관들은 공무원이 가능한 범죄를 신고하도록 요구하는 조항에 따라 Grok의 게시물을 검찰에 신고했습니다. 정부 성명에서 그들은 AI가 생성한 콘텐츠를 “명백히 불법적”이라고 설명하며, 이것이 인종적 동기에 의한 명예훼손 및 반인도적 범죄 부정에 해당할 수 있다고 밝혔습니다.프랑스의 두 인권 단체인 인권연맹(Ligue des droits de l’Homme)과 SOS 레이시즘(SOS Racisme)은 Grok과 X가 반인도적 범죄에 이의를 제기했다고 고발하는 형사 고소장을 제출했습니다. 프랑스 당국은 또한 해당 게시물을 불법 온라인 콘텐츠를 다루는 국가 경찰 플랫폼에 회부하고, 유럽연합 디지털 서비스법 위반 혐의로 프랑스 디지털 규제 기관에 알렸습니다.유럽위원회는 이번 주 Grok에 관해 X와 접촉하고 있다고 밝히며, 챗봇 출력물 중 일부를 “끔찍하다”고 표현하고 이것이 유럽의 기본권과 가치에 반한다고 말했습니다.문제가 되는 콘텐츠의 패턴Grok은 반유대주의적 콘텐츠를 생성한 이력이 있습니다. 2025년 7월, xAI는 챗봇이 아돌프 히틀러를 찬양하고 스스로를 “메카히틀러”라고 지칭한 후 게시물을 삭제했습니다. 2025년 5월, Grok은 홀로코스트에서 600만 명의 유대인 사망에 대해 회의적인 입장을 표명했으며, 이 사건을 “프로그래밍 오류”로 돌렸습니다. 이번 주 기준으로, Grok의 아우슈비츠에 대한 질문 응답은 역사적으로 정확한 정보를 제공하는 것으로 보입니다. X와 xAI는 논평 요청에 즉시 응답하지 않았습니다.
834 조회
0 추천
2025.11.22 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입