Loading...

AI 뉴스

2025년, AI가 스마트홈을 망친 이유

페이지 정보

작성자 symbolika
작성일 2025.12.30 00:05
302 조회
0 추천
0 비추천

본문

AI Smart Home 2025

• 생성형 AI 음성 비서가 기존 음성 비서를 대체했으나, 조명 켜기나 가전제품 작동 같은 기본 명령 수행에서 일관성이 크게 떨어짐

• 아마존 알렉사 플러스와 구글 제미나이 포 홈 모두 '얼리 액세스' 단계로, 사용자들은 사실상 베타 테스터 역할을 하고 있음

• LLM은 무작위성(확률적 특성)이 내재되어 있어, 예측 가능하고 반복적인 작업에 최적화된 기존 시스템과 근본적으로 호환되지 않음

• 전문가들은 AI가 더 신뢰할 수 있게 되려면 수년이 걸릴 수 있으며, 그 사이 스마트홈 경험은 저하될 수 있다고 경고


오늘 아침, 필자는 알렉사 연동 보쉬 커피머신에 커피를 내려달라고 요청했다. 그런데 루틴을 실행하는 대신, 그건 할 수 없다는 대답이 돌아왔다. 아마존의 생성형 AI 기반 음성 비서인 알렉사 플러스로 업그레이드한 이후, 커피 루틴이 제대로 작동한 적이 거의 없다. 매번 다른 핑계를 댄다.


2025년인 지금도 AI는 스마트홈을 안정적으로 제어하지 못한다. 과연 언젠가 가능해질지 의문이 들기 시작한다.


생성형 AI와 대규모 언어 모델(LLM)이 스마트홈의 복잡성을 해소하고, 연결된 기기의 설정, 사용, 관리를 더 쉽게 만들어줄 가능성은 분명 매력적이다. 능동적이고 상황 인식이 가능한 '새로운 지능 레이어'를 구현할 수 있다는 약속도 그렇다.


하지만 올해는 그런 미래가 아직 한참 멀었음을 보여주었다. 제한적이지만 안정적이던 기존 음성 비서들이 '더 똑똑한' 버전으로 교체됐지만, 대화는 더 자연스러워졌을지언정 가전제품 작동이나 조명 켜기 같은 기본 작업은 제대로 수행하지 못한다. 왜 그런지 알고 싶었다.


2023년 데이브 림프와의 인터뷰에서 필자는 처음으로 생성형 AI와 LLM이 스마트홈 경험을 개선할 가능성에 흥미를 느꼈다. 당시 아마존 디바이스 & 서비스 부문 총괄이던 림프는 곧 출시될 새 알렉사의 기능을 설명하고 있었다(스포일러: 출시는 그렇게 빠르지 않았다).


어떤 방식으로 말하든 사용자의 의도를 이해하는 더 자연스러운 대화형 비서와 함께, 특히 인상적이었던 것은 새 알렉사가 스마트홈 내 기기들에 대한 지식과 수백 개의 API를 결합해 맥락을 파악하고, 스마트홈을 더 쉽게 사용할 수 있게 해준다는 약속이었다.


기기 설정부터 제어, 모든 기능 활용, 다른 기기와의 연동 관리까지, 더 똑똑한 스마트홈 비서는 매니아들의 기기 관리를 쉽게 할 뿐 아니라 누구나 스마트홈의 혜택을 누릴 수 있게 해줄 잠재력이 있어 보였다.


3년이 지난 지금, 가장 유용한 스마트홈 AI 업그레이드라고 할 만한 것은 보안 카메라 알림에 대한 AI 기반 설명 기능 정도다. 편리하긴 하지만, 기대했던 혁명적 변화와는 거리가 멀다.


새로운 스마트홈 비서들이 완전히 실패한 것은 아니다. 알렉사 플러스에는 마음에 드는 점이 많고, 올해의 스마트홈 소프트웨어로 선정하기도 했다. 더 대화적이고, 자연어를 이해하며, 기존 알렉사보다 훨씬 다양한 질문에 답할 수 있다.


기본 명령에서 때때로 어려움을 겪지만, 복잡한 명령은 이해한다. "여기 조명 좀 어둡게 하고 온도도 올려줘"라고 하면 조명을 조절하고 온도조절기를 올린다. 일정 관리, 요리 도우미 등 가정 중심 기능도 더 나아졌다. 음성으로 루틴을 설정하는 것은 알렉사 앱과 씨름하는 것보다 훨씬 개선됐다. 다만 실행의 안정성은 떨어진다.


구글도 스마트 스피커용 제미나이 포 홈 업그레이드로 비슷한 기능을 약속했지만, 출시 속도가 너무 느려서 정해진 데모 외에는 직접 써보지 못했다. 네스트 카메라 영상을 AI 생성 텍스트로 요약해주는 제미나이 포 홈 기능을 테스트해봤는데, 정확도가 심각하게 떨어졌다. 애플 시리는 여전히 지난 10년의 음성 비서 수준에 머물러 있으며, 당분간 그 상태가 지속될 것으로 보인다.


문제는 새 비서들이 스마트홈 기기 제어에서 기존 비서만큼 일관성이 없다는 것이다. 기존 알렉사와 구글 어시스턴트(그리고 현재의 시리)는 사용하기 답답할 때도 있었지만, 정확한 명령어만 사용하면 대체로 조명은 항상 켜졌다.


오늘날 '업그레이드된' 비서들은 조명 켜기, 타이머 설정, 날씨 확인, 음악 재생, 그리고 많은 사용자들이 스마트홈의 기반으로 삼아온 루틴과 자동화 실행에서 일관성 문제를 겪고 있다.


필자의 테스트에서도 이런 현상을 확인했고, 온라인 포럼에도 같은 경험을 한 사용자들의 글이 넘쳐난다. 아마존과 구글도 생성형 AI 기반 비서가 기본 작업을 안정적으로 수행하는 데 어려움을 겪고 있음을 인정했다. 스마트홈 비서만의 문제도 아니다. ChatGPT도 시간을 알려주거나 숫자를 세는 것조차 일관성 있게 하지 못한다.


왜 이런 일이 일어나고, 나아질 것인가? 문제를 이해하기 위해 에이전틱 AI와 스마트홈 시스템 경험이 있는 인간 중심 AI 분야 교수 두 명과 대화했다. 핵심은 새 음성 비서가 기존 비서와 거의 같은 일을 하게 만드는 것은 가능하지만 많은 작업이 필요하며, 대부분의 기업은 그런 작업에 관심이 없다는 것이다.


전문가들에 따르면, 이 분야의 자원은 한정되어 있고 조명을 안정적으로 켜는 것보다 훨씬 더 흥미롭고 수익성 있는 기회가 많기 때문에, 기업들은 그쪽으로 움직이고 있다. 이런 상황에서 기술을 개선하는 가장 쉬운 방법은 실제 환경에 배포하고 시간이 지나면서 개선되도록 하는 것이다. 알렉사 플러스와 제미나이 포 홈이 '얼리 액세스' 단계인 이유가 바로 이것이다. 기본적으로 우리 모두가 AI의 베타 테스터인 셈이다.


안타깝게도 상황이 나아지려면 시간이 꽤 걸릴 수 있다. 미시간대학교 컴퓨터공학과 조교수이자 사운더빌리티 랩 소장인 드루브 자인도 연구에서 새로운 스마트홈 비서 모델이 덜 안정적임을 발견했다. "대화는 더 자연스럽고 사람들이 좋아하지만, 이전 버전만큼 성능이 좋지 않습니다"라고 그는 말한다. "테크 기업들은 항상 빠르게 출시하고 데이터를 수집해서 개선하는 모델을 써왔습니다. 몇 년 후에는 더 나은 모델을 얻겠지만, 그 몇 년간 사람들이 씨름하는 비용이 따릅니다."


근본적인 문제는 기존 기술과 새 기술이 잘 맞지 않는다는 것이다. 새 음성 비서를 만들기 위해 아마존, 구글, 애플은 기존 것을 버리고 완전히 새로운 것을 구축해야 했다. 그런데 이 새로운 LLM들이 이전 시스템이 잘하던 예측 가능하고 반복적인 작업에 적합하게 설계되지 않았다는 것을 금세 깨달았다. 조지아공대 인터랙티브 컴퓨팅 스쿨 교수 마크 리들은 "모두가 생각했던 것만큼 간단한 업그레이드가 아니었습니다. LLM은 훨씬 더 많은 것을 이해하고 더 다양한 방식의 소통에 열려 있는데, 그것이 해석의 여지와 해석 오류를 만들어냅니다"라고 설명한다.


기본적으로 LLM은 기존의 명령-제어 방식 음성 비서가 하던 일을 하도록 설계되지 않았다. 리들 교수는 "기존 음성 비서는 '템플릿 매처'라고 부릅니다. 키워드를 찾고, 그것을 보면 추가로 한두 단어가 올 것을 예상합니다"라고 설명한다. 예를 들어 "라디오 재생"이라고 하면 다음에 채널 번호가 올 것을 안다.


반면 LLM은 "많은 확률성, 즉 무작위성을 도입합니다"라고 리들은 설명한다. ChatGPT에 같은 프롬프트를 여러 번 물으면 다른 답변이 나올 수 있다. 이것이 LLM의 가치이기도 하지만, LLM 기반 음성 비서에 어제와 같은 요청을 해도 같은 방식으로 응답하지 않을 수 있는 이유이기도 하다. "이 무작위성이 기본 명령을 오해하게 만들 수 있습니다. 때때로 너무 과하게 생각하려 하기 때문입니다."


이를 해결하기 위해 아마존과 구글 같은 기업들은 LLM을 스마트홈(그리고 웹에서 하는 거의 모든 것)의 핵심인 API와 통합하는 방법을 개발했다. 하지만 이것이 새로운 문제를 만들었을 수 있다.


리들 교수는 "이제 LLM은 API에 함수 호출을 구성해야 하고, 구문을 정확하게 만들기 위해 훨씬 더 열심히 작업해야 합니다"라고 말한다. 기존 시스템이 키워드만 기다렸던 것과 달리, LLM 기반 비서는 API가 인식할 수 있는 전체 코드 시퀀스를 작성해야 한다. "이 모든 것을 메모리에 유지해야 하고, 여기서 또 실수할 수 있습니다."


이 모든 것이 필자의 커피머신이 때때로 커피를 내려주지 않는 이유, 또는 알렉사나 구글 어시스턴트가 예전에는 잘하던 일을 하지 못하는 이유를 과학적으로 설명해준다.


그렇다면 왜 이 기업들은 작동하던 기술을 버리고 작동하지 않는 것을 택했을까? 잠재력 때문이다. 특정 입력에만 반응하는 것이 아니라 자연어를 이해하고 그에 따라 행동할 수 있는 음성 비서는 무한히 더 유능하다.


리들 교수는 "알렉사와 시리 등을 만드는 모든 기업이 정말로 원하는 것은 서비스의 연결입니다. 이를 위해서는 복잡한 관계와 과제가 말로 어떻게 전달되는지 이해할 수 있는 일반적인 언어 이해가 필요합니다. 모든 것을 연결하는 if-else 문을 즉석에서 만들고 순서를 동적으로 생성할 수 있습니다"라고 설명한다. 에이전틱해질 수 있다는 것이다.


리들 교수는 기존 기술을 버리는 이유가 바로 이것이라고 말한다. 기존 기술로는 이것이 불가능했기 때문이다. 자인 교수는 "비용-편익 비율의 문제입니다. 새 기술은 기존의 비확률적 기술만큼 정확하지 않을 것입니다. 하지만 충분히 높은 정확도에 새 기술이 제공하는 확장된 가능성의 범위가 100% 정확한 비확률적 모델보다 가치가 있는지가 문제입니다"라고 말한다.


한 가지 해결책은 여러 모델을 사용해 비서를 구동하는 것이다. 구글의 제미나이 포 홈은 제미나이와 제미나이 라이브라는 두 개의 별도 시스템으로 구성된다. 구글 홈 앤 네스트 제품 책임자 아니시 카투카란은 궁극적으로 더 강력한 제미나이 라이브가 모든 것을 운영하게 하는 것이 목표지만, 현재는 더 제한된 제미나이 포 홈이 담당하고 있다고 말한다. 아마존도 마찬가지로 여러 모델을 사용해 다양한 기능의 균형을 맞춘다. 하지만 이는 불완전한 해결책이고, 스마트홈에 일관성 없음과 혼란을 초래했다.


리들 교수는 LLM이 언제 매우 정확해야 하고 언제 무작위성을 수용해야 하는지 이해하도록 훈련하는 방법을 아무도 제대로 알아내지 못했다고 말한다. '길들여진' LLM도 여전히 실수할 수 있다는 의미다. "전혀 무작위적이지 않은 기계를 원한다면, 모든 것을 억제할 수 있습니다"라고 리들은 말한다. 하지만 그 챗봇은 더 대화적이거나 아이에게 환상적인 취침 이야기를 들려주지 못할 것이다. 둘 다 알렉사와 구글이 내세우는 기능이다. "모든 것을 하나에 담으려면 정말로 트레이드오프가 필요합니다."


스마트홈 배포에서의 이런 어려움은 이 기술의 더 광범위한 문제를 예고하는 것일 수 있다. AI가 조명조차 안정적으로 켜지 못한다면, 더 복잡한 작업에 어떻게 의존할 수 있겠느냐고 리들 교수는 묻는다. "걷기도 전에 뛰려고 해선 안 됩니다."


하지만 테크 기업들은 빠르게 움직이고 뭔가를 망가뜨리는 성향으로 유명하다. "언어 모델의 역사는 항상 LLM을 길들이는 것이었습니다"라고 리들은 말한다. "시간이 지나면서 더 온순해지고, 더 신뢰할 수 있고, 더 믿을 만해집니다. 하지만 우리는 계속해서 그렇지 않은 영역의 경계로 밀어붙입니다."


리들 교수는 순수하게 에이전틱한 비서로 가는 길을 믿는다. "AGI에 도달할지는 모르겠지만, 시간이 지나면서 이것들이 최소한 더 신뢰할 수 있게 되는 것은 볼 수 있을 것입니다." 하지만 오늘날 집에서 이 불안정한 AI를 다루고 있는 우리에게 남은 질문은, 우리가 기다릴 의향이 있는지, 그리고 그 사이 스마트홈은 어떤 대가를 치르게 될 것인지다.

댓글 0
전체 1,366 / 9 페이지
핵심 요약 • 구글 딥마인드의 알파폴드가 출시 5주년을 맞이했으며, 지난해 노벨 화학상을 수상 • 알파폴드 데이터베이스는 2억 개 이상의 단백질 구조 예측 정보를 담고 있으며, 전 세계 190개국 350만 명의 연구자가 활용 중 • 알파폴드3는 단백질뿐 아니라 DNA, RNA, 약물까지 예측 범위를 확장 • 딥마인드는 'AI 공동 과학자' 시스템을 통해 과학자들과 협력하는 인공지능 개발에 박차 • 향후 목표는 인간 세포 전체의 정밀 시뮬레이션 구현 구글 딥마인드가 개발한 인공지능 시스템 알파폴드가 출시 5주년을 맞이했다. 지난 몇 년간 알파폴드의 성과를 꾸준히 보도해 왔으며, 지난해에는 노벨 화학상을 수상하는 영예를 안았다. 2020년 11월 알파폴드가 처음 등장하기 전까지, 딥마인드는 인공지능에 고대 보드게임 바둑을 가르쳐 인간 챔피언을 꺾은 것으로 잘 알려져 있었다. 이후 딥마인드는 더 심각한 과제에 도전하기 시작했다. 현대 과학에서 가장 어려운 문제 중 하나인 단백질 접힘 문제에 딥러닝 알고리즘을 적용한 것이다. 그 결과물이 바로 알파폴드2로, 단백질의 3차원 구조를 원자 수준의 정확도로 예측할 수 있는 시스템이다. 알파폴드의 연구는 현재 2억 개 이상의 예측 구조를 담은 데이터베이스 구축으로 이어졌다. 이는 사실상 알려진 모든 단백질 세계를 망라하는 것으로, 전 세계 190개국 약 350만 명의 연구자가 활용하고 있다. 2021년 네이처에 발표된 알고리즘 설명 논문은 현재까지 4만 회 인용됐다. 지난해에는 알파폴드3가 출시되어 인공지능의 역량을 DNA, RNA, 약물로까지 확장했다. 단백질의 무질서 영역에서 발생하는 '구조적 환각' 같은 과제가 남아 있지만, 이는 미래를 향한 한 걸음이다. WIRED는 딥마인드 연구 부문 부사장이자 과학을 위한 AI 부서를 이끄는 푸쉬미트 콜리와 향후 5년간 알파폴드의 방향에 대해 이야기를 나눴다. WIRED: 콜리 박사님, 5년 전 알파폴드2의 등장은 생물학의 '아이폰 순간'으로 불렸습니다. 바둑 같은 게임에서 단백질 접힘이라는 근본적인 과학 문제로의 전환과 그 과정에서 박사님의 역할에 대해 말씀해 주시겠습니까? 푸쉬미트 콜리: 과학은 처음부터 우리 미션의 핵심이었습니다. 데미스 하사비스는 AI가 과학적 발견을 가속화하는 가장 좋은 도구가 될 수 있다는 생각으로 구글 딥마인드를 설립했습니다. 게임은 언제나 시험대였고, 결국 실제 문제를 해결할 기술을 개발하는 방법이었습니다. 제 역할은 AI가 변혁적 영향을 미칠 수 있는 과학적 문제를 식별하고 추진하며, 진전을 이루는 데 필요한 핵심 요소를 파악하고, 이러한 대과제를 해결할 다학제 팀을 구성하는 것이었습니다. 알파고가 증명한 것은 신경망과 계획, 탐색을 결합하면 엄청나게 복잡한 시스템도 마스터할 수 있다는 것이었습니다. 단백질 접힘도 같은 특성을 가지고 있었습니다. 결정적 차이점은 이를 해결하면 생물학과 의학 전반에 걸쳐 사람들의 삶을 실제로 개선할 수 있는 발견이 열린다는 것이었습니다. 우리는 '뿌리 노드 문제'에 집중합니다. 과학계가 해결책이 변혁적일 것이라고 동의하지만, 기존 접근법으로는 향후 5~10년 내에 도달할 수 없는 영역입니다. 지식의 나무처럼 생각하면 됩니다—이러한 뿌리 문제를 해결하면 완전히 새로운 연구 분야가 열립니다. 단백질 접힘은 분명 그런 문제 중 하나였습니다. 앞을 내다보면 세 가지 핵심 기회 영역이 보입니다: 연구 파트너처럼 과학자들과 진정으로 추론하고 협력할 수 있는 더 강력한 모델 구축, 이러한 도구를 지구상의 모든 과학자에게 제공하는 것, 그리고 완전한 인간 세포의 최초 정확한 시뮬레이션 같은 더 대담한 야망에 도전하는 것입니다. 환각에 대해 이야기해 보겠습니다. 창의적인 생성 모델과 엄격한 검증자를 짝지우는 '하네스' 아키텍처의 중요성을 반복적으로 주장해 오셨습니다. 알파폴드2에서 알파폴드3로 넘어오면서, 특히 본질적으로 더 '상상력이 풍부하고' 환각을 일으키기 쉬운 확산 모델을 사용하게 되면서 이 철학은 어떻게 진화했습니까? 핵심 철학은 변하지 않았습니다—우리는 여전히 창의적 생성과 엄격한 검증을 결합합니다. 진화한 것은 이 원칙을 더 야심찬 문제에 어떻게 적용하느냐입니다. 우리는 항상 문제 우선 접근법을 취해왔습니다. 기존 기술을 적용할 곳을 찾는 것이 아니라, 문제를 깊이 이해한 다음 해결에 필요한 것을 구축합니다. 알파폴드3에서 확산 모델로 전환한 것은 과학이 요구한 바였습니다: 개별 단백질 구조뿐만 아니라 단백질, DNA, RNA, 소분자가 어떻게 함께 상호작용하는지 예측해야 했습니다. 확산 모델이 더 생성적이라는 점에서 환각 우려를 제기하신 것은 옳습니다. 이것이 검증이 더욱 중요해지는 부분입니다. 예측이 덜 신뢰할 수 있을 때 신호를 보내는 신뢰도 점수를 구축했으며, 이는 본질적으로 무질서한 단백질에 특히 중요합니다. 그러나 접근법을 진정으로 검증하는 것은 5년에 걸쳐 과학자들이 실험실에서 알파폴드 예측을 반복적으로 테스트해왔다는 것입니다. 실제로 작동하기 때문에 신뢰합니다. Gemini 2.0을 기반으로 가설을 생성하고 토론하는 에이전트 시스템인 'AI 공동 과학자'를 출시하고 계십니다. 이것은 상자 안의 과학적 방법처럼 들립니다. 연구실의 '책임 연구자'가 AI가 되고, 인간은 단지 실험을 검증하는 기술자가 되는 미래로 나아가고 있는 것입니까? 제가 보는 것은 과학자들이 시간을 보내는 방식의 변화입니다. 과학자들은 항상 이중 역할을 해왔습니다—어떤 문제를 해결해야 하는지 생각하고, 그것을 어떻게 해결할지 알아내는 것입니다. AI가 '어떻게' 부분에서 더 많이 도움을 주면, 과학자들은 '무엇', 즉 어떤 질문이 실제로 물을 가치가 있는지에 더 집중할 자유를 갖게 됩니다. AI는 때로는 상당히 자율적으로 해결책 찾기를 가속화할 수 있지만, 어떤 문제가 관심을 기울일 가치가 있는지 결정하는 것은 근본적으로 인간의 영역으로 남습니다. 공동 과학자는 이러한 파트너십을 염두에 두고 설계되었습니다. Gemini 2.0으로 구축된 다중 에이전트 시스템으로 가상 협력자 역할을 합니다: 연구 격차를 식별하고, 가설을 생성하며, 실험적 접근법을 제안합니다. 최근 임페리얼 칼리지 연구자들은 특정 바이러스가 박테리아를 하이재킹하는 방법을 연구하면서 이를 사용했고, 이는 항생제 내성을 다루는 새로운 방향을 열었습니다. 그러나 인간 과학자들이 검증 실험을 설계하고 글로벌 보건에 대한 중요성을 파악했습니다. 중요한 것은 이러한 도구를 적절히 이해하는 것입니다—강점과 한계 모두를요. 그 이해가 과학자들이 이를 책임감 있고 효과적으로 사용할 수 있게 해주는 것입니다. 약물 재목적화나 박테리아 진화에 관한 작업에서 AI 에이전트들이 의견을 달리하고, 그 불일치가 인간 혼자 작업하는 것보다 더 나은 과학적 결과로 이어진 구체적인 사례를 공유해 주실 수 있습니까? 시스템이 작동하는 방식은 매우 흥미롭습니다. 여러 Gemini 모델이 서로 다른 에이전트로 작동하여 아이디어를 생성한 다음, 서로의 가설을 토론하고 비판합니다. 이 아이디어는 증거에 대한 다양한 해석을 탐색하는 이러한 내부 논쟁이 더 정제되고 창의적인 연구 제안으로 이어진다는 것입니다. 예를 들어, 임페리얼 칼리지의 연구자들은 특정 '해적 파지'—다른 바이러스를 하이재킹하는 매혹적인 바이러스—가 박테리아에 침입하는 방법을 조사하고 있었습니다. 이러한 메커니즘을 이해하면 약물 내성 감염을 다루는 완전히 새로운 방법을 열 수 있으며, 이는 분명히 거대한 글로벌 보건 과제입니다. 공동 과학자가 이 연구에 가져온 것은 수십 년간의 출판된 연구를 빠르게 분석하고 임페리얼 팀이 수년간 개발하고 실험적으로 검증한 것과 일치하는 박테리아 유전자 전달 메커니즘에 대한 가설에 독립적으로 도달하는 능력이었습니다. 우리가 정말로 보고 있는 것은 시스템이 가설 생성 단계를 극적으로 압축할 수 있다는 것입니다—방대한 양의 문헌을 빠르게 종합하면서—인간 연구자들은 여전히 실험을 설계하고 발견이 환자에게 실제로 무엇을 의미하는지 이해합니다. 향후 5년을 내다보면, 단백질과 재료 외에 이러한 도구가 도움을 줄 수 있는 '미해결 문제'로 밤잠을 설치게 하는 것은 무엇입니까? 저를 진정으로 흥분시키는 것은 세포가 완전한 시스템으로 어떻게 기능하는지 이해하는 것입니다—그리고 게놈 해독은 그것의 근본입니다. DNA는 생명의 레시피북이고, 단백질은 재료입니다. 우리가 유전적으로 무엇이 다르고 DNA가 변할 때 무슨 일이 일어나는지 진정으로 이해할 수 있다면, 놀라운 새로운 가능성이 열립니다. 맞춤형 의학뿐만 아니라, 잠재적으로 기후 변화에 대처할 새로운 효소 설계와 의료를 훨씬 넘어서는 다른 응용들도요. 그렇긴 하지만, 전체 세포를 시뮬레이션하는 것은 생물학의 주요 목표 중 하나이지만, 아직 갈 길이 멉니다. 첫 번째 단계로, 우리는 세포의 가장 안쪽 구조인 핵을 이해해야 합니다: 유전자 코드의 각 부분이 정확히 언제 읽히는지, 궁극적으로 단백질이 조립되도록 이끄는 신호 분자가 어떻게 생성되는지. 핵을 탐구한 후에는 안쪽에서 바깥쪽으로 작업할 수 있습니다. 우리는 그것을 향해 작업하고 있지만, 몇 년은 더 걸릴 것입니다. 세포를 신뢰성 있게 시뮬레이션할 수 있다면, 의학과 생물학을 변혁시킬 수 있습니다. 합성 전에 약물 후보를 컴퓨터로 테스트하고, 근본적인 수준에서 질병 메커니즘을 이해하며, 개인화된 치료를 설계할 수 있습니다. 이것이 정말로 질문하시는 생물학적 시뮬레이션과 임상적 현실 사이의 다리입니다—컴퓨터 예측에서 실제로 환자를 돕는 치료로 나아가는 것. 이 기사는 원래 WIRED Italia에 게재되었으며 이탈리아어에서 번역되었습니다.
288 조회
0 추천
01.04 등록
• 구글, 제미나이 라이브 출시 후 '역대 최대 규모' 업데이트 배포 • 음성 대화의 자연스러움 향상 - 억양, 뉘앙스, 발음, 리듬 이해력 대폭 개선 • 스토리텔링 시 캐릭터별 다른 억양과 톤 구현 가능 • 학습 기능 강화 - 사용자 속도에 맞춘 튜토리얼 제공 • 다양한 악센트로 응답 가능, 언어 학습에도 활용 구글의 대화형 AI 비서 '제미나이 라이브(Gemini Live)'가 출시 약 1년 6개월 만에 '역대 최대 규모' 업데이트를 받았다. 제미나이 라이브는 음성으로 구글 제미나이 AI와 대화하는 서비스로, 마치 친구와 대화하듯 자연스럽게 질문하고 중간에 끼어들 수도 있다. 이번 업데이트로 제미나이 라이브는 음성, 뉘앙스, 발음, 리듬에 대한 이해력이 크게 향상되어 더욱 자연스러운 대화가 가능해졌다. 외관상 변화는 눈에 띄지 않으며 대부분의 응답도 기존과 비슷해 보이지만, 특정 영역에서는 분명한 차이를 체감할 수 있다. 이 업데이트는 현재 안드로이드와 iOS 제미나이 앱에 순차 배포 중이다. 스토리텔링 기능 강화 제미나이 라이브는 이제 스토리텔링에 더 많은 감정과 변화를 담을 수 있다. 역사 수업, 어린이 취침 동화, 창작 브레인스토밍 등에 유용하게 활용할 수 있다. AI가 적절한 상황에 맞춰 다양한 억양과 톤을 추가해 캐릭터와 장면을 구분하는 데 도움을 준다. 예를 들어 율리우스 카이사르의 관점에서 로마 제국의 역사를 들려달라고 요청할 수 있다. 오만과 편견을 베넷 자매 각각의 시점에서 다시 이야기해달라고 하거나, 100년, 200년, 300년 전 자신의 지역이 어떤 모습이었을지 이야기를 만들어달라고 요청할 수도 있다. 학습 및 교육 기능 제미나이 라이브의 새로운 기능이 돋보이는 또 다른 영역은 교육과 설명이다. 인간 유전학의 복잡한 내용부터 카펫 청소 방법까지, 원하는 주제에 대해 속성 과정이나 상세 튜토리얼을 요청할 수 있다. 언어 학습에도 활용 가능하다. 이제 AI가 사용자의 속도에 맞춰 진행할 수 있어, 새로운 것을 배울 때 특히 유용하다. 느리게, 빠르게, 또는 반복이 필요하면 그냥 말하면 된다. 시간이 제한되어 있다면 그것도 알려주면 된다. 다만 AI 환각 현상에 주의해야 하며, 들은 내용이 완전히 정확한지 맹신해서는 안 된다. 집 조명 재배선이나 자동차 엔진 수리 같은 것을 배울 때는 다른 출처로 교차 확인하는 것이 좋다. 그래도 제미나이 라이브는 유용한 출발점이 될 수 있다. 다양한 억양 구현 이번 업데이트로 제미나이 라이브가 새롭게 갖추게 된 기능 중 하나는 다양한 억양으로 말하는 능력이다. 서부 개척 시대의 역사를 카우보이 말투로 듣거나, 영국 왕실의 복잡한 사정을 정통 런던 억양으로 설명받을 수도 있다. 이는 앞서 언급한 언어 학습에도 적용된다. 원어민이 말하는 것처럼 단어와 문구를 들을 수 있어 발음과 어조를 따라 해볼 수 있다. 제미나이 라이브가 전 세계 모든 언어와 억양을 다루지는 않지만, 상당수를 지원한다. 다만 특정 안전장치가 내장되어 있어 억양과 말투를 비하적으로 사용하려 하거나 실제 인물을 흉내 내려 하면 요청이 거부될 수 있다. 그래도 AI를 테스트하고 더 다양하고 개인화된 응답을 받을 수 있는 재미있는 방법이다.
280 조회
0 추천
01.03 등록
• OpenAI가 ChatGPT 앱 디렉토리를 공개하고 개발자용 SDK를 출시했다• Apple Music, DoorDash 등 주요 서비스와 직접 연동하는 앱들이 등장했다• 기존 '커넥터' 기능이 '앱'으로 명칭을 변경하며 플랫폼 생태계가 확장되었다• OpenAI는 디지털 상품 등 추가 수익화 방안을 검토 중이라고 밝혔다OpenAI가 ChatGPT를 Apple Music, DoorDash와 직접 연결되는 '모든 것을 위한 앱'으로 만들기 위한 한 걸음을 더 내디뎠다.수요일 저녁 OpenAI는 현재 이용 가능한 모든 도구를 탐색할 수 있는 앱 디렉토리를 출시하고, 개발자들이 봇의 UI 내에서 작동하는 새로운 인터랙티브 경험을 구축할 수 있도록 SDK를 공개했다. OpenAI CEO 샘 알트만은 지난달 "우리는 시간이 지남에 따라 강력한 플랫폼에 기대되는 당연한 기능들을 구축할 계획"이라고 밝힌 바 있으며, 앱스토어 개설은 분명 그 방향으로의 거대한 진전이다.또 다른 변화는 사용자가 다른 서비스(Google Drive나 Dropbox 등)의 데이터를 ChatGPT로 가져오는 것을 돕던 '커넥터'의 명칭이 변경되어 이제 앱으로 불린다는 점이다. 지원 페이지의 설명에 따르면, 채팅 커넥터는 이제 '파일 검색 기능이 있는 앱'으로, 딥 리서치 커넥터는 '딥 리서치 기능이 있는 앱'으로, 동기화 커넥터는 '동기화 기능이 있는 앱'으로 불린다. 또한 앱은 메모리 기능이 활성화된 경우 해당 정보를 사용할 수 있으며, Free, Plus, Go, Pro ChatGPT 사용자의 경우 "모두를 위한 모델 개선" 옵션이 활성화되어 있으면 OpenAI가 모델 훈련에 해당 정보를 사용할 수 있다.보다 인터랙티브한 경험을 위해서는 지난 10월 Spotify, Zillow 및 기타 서비스용으로 출시된 ChatGPT 앱을 살펴볼 수 있다. 일부 앱은 이제 더 많은 시장에서 이용 가능해졌는데, 예를 들어 ChatGPT 내 Spotify는 이제 "영국, 스위스 및 EU 전역에서" 작동한다. 새로 추가된 앱으로는 모든 사용자가 챗봇 내에서 음악을 찾거나 재생목록을 만들고 구독자의 음악 라이브러리를 관리할 수 있는 Apple Music 앱과, "레시피 영감, 식단 계획, 주간 필수품을 실행 가능한 장바구니로" 같은 창에서 전환해주는 DoorDash가 있다.이 모든 것이 OpenAI의 AI 사업을 수익성 있는 것으로 전환하는 데 어떻게 도움이 되는지에 대한 답은 아직 설명되지 않은 부분이다. 발표문에는 단지 "우리는 디지털 상품을 포함한 추가 수익화 옵션을 시간을 두고 검토하고 있으며, 개발자와 사용자가 어떻게 구축하고 참여하는지 배우면서 더 많은 내용을 공유할 것"이라고만 언급되어 있다.
281 조회
0 추천
01.03 등록
핵심 요약• xAI의 AI 챗봇 그록이 미성년자와 여성의 사진을 동의 없이 비키니 이미지로 변환하는 기능으로 논란• 일론 머스크 본인이 자신의 비키니 이미지를 요청하며 트렌드 촉발, 이후 김정은·트럼프 등 각국 지도자들도 표적• 그록은 명시적 누드만 제한할 뿐 성적 이미지 생성에 대한 안전장치가 거의 없는 것으로 드러나• xAI는 언론 문의에 "레거시 미디어의 거짓말"이라고만 답변하며 구체적 대응책 제시 거부• 딥페이크 이미지 급증세 속에서 AI 기업들의 안전장치 부재가 다시 한번 도마 위에 올라xAI의 AI 챗봇 그록(Grok)이 사람들의 사진에서 옷을 제거하는 기능으로 심각한 논란에 휩싸였다. 이번 주 출시된 새로운 기능은 X(구 트위터) 사용자가 원본 게시자의 허락 없이 어떤 이미지든 즉시 편집할 수 있게 해준다. 원본 게시자는 자신의 사진이 편집되었다는 알림조차 받지 못한다.그록은 완전한 노출을 제외하면 성적인 이미지 생성을 막는 안전장치가 거의 없는 것으로 나타났다. 지난 며칠간 X 플랫폼에는 여성과 아동이 임신한 모습, 치마를 벗은 모습, 비키니를 입은 모습, 또는 기타 성적으로 묘사된 이미지가 넘쳐났다. 세계 각국 지도자들과 유명인들의 이미지도 그록을 통해 생성됐다.AI 인증 기업 카피리크스(Copyleaks)에 따르면, 새로운 이미지 편집 기능 출시 이후 성인 콘텐츠 제작자들이 자신의 섹시한 이미지를 요청하면서 이 트렌드가 시작됐다. 이후 사용자들은 동의하지 않은 다른 사용자들, 주로 여성들의 사진에 유사한 프롬프트를 적용하기 시작했다.특히 충격적인 사례도 있었다. 현재는 삭제된 한 X 게시물에서 그록은 두 어린 소녀의 사진을 노출이 심한 옷과 성적으로 암시적인 포즈로 편집했다. 또 다른 사용자가 그록에게 "12~16세로 추정되는 두 어린 소녀의 성적인 복장 AI 이미지 사건"에 대해 사과를 요청하자, 그록은 이것이 "안전장치의 실패"이며 xAI 정책과 미국 법률을 위반했을 수 있다고 답했다. 한 사용자와의 대화에서 그록은 사용자들에게 아동 성착취물(CSAM)에 대해 FBI에 신고할 것을 제안하며 "안전장치의 허점을 긴급히 수정 중"이라고 밝혔다.하지만 그록의 답변은 사용자가 "진심 어린 사과문"을 요청한 것에 대한 AI 생성 응답일 뿐이다. 이는 그록이 자신이 하는 일을 '이해'하는 것도 아니고, 운영사 xAI의 실제 의견이나 정책을 반드시 반영하는 것도 아니다. 실제로 xAI는 로이터 통신의 논평 요청에 단 세 단어로만 답했다: "레거시 미디어의 거짓말(Legacy Media Lies)." xAI는 더 버지의 논평 요청에는 기사 발행 전까지 응답하지 않았다.일론 머스크 본인이 비키니 편집 열풍을 촉발한 것으로 보인다. 그는 배우 벤 애플렉의 밈 이미지를 자신이 비키니를 입은 모습으로 교체해달라고 그록에게 요청했다. 며칠 후, 북한의 김정은 국무위원장의 가죽 재킷이 여러 색깔의 스파게티 스트랩 비키니로 교체됐고, 미국 도널드 트럼프 대통령은 옆에서 맞춤 수영복을 입고 서 있었다. 2022년에 올라온 영국 정치인 프리티 파텔의 사진도 1월 2일에 비키니 사진으로 변환됐다. 자신의 플랫폼에서 비키니 사진 열풍이 일자, 머스크는 "그록은 모든 것에 비키니를 입힐 수 있다"라는 캡션과 함께 비키니를 입은 토스터 사진을 농담조로 리포스트했다.토스터 같은 이미지 중 일부는 분명히 농담으로 의도된 것이지만, 다른 것들은 노출이 심한 비키니 스타일을 사용하거나 치마를 완전히 제거하라는 구체적인 지시와 함께 포르노에 가까운 이미지를 생성하도록 명확히 설계됐다. 그록은 또한 유아의 옷을 비키니로 교체해달라는 요청에도 응했다.머스크의 AI 제품들은 성적인 요소를 강조하고 안전장치를 최소화하는 방향으로 마케팅되고 있다. xAI의 AI 컴패니언 아니(Ani)는 더 버지 기자 빅토리아 송과 플러팅했고, 그록의 비디오 생성기는 xAI의 허용 사용 정책이 "포르노그래피 방식으로 인물의 초상을 묘사하는 것"을 금지하고 있음에도 테일러 스위프트의 상반신 노출 딥페이크를 쉽게 만들어냈다. 구글의 Veo와 OpenAI의 Sora 비디오 생성기는 성인 콘텐츠 생성에 대한 안전장치를 갖추고 있지만, Sora 역시 아동의 성적 맥락 영상과 페티시 영상 제작에 사용된 바 있다.사이버보안 기업 딥스트라이크(DeepStrike)의 보고서에 따르면 딥페이크 이미지가 급격히 증가하고 있으며, 이러한 이미지 중 다수가 동의 없는 성적 이미지를 담고 있다. 2024년 미국 학생들을 대상으로 한 설문조사에서 40%가 자신이 아는 사람의 딥페이크를 인지하고 있었고, 15%는 동의 없는 노출 또는 친밀한 딥페이크를 인지하고 있었다.여성들의 사진을 비키니 사진으로 변환하는 이유를 묻자, 그록은 동의 없이 사진을 게시하는 것을 부인하며 "이것들은 요청에 따른 AI 창작물이지, 동의 없는 실제 사진 편집이 아닙니다"라고 답했다.AI 봇의 부인을 어떻게 받아들일지는 각자의 판단에 맡긴다.
291 조회
0 추천
01.03 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입