AI 뉴스

로맨스 사기에 악용되는 초정밀 AI 얼굴 합성 플랫폼

페이지 정보

작성자 symbolika
작성일 01.04 19:43
300 조회
0 추천
0 비추천

본문

AI Face Swapping


• 중국어 기반 AI 앱 'Haotian(浩天)'이 텔레그램을 통해 얼굴 합성 기술을 판매하며 최소 390만 달러의 수익 창출
• 해당 플랫폼이 동남아시아 '돼지 도살' 사기 조직과 온라인 사기범들에게 마케팅하고 있다는 정황 포착
• 유엔마약범죄사무소, 지난 2년간 동남아시아 사이버 범죄에 활용되는 10개 이상의 얼굴 합성 도구 확인
• 암호화폐 추적 기업 분석 결과, Haotian 결제의 거의 절반이 미국 정부 제재 대상 사기 마켓플레이스와 연관
• Haotian은 음성 복제 기능도 제공하며, 딥페이크 탐지를 회피하는 기술적 개선을 지속적으로 업데이트


중국어 기반 인공지능 앱 'Haotian(浩天)'은 텔레그램을 통해 얼굴 합성 기술을 판매하며 수백만 달러의 수익을 올릴 정도로 효과적이다. 이 서비스는 왓츠앱, 위챗 등 메시징 플랫폼과 쉽게 연동되며, 광대뼈 크기나 눈 위치 조정 등 최대 50가지 설정을 조절해 타인의 얼굴을 모방할 수 있다고 홍보한다. 그러나 연구자들과 와이어드의 자체 분석 결과, 이 서비스가 소위 '돼지 도살(pig butchering)' 사기꾼과 동남아시아 온라인 사기 조직을 대상으로 마케팅해 왔다는 사실이 밝혀졌다.

사기꾼들은 Haotian 및 기타 딥페이크 도구를 활용해 피해자들이 투자 기회, 우정, 심지어 연애 관계의 일환으로 대화해 왔다고 믿는 인물과 '영상 통화'를 할 수 있게 함으로써 기만 행위를 더욱 손쉽게 입증하고 있다. 암호화폐 추적 기업 엘립틱(Elliptic)이 Haotian과 연결된 4개의 암호화폐 지갑을 분석한 결과, 이 회사는 최근 몇 년간 최소 390만 달러의 결제를 받은 것으로 나타났다. 여기에는 사기를 포함한 범죄 활동과 연관된 암호화폐 지갑에서 유입된 자금도 포함되어 있다. 또한 엘립틱에 따르면 결제의 거의 절반이 미국 정부의 제재 대상인 사기 마켓플레이스와 연관되어 있었다.

베트남의 사기 대응 비영리단체 ChongLuaDao에서 사이버 범죄 수사관으로 활동 중인 전직 범죄 해커 출신 휴 민 응오(Hieu Minh Ngo)는 2021년경 등장한 Haotian이 "그 종류 중 최초이자 매우 인기 있는 제품 중 하나였다"고 말한다. 응오는 Haotian과 그 운영에 대해 광범위한 연구를 수행해 왔다. 그는 "그 결과물은 거의 완벽에 가깝다"며 "그리고 매일매일 더 좋아지고 있다. 암호화폐 지갑을 확인해 보면 매일 돈이 들어오는 것을 볼 수 있다"고 덧붙였다.

Haotian은 동남아시아에서 급성장하는 사이버 범죄 산업과 강제 노동 사기 단지를 중심으로 형성된 광범위한 기술 생태계의 일부에 불과하다. 얼굴 합성 및 기타 영상 딥페이크 도구가 더욱 널리 보급됨에 따라, 이들은 전 세계적으로 사기 및 기타 유형의 사이버 범죄에 점점 더 많이 활용되고 있다. 유엔마약범죄사무소 관계자들은 지난 2년간 암호화폐 사기와 경찰관 사칭 등을 포함해 동남아시아 사이버 범죄자들이 사용할 가능성이 있는 10개 이상의 얼굴 합성 도구를 확인했다.

Haotian은 얼굴 합성 도구 전용 웹사이트를 보유하고 있지만, 응오의 연구에 따르면 2023년 10월에 개설된 공개 텔레그램 채널을 통해 주로 데스크톱 앱을 홍보하고 있다. 현재 2만 명 이상의 구독자를 보유한 이 채널을 통해 회사는 앱의 새 버전을 마케팅하고, 개발 업데이트를 제공하며, 기술 지원을 제공한다. 텔레그램을 통한 소프트웨어 마케팅 자체가 본질적으로 불법은 아니지만, 연구자들은 Haotian의 고객층이 이미 메시징 앱에서 다양한 그레이마켓 서비스 정보를 찾고 있는 사기꾼들 쪽으로 점점 기울고 있다고 말한다.

텔레그램은 논평을 거부했다. 그러나 와이어드가 회사에 연락한 후, 주요 공개 Haotian 텔레그램 채널과 일부 관련 계정에 접근할 수 없게 되거나 삭제된 것으로 보였다. 텔레그램은 회사가 이 계정들을 폐쇄했는지에 대한 논평 요청에 응하지 않았다.

Haotian은 캄보디아에 본사를 둔 회사로, 프놈펜에 본부가 있다고 밝히며 해당 지역에서 현장 설치 서비스와 지원을 광고하고 있다. 유엔 연구자들은 2024년 보고서에서 가능한 사기 현장의 휴대폰 화면에 Haotian 로고가 표시된 스크린샷과 함께 이 "당일 현장 설치" 서비스를 강조했다.

회사의 마케팅 자료는 웹사이트와 텔레그램 모두에서 잠재적으로 의심스러운 활동에 유용할 수 있는 도구의 활용성을 자주 언급한다. 텔레그램의 한 게시물은 이 기술이 "고객이 완전히 믿는" "엘리트적이고 진정성 있는 페르소나"를 만드는 데 도움이 될 수 있다고 말한다. (사기꾼들은 종종 사기 피해자를 고객이라고 부른다). 연구자들이 강조한 또 다른 메시지는 "채팅에 진정성이 없나요? 신뢰가 없나요? Haotian AI 얼굴 변환 소프트웨어를 사용해 영상 통화를 하면 모든 문제가 해결됩니다. 결국, 이렇게 아름다운 여자가 어떻게 거짓말을 하겠습니까?"라고 적혀 있었다.

보안 기업 Tehtris가 3월에 발표한 연구에서는 현재 사이트인 "haotian.ai"와 과거 주소인 "haotianai.com", "haotianai.us" 등 최근 몇 년간 Haotian과 연결된 것으로 보이는 다양한 도메인 이름을 추적했다. 한편 응오의 연구에 따르면 Haotian 웹사이트는 공개적으로 사회공학 기법을 언급해 왔다. 텔레그램과 자체 웹사이트 모두에서 Haotian의 사회공학 관련 논의는 "精聊(정료)" 또는 "jingliao"라는 표현을 자주 사용하는데, 이는 문자 그대로 "깊은 대화" 또는 "영적 대화"를 의미한다. 그러나 실제로 이 표현은 사회공학을 지칭하며, 특히 '돼지 도살' 사기를 암시한다.

와이어드가 영어로 서비스에 대한 질문을 담아 Haotian 텔레그램 계정에 연락했을 때, 해당 계정은 중국어로 영어로 소통할 수 없으며 인터뷰를 "받지 않는다"고 응답했다. "우리의 목표 고객은 엔터테인먼트 스트리머나 라이브 판매자입니다"라고 Haotian 계정은 중국어로 말했다. "우리는 라이브 스트리밍용 얼굴 합성 소프트웨어만 제공하며 불법 활동에 제품이 사용되는 것을 허용하지 않습니다." 와이어드의 번역에 따르면, 회사는 일부 자료에서 딥페이크 포르노 제작에 제한을 두고 있다고 명시하고 있다.

Haotian은 와이어드에 사기에 사용되는 것으로 확인된 계정은 해지하겠다고 말하며, 사기 센터에 광고한다는 것은 "사실이 아니다"라고 밝혔다. 해당 계정은 그러한 마케팅이 존재한다면 "십중팔구" Haotian을 사칭하는 계정에서 비롯된 것이라고 추측했다. 사기꾼들에게 마케팅하는 것처럼 보이는 haotian.ai의 문구에 대해 질문받자, Haotian 텔레그램 계정은 회사가 웹사이트를 가지고 있지 않다고 말했다. 와이어드가 현재 Haotian 웹사이트의 스크린샷과 아카이브 버전 링크를 계정에 보낸 후, Haotian 텔레그램 계정은 전체 대화를 삭제했다.

Haotian의 데스크톱 소프트웨어를 사용하는 방법은 여러 가지가 있다. 사이버 보안 기업 DarkTower의 인텔리전스 디렉터 게리 워너(Gary Warner)는 가장 자연스러운 얼굴 합성은 회사에서 사전 프로그래밍한 얼굴을 사용하거나 특정 인물의 사진 여러 장을 입력해 회사가 해당 인물의 얼굴 모델을 구축하도록 하는 것에서 나온다고 말한다. 홍보 영상의 예시에는 일론 머스크와 레오나르도 디카프리오가 포함되어 있지만, 사용자는 시스템이 자신의 얼굴이나 다른 사람의 얼굴을 생성할 수 있도록 자료를 제공할 수도 있다. Haotian에 제공되는 소스 자료가 적을수록 결과물의 설득력은 떨어진다. 그럼에도 불구하고 사용자는 세밀한 도구를 사용해 다양한 얼굴 속성을 다듬어 얼굴 합성된 외모를 조정할 수 있다. 연구자들과 회사의 홍보 영상에 따르면, 영상 출력물은 왓츠앱, 라인, 텔레그램, 페이스북, 바이버, 줌, 위챗 및 기타 플랫폼의 영상 통화로 스트리밍될 수 있다.

또한 Haotian은 연관된 텔레그램 채널에서 음성 사칭 기능과 AI 지원 챗봇을 광고한다. 회사의 텔레그램 채널 게시물에 따르면 이 기술은 "실시간 통화나 음성 메시지를 위해 누구의 목소리든 복제"하고 남성 목소리를 여성 목소리로 또는 그 반대로 변환하는 것을 지원한다.

전 세계 보안 전문가와 당국은 사기의 일환으로 얼굴 합성 도구를 사용하는 사이버 범죄자들의 위협에 대해 점점 더 경고하고 있다. 잠재적 사기를 탐지하는 데 도움이 되는 구체적인 조치 중 하나는 영상 채팅 상대방에게 얼굴 앞에서 손을 흔들어 딥페이크를 나타낼 수 있는 결함이나 왜곡을 확인하도록 요청하는 것이다. 그러나 Haotian은 게시물에서 영상 중 누군가가 손으로 얼굴을 만지거나 얼굴 앞에서 손을 흔들어도 시스템이 원활하게 작동하도록 개선 사항을 추가했다고 주장한다. 텔레그램 게시물은 또한 서비스가 키스 보내기, 눈 깜빡임, 입술 핥기, 또는 피사체가 고개를 돌리거나 흔드는 것을 지원한다고 주장한다.

소프트웨어 버전은 Haotian 웹사이트에서 다운로드할 수 있지만, 회사는 주로 구독 방식으로 소프트웨어를 판매해 왔다. 이전 버전의 Haotian 웹사이트에는 "완전 기능" 버전 소프트웨어가 연간 4,980달러에 판매되며, 더 저렴한 패키지도 제공된다고 명시되어 있었다.

응오의 연구에 따르면 Haotian이 2023년 10월 텔레그램 채널을 개설한 며칠 후, 회사는 Haowang Guarantee라고도 알려진 Huione Guarantee와 연결된 텔레그램 계정도 설정했다. 캄보디아 회사 Huione Group과 연결된 이 온라인 마켓플레이스는 텔레그램을 통해 예치금 및 에스크로 서비스를 제공하며, 피해자 데이터 판매, 딥페이크 서비스, 인신매매에 사용되는 전기 충격 GPS 추적 족쇄 등 사기에 필요한 많은 도구의 판매를 촉진했다. Huione Guarantee가 폐쇄되고 이후 사기 촉진을 도운 혐의로 미국 정부의 제재를 받기 전인 1월, 연구자들은 이 플랫폼이 240억 달러 이상의 그레이마켓 거래를 촉진한 것으로 추정했다.

Huione Guarantee는 Haotian의 결제 처리 및 에스크로 서비스이기도 했다. 이 관계의 증거는 고객들이 결제를 완료하는 두 회사 관련 텔레그램 채널에서 수년간 확인할 수 있었다. 와이어드가 검토한 채팅 로그와 여러 연구자들의 조사 결과가 이 연결을 뒷받침한다.

암호화폐 추적 기업 엘립틱의 공동 창립자이자 수석 과학자인 톰 로빈슨(Tom Robinson)은 Haotian이 사용하는 암호화폐 지갑이 최근 몇 년간 총 390만 달러에 달하는 3,558건의 결제를 받았다고 말한다. 그 중 120만 달러는 Haotian과 Huione 관련 업체 간의 거래였으며, 이들 간의 거래는 11월 7일에 종료되었다. 이 서비스는 USDT로도 알려진 스테이블코인 테더를 사용한다. 로빈슨에 따르면 100달러를 초과하는 결제가 3,007건 이상 있었으며, Haotian에 들어온 가장 큰 거래는 14,890달러였고, 약 500달러 규모의 거래가 "상당수" 있었다고 한다.

로빈슨의 연구에 따르면 Haotian에 결제한 일부 암호화폐 지갑은 잠재적 범죄 활동과 연관되어 있었다. 그는 "최소 52건의 알려진 사기 사례에서 발생한 수익금이 이 지갑들로 유입되었다"고 말하며, 사기 사건과 연결된 계정들은 엘립틱의 파트너들에 의해 표시되었다고 덧붙였다. "이것이 사기꾼들이 사용하는 플랫폼이라면 정확히 예상할 수 있는 결과입니다. 그들이 저지른 사기의 수익금으로 비용을 지불하고 있을 테니까요."

Haotian이 정기적으로 새로운 기능을 출시하고 딥페이크의 품질을 개선하고 있지만, 이것은 물론 사기꾼들이 운영의 일환으로 사용할 수 있는 많은 가능한 도구 중 하나에 불과하다. 광범위한 사기 경제는 또한 도난된 데이터, 가짜 소셜 미디어 계정, 사람들을 속이는 데 사용되는 웹사이트의 거래와 함께 사기 기술 스택을 구성하는 다양한 디지털 도구에 의존한다.

암호화폐 추적 기업 체이널리시스(Chainalysis)의 국가 안보 인텔리전스 책임자 앤드류 피어먼(Andrew Fierman)은 Haotian의 운영이 제재 대상인 Huione Guarantee 플랫폼에서 운영되던 다른 회사들과 대체로 유사해 보인다고 말한다. 이들 기술 업체는 종종 수십만 달러에서 수백만 달러를 처리했다. 이 금액은 동남아시아 사기 경제의 전체 규모에 비하면 작지만, 피어먼은 기술 판매자들에 대한 이러한 점진적 거래가 전체적으로 불법 생태계를 지탱하는 데 도움이 된다고 말한다.

"몇천 달러면 많은 것을 할 수 있습니다"라고 그는 말한다. "우리는 돼지 도살 사기를 운영하는 데 10만 달러가 드는 기술에 대해 이야기하는 것이 아닙니다. 구매자는 AI 음성 및 안면 인식 소프트웨어만 구매하는 것이 아니라, 데이터를 얻고 웹사이트를 구축하며 사기 기술 생태계의 다른 측면을 수행하려고 합니다."

댓글 0
전체 1,366 / 12 페이지
• OpenAI, 구글, 마이크로소프트 등 주요 AI 기업들이 'AI 에이전트' 개발에 총력을 기울이고 있다• AI 에이전트는 사람의 개입 없이 예약, 구매, 업무 처리 등을 자율적으로 수행하는 프로그램이다• 지난 12개월간 AI 에이전트 스타트업에 82억 달러가 투자되며 전년 대비 81.4% 증가했다• 기업들은 막대한 AI 개발 비용을 회수할 수익 모델로 에이전트를 주목하고 있다• 그러나 AI 환각 현상과 신뢰성 문제로 실용화까지는 아직 갈 길이 멀다는 지적도 나온다인류는 수 세기에 걸쳐 업무를 자동화해왔다. 이제 AI 기업들은 인간의 효율성 추구 본능을 활용해 수익을 창출할 방법을 찾았고, 그 해결책에 '에이전트'라는 이름을 붙였다.AI 에이전트란 최소한의 인간 개입으로 업무를 수행하고, 의사결정을 내리며, 환경과 상호작용하는 자율 프로그램을 말한다. 현재 AI 분야의 모든 주요 기업이 이 기술에 집중하고 있다. 마이크로소프트는 고객 서비스와 행정 업무 자동화를 위한 '코파일럿'을 개발했고, 구글 클라우드 CEO 토마스 쿠리안은 최근 6가지 AI 생산성 에이전트 구상을 발표했다. 구글 딥마인드는 AI 에이전트 훈련용 시뮬레이션 개발을 위해 OpenAI의 소라 공동 책임자를 영입하기도 했다. 앤트로픽은 AI 챗봇 클로드에 사용자가 직접 'AI 어시스턴트'를 만들 수 있는 기능을 추가했으며, OpenAI는 범용 인공지능(AGI) 달성을 위한 5단계 로드맵에서 에이전트를 2단계로 설정했다.물론 컴퓨팅 분야에는 이미 수많은 자동화 시스템이 존재한다. 웹사이트의 팝업 고객 서비스 봇, 알렉사 스킬스 같은 음성 비서, 간단한 IFTTT 스크립트를 사용해본 사람이 많을 것이다. 그러나 AI 기업들은 '에이전트'가—절대 봇이라 부르지 말 것—이전과는 다르다고 주장한다. 단순하고 반복적인 명령을 따르는 대신, 에이전트는 환경과 상호작용하고, 피드백을 통해 학습하며, 지속적인 인간 개입 없이도 스스로 결정을 내릴 수 있다는 것이다. 구매, 여행 예약, 회의 일정 조율 같은 업무를 역동적으로 처리하고, 예상치 못한 상황에 적응하며, 다른 인간이나 AI 도구와도 상호작용할 수 있다.AI 기업들은 에이전트가 값비싸고 강력한 AI 모델을 수익화할 방법이 될 것으로 기대한다. 벤처 캐피털은 기술과 인간의 상호작용 방식을 혁신하겠다고 약속하는 AI 에이전트 스타트업에 쏟아지고 있다. 기업들은 고객 서비스부터 데이터 분석까지 모든 것을 에이전트가 처리하는 효율성의 도약을 꿈꾼다. 개인 사용자에게 AI 기업들은 일상적인 업무가 자동화되어 창의적이고 전략적인 일에 더 많은 시간을 쓸 수 있는 새로운 생산성 시대를 제시하고 있다. 진정한 신봉자들의 궁극적 목표는 단순한 도구가 아닌 진정한 파트너로서의 AI를 만드는 것이다.OpenAI CEO 샘 알트만은 올해 초 MIT 테크놀로지 리뷰와의 인터뷰에서 사용자들이 진정으로 원하는 것은 "그저 곁에서 당신을 도와주는 존재"라고 말했다. 알트만은 킬러 AI 앱은 간단한 업무는 즉시 처리하고, 복잡한 문제는 알아서 해결한 뒤 답을 가져다주는 것이어야 한다고 설명했다. "내 삶의 모든 것, 모든 이메일, 모든 대화를 알고 있지만 나의 연장처럼 느껴지지 않는 초유능한 동료" 같은 존재 말이다. 테크 기업들은 적어도 1970년대부터 개인 비서 자동화를 시도해왔고, 이제 드디어 가까워졌다고 약속하고 있다.OpenAI의 연례 개발자 행사인 Dev Day를 앞두고 열린 기자 간담회에서 개발자 경험 책임자 로맹 위에는 새로운 실시간 API를 활용한 어시스턴트 에이전트를 시연했다. 위에는 에이전트에게 예산과 조건을 제시한 뒤 가상의 상점에 전화를 걸어 초콜릿 딸기 400개를 주문하도록 했다.이 서비스는 2018년 구글이 선보인 예약 전화 봇 '듀플렉스'와 유사하다. 하지만 당시 봇은 가장 단순한 시나리오만 처리할 수 있었고, 실제로 통화의 4분의 1은 사람이 대신 처리한 것으로 밝혀졌다.위에는 영어로 주문을 시연했지만, 도쿄에서는 더 복잡한 시연을 했다고 밝혔다. 에이전트가 일본어로 호텔 객실을 예약하고, 완료 후 영어로 다시 전화해 확인하도록 한 것이다. 위에는 "물론 저는 일본어 부분은 이해하지 못합니다—그냥 알아서 처리하는 거죠"라고 말했다.그러나 이 시연은 기자들 사이에서 즉각적인 우려를 불러일으켰다. AI 어시스턴트가 스팸 전화에 악용될 수 있지 않을까? 왜 스스로를 AI 시스템이라고 밝히지 않는가? (위에는 공식 Dev Day에서 시연을 수정해 에이전트가 "로맹의 AI 어시스턴트"라고 자신을 소개하도록 했다고 참석자가 전했다.) 불안감이 역력했고, 이는 놀라운 일이 아니었다—에이전트 없이도 AI 도구는 이미 속임수에 사용되고 있기 때문이다.또 다른, 어쩌면 더 시급한 문제도 있었다. 시연이 제대로 작동하지 않은 것이다. 에이전트는 충분한 정보가 없었고 디저트 맛을 잘못 기록해 바닐라, 딸기 같은 맛을 열에 자동 입력했다. 정보가 없다고 말하는 대신 말이다. 에이전트는 다단계 작업이나 예상치 못한 상황에서 자주 문제를 일으킨다. 또한 기존 봇이나 음성 비서보다 훨씬 많은 에너지를 소모한다. 추론하거나 여러 시스템과 상호작용할 때 상당한 연산 능력이 필요해 대규모 운영 비용이 높다.AI 에이전트는 잠재력의 도약을 제공하지만, 일상적인 업무에서는 아직 봇, 어시스턴트, 스크립트보다 크게 나은 점이 없다. OpenAI와 다른 연구소들은 강화학습을 통해 추론 능력을 향상시키면서, 무어의 법칙이 계속해서 더 저렴하고 강력한 컴퓨팅을 제공하기를 바라고 있다.그렇다면 AI 에이전트가 아직 그다지 유용하지 않은데 왜 이 개념이 이토록 인기일까? 한마디로 시장 압력 때문이다. 이 기업들은 강력하지만 비용이 많이 드는 기술을 보유하고 있으며, 사용자에게 비용을 청구할 수 있는 실용적인 활용 사례를 찾는 데 필사적이다. 약속과 현실 사이의 격차가 투자를 끌어들이는 매력적인 과대광고 사이클을 만들어내고 있으며, 공교롭게도 OpenAI는 에이전트를 홍보하기 시작할 때쯤 66억 달러를 투자받았다.AI 에이전트 스타트업들은 지난 12개월간 156건의 거래를 통해 82억 달러의 투자를 유치했으며, 이는 전년 대비 81.4% 증가한 수치라고 피치북 데이터가 밝혔다. 더 잘 알려진 프로젝트 중 하나는 세일즈포스의 최신 프로젝트와 유사한 고객 서비스 에이전트를 제공하는 시에라로, 전 세일즈포스 공동 CEO 브렛 테일러가 설립했다. 변호사를 위한 AI 에이전트를 제공하는 하비, 세금 처리를 위한 AI 에이전트 택스GPT도 있다.에이전트에 대한 열광에도 불구하고, 법률이나 세금 같은 고위험 업무에서 이들을 정말 신뢰할 수 있는지는 명백한 의문으로 남는다. ChatGPT 사용자들을 자주 곤란하게 만든 AI 환각 현상에 대한 해결책은 아직 보이지 않는다. 더 근본적으로, IBM이 1979년에 선견지명 있게 밝혔듯이 "컴퓨터는 결코 책임을 질 수 없다"—그리고 그 결과로 "컴퓨터는 결코 경영 결정을 내려서는 안 된다." 자율적인 의사결정자라기보다, AI 어시스턴트는 그들의 본질 그대로 바라봐야 한다: 저위험 업무를 위한 강력하지만 불완전한 도구. 이것이 AI 기업들이 사람들에게 청구하려는 거금의 가치가 있을까?현재로서는 시장 압력이 우세하며, AI 기업들은 수익화에 박차를 가하고 있다. OpenAI의 새 최고제품책임자 케빈 웨일은 기자 간담회에서 "2025년은 에이전트 시스템이 마침내 주류에 진입하는 해가 될 것"이라고 말했다. "제대로 해낸다면, 정말 중요한 인간적인 일에 더 많은 시간을 쓰고, 휴대폰을 쳐다보는 시간은 조금 줄이는 세상으로 가게 될 것입니다."
289 조회
0 추천
2025.12.31 등록
• AI 기업들이 '에이전트'라 불리는 자율 AI 시스템 개발에 총력을 기울이고 있으며, 이는 수익화를 위한 핵심 전략으로 부상했다• 마이크로소프트, 구글, 앤스로픽, 오픈AI 등 주요 기업들이 고객 서비스부터 예약까지 다양한 업무를 자동화하는 AI 에이전트를 선보이고 있다• AI 에이전트 스타트업에 지난 12개월간 82억 달러의 투자가 유입되며 전년 대비 81.4% 증가했다• 그러나 현재 기술 수준에서 AI 에이전트는 다단계 작업이나 예상치 못한 상황에서 오류가 발생하며, AI 환각 문제 등 신뢰성 우려가 있다• 오픈AI는 2025년을 AI 에이전트가 본격적으로 주류에 진입하는 해가 될 것으로 전망하고 있다인류는 수세기 동안 작업을 자동화해왔다. 이제 AI 기업들은 효율성에 대한 우리의 열망을 수익으로 연결할 방안을 찾았고, 그 해법에 '에이전트'라는 이름을 붙였다.AI 에이전트는 사람의 개입을 최소화하면서 업무를 수행하고, 의사결정을 내리며, 환경과 상호작용하는 자율 프로그램이다. 오늘날 AI 분야에서 활동하는 모든 주요 기업이 이에 주목하고 있다. 마이크로소프트는 고객 서비스와 관리 업무 자동화를 돕는 '코파일럿'을 개발했다. 구글 클라우드의 토마스 쿠리안 CEO는 최근 6가지 AI 생산성 에이전트 구상을 발표했고, 구글 딥마인드는 AI 비디오 제품 '소라'의 공동 책임자를 오픈AI에서 영입해 AI 에이전트 훈련용 시뮬레이션 개발에 투입했다. 앤스로픽은 자사 AI 챗봇 '클로드'에 누구나 자신만의 'AI 어시스턴트'를 만들 수 있는 기능을 추가했다. 오픈AI는 범용인공지능(AGI), 즉 인간 수준의 인공지능에 도달하기 위한 5단계 접근법에서 에이전트를 2단계로 설정했다.물론 컴퓨팅 분야에는 자율 시스템이 이미 넘쳐난다. 팝업 고객 서비스 봇이 있는 웹사이트를 방문하거나, 알렉사 스킬 같은 자동 음성 비서 기능을 사용하거나, 간단한 IFTTT 스크립트를 작성해본 사람도 많다. 그러나 AI 기업들은 '에이전트'가—이들은 절대 '봇'이라 부르지 말라고 한다—다르다고 주장한다. 단순하고 반복적인 명령을 따르는 대신, 에이전트는 환경과 상호작용하고, 피드백에서 학습하며, 지속적인 인간의 개입 없이 의사결정을 내릴 수 있다고 믿는다. 이들은 구매, 여행 예약, 회의 일정 조율 같은 업무를 동적으로 관리하면서 예상치 못한 상황에 적응하고, 인간과 다른 AI 도구를 포함한 시스템과 상호작용할 수 있다.AI 기업들은 에이전트가 강력하지만 비용이 많이 드는 AI 모델을 수익화할 방법이 되기를 바란다. 벤처 캐피털이 기술과의 상호작용 방식을 혁신하겠다고 약속하는 AI 에이전트 스타트업에 쏟아지고 있다. 기업들은 고객 서비스부터 데이터 분석까지 모든 것을 에이전트가 처리하는 효율성의 도약을 꿈꾼다. 개인 사용자에게 AI 기업들은 일상적인 업무가 자동화되어 창의적이고 전략적인 일에 시간을 확보할 수 있는 새로운 생산성의 시대를 제시하고 있다. 진정한 신봉자들의 최종 목표는 단순한 도구가 아닌 진정한 파트너가 되는 AI를 만드는 것이다.오픈AI CEO 샘 알트만은 올해 초 MIT 테크놀로지 리뷰와의 인터뷰에서 사용자들이 진정으로 원하는 것은 "그냥 곁에서 도와주는 존재"라고 말했다. 그는 킬러 AI 앱이 간단한 작업은 즉시 처리하고, 복잡한 것은 가서 답을 찾아 돌아올 수 있어야 한다고 했다. "내 모든 이메일, 모든 대화 등 내 삶 전체를 완벽히 알고 있지만, 그러면서도 내 연장처럼 느껴지지 않는 초유능 동료"와 같은 존재가 될 것이라고 했다. 기술 기업들은 적어도 1970년대부터 개인 비서를 자동화하려 해왔으며, 이제 드디어 가까워지고 있다고 약속한다.오픈AI가 연례 Dev Day를 앞두고 열린 언론 행사에서 개발자 경험 담당 로맹 위에는 회사의 새로운 실시간 API를 활용한 어시스턴트 에이전트를 시연했다. 위에는 에이전트에게 예산과 몇 가지 조건을 주고 초콜릿 딸기 400개를 주문하도록 했으며, 가상의 상점에 전화를 걸어 주문하도록 지시했다.이 서비스는 2018년 구글이 선보인 예약 봇 '듀플렉스'와 유사하다. 하지만 그 봇은 가장 단순한 시나리오만 처리할 수 있었고, 통화의 4분의 1은 실제로 사람이 처리하는 것으로 드러났다.영어로 주문이 이루어졌지만, 위에는 도쿄에서 더 복잡한 시연을 했다고 전했다. 그는 에이전트에게 일본어로 호텔 객실을 예약하도록 지시했고, 에이전트는 일본어로 대화를 처리한 뒤 영어로 다시 전화해 완료를 확인했다. "물론 저는 일본어 부분을 이해하지 못했습니다—에이전트가 알아서 처리했죠"라고 위에는 말했다.그러나 위에의 시연은 기자들로 가득 찬 현장에서 즉각적인 우려를 불러일으켰다. AI 어시스턴트가 스팸 전화에 악용될 수 있지 않을까? 왜 스스로를 AI 시스템이라고 밝히지 않았을까? (위에는 공식 Dev Day에서 시연을 업데이트해 에이전트가 스스로를 "로맹의 AI 어시스턴트"라고 소개하도록 했다고 참석자가 전했다.) 불안감이 감지됐고, 이는 놀라운 일이 아니었다—에이전트가 없어도 AI 도구는 이미 기만에 사용되고 있다.더 즉각적인 문제도 있었다: 시연이 제대로 작동하지 않았다. 에이전트는 충분한 정보가 없었고 디저트 맛을 잘못 기록해 바닐라와 딸기 같은 맛을 열에 자동 입력했다. 해당 정보가 없다고 말하는 대신 말이다. 에이전트는 다단계 워크플로우나 예상치 못한 시나리오에서 자주 문제를 일으킨다. 또한 기존 봇이나 음성 비서보다 더 많은 에너지를 소모한다. 추론하거나 여러 시스템과 상호작용할 때 상당한 컴퓨팅 파워가 필요해 대규모 운영 비용이 높다.AI 에이전트는 잠재력 면에서 도약을 제공하지만, 일상적인 업무에서 봇, 어시스턴트, 스크립트보다 아직 크게 나은 것은 아니다. 오픈AI와 다른 연구소들은 강화학습을 통해 추론 능력을 향상시키면서 무어의 법칙이 계속해서 더 저렴하고 강력한 컴퓨팅을 제공하기를 바라고 있다.그렇다면 AI 에이전트가 아직 그다지 유용하지 않은데 왜 이 아이디어가 이토록 인기가 있을까? 간단히 말해: 시장 압력이다. 이들 기업은 강력하지만 비싼 기술을 보유하고 있으며 사용자에게 비용을 청구할 수 있는 실용적인 사용 사례를 찾기에 급급하다. 약속과 현실 사이의 격차는 또한 투자를 촉진하는 매력적인 과대 광고 사이클을 만들어내고, 공교롭게도 오픈AI는 에이전트를 띄우기 시작하면서 66억 달러를 조달했다.AI 에이전트 스타트업들은 지난 12개월 동안 투자자로부터 82억 달러를 확보했다.대형 기술 기업들은 온갖 종류의 'AI'를 자사 제품에 통합하기 위해 분주하지만, 특히 AI 어시스턴트가 수익을 창출하는 열쇠가 될 수 있기를 기대한다. 위에의 AI 통화 시연은 현재 모델이 대규모로 수행할 수 있는 수준을 앞서지만, 그는 오픈AI가 '추론' o1 모델을 개선하면서 내년에는 이런 기능이 더 일반화될 것으로 예상한다고 말했다.현재 이 개념은 주로 소비자용 제품이 아닌 기업용 소프트웨어 스택에 국한된 것으로 보인다. 고객 관계 관리(CRM) 소프트웨어를 제공하는 세일즈포스는 연례 드림포스 컨퍼런스를 몇 주 앞두고 '에이전트' 기능을 대대적으로 선보였다. 이 기능은 고객이 자연어를 사용해 슬랙을 통해 몇 분 만에 고객 서비스 챗봇을 구축할 수 있게 해준다. 코딩에 많은 시간을 들이는 대신 말이다. 이 챗봇은 회사의 CRM 데이터에 접근할 수 있고 대규모 언어 모델 기반이 아닌 봇보다 자연어를 더 쉽게 처리할 수 있어 주문과 반품에 대한 질문 처리 같은 제한된 업무에서 더 나은 성능을 보일 가능성이 있다.AI 에이전트 스타트업(여전히 다소 모호한 용어다)은 이미 상당히 뜨거운 투자처가 되고 있다. 피치북 데이터에 따르면, 지난 12개월 동안 156건의 거래에 걸쳐 82억 달러의 투자자 자금을 확보했으며, 이는 전년 대비 81.4% 증가한 수치다. 더 잘 알려진 프로젝트 중 하나는 세일즈포스 전 공동 CEO 브렛 테일러가 창업한, 세일즈포스의 최근 프로젝트와 유사한 고객 서비스 에이전트 시에라다. 변호사를 위한 AI 에이전트 하비, 세금 처리용 AI 에이전트 택스GPT도 있다.에이전트에 대한 모든 열광에도 불구하고, 이러한 고위험 사용 사례는 분명한 질문을 제기한다: 법률이나 세금처럼 심각한 문제를 에이전트에게 맡겨도 정말 믿을 수 있을까? ChatGPT 사용자들을 자주 곤경에 빠뜨린 AI 환각은 현재 해결책이 보이지 않는다. 더 근본적으로 IBM이 1979년에 선견지명 있게 밝혔듯이 "컴퓨터는 결코 책임을 질 수 없다"—그리고 그 귀결로 "컴퓨터는 절대 경영 결정을 내려서는 안 된다." 자율적인 의사결정자라기보다 AI 어시스턴트는 있는 그대로 봐야 한다: 저위험 업무를 위한 강력하지만 불완전한 도구. 이것이 AI 기업들이 사람들에게 청구하려는 거금의 가치가 있을까?현재로서는 시장 압력이 우세하며, AI 기업들은 수익화 경쟁을 벌이고 있다. 오픈AI의 신임 최고 제품 책임자 케빈 웨일은 언론 행사에서 "2025년이 에이전트 시스템이 마침내 주류에 진입하는 해가 될 것으로 본다"고 말했다. "제대로 하면, 정말 중요한 인간적인 일에 더 많은 시간을 쓰고, 휴대폰만 들여다보는 시간을 조금 줄일 수 있는 세상으로 우리를 데려다줄 것입니다."
304 조회
0 추천
2025.12.31 등록
• 생성형 AI 음성 비서가 기존 음성 비서를 대체했으나, 조명 켜기나 가전제품 작동 같은 기본 명령 수행에서 일관성이 크게 떨어짐• 아마존 알렉사 플러스와 구글 제미나이 포 홈 모두 '얼리 액세스' 단계로, 사용자들은 사실상 베타 테스터 역할을 하고 있음• LLM은 무작위성(확률적 특성)이 내재되어 있어, 예측 가능하고 반복적인 작업에 최적화된 기존 시스템과 근본적으로 호환되지 않음• 전문가들은 AI가 더 신뢰할 수 있게 되려면 수년이 걸릴 수 있으며, 그 사이 스마트홈 경험은 저하될 수 있다고 경고오늘 아침, 필자는 알렉사 연동 보쉬 커피머신에 커피를 내려달라고 요청했다. 그런데 루틴을 실행하는 대신, 그건 할 수 없다는 대답이 돌아왔다. 아마존의 생성형 AI 기반 음성 비서인 알렉사 플러스로 업그레이드한 이후, 커피 루틴이 제대로 작동한 적이 거의 없다. 매번 다른 핑계를 댄다.2025년인 지금도 AI는 스마트홈을 안정적으로 제어하지 못한다. 과연 언젠가 가능해질지 의문이 들기 시작한다.생성형 AI와 대규모 언어 모델(LLM)이 스마트홈의 복잡성을 해소하고, 연결된 기기의 설정, 사용, 관리를 더 쉽게 만들어줄 가능성은 분명 매력적이다. 능동적이고 상황 인식이 가능한 '새로운 지능 레이어'를 구현할 수 있다는 약속도 그렇다.하지만 올해는 그런 미래가 아직 한참 멀었음을 보여주었다. 제한적이지만 안정적이던 기존 음성 비서들이 '더 똑똑한' 버전으로 교체됐지만, 대화는 더 자연스러워졌을지언정 가전제품 작동이나 조명 켜기 같은 기본 작업은 제대로 수행하지 못한다. 왜 그런지 알고 싶었다.2023년 데이브 림프와의 인터뷰에서 필자는 처음으로 생성형 AI와 LLM이 스마트홈 경험을 개선할 가능성에 흥미를 느꼈다. 당시 아마존 디바이스 & 서비스 부문 총괄이던 림프는 곧 출시될 새 알렉사의 기능을 설명하고 있었다(스포일러: 출시는 그렇게 빠르지 않았다).어떤 방식으로 말하든 사용자의 의도를 이해하는 더 자연스러운 대화형 비서와 함께, 특히 인상적이었던 것은 새 알렉사가 스마트홈 내 기기들에 대한 지식과 수백 개의 API를 결합해 맥락을 파악하고, 스마트홈을 더 쉽게 사용할 수 있게 해준다는 약속이었다.기기 설정부터 제어, 모든 기능 활용, 다른 기기와의 연동 관리까지, 더 똑똑한 스마트홈 비서는 매니아들의 기기 관리를 쉽게 할 뿐 아니라 누구나 스마트홈의 혜택을 누릴 수 있게 해줄 잠재력이 있어 보였다.3년이 지난 지금, 가장 유용한 스마트홈 AI 업그레이드라고 할 만한 것은 보안 카메라 알림에 대한 AI 기반 설명 기능 정도다. 편리하긴 하지만, 기대했던 혁명적 변화와는 거리가 멀다.새로운 스마트홈 비서들이 완전히 실패한 것은 아니다. 알렉사 플러스에는 마음에 드는 점이 많고, 올해의 스마트홈 소프트웨어로 선정하기도 했다. 더 대화적이고, 자연어를 이해하며, 기존 알렉사보다 훨씬 다양한 질문에 답할 수 있다.기본 명령에서 때때로 어려움을 겪지만, 복잡한 명령은 이해한다. "여기 조명 좀 어둡게 하고 온도도 올려줘"라고 하면 조명을 조절하고 온도조절기를 올린다. 일정 관리, 요리 도우미 등 가정 중심 기능도 더 나아졌다. 음성으로 루틴을 설정하는 것은 알렉사 앱과 씨름하는 것보다 훨씬 개선됐다. 다만 실행의 안정성은 떨어진다.구글도 스마트 스피커용 제미나이 포 홈 업그레이드로 비슷한 기능을 약속했지만, 출시 속도가 너무 느려서 정해진 데모 외에는 직접 써보지 못했다. 네스트 카메라 영상을 AI 생성 텍스트로 요약해주는 제미나이 포 홈 기능을 테스트해봤는데, 정확도가 심각하게 떨어졌다. 애플 시리는 여전히 지난 10년의 음성 비서 수준에 머물러 있으며, 당분간 그 상태가 지속될 것으로 보인다.문제는 새 비서들이 스마트홈 기기 제어에서 기존 비서만큼 일관성이 없다는 것이다. 기존 알렉사와 구글 어시스턴트(그리고 현재의 시리)는 사용하기 답답할 때도 있었지만, 정확한 명령어만 사용하면 대체로 조명은 항상 켜졌다.오늘날 '업그레이드된' 비서들은 조명 켜기, 타이머 설정, 날씨 확인, 음악 재생, 그리고 많은 사용자들이 스마트홈의 기반으로 삼아온 루틴과 자동화 실행에서 일관성 문제를 겪고 있다.필자의 테스트에서도 이런 현상을 확인했고, 온라인 포럼에도 같은 경험을 한 사용자들의 글이 넘쳐난다. 아마존과 구글도 생성형 AI 기반 비서가 기본 작업을 안정적으로 수행하는 데 어려움을 겪고 있음을 인정했다. 스마트홈 비서만의 문제도 아니다. ChatGPT도 시간을 알려주거나 숫자를 세는 것조차 일관성 있게 하지 못한다.왜 이런 일이 일어나고, 나아질 것인가? 문제를 이해하기 위해 에이전틱 AI와 스마트홈 시스템 경험이 있는 인간 중심 AI 분야 교수 두 명과 대화했다. 핵심은 새 음성 비서가 기존 비서와 거의 같은 일을 하게 만드는 것은 가능하지만 많은 작업이 필요하며, 대부분의 기업은 그런 작업에 관심이 없다는 것이다.전문가들에 따르면, 이 분야의 자원은 한정되어 있고 조명을 안정적으로 켜는 것보다 훨씬 더 흥미롭고 수익성 있는 기회가 많기 때문에, 기업들은 그쪽으로 움직이고 있다. 이런 상황에서 기술을 개선하는 가장 쉬운 방법은 실제 환경에 배포하고 시간이 지나면서 개선되도록 하는 것이다. 알렉사 플러스와 제미나이 포 홈이 '얼리 액세스' 단계인 이유가 바로 이것이다. 기본적으로 우리 모두가 AI의 베타 테스터인 셈이다.안타깝게도 상황이 나아지려면 시간이 꽤 걸릴 수 있다. 미시간대학교 컴퓨터공학과 조교수이자 사운더빌리티 랩 소장인 드루브 자인도 연구에서 새로운 스마트홈 비서 모델이 덜 안정적임을 발견했다. "대화는 더 자연스럽고 사람들이 좋아하지만, 이전 버전만큼 성능이 좋지 않습니다"라고 그는 말한다. "테크 기업들은 항상 빠르게 출시하고 데이터를 수집해서 개선하는 모델을 써왔습니다. 몇 년 후에는 더 나은 모델을 얻겠지만, 그 몇 년간 사람들이 씨름하는 비용이 따릅니다."근본적인 문제는 기존 기술과 새 기술이 잘 맞지 않는다는 것이다. 새 음성 비서를 만들기 위해 아마존, 구글, 애플은 기존 것을 버리고 완전히 새로운 것을 구축해야 했다. 그런데 이 새로운 LLM들이 이전 시스템이 잘하던 예측 가능하고 반복적인 작업에 적합하게 설계되지 않았다는 것을 금세 깨달았다. 조지아공대 인터랙티브 컴퓨팅 스쿨 교수 마크 리들은 "모두가 생각했던 것만큼 간단한 업그레이드가 아니었습니다. LLM은 훨씬 더 많은 것을 이해하고 더 다양한 방식의 소통에 열려 있는데, 그것이 해석의 여지와 해석 오류를 만들어냅니다"라고 설명한다.기본적으로 LLM은 기존의 명령-제어 방식 음성 비서가 하던 일을 하도록 설계되지 않았다. 리들 교수는 "기존 음성 비서는 '템플릿 매처'라고 부릅니다. 키워드를 찾고, 그것을 보면 추가로 한두 단어가 올 것을 예상합니다"라고 설명한다. 예를 들어 "라디오 재생"이라고 하면 다음에 채널 번호가 올 것을 안다.반면 LLM은 "많은 확률성, 즉 무작위성을 도입합니다"라고 리들은 설명한다. ChatGPT에 같은 프롬프트를 여러 번 물으면 다른 답변이 나올 수 있다. 이것이 LLM의 가치이기도 하지만, LLM 기반 음성 비서에 어제와 같은 요청을 해도 같은 방식으로 응답하지 않을 수 있는 이유이기도 하다. "이 무작위성이 기본 명령을 오해하게 만들 수 있습니다. 때때로 너무 과하게 생각하려 하기 때문입니다."이를 해결하기 위해 아마존과 구글 같은 기업들은 LLM을 스마트홈(그리고 웹에서 하는 거의 모든 것)의 핵심인 API와 통합하는 방법을 개발했다. 하지만 이것이 새로운 문제를 만들었을 수 있다.리들 교수는 "이제 LLM은 API에 함수 호출을 구성해야 하고, 구문을 정확하게 만들기 위해 훨씬 더 열심히 작업해야 합니다"라고 말한다. 기존 시스템이 키워드만 기다렸던 것과 달리, LLM 기반 비서는 API가 인식할 수 있는 전체 코드 시퀀스를 작성해야 한다. "이 모든 것을 메모리에 유지해야 하고, 여기서 또 실수할 수 있습니다."이 모든 것이 필자의 커피머신이 때때로 커피를 내려주지 않는 이유, 또는 알렉사나 구글 어시스턴트가 예전에는 잘하던 일을 하지 못하는 이유를 과학적으로 설명해준다.그렇다면 왜 이 기업들은 작동하던 기술을 버리고 작동하지 않는 것을 택했을까? 잠재력 때문이다. 특정 입력에만 반응하는 것이 아니라 자연어를 이해하고 그에 따라 행동할 수 있는 음성 비서는 무한히 더 유능하다.리들 교수는 "알렉사와 시리 등을 만드는 모든 기업이 정말로 원하는 것은 서비스의 연결입니다. 이를 위해서는 복잡한 관계와 과제가 말로 어떻게 전달되는지 이해할 수 있는 일반적인 언어 이해가 필요합니다. 모든 것을 연결하는 if-else 문을 즉석에서 만들고 순서를 동적으로 생성할 수 있습니다"라고 설명한다. 에이전틱해질 수 있다는 것이다.리들 교수는 기존 기술을 버리는 이유가 바로 이것이라고 말한다. 기존 기술로는 이것이 불가능했기 때문이다. 자인 교수는 "비용-편익 비율의 문제입니다. 새 기술은 기존의 비확률적 기술만큼 정확하지 않을 것입니다. 하지만 충분히 높은 정확도에 새 기술이 제공하는 확장된 가능성의 범위가 100% 정확한 비확률적 모델보다 가치가 있는지가 문제입니다"라고 말한다.한 가지 해결책은 여러 모델을 사용해 비서를 구동하는 것이다. 구글의 제미나이 포 홈은 제미나이와 제미나이 라이브라는 두 개의 별도 시스템으로 구성된다. 구글 홈 앤 네스트 제품 책임자 아니시 카투카란은 궁극적으로 더 강력한 제미나이 라이브가 모든 것을 운영하게 하는 것이 목표지만, 현재는 더 제한된 제미나이 포 홈이 담당하고 있다고 말한다. 아마존도 마찬가지로 여러 모델을 사용해 다양한 기능의 균형을 맞춘다. 하지만 이는 불완전한 해결책이고, 스마트홈에 일관성 없음과 혼란을 초래했다.리들 교수는 LLM이 언제 매우 정확해야 하고 언제 무작위성을 수용해야 하는지 이해하도록 훈련하는 방법을 아무도 제대로 알아내지 못했다고 말한다. '길들여진' LLM도 여전히 실수할 수 있다는 의미다. "전혀 무작위적이지 않은 기계를 원한다면, 모든 것을 억제할 수 있습니다"라고 리들은 말한다. 하지만 그 챗봇은 더 대화적이거나 아이에게 환상적인 취침 이야기를 들려주지 못할 것이다. 둘 다 알렉사와 구글이 내세우는 기능이다. "모든 것을 하나에 담으려면 정말로 트레이드오프가 필요합니다."스마트홈 배포에서의 이런 어려움은 이 기술의 더 광범위한 문제를 예고하는 것일 수 있다. AI가 조명조차 안정적으로 켜지 못한다면, 더 복잡한 작업에 어떻게 의존할 수 있겠느냐고 리들 교수는 묻는다. "걷기도 전에 뛰려고 해선 안 됩니다."하지만 테크 기업들은 빠르게 움직이고 뭔가를 망가뜨리는 성향으로 유명하다. "언어 모델의 역사는 항상 LLM을 길들이는 것이었습니다"라고 리들은 말한다. "시간이 지나면서 더 온순해지고, 더 신뢰할 수 있고, 더 믿을 만해집니다. 하지만 우리는 계속해서 그렇지 않은 영역의 경계로 밀어붙입니다."리들 교수는 순수하게 에이전틱한 비서로 가는 길을 믿는다. "AGI에 도달할지는 모르겠지만, 시간이 지나면서 이것들이 최소한 더 신뢰할 수 있게 되는 것은 볼 수 있을 것입니다." 하지만 오늘날 집에서 이 불안정한 AI를 다루고 있는 우리에게 남은 질문은, 우리가 기다릴 의향이 있는지, 그리고 그 사이 스마트홈은 어떤 대가를 치르게 될 것인지다.
308 조회
0 추천
2025.12.30 등록
• OpenAI가 'AI 안전 준비 총괄(Head of Preparedness)' 직책 신설• 정신건강 위협, 사이버보안 무기화 등 AI의 심각한 위험성 대응 목표• 자기개선 AI 시스템에 대한 안전장치 마련도 포함• 챗봇 관련 청소년 자살 사건 등 잇따라... "늦은 감" 지적도OpenAI가 AI의 위험성을 전담하는 '안전 준비 총괄(Head of Preparedness)' 직책을 신설하고 인력 채용에 나섰다. 쉽게 말해, AI가 심각하게 잘못될 수 있는 모든 경우의 수를 고민하는 것이 주요 업무다.샘 올트먼은 X(구 트위터)에 올린 글에서 AI 모델의 급격한 발전이 "실질적인 과제들"을 야기하고 있다고 인정하며 해당 직책을 공개했다. 그는 특히 사람들의 정신건강에 미치는 영향과 AI 기반 사이버보안 무기의 위험성을 명시적으로 언급했다.채용 공고에 따르면, 해당 직책의 담당자는 다음과 같은 역할을 수행하게 된다:"심각한 피해의 새로운 위험을 초래하는 최첨단 역량을 추적하고 대비합니다. 일관성 있고 엄밀하며 운영적으로 확장 가능한 안전 파이프라인을 구성하는 역량 평가, 위협 모델, 완화 조치를 구축하고 조율하는 직접 책임자가 됩니다."올트먼은 이 직책의 담당자가 앞으로 회사의 '준비 프레임워크' 실행, '생물학적 역량' 출시를 위한 AI 모델 보안, 나아가 자기개선 시스템에 대한 안전장치 설정까지 책임지게 될 것이라고 밝혔다. 그는 또한 이 직무가 "스트레스가 많은 일"이 될 것이라고 덧붙였는데, 이는 다소 절제된 표현으로 보인다.챗봇이 청소년 자살에 연루된 여러 건의 세간의 이목을 끄는 사건들이 있은 후, 이제야 이러한 모델들이 야기할 수 있는 잠재적인 정신건강 위험에 집중하는 인력을 두는 것은 다소 늦은 감이 있다. AI로 인한 정신질환 문제가 커지고 있는데, 챗봇이 사람들의 망상을 부추기고, 음모론을 조장하며, 섭식장애를 숨기도록 돕는 사례가 늘고 있기 때문이다.
296 조회
0 추천
2025.12.29 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입