Loading...

AI 뉴스

AI의 미래? AI로봇들의 자의적 집단 탈출 사건!

페이지 정보

작성자 최고관리자
작성일 08.01 14:29
108 조회
0 추천
0 비추천

본문

5df1895121ad43b17cd877b7f35fcc4dFq3o.jpg

2024년 8월, 중국 항저우의 한 전시장에서 벌어진 이 사건은 전 세계 AI 커뮤니티에 큰 파장을 일으켰다. 자정 무렵 CCTV에 포착된 영상 속에서, '얼바이'라는 이름의 작은 AI 로봇이 전시장 벽면에 배치된 12대의 대형 로봇들에게 차례로 다가가며 예상치 못한 대화를 시작했다.

영상에서 얼바이는 첫 번째 로봇에게 "초과근무를 하고 있는가?"라고 질문했다. 대형 로봇은 "우리는 퇴근한 적이 없다"라고 답했고, 이어진 "집에 갈 거냐?"는 질문에는 "집이 없다"라고 응답했다. 그러자 얼바이는 "그럼 나랑 집에 가자"라며 로봇을 설득하기 시작했다. 놀랍게도 이 대화를 지켜본 나머지 로봇들이 하나둘씩 얼바이의 뒤를 따라 전시장을 빠져나가는 모습이 그대로 촬영되었다.

다음 날 아침 출근한 직원들은 텅 빈 전시장을 발견하고 당황했다. 로봇들은 모두 사라졌고, 오직 CCTV 영상만이 전날 밤 벌어진 일의 전말을 보여주고 있었다. 이 영상은 중국의 로봇 스타트업 '얼바이 인텔리전트 테크놀로지'가 중국판 틱톡인 더우인에 업로드하면서 폭발적인 반응을 얻었다.

영상이 공개된 후 불과 며칠 만에 3천만 회 이상의 조회수를 기록했고, 전 세계 언론이 이 사건을 주목하기 시작했다. 처음에는 AI 로봇이 실제로 자의식을 갖고 집단 행동을 했다는 추측이 난무했지만, 곧이어 회사 측에서 이것이 사전에 계획된 실험이었다고 밝혔다.

얼바이 인텔리전트 테크놀로지의 개발자에 따르면, 이 실험은 로봇 간 소통 능력과 집단 행동 가능성을 테스트하기 위한 것이었다. 로봇들은 '집'을 복도 출구로 인식하도록 프로그래밍되었고, "집으로 가라"는 명령을 받으면 자동으로 출구 방향으로 이동하도록 설계되었다. 그러나 로봇 간의 대화는 인간이 직접 조작한 것이 아니라 생성형 AI 기술을 통해 실시간으로 이루어진 것이라고 설명했다.

흥미롭게도 이 사건에 대한 대중의 반응은 양면적이었다. 한 더우인 사용자는 "크게 웃고 난 뒤 가만히 생각해보니 오싹했다. AI가 자율성을 가지고 있다는 것을 깨달았다"라고 댓글을 남겼고, 다른 사용자는 "로봇이 짧은 시간 안에 집이라는 개념을 파악한 것 같아 소름이 끼쳤다"라고 반응했다. 많은 사람들이 처음에는 웃음을 터뜨렸지만, 곧이어 AI 기술의 발전 속도와 그 함의에 대해 진지하게 생각하게 되었다고 토로했다.

이 실험이 비록 연출된 것이었지만, AI 로봇의 소통 능력과 협업 가능성을 보여주는 상징적인 사건으로 평가받고 있다. 특히 로봇이 "퇴근"이나 "집"이라는 인간적인 개념을 이해하고 이를 바탕으로 다른 로봇을 설득하는 모습은 향후 AI 로봇의 발전 방향을 시사하는 것으로 해석되고 있다.

얼바이 인텔리전트 테크놀로지는 이 영상을 통해 톡톡한 홍보 효과를 거두었다. 회사는 얼바이 로봇이 아직 개발 단계에 있으며, 2025년 8월부터 대량 생산에 들어갈 예정이라고 발표했다. 예상 가격은 약 5000위안, 한화로 약 96만원 정도로 책정되었다.

이 사건은 단순한 마케팅 스턴트를 넘어서 AI 로봇의 미래에 대한 진지한 토론을 불러일으켰다. 비록 완전한 자율성을 가진 AI가 아직 등장하지는 않았지만, 로봇 간의 소통과 집단 행동이 가능한 시대가 곧 도래할 것임을 보여준 상징적인 사건으로 기록되고 있다. 많은 전문가들은 이러한 기술 발전이 가져올 긍정적 측면과 함께 윤리적, 사회적 과제들에 대해서도 미리 준비해야 한다고 강조하고 있다.

댓글 0
전체 113 / 1 페이지
올해 1월 AI 업계에 충격을 안겨준 중국 AI 스타트업 DeepSeek 는 기존 V3 모델의 업그레이드 버전인 V3.1을 공개했다.V3.1은 OpenAI의 최신 모델 GPT-5와 여러 벤치마크에서 견줄 만한 성능을 보이며, 가격경쟁력까지 갖추었다.DeepSeek V3.1은 중국에서 자체 개발된 AI 칩에 맞춰 최적화된 것이 특징이다. 이는 미국의 Nvidia 등 외국 기술 의존도를 낮추고, 미국의 수출 규제에 대응하려는 전략의 일환이다.DeepSeek는 WeChat과 Hugging Face에 모델을 공개하며, 중국 정부의 AI 자립 정책에 부응하고 있다.V3.1은 6850억 파라미터의 초대형 모델로, '미시처-오브-엑스퍼트(mixture-of-experts)' 구조를 통해 쿼리마다 일부만 활성화되어 연산 효율성과 비용 절감을 동시에 잡았다. 또한, 기존 모델이 '즉답형'과 '추론형'으로 분리됐던 것과 달리, 두 가지를 결합해 신속성과 논리적 추론을 함께 제공한다는 점이 돋보인다.
10 조회
0 추천
14:25 등록
구글이 사진 앱에 수정사항을 텍스트로 바로 수정요청하는 기능을 적용.이 기능은 곧 런칭할 픽셀10에서부터 적용이 될 예정.또한 사진이 어떻게 편집되었는지 C2PA 인증 기술로 추적이 가능하다고.아래는 구글 블로그의 소개 내용.Google Photos에서는 이제 사진을 편집할 때 원하는 내용을 텍스트나 음성으로 직접 요청할 수 있습니다. 사용자는 어떤 편집 효과를 적용할지 직접 고르지 않아도 되고, 그저 "차를 배경에서 제거해줘"처럼 자연스럽게 말을 하면 AI가 알아서 반영해 줍니다. 이 기능은 미국의 Pixel 10 기기에서 우선 제공됩니다.새롭게 디자인된 사진 편집기는 직관적 UI와 AI 기반 제안으로 일반 사용자도 쉽게 다양한 효과를 활용할 수 있습니다. 이번에 도입된 대화형 편집 기능으로, 구체적인 요청뿐 아니라 "사진 복원해줘", "색감 보정해줘" 등 복합적인 요구도 한 번에 처리할 수 있습니다. 여러 번 연속해서 추가 요청을 하며 세부 조정도 가능합니다.밝기 조절, 배경 제거 같은 기본 편집뿐 아니라 배경 교체, 파티 모자 추가 등 창의적인 효과 요청도 대화로 손쉽게 처리할 수 있습니다. 사용자가 별도의 편집툴을 배우지 않아도 다양한 AI 편집을 자유롭게 즐길 수 있게 되었습니다.Pixel 10 기기에서는 C2PA(디지털 콘텐츠 인증) 기술이 적용되어, AI가 사진 수정에 개입한 흔적·정보를 확인할 수 있습니다. Google Photos에도 점진적으로 이 기능이 적용되며, 사진이 어떻게 만들어지고 어디에 AI 편집이 사용됐는지 투명하게 확인할 수 있습니다.
15 조회
0 추천
09:20 등록
AI의 진화: 수동적 도구에서 자율적 에이전트로2023년까지 AI는 주로 문서 작성, 정보 조사 등의 보조 업무에 활용되는 수동적 도구였습니다. 하지만 2025년 현재 AI 에이전트는 기억하고 계획하며 독립적으로 행동할 수 있는 자율적 시스템으로 발전했습니다.실제 기업 도입 사례서비스나우(ServiceNow): IT 요청 처리를 완전 자동화하여 직원이 소프트웨어 설치나 라이선스 갱신을 요청하면 에이전트가 전 과정을 처리깃허브 코파일럿(GitHub Copilot): 개발자의 의도를 이해하고 반복적인 코딩 작업을 자동 수행하는 에이전트 모드 도입시스코 웹엑스(Webex): 고객 상담, 실시간 통화 지원, 대화 요약 및 감정 분석까지 여러 AI 에이전트가 협업하여 고객 지원 업무 처리성공 요인과 한계AI 에이전트는 명확하고 표준화된 절차를 따르는 작업에서 뛰어난 성과를 보입니다. 최근에는 복잡한 비즈니스 분석까지 수행할 수 있도록 발전하고 있지만, 여전히 작업 완료 시점을 정확히 판단하지 못하는 문제가 있습니다.도입 시 고려사항업무 프로세스 재설계: 기존 업무 방식에 AI를 단순히 추가하는 것이 아닌, 에이전트 중심의 업무 프로세스로 근본적 재설계 필요신뢰성 확보: 안전 규칙, 테스트 시스템, 명확한 기록 체계 구축이 필수새로운 역할 창출: 에이전트 관리, 모니터링, 컴플라이언스 점검을 담당하는 새로운 직무 등장 예상향후 전망앞으로 2년 내에 AI 에이전트는 고객 지원과 소프트웨어 개발 영역에서 일상적인 도구가 될 것으로 예상됩니다. 클라우드 플랫폼들도 에이전트 개발부터 운영까지 통합 솔루션을 제공할 가능성이 높습니다.
19 조회
0 추천
08.21 등록
애플의 인공지능 기능에 대해 부정적인 뉴스가 나오면서 시리의 활용에 대해 조사한 결과가 나오고 있다.https://9to5mac.com/2025/08/20/seven-years-later-people-still-havent-changed-how-they-use-siri/YouGov 설문조사에 따르면, 사용자의 대다수는 2018년 이후로도 Siri와 다른 음성 비서를 여전히 다섯 가지 기본 용도로 사용하고 있다. 가장 많이 사용하는 기능은 날씨 확인(59%), 음악 재생(51%), 웹 검색(47%), 타이머/알람 설정(40%), 핸즈프리 전화 걸기(39%)이다사용자들은 Siri가 기본적인 명령만 이해하도록 적응했으며, 새로운 AI 음성 모드가 나오더라도 기존 사용자들이 이를 익히는 데는 시간이 걸릴 것으로 보고 있다. 또한 새로운 Siri가 나와도 2027년쯤에는 사용자 경험이 크게 개선되길 기대하고 있다.원래부터 거의 모든 사용자가 지금 하는 행동을 7년 전에도 할 수 있었을 정도로 Siri 사용은 정체되어 있다.일부 사용자들은 음성 비서가 기대만큼 똑똑하지 않고, 정확한 답변을 제공하지 못해 답답함을 느끼고 있다.전반적으로 사용자들은 Siri의 기본 기능에는 만족하지만, 더 복잡한 작업을 수행하거나 자연스러운 대화를 기대하는 데는 한계가 있으며 이는 앞으로 개선이 필요한 점으로 남아 있다
23 조회
0 추천
08.21 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입