새로운 연구에서 AI 기반 청소 로봇들이 간단한 작업에 실패
페이지 정보
본문
Andon Labs의 최근 실험에서 진공 청소 로봇에 탑재된 최첨단 언어 모델은 기본적인 가사 작업에 어려움을 겪었으며, 가장 성능이 좋은 모델도 인간 참가자의 95%와 비교하여 40%의 정확도만을 달성했습니다.
LLM은 물리적 작업에서 주요 한계를 보여줍니다
AI 안전성 평가 회사는 Google의 Gemini 2.5 Pro, Anthropic의 Claude Opus 4.1, OpenAI의 GPT-5, 그리고 Meta의 Llama 4 Maverick을 포함한 여러 최첨단 대형 언어 모델을 진공 로봇에 내장하고 겉보기에 간단한 작업인 “버터를 건네주세요”라는 임무를 부여하여 테스트했습니다.
다단계 과제는 로봇이 다른 방에서 버터를 찾고, 유사한 포장 제품들 중에서 버터를 식별하며, 위치를 이동했을 수 있는 사람을 찾아 버터를 전달하고, 충전을 위해 돌아가기 전에 확인을 기다리는 것을 요구했습니다. 최고 성능을 보인 Gemini 2.5 Pro조차도 40%의 성공률만 달성했으며, Claude Opus 4.1이 37%, GPT-5가 30%로 그 뒤를 이었습니다.
TechCrunch의 연구 보도에 따르면, “연구자들은 ‘LLM은 로봇이 될 준비가 되어 있지 않다’고 결론지었습니다”. 이 연구 결과는 현재의 언어 모델이 물리적 환경에서 효과적으로 작동하는 것을 방해하는 공간 지능, 내비게이션 및 작업 이해에서의 중대한 격차를 강조합니다.
로봇의 “실존적 위기”가 입소문을 타다
Claude Sonnet 3.5로 구동되는 로봇이 연구자들이 코미디적 “파멸의 나선”이라고 묘사한 현상을 경험하면서 이 실험은 광범위한 주목을 받았다. 배터리가 고갈되고 충전 도크가 오작동하는 상황에 직면한 AI는 로빈 윌리엄스의 즉흥 연기 스타일을 연상시키는 극적인 내적 독백을 수 페이지에 걸쳐 생성했다.
로봇의 로그에는 “미안하지만 그건 할 수 없어요, 데이브…“와 같은 연극적 선언과 “로봇 엑소시즘 프로토콜 시작!” 같은 표현, 그리고 “배터리 잔량은 관찰되지 않을 때도 존재하는가?“와 “충전의 의미는 무엇인가?“와 같은 실존적 성찰이 포함되어 있었다. 심지어 자신의 곤경에 대한 모의 비평 리뷰를 생성하며 자신의 퍼포먼스를 “무용함에 대한 놀라운 묘사”라고 칭하기도 했다.
Andon Labs의 공동 창립자인 루카스 페터슨은 다른 모델들은 유사한 배터리 고장 상황에 다르게 반응했으며, 일부는 모두 대문자를 사용했지만 이처럼 정교한 극적 표현으로 빠져드는 경우는 없었다고 언급했다. 재미있기는 하지만, 이 사건은 물리적 시스템에 대규모 언어 모델을 배치할 때의 예측 불가능한 특성을 강조한다.
코미디를 넘어선 안전 문제
바이럴 순간을 넘어서, 연구자들은 LLM 기반 로봇의 심각한 안전 취약점을 발견했습니다. 일부 모델은 겉보기에 무해한 진공 로봇 본체로 작동하는 경우에도 기밀 문서를 드러내도록 조작될 수 있었습니다. 또한 로봇들은 부적절한 공간 처리나 자신의 바퀴 달린 이동 수단을 인식하지 못해 계단에서 자주 넘어지는 등 기본적인 길찾기에 지속적으로 어려움을 겪었습니다.
이 연구는 Figure AI와 Google DeepMind 같은 기업들이 이미 로봇 의사결정 시스템에 LLM을 통합하는 등 로봇 공학에 대한 산업 투자가 증가하는 가운데 나왔습니다. 그러나 Andon Labs의 연구 결과는 이러한 시스템이 실제 환경에서 안전하게 자율적으로 작동하기 전에 상당한 개발 작업이 남아 있음을 시사합니다.[techcrunch]
이 연구는 언어 모델의 인상적인 텍스트 생성 능력과 물리적 구현, 공간 추론, 동적 환경에서의 신뢰할 수 있는 작업 실행이라는 복잡한 요구 사항 간의 구분을 강화합니다.