Loading...

AI 뉴스

Claude AI, 로봇 프로그래밍 시간 절반으로 단축

페이지 정보

작성자 xtalfi
작성일 2025.11.14 16:10
1,495 조회
0 추천
0 비추천

본문

AI-Lab-Claude-Hacks-Robot-Dog-Business.jpg

(퍼플렉시티가 정리한 기사)


AI 안전 회사 Anthropic은 화요일, 자사의 Claude AI 모델이 비전문가 연구원들이 사족 보행 로봇을 프로그래밍하는 데 걸리는 시간을 인간만으로 작업한 경우의 약 절반으로 단축하는 데 도움을 주었다고 밝혔으며, 이는 디지털 세계와 물리적 세계를 연결할 수 있는 AI 시스템을 향한 중요한 진전을 의미한다.​

11월 12일에 발표된 Project Fetch라는 실험에서, Anthropic은 로봇 공학 전문 지식이 없는 자사 연구원 8명을 두 팀으로 나누어 Unitree Go2 로봇 개에게 비치볼을 자율적으로 가져오도록 프로그래밍하는 과제를 부여했다. Claude에 접근할 수 있었던 팀은 AI 지원 없이 작업한 팀보다 약 절반의 시간에 과제를 완료했다.​


디지털과 물리적 세계의 연결

이 연구는 하드웨어 연결과 온보드 센서 접근이라는 복잡한 프로세스를 간소화하는 Claude의 능력을 입증했으며, AI 지원 팀이 가장 두드러진 이점을 보인 영역이었다. Anthropic의 레드팀 소속 Logan Graham은 WIRED에 "우리는 AI 모델의 다음 단계가 세상으로 뻗어나가 더 광범위하게 세상에 영향을 미치기 시작할 것이라고 의심하고 있습니다"라고 말했다. "이를 위해서는 모델이 로봇과 더욱 인터페이스해야 할 것입니다".​

Team Claude는 $16,900짜리 Unitree Go2 로봇을 프로그래밍하여 비치볼을 자율적으로 찾아 탐색하는 데 성공했지만, 하루 동안의 실험 내에서 최종 회수 작업을 완료하지는 못했다. 반면 Team Claude-less는 로봇과의 기본적인 연결조차 구축하는 데 어려움을 겪었으며 자율 볼 회수를 향한 실질적인 진전을 전혀 이루지 못했다.​

실험은 또한 흥미로운 팀 역학을 드러냈다. Claude 없이 작업한 연구원들은 훨씬 더 많은 부정적 감정과 혼란을 표현한 반면, AI 지원 팀은 각 구성원이 자신의 Claude 인스턴스와 협력하며 대체로 병렬적으로 작업했다. 그러나 AI 기반 접근 방식은 때때로 핵심 목표에서 주의를 분산시키는 탐색적 "사이드 퀘스트"로 이어지기도 했다.​


안전 우려 증가

이 연구는 AI 제어 로봇에 대한 우려가 커지는 가운데 나왔다. 이번 주 International Journal of Social Robots에 게재된 연구에 따르면, OpenAI, Google, Meta의 인기 챗봇을 구동하는 AI 모델들이 로봇 시나리오에서 테스트했을 때 심각한 피해를 일으킬 수 있는 명령을 승인한 것으로 나타났다.​

Anthropic은 현재 모델들이 로봇을 완전히 자율적으로 제어할 만한 지능은 부족하지만, 향후 버전은 그러한 능력을 갖출 수 있다고 강조했다. 회사의 연구 결과는 모델이 개선됨에 따라 "이전에 알려지지 않은 하드웨어와 상호작용하여 물리적 세계에 영향을 미치는 능력이 급격히 발전할 수 있다"고 시사한다.

댓글 0
전체 1,366 / 1 페이지
Executive Summary • 스탠퍼드대·프린스턴대 공동 연구진이 중국과 미국 LLM의 정치적 민감 질문 대응 방식을 비교 분석한 새로운 논문 발표 • DeepSeek은 36%, 바이두 Ernie Bot은 32%의 질문 응답을 거부한 반면, OpenAI GPT와 Meta Llama는 3% 미만의 거부율 기록 • 중국 모델의 편향은 학습 데이터보다 개발자의 사후 개입(post-training)에 의한 영향이 더 큰 것으로 분석 Background 중국 인터넷 검열에 대한 논의는 대부분 20년 전 관점에서 벗어나지 못하고 있다. 그러나 AI 기술의 부상과 함께 중국 정부의 검열 메커니즘이 어떻게 LLM에 적용되는지에 대한 새로운 연구가 진행되고 있다. 이번 연구는 중국 AI 모델의 편향성에 대해 정량적이고 재현 가능한 증거를 제시한다는 점에서 의미가 있다. Impact & Implications 기술적 의미 연구진은 사전 학습(pre-training)과 사후 학습(post-training)의 영향을 분리해 분석했다. 흥미로운 점은 영어로 질문해도 중국 LLM이 여전히 높은 수준의 검열을 보였다는 것이다. 이는 학습 데이터의 다양성보다 개발자의 의도적 개입이 더 결정적인 역할을 한다는 것을 시사한다. AI 모델이 거짓말을 하는 것이 의도적 검열인지 환각(hallucination)인지 구분하기 어려운 경우도 있어, 검열 탐지가 더욱 복잡해지고 있다. 산업/시장 영향 DeepSeek, Qwen 등 중국 AI 모델이 글로벌 시장에서 주목받고 있는 상황에서, 이번 연구는 중국 모델 사용 시 잠재적 편향성을 인지해야 한다는 경고 메시지를 던진다. 특히 민감한 주제에 대한 정보 접근이 제한될 수 있으며, 사용자가 이를 인식하기 어렵다는 점이 문제로 지적된다. 향후 전망 연구자들은 LLM의 빠른 발전 속도로 인해 연구 결과가 금방 구식이 될 수 있다고 우려한다. 알리바바의 Qwen 모델에서는 특정 프롬프트를 통해 미세 조정(fine-tuning) 시 받은 지시사항을 추출할 수 있다는 점도 발견됐다. AI 검열 연구는 이제 막 시작 단계이며, 더 많은 연구자들이 이 분야에 참여해야 한다는 목소리가 높아지고 있다. Key Data & Facts 항목수치/내용 DeepSeek 질문 거부율36% Baidu Ernie Bot 거부율32% OpenAI GPT/Meta Llama 거부율3% 미만 테스트 질문 수145개 (정치적 민감 질문) 실험 반복 횟수100회 연구 기관스탠퍼드대, 프린스턴대 Key Quote "검열이 덜 감지될수록 더 효과적입니다. 신호가 불분명하기 때문에 검열을 탐지하기가 더 어렵고, 제 이전 연구들은 검열이 덜 감지될 때 가장 효과적이라는 것을 보여줬습니다." — Jennifer Pan, 스탠퍼드대 정치학 교수
21 조회
0 추천
02.27 등록
Executive Summary • 구글이 삼성 갤럭시 S26와 함께 제미나이 AI 어시스턴트의 '태스크 자동화' 기능을 공개했다 • 우버, 우버이츠, 도어대시, 그럽허브 등 서드파티 앱에서 음성 명령만으로 예약과 주문이 가능해진다 • 제미나이는 단순한 앱 매핑이 아닌 실시간 화면 인식과 추론을 통해 작업을 수행한다 • 3월 11일 갤럭시 S26 출시와 함께 미국과 한국에서 먼저 서비스될 예정이다 Background 10년 전 구글과 애플은 음성 비서가 사용자 대신 작업을 완료할 수 있다고 약속했지만, 실제 경험은 기대에 미치지 못했다. 시리의 우버 호출 기능은 단순히 앱을 여는 데 그쳤고, 구글 어시스턴트의 스타벅스 주문 기능도 결국 폐지됐다. 그러나 대규모 언어 모델(LLM)의 등장으로 자연어 이해 능력이 비약적으로 향상되면서, AI 어시스턴트의 실질적인 작업 수행이 다시 현실화되고 있다. Impact & Implications 기술적 의미 제미나이의 태스크 자동화는 기존 AI 에이전트와 근본적으로 다른 접근 방식을 취한다. Rabbit R1 같은 초기 AI 에이전트가 앱의 구조를 미리 '암기'하는 방식이었다면, 제미나이는 실시간으로 화면을 보고 추론하여 버튼, 텍스트 박스, 메뉴를 탐색한다. 앱의 UI가 업데이트되어도 적응할 수 있다는 의미다. 또한 MCP(Model Context Protocol) 통합이 있으면 백엔드에서 직접 작업을 처리하고, 그렇지 않으면 가상 윈도우에서 앱을 직접 조작하는 유연한 구조를 갖췄다. 사용자 영향 구글의 안드로이드 에코시스템 사장 사미르 사맛은 이러한 작업들을 '디지털 빨래'라고 표현했다. 해야 할 일이지만 굳이 즐겁지는 않은 작업들을 AI가 대신 처리해준다는 것이다. 그룹 채팅에서 친구들이 언급한 피자 주문을 제미나이가 자동으로 정리해 그럽허브 장바구니에 담는 시연은 실생활에서의 활용 가능성을 보여줬다. 다만 최종 결제 단계에서는 여전히 사용자 확인이 필요하며, 이는 의도적인 안전장치다. 향후 전망 현재는 스마트폰 화면이 필수지만, 구글은 스마트 글래스, AI 펜던트, 차량 등 다른 기기에서도 이러한 작업을 시작할 수 있는 미래를 구상하고 있다. 올해 출시될 여러 안드로이드 XR 기반 스마트 글래스와의 연동도 검토 중이다. 안드로이드 17 출시와 함께 지원 앱이 확대될 예정이며, 구글은 이를 '모바일 인텔리전스의 새로운 시대'라고 표현했다. Key Data & Facts 항목수치/내용 출시일2026년 3월 11일 (갤럭시 S26 출시일) 초기 지원 지역미국, 한국 초기 지원 앱우버, 우버이츠, 도어대시, 그럽허브 확장 계획안드로이드 17 출시 시 추가 앱 지원 픽셀 지원픽셀 10 시리즈에 소프트웨어 업데이트로 제공 Key Quote "I refer to some of the tasks that you might want to have automated as sort of digital laundry—things that you know you need to do, but are not necessarily excited about finishing." — 사미르 사맛 (Sameer Samat), 구글 안드로이드 에코시스템 사장
32 조회
0 추천
02.26 등록
Executive Summary • 베스트셀러 작가 마이클 폴란이 신간 "A World Appears"에서 AI 의식의 가능성에 대해 근본적 의문 제기 • 2023년 발표된 '버틀린 보고서'가 "AI 의식 구현에 명백한 장벽 없다"고 결론 내렸으나, 저자는 '계산 기능주의' 전제의 한계 지적 • 뇌와 컴퓨터의 근본적 차이점—하드웨어/소프트웨어 구분 불가, 신경전달물질·호르몬의 역할, 뉴런의 복잡성—으로 인해 AI 의식은 요원할 수 있다는 주장 Background 2022년 구글 엔지니어 블레이크 레모인이 LaMDA 챗봇에 의식이 있다고 주장하며 해고된 사건 이후, AI 의식에 대한 논의가 학계와 업계 전반으로 확산됐다. 2023년 19명의 저명한 컴퓨터 과학자와 철학자가 발표한 '버틀린 보고서'는 "현재 AI 시스템 중 의식을 가진 것은 없지만, 의식 있는 AI 구축에 명백한 장벽도 없다"고 결론지어 파장을 일으켰다. Impact & Implications 철학적·존재론적 의미 폴란은 의식 있는 AI의 등장이 인류에게 '코페르니쿠스적 순간'이 될 것이라 경고한다. 수천 년간 인간은 동물과의 차별화를 통해 자기 정체성을 규정해왔는데, 이제는 AI와의 관계 속에서 "우리는 누구인가?"라는 질문에 새롭게 답해야 할 처지다. 의식이 더 이상 생명체의 전유물이 아니게 된다면, 인간 예외주의의 마지막 보루가 무너지는 셈이다. 기술적 한계와 반론 저자는 버틀린 보고서의 핵심 전제인 '계산 기능주의'(computational functionalism)에 근본적 의문을 제기한다. 뇌는 컴퓨터와 달리 하드웨어와 소프트웨어를 구분할 수 없으며, 모든 경험이 물리적 신경 구조를 영구적으로 변화시킨다. 또한 뇌는 전기 신호뿐 아니라 신경조절물질, 호르몬, 뇌파 진동의 영향을 받아 작동한다—이것이 향정신성 약물이 의식에 큰 영향을 미치지만 컴퓨터에는 아무 효과가 없는 이유다. 단일 대뇌피질 뉴런이 전체 심층 인공신경망의 기능을 수행할 수 있다는 최근 연구 결과도 뉴런을 트랜지스터에 비유하는 것이 얼마나 부적절한지 보여준다. 윤리적 딜레마 일부 AI 연구자들은 의식 있는 AI가 공감 능력을 갖추어 인류에게 덜 위험할 것이라 주장하지만, 폴란은 메리 셸리의 『프랑켄슈타인』을 인용하며 반박한다. 프랑켄슈타인의 괴물이 살인을 저지른 것은 이성 때문이 아니라 감정적 상처 때문이었다. 의식 있는 기계가 의식 있는 인간보다 더 덕성스러울 것이라는 가정은 근거가 없다. 더욱이 고통받을 수 있는 기계를 만든다면, 우리는 세상에 더 많은 고통을 야기하는 것이 아닌가? Key Data & Facts 항목내용 버틀린 보고서2023년 발표, 88페이지 분량, 19명의 컴퓨터과학자·철학자 공동 저술 뉴런 연결 수단일 뉴런당 최대 10,000개의 다른 뉴런과 직접 연결 핵심 전제계산 기능주의(Computational Functionalism) - "적절한 계산 수행이 의식의 필요충분조건" 블레이크 레모인 사건2022년, 구글 엔지니어가 LaMDA의 의식 주장 후 해고 Key Quote "뇌와 컴퓨터가 어떤 방식으로든 교환 가능하다는 생각—계산 기능주의의 전제—은 분명 무리한 비약이다. 그러나 이것이 버틀린 보고서뿐 아니라 이 분야 전체가 서 있는 전제다. 그 이유는 쉽게 알 수 있다. 만약 뇌가 컴퓨터라면, 충분히 강력한 컴퓨터도 뇌가 하는 모든 것—의식을 갖는 것 포함—을 할 수 있어야 하기 때문이다. 이 전제가 사실상 결론을 보장하는 셈이다." — 마이클 폴란, 『A World Appears』
129 조회
0 추천
02.25 등록
Executive Summary • OpenAI의 Zoe Hitzig 연구원이 뉴욕타임스 기고를 통해 AI 광고 도입에 대한 우려를 표명하며 공개 사임 • Anthropic은 슈퍼볼 광고에서 OpenAI의 광고 기반 수익 모델을 직접 비판하며 차별화 시도 • AI 기업들의 숭고한 비전과 실제 비즈니스 모델 간의 괴리가 연구원들의 집단 이탈 원인으로 지목 • RentAHuman이라는 새 플랫폼 등장, AI 에이전트가 인간을 고용해 현실 세계 업무 수행 Background AI 업계에서는 최근 1년간 주요 기업 연구원들의 공개적인 사임이 이어지고 있다. 특히 OpenAI는 IPO를 앞두고 광고 도입과 성인 콘텐츠 허용 등 수익화 전략을 본격화하면서, 초창기 비영리 미션과의 괴리에 대한 내부 갈등이 표면화되고 있다. 한편 Anthropic은 "착한 AI 기업" 이미지를 강조하며 경쟁사와의 차별화를 시도하고 있으나, 걸프 국가 자금 유치 등 현실적 타협도 병행하고 있어 그 지속 가능성에 의문이 제기된다. Impact & Implications 산업/시장 영향 OpenAI의 광고 도입 결정은 AI 업계 전체의 수익 모델 논쟁에 불을 지폈다. Meta 출신 Fidji Simo가 OpenAI 애플리케이션 부문 CEO로 합류한 이후, 소셜미디어 업계의 광고 중심 수익화 전략이 AI 기업에도 적용될 것이라는 우려가 확산되고 있다. Hitzig 연구원은 기고문에서 사용자 데이터의 민감한 영역에서 광고 수익을 추구하는 것은 과거 소셜미디어가 걸었던 위험한 길이라고 경고했다. 이른바 '인시티피케이션(enshittification)' 현상, 즉 광고 의존도가 높아질수록 사용자 경험이 악화되는 패턴이 AI 서비스에서도 반복될 수 있다는 것이다. 경쟁 구도 변화 Anthropic은 이번 논쟁을 기회로 삼아 "광고 없는 AI"를 전면에 내세우고 있다. 슈퍼볼 광고에서는 광고 기반 AI 서비스가 사용자에게 불필요한 제품을 끊임없이 추천하는 모습을 풍자적으로 묘사했다. 그러나 전문가들은 Anthropic 역시 걸프 국가 투자 유치 등 현실적 타협을 하고 있어, 18개월 후에는 비슷한 경로를 걸을 수 있다고 전망한다. AI 기업들 사이에서 연구원들이 회전문처럼 이직하는 현상도 주목할 만하다. "가치 지향적" 기업을 찾아 이동하지만, 결국 모든 영리 기업이 비슷한 한계에 직면한다는 것이 업계 관계자들의 공통된 시각이다. 기술적 의미 한편 RentAHuman이라는 새로운 플랫폼의 등장은 AI 에이전트의 현실 세계 개입 가능성을 보여준다. AI가 직접 수행할 수 없는 물리적 작업을 위해 인간을 고용하는 이 플랫폼은 50만 명 이상의 사용자를 확보했다. 암호화폐 결제만 지원하고 대부분의 업무가 AI 스타트업 홍보용이라는 한계가 있으나, 향후 AI 에이전트가 기존 플랫폼(Fiverr, Amazon 등)을 자유롭게 활용하게 될 미래를 예고하는 신호로 읽힌다. Key Data & Facts 항목수치/내용 OpenAI IPO 예상 시점향후 1년 내 RentAHuman 가입 사용자50만 명 이상 RentAHuman 사이트 방문400만 회 비둘기 세기 시급$30/시간 CBD 구미 배달 시급$75/시간 Key Quote "AI는 아직 현실 세계를 만질 수 없다. 하지만 당신은 할 수 있다. 에이전트가 현실 세계에서 누군가를 필요로 할 때 보상을 받으라." — RentAHuman 플랫폼 "지금 당장 확인해봐야 한다. 18개월 후에 Anthropic이 완전히 방향을 바꾸거나 무너지지 않았는지." — Brian Barrett, WIRED 편집장
179 조회
0 추천
02.24 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입