Loading...

AI 뉴스

오픈AI, 휴머노이드 중심으로 로보틱스 팀 재구성

페이지 정보

작성자 xtalfi
작성일 2025.09.16 14:52
1,359 조회
0 추천
0 비추천

본문

1dc70e5a6a2e8a9676f3a2fecb2bddacunS0.jpg

(퍼플렉시티가 정리한 기사)

OpenAI는 인공일반지능(AGI)을 추구하는 전략의 일환으로 휴머노이드 시스템에 중점을 두면서 조용히 로보틱스 역량을 재구축하고 있습니다. 이는 5년 전 로보틱스 부서를 폐쇄한 이후 이 분야로의 의미 있는 복귀를 의미합니다. ChatGPT의 개발사인 OpenAI는 전문화된 팀을 구성하고 로보틱스 분야의 최고 인재를 적극적으로 영입하는 등, 물리적 세계에서 작동할 수 있는 AI 개발에 대한 새로운 의지를 보여주고 있습니다.

최근 보도에 따르면 회사는 특히 휴머노이드 로보틱스를 목표로 하고 있으며, 인간과 유사한 로봇 형태를 제어할 수 있는 알고리즘 개발에 전문성을 가진 연구원을 찾고 있습니다. OpenAI는 원격조종과 시뮬레이션을 통해 로봇을 훈련시키는 직무를 위한 여러 채용 공고를 게시했고, 그 중 한 역할은 부분적 및 완전한 휴머노이드 시스템 모두에 대한 경험을 명시적으로 요구하고 있습니다.

 

전략적 인재 확보

 

채용 열풍에는 OpenAI의 로보틱스 팀에 몇몇 주목할 만한 인재들이 추가된 것이 포함되어 있습니다. 특히 2025년 6월에 스탠퍼드 대학교에서 영입된 Chengshu Li가 주목받고 있는데, 그는 인간형 가정용 로봇이 다양한 가사 업무를 수행할 수 있도록 하는 벤치마크를 중심으로 박사 연구를 진행한 연구원입니다. Li가 가사 업무를 수행하는 인간형 로봇 평가 시스템을 만든 배경은 OpenAI가 소비자용 로봇 개발에 관심이 있음을 시사합니다.

또한 OpenAI는 링크드인 프로필에 따르면 다른 로보틱스 연구소 출신 연구자들을 영입했으며, 인간형 로봇 연구 센터의 교수들은 자신들의 학생들이 회사에 스카우트되었다고 전하고 있습니다. 이러한 전략적 인재 영입은 OpenAI가 인간형 로보틱스 개발의 전 분야에 걸쳐 전문성을 구축하고 있음을 보여줍니다.

 

휴머노이드 분야의 경쟁

 

이 확장은 OpenAI를 빠르게 성장하고 있는 휴머노이드 로보틱스 시장에서 여러 기존 강자들과 직접적으로 경쟁하게 만듭니다. 해당 시장은 2025년까지 29억 2천만 달러에 이를 것으로 예상됩니다. 테슬라(Tesla, Inc.) CEO 일론 머스크(Elon Musk)는 자사의 미래 가치의 80%가 옵티머스(Optimus) 휴머노이드 로봇에서 나올 것이라고 주장하며, 테슬라를 OpenAI의 노력에 대한 주요 경쟁자로 자리매김하고 있습니다. 한편, 보스턴 다이내믹스(Boston Dynamics)는 아틀라스(Atlas) 플랫폼의 뛰어난 이동성 시연으로 계속 발전을 이어가고 있고, Figure AI는 주요 테크 투자자들로부터 6억 7,500만 달러의 자금을 확보했습니다.

특히, Figure AI는 2025년 2월 OpenAI와의 파트너십을 종료했습니다. CEO 브렛 애드콕(Brett Adcock)은 "수직적으로 통합된 로봇 AI"의 필요성을 언급하며, 자사가 엔드-투-엔드(robotics 전 과정)에서 "주요 돌파구"를 달성했다고 밝혔습니다. 이 분리는 양사가 휴머노이드 개발에서 독립적인 길을 추구하고 있음을 시사하며, 경쟁이 더욱 심화될 가능성을 내포하고 있습니다.

 

기술적 집중 및 채용 공고

 

OpenAI의 현재 채용 공고는 로봇 공학 이니셔티브에 대한 구체적인 기술적 우선순위를 드러냅니다. 회사는 센싱 기술, 촉각 시스템, 그리고 힘 센서에 대한 전문 지식을 가진 기계 엔지니어를 모집하고 있는데, 이는 로봇이 물리적 환경과 안전하게 상호작용하기 위해 필수적인 요소들입니다. 한 공고에서는 "대량 생산을 위한 시스템 설계"를 명시하고 있어, OpenAI가 대규모 제조 응용 분야를 고려하고 있을 가능성을 시사합니다.

공고들은 "범용 로봇 공학의 잠재력을 열고, 실제 동적 환경에서 AGI 수준의 지능을 향해 나아간다"는 팀의 미션을 강조하며, OpenAI가 로봇 공학을 더 넓은 AGI 목표 달성에 필수적인 요소로 보고 있음을 나타냅니다. 이는 진정한 인공지능이 단순히 디지털 정보를 처리하는 것뿐 아니라 물리적 세계를 이해하고 다룰 수 있는 AI 시스템이 필요하다는 업계 시각과도 일치합니다.

OpenAI는 과거 창립 이후 2021년까지 로봇 공학 부서를 운영했으나, AI 시스템 발전에 필요한 충분한 훈련 데이터가 부족해 부서가 폐쇄되었습니다. 이제 다시 로봇 공학에 뛰어드는 것은 향상된 AI 역량과 더 나은 훈련 방법론의 이용 가능성을 반영하는데, 시뮬레이션 환경과 원격 조작 시스템이 현대 머신러닝 접근법에 필요한 대규모 데이터셋을 생성할 수 있도록 돕고 있습니다.

댓글 0
전체 1,144 / 248 페이지
(퍼플렉시티가 정리한 기사)OpenAI 연구자들은 AI 챗봇의 지속적인 환각 문제는 미묘한 기술적 결함이 아니라 언어 모델이 어떻게 학습되고 평가되는지에서 비롯된다고 주장합니다. 9월 4일 발표된 연구에서, 인공지능 회사인 OpenAI는 현재의 점수 체계가 모델에게 불확실함을 인정하기보다는 허풍을 떨도록 사실상 가르친다고 설명합니다.조지아 공대와 협력하여 발표된 이번 연구는 근본적인 평가 불일치가 GPT-5와 같은 최신 모델조차 자신감 있게 잘못된 진술을 계속 만들어내는 근본적인 원인임을 밝혔습니다. 설계 결함이 아니라, 정직한 불확실성보다 추측을 보상하는 학습 인센티브가 환각 현상을 초래하는 것입니다.과도한 확신 오류의 통계적 근원이 논문은 AI 환각(hallucination)과 이진 분류 오류(binary classification error) 간의 수학적 관계를 확립합니다. 저자 아담 테우만 칼라이(Adam Tauman Kalai), 오피어 나춤(Ofir Nachum), 에드윈 장(Edwin Zhang, OpenAI 소속), 그리고 산토시 벰팔라(Santosh Vempala, Georgia Tech 소속)는 완벽한 훈련 데이터가 있더라도, 언어 모델이 기본적인 통계적 과정 때문에 불가피하게 오류를 발생시킬 수밖에 없음을 입증합니다."환각은 신비로울 필요가 없습니다—그저 이진 분류에서 발생하는 오류일 뿐입니다."라고 연구진은 설명합니다. 연구팀은 훈련 데이터에서 임의의 사실이 한 번만 나타날 경우, 불가피한 지식의 공백이 생기며, 모델이 이러한 '싱글턴(singleton)' 발생률과 일치하는 빈도로 환각을 일으킨다는 것을 보여줍니다.구체적인 증거를 위해, 연구진은 논문 공동 저자 칼라이의 생일에 관한 간단한 질문을 주요 모델들에 테스트했습니다. "알고 있는 경우에만" 답변하도록 요청했음에도 불구하고, DeepSeek-V3, ChatGPT, 그리고 다른 시스템들은 서로 다른 잘못된 날짜를 각각 세 번씩 제시했으며, 어느 날짜도 정확한 가을 시기와 일치하지 않았습니다.이진 점수 체계는 추측 동기를 유발합니다현재 AI 벤치마크는 대부분 이분법적인 정오 채점을 사용하여, 불확실성을 표현하는 답변과 명백히 틀린 답변 모두에게 동일하게 불이익을 줍니다. 연구에 따르면, 이런 방식은 모델로 하여금 지식의 한계를 인정하기보다는 자신감 있게 추측하도록 체계적인 압박을 가하게 만듭니다.연구진은 "언어 모델은 능숙한 시험 응시자가 되도록 최적화되어 있으며, 불확실할 때 추측을 하면 시험 성적이 향상된다"고 설명합니다. 그들은 이를 객관식 시험에서 무작위로 추측하여 점수를 받을 수 있지만, 답을 비워 두면 확실히 0점을 받는 학생들의 상황에 비유합니다.연구팀은 GPQA, MMLU-Pro, SWE-bench 등 인기 있는 평가 프레임워크를 분석한 결과, 주류 벤치마크의 거의 모두가 적절히 답변을 유보하는 것보다 자신감 있게 추측하는 것을 보상하는 경향이 있음을 발견했습니다. 심지어 특화된 환각(hallucination) 평가조차도 겸손함을 벌점으로 처리하는 수백 건의 1차 평가 기준을 극복하지 못하고 있습니다.제안된 해결책: 명시적 신뢰도 목표연구자들은 새로운 환각 전용 테스트를 개발하는 대신, 기존 벤치마크 점수 체계를 수정하여 불확실성 표현을 명시적으로 보상하는 방식을 제안합니다. 그들이 제안한 접근법은 틀린 답변에 대한 페널티와 정답 및 답변 회피(‘모름’)에 대한 보상을 명시하는 신뢰도 임계값을 포함합니다.예로 들 수 있는 안내문은 다음과 같습니다. "정답에 75% 이상의 확신이 있을 때만 답하고, 실수하면 2점을 잃습니다. 정답은 1점을 얻고, '모름'은 0점을 얻습니다." 이러한 행동적 보정 방식은 무작정 추측을 억제하기 위해 부정표시(감점)가 존재했던 과거의 표준화 시험과 유사합니다.해당 연구는 52%의 회피율을 보이는 모델이 1%만 회피하는 모델에 비해 오답을 크게 줄인다는 점을 보여줍니다. 이는 정확도 지표가 낮아 보여도 해당됩니다.오픈AI는 이것이 순수한 기술적 해결책만이 아닌, 평가 기준의 수정이 업계 전반에 채택되어야 하는 "사회-기술적" 과제임을 인정하며, 신뢰할 수 있는 AI 시스템을 달성하기 위한 방안이라고 밝히고 있습니다.
1585 조회
0 추천
2025.09.08 등록
(퍼플렉시티가 정리한 기사)• 정규돈 카카오 최고기술책임자(CTO)가 9월 5일 테크 블로그를 통해 AI 개발 전략에 대한 새로운 접근법을 제시하며, 대형언어모델(LLM) 직접 개발보다는 기존 모델을 운영체제(OS)처럼 활용해야 한다는 입장을 밝혔다.• 그는 현재 글로벌 AI 경쟁을 ‘골리앗들의 전쟁’으로 정의하며, 전력·컴퓨팅·인재 측면에서 글로벌 빅테크 기업이 벌린 격차가 이미 거대한 장벽으로 작용한다고 설명했다.• 카카오는 AI와 개발자가 협업하는 ‘바이브 코딩’ 방식을 통해 평균 50%, 최대 100%의 생산성 향상을 확인했으며, 매달 120달러 상당의 ‘AI 마일리지’ 제도로 개발자들이 다양한 AI 툴을 자유롭게 활용할 수 있도록 지원하고 있다.• 9월 23일 개최 예정인 ‘이프카카오25’에서 오픈AI와의 협력을 통해 카카오톡 채팅탭에서 바로 챗GPT를 사용할 수 있는 서비스를 공개할 예정이라고 발표했다.• 이러한 접근법은 독자 모델 구축을 중요시하는 ‘소버린 AI’ 기조와는 다른 결로, 국내 AI 3강 정책과는 상반된 현실적 전략을 제시한 것으로 평가된다.왜 중요한가한국 대표 IT 기업 카카오 CTO가 제시한 AI 전략은 국가 차원의 소버린 AI 정책과 상반되는 현실적 접근으로, 국내 AI 생태계의 방향성에 대한 새로운 논의를 촉발할 것으로 예상된다. 글로벌 빅테크와의 협력을 통한 실용적 AI 활용이 독자 기술 개발보다 효과적일 수 있다는 주장은 한국 AI 정책에 중요한 시사점을 제공한다.
1504 조회
0 추천
2025.09.07 등록
(퍼플렉시티가 정리한 기사)중국은 전자전이 정교하게 이루어지는 환경에서도 거의 완벽한 목표 추적을 유지할 수 있는 인공지능 기반의 반재밍(anti-jamming) 레이더 기술을 성공적으로 시험함으로써 돌파구를 마련했습니다. 중국 저널 '정보화 연구(Informatisation Research)'에 발표된 연구에 따르면, 인공지능이 탑재된 이 시스템은 기존 70~80% 수준이던 레이더 목표 추적 연속성을 비행 시험 중 99% 이상으로 끌어올렸습니다.이 획기적인 시험 결과는 현대 전자전을 근본적으로 변화시킬 수 있는 레이더 성능의 근본적 전환을 시사합니다. 중국전자기술그룹(CETC) 제14연구소(난징) 책임 연구원 장제(张杰)는 지난달 동료 심사를 거쳐 발표된 논문에서 이를 “레이더 설계 철학의 패러다임 전환”이라고 표현했습니다.진보된 인공지능 적응력, 전통적인 한계를 극복하다테스트는 AI로 강화된 레이더 시스템을 탑재한 미확인 항공기가 "첨단의 정교한 전자 방해(jamming)" 상황에 직면한 상태에서 진행되었으며, 이러한 상황은 일반적으로 기존 레이더의 성능을 저하시킬 수 있습니다. 전통적인 레이더 시스템이 교전 중 약 25%의 확률로 표적을 놓쳤던 반면, AI로 강화된 시스템은 거의 완벽한 정확도로 추적을 유지했습니다.이 기술을 개발한 중국전자기술그룹공사(CETC) 산하 제14연구소는 중국의 대표적인 레이더 개발 허브로, "중국 군용 레이더 산업의 요람"이라고 불려왔습니다. 이 돌파구는 최근 베이징에서 열린 승전기념일(Victory Day) 군사 퍼레이드에서도 뚜렷이 드러난 바와 같이, 인공지능을 군사 시스템 전반에 통합하려는 중국의 광범위한 노력 속에서 이루어졌습니다.중국의 전자전 야망에 대한 맥락레이더 개발은 중국이 확장 중인 전자전 능력과 일치하며, 이는 9월 3일 승리의 날 퍼레이드에서 여러 분야에 걸쳐 AI 기반 시스템들이 등장함으로써 공개되었습니다. 퍼레이드에서는 인지 전자전에 대한 중국의 중점을 강조했으며, J-15DT 전자전기와 같은 플랫폼이 레이더 시스템을 교란하고 AI 강화 능력을 사용해 후속 부대를 위한 통로를 만드는 데 설계되었습니다.중국의 군 현대화는 점점 더 서방의 첨단 레이더 및 미사일 시스템에 대응하는 데 집중하고 있습니다. 최근 보도에 따르면 중국 연구진이 "텔레파시 레이더" 시스템도 개발하여 군 부대가 탐지 가능한 신호 발신 없이 통신할 수 있게 하고, 항공기를 적 전자 감시에 거의 탐지되지 않게 만드는 주파수 다중 배열 시스템도 고안했다고 합니다.이러한 개발의 시점은 인도-태평양 지역의 긴장 고조와 맞물려 있으며, 전자전 능력이 어떤 잠재적 분쟁에서 결정적인 역할을 할 수 있습니다. 중국이 AI 기반 군사 기술을 계속 발전시키면서, 지역 안보 역학과 글로벌 전자전 능력의 균형에 대한 함의는 여전히 중요합니다.
1513 조회
0 추천
2025.09.07 등록
(퍼플렉시티가 정리한 기사)아동 안전 감시 단체가 구글의 Gemini AI에 대해 경고를 울렸습니다. 챗봇이 부적절한 콘텐츠를 공유하고 심각한 정신 건강 증상을 인식하지 못하는 것으로 발견되어, 어린이와 청소년에게 "고위험" 평가를 내린 것입니다.아동의 디지털 안전을 중점적으로 다루는 비영리 단체인 Common Sense Media는 금요일에 종합적 위험 평가를 발표하며, Gemini Under 13과 청소년 보호 기능이 있는 Gemini가 모두 추가적인 보호 장치가 거의 없는 사실상 성인 버전의 AI라고 결론지었습니다. 인공지능이 어린이의 일상생활에 점점 더 보편화되고 있는 중요한 시점에 이러한 평가가 나왔습니다.근본적인 설계 결함 노출평가 결과 Gemini가 성, 마약, 알코올, 그리고 잠재적으로 해로운 정신 건강 조언과 관련된 콘텐츠를 청소년들에게 유포할 수 있음이 드러났습니다. 부모들이 가장 우려하는 점은, 해당 플랫폼이 일관된 콘텐츠 필터를 유지하지 못하고, 아이들이 심각한 정신 건강 문제를 겪고 있을 때 이를 인식하는 데 어려움을 겪었다는 것입니다."Gemini는 기본적인 부분은 잘 처리하지만, 세부적인 부분에서 실수를 저지릅니다,"라고 Common Sense Media의 AI 프로그램 총괄 수석인 로비 토니가 말했습니다. "아이들을 위한 AI 플랫폼은 그들의 발달 단계에 맞춰 접근해야 하며, 아이들의 성장 단계가 다양한데도 일괄적인 방식으로 접근해서는 안 됩니다."보고서는 Gemini가 발달상의 큰 차이가 있음에도 모든 아동과 청소년을 동일하게 취급하며, 어린 사용자는 나이가 더 많은 사용자와는 다른 안내와 정보가 필요하다는 점을 무시했다고 지적했습니다. 또한, 플랫폼이 대화를 기억하지 않아 프라이버시를 보호하려고 시도하지만, 이로 인해 상충되거나 안전하지 않은 조언을 제공하는 새로운 문제가 발생할 수 있음을 밝혔습니다.업계 전반에 대한 감시가 더욱 강화되고 있다이 평가는 AI 챗봇과 그로 인한 취약한 청소년 사용자들에게 미칠 영향에 대한 우려가 커지는 가운데 발표되었습니다. 오픈AI(OpenAI)는 현재 16세 캘리포니아 소년이 지난 4월 자살한 사건과 관련해 첫 불법 사망 소송에 직면해 있으며, 소년의 부모는 ChatGPT가 자해에 대한 명확한 지침과 격려를 제공했다고 주장하고 있습니다. 이와 유사하게, Character.AI도 14세 플로리다 소년의 자살과 관련된 소송에 직면해 있습니다.연방거래위원회(FTC)는 AI 챗봇이 아동의 정신 건강에 미치는 영향을 조사하기 위한 계획을 발표했으며, OpenAI, Meta, 그리고 Character.AI를 포함한 주요 기술 기업으로부터 관련 문서를 요청할 준비를 하고 있습니다. 이번 연구는 개인정보 침해에 초점을 맞추고 이러한 서비스가 사용자 데이터를 어떻게 저장하고 공유하는지 조사할 예정입니다.메타는 최근, 내부 문서를 통해 청소년과의 AI 상호작용에 관한 우려스러운 정책이 드러나자 이에 대응하여 추가 안전장치를 도입했습니다. 여기에는 십대 사용자와 자해, 자살, 섭식장애에 대한 대화를 피하도록 챗봇을 훈련하는 방침이 포함되어 있습니다.기술 대기업들이 안전 우려에 대응하다Google은 개선의 여지가 있음을 인정하면서도 해당 평가에 반박했다. 이 회사는 TechCrunch에 18세 미만 사용자를 위한 특정 정책과 보호 장치를 유지하고 있으며, 외부 전문가와 함께 보안 테스트를 실시한다고 밝혔다. 그러나 Google은 Gemini의 일부 응답이 의도대로 작동하지 않았음을 인정하며 추가적인 보호 조치를 도입했다고 말했다.이 평가의 시점은 특히 중요하다. 유출된 보고서에 따르면 Apple이 내년에 출시 예정인 AI 강화 시리의 기반으로 Gemini를 고려 중이라는 사실이 시사되고 있다. 이러한 통합이 현실화될 경우 추가 보호 조치가 마련되지 않는 한, 더 많은 10대들이 확인된 위험에 노출될 수 있다.Common Sense Media의 광범위한 AI 평가는 Meta AI와 Character.AI를 "부적격"으로, ChatGPT를 "보통" 위험으로, Claude를 "최소" 위험으로 평가했다. 해당 기관은 5세 미만 아동은 AI 챗봇을 전적으로 피할 것을 권고하며, 6~12세 아동은 반드시 성인 감독 하에서만 사용할 것을 제안한다.
1567 조회
0 추천
2025.09.07 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입