AI 뉴스

메타, 근육 신호로 제어하는 손목밴드 공개 예정

페이지 정보

작성자 xtalfi
작성일 2025.09.13 23:11
3,244 조회
0 추천
0 비추천

본문

6b5cc1ba495c077a959e6ddfe81a8f09DuId.png

(퍼플렉시티가 정리한 기사)

Meta는 9월 17일 Meta Connect 콘퍼런스에서 오랜 기간 기대를 받아온 EMG 뉴럴 손목밴드를 공개할 준비를 하고 있습니다. 이는 스마트 글래스 기술의 진화에 있어 중대한 순간을 의미합니다. 팔의 근육 신호를 감지하는 전기생리학(EMG) 기술을 사용하는 이 손목밴드는 Meta의 차세대 스마트 글래스인 하이퍼노바(Hypernova)와 함께 첫 선을 보일 예정이며, “Meta Celeste”라는 이름으로 출시될 가능성이 높습니다.


EMG 손목밴드는 2019년 Meta가 CTRL-labs를 약 5억~10억 달러에 인수하면서 시작된 수년간의 연구의 결실입니다. 이 기기는 표면 근전도(sEMG) 기술을 활용해 팔뚝의 근육 수축으로 발생하는 전기 신호를 읽어내, 사용자가 손가락 집기, 두드림, 엄지 스와이프 등 미세한 손동작만으로도 디지털 인터페이스를 제어할 수 있게 해줍니다.


혁신적인 제어 시스템


내부 코드명 “Ceres”인 신경 손목밴드는 근육 활성화를 감지함으로써 손가락 움직임을 제어하므로, 외부 카메라나 센서 없이도 정밀한 제어가 가능합니다. Nature에 발표된 연구에 따르면, 이 장치는 손목 둘레에 16개의 금 도금 전극 센서를 배치하여 초당 2,000회(2kHz) 전기 신호를 샘플링하여 아주 미세한 움직임까지 포착할 수 있습니다.


Meta Reality Labs의 신경운동 인터페이스 책임자이자 CTRL-labs의 전 대표인 Thomas Reardon은 이 기술이 사고(thought)를 읽는 것이 아니라 운동 정보(motor information)를 읽는 것이라고 밝히며 “이것은 사고를 담당하는 뇌의 부분이 아닌 운동 정보를 제어하는 뇌의 부분에서 나오는 것입니다”라고 설명했습니다. 해당 시스템은 검지 위로 엄지손가락을 쓸어 넘기는 제스처, 집는 동작, 손목 회전처럼 다양한 동작을 해석해 디지털 인터페이스를 탐색할 수 있습니다.


스마트 안경 통합


손목밴드는 Meta의 Hypernova 스마트 안경과 함께 패키지로 제공될 예정이며, 판매가는 약 $800로 예상됩니다. 이 안경은 Lumus에서 제조한 우측 렌즈에 작은 디스플레이를 탑재하고 있으며, 약 20도의 시야각을 제공하여 몰입형 경험보다는 실용적인 증강현실 응용에 초점을 맞추어 설계되었습니다.


Apple의 Vision Pro가 카메라 기반의 손 추적에 의존하는 것과 달리, Meta의 방식은 손이 안경의 시야 밖에 있을 때에도 제스처 컨트롤이 가능합니다. 이 조합을 통해 사용자는 손의 자연스러운 움직임으로 알림을 받고, 인터페이스를 탐색하며, Meta AI와 상호작용하면서 주변 환경에 대해 완전히 인지할 수 있습니다.


개발 과제 및 미래 응용 분야


Meta는 개발 과정에서 여러 가지 기술적 문제에 직면했습니다. 여기에는 손목의 올바른 위치 선정, 사용자마다 다른 성능 편차, 그리고 긴 소매와 같은 옷가지로 인한 간섭 등이 포함됩니다. 이 회사는 개별적인 보정 없이 다양한 사용자가 기기를 사용할 수 있도록 기계 학습 알고리즘을 활용해 이런 문제를 해결하고 있습니다.


이 기술은 스마트 글라스 제어를 넘어 의료, 제조, 접근성 등 다양한 분야에 활용될 잠재력을 가지고 있습니다. Meta 연구진은 카네기 멜론 대학과 협력하여 척수 손상을 가진 사람들을 대상으로 손목 밴드를 테스트하고 있으며, 이는 이동성이 제한된 사람들이 컴퓨터와 상호작용할 수 있는 새로운 길을 열어주고 있습니다.


마크 저커버그는 2월에 이 프로젝트의 상용화가 머지않았음을 확인하며, “이 프로젝트를 수년간 진행해왔고, 실제로 머지않아 제품에 적용될 무언가가 준비되고 있다”고 밝혔습니다. Meta Connect 2025가 며칠 앞으로 다가온 지금, 이 신경 손목 밴드는 연구 시제품에서 소비자 제품으로 전환할 준비가 된 것으로 보이며, 우리가 디지털 환경과 상호작용하는 방식을 근본적으로 바꿀 수 있을 것으로 기대됩니다.

댓글 0
전체 1,366 / 334 페이지
Microsoft가 자체 개발 AI 모델을 공식적으로 공개했다https://microsoft.ai/news/two-new-in-house-models/Microsoft는 오랜 기간 OpenAI의 기술을 활용해 왔으나, 자체 개발한 MAI-Voice-1과 MAI-1-preview 모델을 공식 발표하며 AI 분야의 경쟁에 적극적으로 뛰어들기 시작했다.MAI-Voice-1은 단 한 개 GPU만으로 1분 분량의 오디오를 1초 내에 생성할 수 있을 만큼 효율적으로 설계됐으며, MAI-1-preview는 Copilot과 같은 마이크로소프트 제품에 적용될 가능성이 높다Microsoft는 대규모 GPU 대신 약 15,000개의 Nvidia H-100 GPU만으로 MAI-1-preview 모델을 학습시키는 등 자원 효율성과 오픈소스 커뮤니티에서 습득한 기법들을 활용해 모델 성능을 극대화하고 있다.이번 발표로 Microsoft AI 부문은 OpenAI 및 주요 AI 스타트업들과 본격적으로 경쟁하게 됐으며, 기술적 독립성을 강화해 미래 AI 경쟁에서 주도권을 높이려는 전략으로 해석된다.Microsoft는 여전히 OpenAI와 전략적 파트너십을 유지하면서도, 자체 개발 모델을 통해 Copilot 등 자사 서비스의 다양성과 비용 효율성을 높여 AI 시장 내 입지를 강화하는 것으로 보인다.
3413 조회
0 추천
2025.08.29 등록
미국 인공지능 기업 앤스로픽이 공개한 8월 위협 인텔리전스 보고서에 따르면, 자사의 AI 모델 클로드(Claude)가 해킹에 악용되어 북한과 중국이 이를 부적절한 목적에 활용한 것으로 확인되었습니다.북한 관련 행위자들은 클로드를 이용해 미국의 포춘 500 기술 기업에서 가짜 원격 고용 직위를 확보하는 정교한 작전을 수행했습니다. 이들은 AI를 활용하여 가짜 신원을 만들고 취업 지원 과정에서 기술 평가를 통과했으며, 채용 후에는 실제 기술 업무도 AI로 수행했습니다. 보고서는 AI가 없었다면 코딩을 전혀 못 하거나 영어로 전문적인 의사소통이 불가능한 운영자들이 기술 인터뷰나 업무 유지가 불가능했을 것이라고 분석했습니다. 이러한 북한의 AI 악용 계획은 국제 제재를 무시하고 북한 정권의 외화벌이 수단으로 설계된 것으로 확인되었습니다.한편 중국 관련 해커들은 지난 9개월 동안 클로드를 이용해 베트남 주요 통신사와 농업 관리 시스템, 정부 데이터베이스를 침투하는 사이버 공격을 수행했습니다. 중국의 경우 북한과 달리 외화벌이보다는 주로 정보 수집과 시스템 침투에 AI를 활용한 것으로 나타났습니다.앤스로픽의 AI 기술은 해커에 의해 최소 17개 기관을 대상으로 한 대규모 사이버 범죄에 사용되었으며, 이 과정에서 정부와 의료, 긴급 서비스, 종교 기관 등에서 의료 데이터와 금융 정보 등 민감한 기록들이 유출되었습니다. 블룸버그 통신은 이를 상업용 AI 도구가 광범위하게 무기화된 전례 없는 사례라고 평가하며, 1명의 이용자가 전체 해커 조직처럼 작동할 수 있음을 시사한다고 분석했습니다.
3532 조회
0 추천
2025.08.28 등록
구글이 어학 학습 서비스 듀오링고에 대응하는 새로운 개선을 내놓는다. 고 테크크런치가 보도.구글은 구글 번역 앱에 새로운 AI 기반 언어 학습 기능을 도입하며, 언어 학습 앱 듀오링고에 도전장을 내밀었다. 이 기능은 초보자부터 고급 학습자까지 맞춤형 듣기와 말하기 연습 세션을 제공하며, 사용자의 실력과 학습 목표에 따라 조정된다. 사용자는 앱에서 "연습" 옵션을 선택해 자신의 수준과 목표를 설정한 뒤, 맞춤형 대화 시나리오를 통해 단어와 문장을 익힐 수 있다. 이 기능은 2025년 8월 26일부터 안드로이드와 iOS용 구글 번역 앱에서 베타 버전으로 제공되며, 영어, 스페인어, 프랑스어, 포르투갈어 사용자에게 우선 지원된다또한, 구글은 실시간 대화 번역 기능을 강화해 70개 이상의 언어로 자연스러운 대화를 지원한다. 사용자는 "실시간 번역" 옵션을 선택해 대화 상대의 언어를 번역하고, 음성과 텍스트로 동시에 확인할 수 있다. 이 기능은 소음이 많은 환경에서도 억양과 음성을 정확히 인식하며, 미국, 인도, 멕시코에서 먼저 사용 가능하다. 구글은 AI와 머신러닝 기술의 발전으로 번역 품질과 속도를 크게 개선했다고 밝혔다새로운 언어 연습 기능은 사용자의 일일 진행 상황을 추적하며, 듣기 연습에서는 대화 속 단어를 선택해 이해도를 높이고, 말하기 연습에서는 발음을 연습할 수 있다. 이는 듀오링고의 게임화된 학습 방식과 유사하지만, 구글은 AI를 활용해 개인화된 학습 경험을 강조한다. 구글은 이 기능이 기존 학습 도구와 함께 사용되도록 설계되었다고 전하며, 독립적인 학습 앱보다는 보완적인 도구로 포지셔닝했다구글은 또한 ‘작은 레슨(Tiny Lesson)’, ‘슬랭 행(Slang Hang)’, ‘워드 캠(Word Cam)’ 같은 실험적 AI 도구를 통해 언어 학습을 더욱 동적이고 개인화된 경험으로 만들고 있다. 예를 들어, ‘작은 레슨’은 특정 상황에 필요한 어휘와 문법을 제공하고, ‘슬랭 행’은 현지 slang과 대화를 학습할 수 있게 한다. ‘워드 캠’은 사진 속 사물을 인식해 해당 언어로 단어를 제시한다. 이 도구들은 현재 아랍어, 중국어, 영어, 프랑스어 등 여러 언어를 지원하며, 구글 랩에서 체험할 수 있다구글의 이번 업데이트는 약 1조 단어에 달하는 번역 데이터를 처리하며 언어 장벽을 낮추는 데 기여할 것으로 기대된다. 그러나 구글은 이 기능들이 실험 단계에 있으며, 일부 slang이나 단어 생성에서 오류가 발생할 수 있다고 경고했다. 따라서 사용자는 결과를 다른 신뢰할 수 있는 출처와 교차 검증해야 한다. 구글은 앞으로 더 많은 언어와 국가로 기능을 확장하고, 언어 학습 파트너와 협력해 콘텐츠를 강화할 계획이다.
3484 조회
0 추천
2025.08.27 등록
구글이 AI 이미지 모델을 대폭 업그레이드한 'Gemini 2.5 Flash Image'를 출시하며 자연어 명령으로 이미지를 생성하고 기존 사진을 병합하며 이상한 왜곡 없이 정밀 편집할 수 있는 기능을 제공한다고 발표했다.이번 업그레이드는 업계 선두인 오픈AI(OpenAI)와의 격차를 줄이려는 시도로, ChatGPT가 7억 명의 주간 사용자를 보유한 반면 구글 Gemini는 4억 5천만 명의 월간 사용자에 머물러 있다. 구글은 여러 편집 과정에서 캐릭터나 객체의 일관성을 유지하는 AI의 가장 큰 난제 중 하나를 해결했다고 밝혔으며, 사용자가 간단한 명령으로 배경 흐리기, 티셔츠 얼룩 제거, 자세 변경, 흑백 사진에 색상 추가 등의 세밀한 작업을 할 수 있다고 설명했다.공식 출시 전 이 모델은 크라우드소싱 평가 플랫폼 LMArena에서 'nano-banana'라는 익명으로 등장해 샘 알트만(Sam Altman)의 셔츠 색깔을 바꾸는 등 놀라운 성능을 보여주며 화제가 됐다. 새 모델은 Gemini 앱뿐만 아니라 개발자들이 Gemini API, 구글 AI 스튜디오, Vertex AI를 통해 접근할 수 있으며, 부동산 목록 카드, 직원 유니폼 배지, 제품 목업 제작 등 실제 사용 사례에서 활용되고 있다.
3528 조회
1 추천
2025.08.27 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입