Loading...

AI 뉴스

메타, 운동선수를 위한 오클리 뱅가드 스마트 안경 출시

페이지 정보

작성자 xtalfi
작성일 2025.10.22 16:25
1,957 조회
0 추천
0 비추천

본문

Oakley-Meta-Vanguard-checking-watch.png

(퍼플렉시티가 정리한 기사)

메타는 오늘 운동선수와 스포츠 애호가를 위해 특별히 설계된 $499의 스마트 안경인 Oakley Meta Vanguard를 출시했으며, 이는 피트니스 웨어러블 시장에 대한 회사의 가장 야심찬 진출을 의미합니다.​

Vanguard는 메타의 이전 스마트 안경 제품들과는 상당히 다른 방향을 보여주며, 일반 소비자보다는 진지한 운동선수를 타겟으로 합니다. 패션 중심의 Ray-Ban Meta 시리즈와 달리, Vanguard는 향상된 내구성과 스포츠 특화 기능을 갖춘 랩어라운드 바이저 디자인을 특징으로 합니다.

 

중앙 배치 카메라 기술 및 향상된 성능 기능

 

Vanguard의 가장 주목할 만한 혁신은 122도 초광각 시야각을 가진 1,200만 화소 카메라가 중앙에 배치되어 있다는 점으로, 이는 Ray-Ban Meta의 모서리에 장착된 카메라와 100도 캡처 각도에 비해 크게 개선된 것입니다. 이러한 중앙 배치는 운동 활동 중 사용자의 실제 시점과 단절된 느낌을 주었던 어색한 오프셋 각도를 제거합니다.​

"카메라는 Ray-Ban 모델처럼 모서리에 숨겨져 있지 않고 실드 스타일 바이저의 정중앙에 위치합니다. 이 중앙 배치는 운동 동작 중 눈이 실제로 보는 것과 일치하는 진정한 1인칭 시점을 캡처합니다"라고 여러 리뷰어들의 상세한 테스트 결과가 밝혔습니다.​

안경은 초당 30프레임으로 최대 3K 해상도의 비디오를 녹화할 수 있으며, 슬로우 모션, 하이퍼랩스, 조절 가능한 비디오 안정화를 포함한 새로운 모드를 제공합니다. 향상된 안정화 기능은 기존 카메라가 모션 블러와 흔들리는 영상으로 어려움을 겪는 액션 스포츠에서 특히 유용한 것으로 입증되었습니다.

 

가민 통합 및 실시간 피트니스 코칭

 

Vanguard의 가장 두드러진 특징은 Garmin 기기 및 Strava와의 깊은 통합으로, Meta AI 음성 명령을 통해 실시간 운동 데이터에 핸즈프리로 접근할 수 있다는 점입니다. 운동선수들은 "Hey Meta, 내 심박수는?" 또는 "내가 어떻게 하고 있어?"라고 물어보면 손목을 보거나 활동을 멈추지 않고도 즉각적인 피드백을 받을 수 있습니다.​

"이 통합 기능은 힘든 운동 중에 손목이나 핸들바 컴퓨터를 쳐다볼 필요를 없애줍니다. 아래를 내려다보는 것은 신체 자세를 흐트러뜨리고, 집중력을 깨뜨리며, 기술적으로 까다로운 지형에서 빠르게 움직일 때 안전상의 위험을 초래합니다"라고 한 종합 리뷰에서 언급했습니다.​

Garmin 연결은 또한 마일 표시나 강도 변화와 같은 미리 정해진 이정표에서 자동으로 5초 분량의 비디오 클립을 녹화하는 "자동 캡처" 기능을 제공하여, 운동선수들이 수동 개입 없이 하이라이트 릴을 만들 수 있게 합니다.​

Strava 사용자의 경우, 안경이 거리, 속도, 고도 증가와 같은 성능 지표를 캡처한 비디오와 사진에 오버레이하여 소셜 공유를 할 수 있습니다. 그러나 실시간 음성 피드백은 Garmin 통합에만 독점적으로 제공됩니다.

 

향상된 내구성 및 배터리 수명

 

Meta는 IP67 등급으로 Vanguard의 방수 기능을 대폭 업그레이드하여 방진 기능을 갖추고 최대 1미터 깊이의 물에 30분간 잠수할 수 있게 했습니다. 이는 Ray-Ban Meta의 IPX4 생활 방수 등급에 비해 상당한 개선을 나타냅니다.​

이 안경은 이전 Meta 모델보다 6데시벨 더 큰 스피커로 향상된 오디오 기능을 갖추고 있으며, 고속 활동 중 바람 소음을 차단하도록 특별히 설계되었습니다. 바람 소음 감소 기능이 있는 5개의 마이크 어레이는 최대 시속 30마일의 속도에서도 음성 명령이 작동하도록 보장합니다.​

배터리 수명은 혼합 사용 시 최대 9시간 또는 연속 오디오 재생 시 6시간에 달하며, 충전 케이스는 추가로 36시간의 전력을 제공합니다. 급속 충전은 단 20분 만에 50%의 배터리 용량을 제공합니다.

 

가격 책정 및 시장 포지셔닝

 

499달러인 Vanguard는 Meta의 다른 스마트 안경 제품보다 120~200달러 더 비싸지만, 이미 성능 장비에 많은 투자를 하고 있는 운동선수들을 겨냥합니다. 이 안경은 프리미엄 스포츠 아이웨어 및 액션 카메라와 직접 경쟁하며, 전통적인 Oakley 퍼포먼스 선글라스는 일반적으로 스마트 기능 없이 200~300달러에 판매됩니다.​

Vanguard는 오늘 미국, 캐나다, 영국, 호주 및 주요 유럽 시장을 포함한 17개국에서 출시되었으며, 올해 후반에 멕시코, 인도, 브라질, UAE로 확장할 예정입니다. Oakley의 Prizm 렌즈 기술을 적용한 네 가지 색상 조합이 제공되며, 다양한 스포츠 및 조명 조건에 최적화된 여러 틴트가 있습니다.​

교체용 렌즈는 85달러에 구입할 수 있으며, 사용자는 도로 사이클링, 트레일 스포츠 또는 밝은 햇빛 조건에 맞는 다양한 Prizm 변형 렌즈로 교체할 수 있습니다.​

이번 출시로 Meta는 스포츠 기술 시장에서 진지한 경쟁자로 자리매김하며, 여러 기기 기능을 운동 성능을 위해 특별히 설계된 단일 웨어러블 플랫폼에 결합함으로써 Garmin 및 GoPro와 같은 기존 업체들에 직접 도전합니다.

댓글 0
전체 1,366 / 132 페이지
(퍼플렉시티가 정리한 기사)Palantir CEO 알렉스 카프는 목요일 인공지능 투자에 대해 강력한 경고를 전달하며, Yahoo Finance의 Invest 이벤트 참석자들에게 많은 AI 프로젝트가 “막대한 비용을 정당화할 만큼 충분한 가치를 창출하지 못할 수 있다”고 말했다. 이러한 발언은 이벤트에서 인용된 Morgan Stanley 추정치에 따르면 거대 기술 기업들이 2025년 AI 인프라에 4,700억 달러를 지출할 것으로 예상되는 가운데 나왔다.Yahoo Finance 스튜디오에서 발언한 카프는 두 가지 서로 다른 AI 시장을 제시했다: 하나는 매출이나 이익률을 움직이지 못하는 기본 애플리케이션에 초점을 맞춘 시장이고, 다른 하나는 측정 가능한 전장 또는 비즈니스 결과를 제공할 수 있는 부문이다. “정보에 입각한 관찰자라면 AI 시장이 상당하긴 하지만, 대규모 언어 모델이나 그 배포에 대한 투자를 정당화할 만큼 충분한 가치를 창출하지 못할 수 있다고 주장할 수 있습니다”라고 그는 말했다. 방산 기술 CEO는 Palantir가 기업들이 “현재의 운영 구조를 유지하면서 가치를 실현할 수 있는” 결과 중심 부문에서 운영되고 있다고 강조했다.명망 있는 학위가 쓸모없게 되다이번 주에 역시 헤드라인을 장식한 Axios와의 별도 인터뷰에서 Karp는 일반적인 지식을 가진 엘리트 대학 졸업생들이 AI 시대에 “운명이 끝났다”고 선언했다. “만약 당신이 예일대에 갔을 법한 사람, 전통적으로 높은 IQ를 가졌지만 일반화된 지식을 가지고 있고 구체적이지 않다면, 당신은 망했습니다”라고 Karp는 Axios에 말했다. 그는 직업 훈련을 받은 고등학교 졸업생과 같이 특정 분야의 전문 지식을 가진 근로자들이 AI가 일반 지식을 상품화함에 따라 아이비리그 졸업생들보다 “훨씬 더 많은 돈을 벌 것”이라고 주장했다.이러한 발언은 4월에 시작된 Palantir의 Meritocracy Fellowship과 일치하는데, 이 프로그램은 대학 대신 최근 고등학교 졸업생 22명을 4개월 유급 프로그램에 채용했다. 이 프로그램은 아이비리그 수준의 시험 점수를 요구했으며 500명 이상의 지원자를 유치했고, 펠로우들은 현재 이번 달에 프로그램을 마무리하고 있다. 우수한 성과를 낸 사람들은 현재 약 4,390억 달러의 가치를 지닌 회사의 정규직 포지션 면접을 보게 될 것이다.시장 우려 심화이러한 경고는 Palantir의 주가가 2025년에 141% 급등한 가운데 나온 것이지만, 강력한 실적에도 불구하고 최근 실적 발표 이후 주가는 하락했습니다. Meta [ +0.14%], Microsoft, Amazon, Alphabet을 포함한 하이퍼스케일러들은 2026년에 6,200억 달러를 투자할 것으로 예상되며, 이는 AI 지출이 충분한 수익을 창출할 수 있을지에 대한 논쟁을 불러일으키고 있습니다. Michael Burry를 포함한 공매도 투자자들과 저명한 CEO들은 주식 시장이 버블 국면에 있을 수 있다고 경고했습니다.
1621 조회
0 추천
2025.11.14 등록
(퍼플렉시티가 정리한 기사)Google은 목요일 AI 기반 연구 보조 도구인 NotebookLM의 업데이트를 발표하며 Deep Research 기능과 Microsoft [MSFT -1.54%] Word 문서 및 Google Sheets를 포함한 추가 파일 형식 지원을 도입했습니다.Deep Research 기능은 수백 개의 웹사이트를 탐색하고 몇 분 내에 출처가 명확한 상세한 보고서를 생성함으로써 복잡한 온라인 조사를 자동화합니다. 표준 검색 도구와 달리 Deep Research는 다단계 연구 계획을 수립하고 정보를 수집하면서 검색을 정제한 다음, 사용자가 노트북에 직접 추가할 수 있는 체계적인 보고서로 결과를 종합합니다.사용자는 두 가지 연구 모드 중 선택할 수 있습니다: 정보를 빠르게 스캔하는 빠른 검색을 위한 Fast Research와 사용자가 다른 작업을 계속하는 동안 백그라운드에서 실행되는 포괄적인 브리핑을 위한 Deep Research입니다. Google의 블로그 게시물에 따르면, 보고서는 시작에 불과하며 사용자는 보고서와 출처를 모두 노트북에 추가할 수 있고 Deep Research가 작동하는 동안 다른 출처를 계속 추가할 수 있습니다.확장된 파일 형식 호환성이번 업데이트는 Google Sheets 지원을 추가하여 사용자가 스프레드시트에서 요약을 요청하거나 통계를 분석할 수 있도록 합니다. NotebookLM은 이제 Microsoft Word 문서(.docx)를 허용하여 수동 파일 변환의 필요성을 제거합니다. 사용자는 또한 복사-붙여넣기를 통해 Google Drive 파일을 URL로 추가할 수 있으며, 쉼표로 구분된 여러 링크를 지원합니다. Google Drive에 저장된 PDF는 이제 다운로드 및 재업로드 없이 직접 추가할 수 있습니다.이미지는 향후 몇 주에 걸쳐 제공될 예정이며, 사용자가 손으로 쓴 메모나 문서의 사진을 업로드할 수 있게 됩니다.맥락과 경쟁NotebookLM은 2023년 말에 출시되어 2025년 내내 정기적인 업데이트를 받았습니다. 10월에 Google은 NotebookLM의 채팅 기능을 100만 토큰 컨텍스트 윈도우와 6배 더 긴 대화 메모리로 확장했습니다. 이 플랫폼은 또한 올해 초 비디오 개요를 도입했으며 5월에 Android 및 iOS용 모바일 앱을 출시했습니다.Deep Research 기능은 NotebookLM을 경쟁사의 유사한 도구들과 나란히 위치시키지만, Google은 연구가 백그라운드에서 실행되는 동안 사용자가 계속해서 소스를 추가할 수 있도록 함으로써 자사 제품을 차별화합니다. NotebookLM은 복잡한 다단계 질문에 대한 향상된 추론 기능을 제공하는 Gemini 2.5 Flash로 구동됩니다.Google에 따르면 모든 기능은 일주일 내에 사용자에게 제공될 예정입니다.
1638 조회
0 추천
2025.11.14 등록
(퍼플렉시티가 정리한 기사)AI 코딩 어시스턴트 Cursor는 목요일 23억 달러 규모의 투자 유치에 성공하며, 이전 투자 라운드로부터 불과 5개월 만에 기업 가치가 3배 증가한 293억 달러를 기록했습니다. 샌프란시스코에 본사를 둔 이 스타트업은 공식 명칭 Anysphere Inc.로, 인공지능 기반 개발자 도구에 대한 투자자들의 엄청난 신뢰를 나타내며 AI 역사상 가장 큰 벤처 캐피탈 투자 라운드 중 하나를 유치했습니다.월스트리트 저널의 보도에 따르면, 이번 투자 라운드는 Accel과 Coatue가 공동 주도했으며, Nvidia와 Google이 전략적으로 참여했습니다. 기존 투자자인 Thrive Capital과 DST Global도 이번 라운드에 합류했습니다. 회사의 기업 가치는 약 25억 달러로 평가받았던 1월 이후 거의 12배 급증했습니다.전략적 투자자들이 시장 변화를 예고하다Nvidia와 Google이 투자자로 참여한 것은 AI 개발 도구의 전략적 중요성을 강조합니다. Nvidia는 Cursor의 기업 고객이자 칩 공급업체로서 역할을 하고 있으며, Google은 플랫폼을 구동하는 AI 모델을 제공합니다. CEO Michael Truell은 월스트리트 저널에 이들 기업을 “파트너십을 심화하기 위해” 초청했다고 밝혔습니다.이번 투자 라운드는 AI 코딩 시장의 경쟁이 심화되는 가운데 이루어졌습니다. Microsoft가 소유한 GitHub Copilot은 2025년 7월 2천만 명의 사용자를 돌파했으며, Fortune 100 기업의 90% 이상이 이 도구를 사용하고 있다고 보고했습니다. 한편, OpenAI와 Anthropic은 자체 AI 코딩 제품을 강화하고 있어, 개발자 도구 부문을 인공지능 분야에서 가장 경쟁이 치열한 전장 중 하나로 만들고 있습니다.독점 AI 모델에 베팅하기Cursor는 지난 10월 출시한 자체 AI 모델인 Composer 개발을 위해 자금을 투입할 계획이다. 현재 이 회사는 코딩 어시스턴트 구동을 위해 Google, OpenAI, Anthropic의 외부 모델에 의존하고 있지만, Composer는 이러한 공급업체로부터의 독립을 위한 시도를 의미한다.Cursor는 2025년 6월 기준 연간 반복 수익 5억 달러를 돌파했으며, 이는 4월의 3억 달러에서 증가한 수치이고, Fortune 500 기업 중 절반 이상이 사용하고 있다. 2022년 MIT 졸업생 4명—Michael Truell, Sualeh Asif, Arvid Lunnemark, Aman Sanger—이 설립한 이 회사는 개발자 도구 분야에서 가장 빠르게 성장하는 스타트업으로 부상했다. AI 코딩 도구 시장은 연평균 25.62%의 성장률로 2032년까지 373억 4천만 달러 규모에 달할 것으로 예상된다.
1577 조회
0 추천
2025.11.14 등록
(퍼플렉시티가 정리한 기사)Google DeepMind는 목요일에 SIMA 2를 발표했습니다. 이는 회사의 Gemini 언어 모델을 통합하여 3D 가상 환경을 탐색하고 상호작용하는 차세대 AI 에이전트로, 연구원들이 인공 일반 지능과 실제 로보틱스 응용 분야를 향한 진전이라고 설명하는 것을 나타냅니다.DeepMind에 따르면, 이 새로운 에이전트는 전작 대비 성능이 크게 향상되어 복잡한 작업의 성공률을 두 배로 높였습니다. 원래 SIMA가 어려운 과제에서 인간 플레이어의 71%에 비해 31%의 완료율만 달성한 반면, SIMA 2는 Gemini 2.5 Flash-lite 통합을 통해 향상된 기능을 보여줍니다.향상된 추론 및 자기 개선SIMA 2는 단순한 지시 따르기를 넘어 맥락을 이해하고, 목표에 대해 추론하며, 사용자와 대화할 수 있다고 DeepMind의 선임 연구 과학자 Joe Marino가 기자 브리핑에서 설명했다. 이 에이전트는 이모지를 포함한 멀티모달 프롬프트를 해석할 수 있으며—“????????”와 같은 명령에 나무를 베어 넘어뜨리는 것으로 반응한다—작업을 해결할 때 내부 추론 과정을 보여준다.이 에이전트는 No Man’s Sky, Valheim, Goat Simulator 3 등 다양한 상용 비디오 게임에서 훈련되었으며, 화면 픽셀과 가상 키보드 및 마우스 컨트롤만을 사용하여 600개 이상의 동작을 실행하는 방법을 학습했다. DeepMind는 또한 자사의 월드 모델인 Genie 3가 생성한 사실적인 세계에서 SIMA 2를 테스트했으며, 에이전트는 완전히 새로운 환경에서 성공적으로 탐색하고 작업을 완료했다.아마도 가장 주목할 만한 점은 SIMA 2의 자기 개선 능력이다. 전적으로 인간 게임플레이 데이터에 의존했던 SIMA 1과 달리, 새로운 시스템은 Gemini 모델을 사용하여 작업을 생성하고 자체 성능을 평가하며, 인간의 개입보다는 AI 기반 피드백을 통한 시행착오로 학습한다.물리적 로봇공학으로 가는 길DeepMind는 SIMA 2를 범용 로봇을 위한 기초적인 기술로 제시하고 있습니다. “로봇과 같이 실제 세계에서 작업을 수행하기 위해 시스템이 해야 할 일을 생각해보면 두 가지 구성 요소가 있습니다”라고 DeepMind의 수석 연구 엔지니어인 Frederic Besse는 말했습니다. “첫째, 실제 세계에 대한 높은 수준의 이해와 수행해야 할 작업, 그리고 약간의 추론이 필요합니다”.그러나 전문가들은 신중한 입장을 표명하고 있습니다. 뉴욕 대학교의 AI 연구원인 Julian Togelius는 결과가 흥미롭다고 평가하면서도, 시각적 관찰만으로 여러 게임에 걸쳐 모델을 훈련시키는 것은 여전히 어려운 과제라고 지적합니다. 앨버타 대학교의 Matthew Guzdial은 로봇공학에 얼마나 많은 지식이 전이될 수 있을지 의문을 제기하며, 실제 세계의 카메라 영상을 이해하는 것이 인간 플레이어를 위해 설계된 게임 그래픽을 해석하는 것보다 훨씬 더 복잡하다고 언급했습니다.DeepMind는 SIMA 2를 소수의 학계 및 게임 개발자 그룹에게 제한된 연구 프리뷰로 공개하고 있습니다.
1597 조회
0 추천
2025.11.14 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입