Loading...

AI 뉴스

Grok, X에 이미지-투-비디오 도구 추가

페이지 정보

작성자 xtalfi
작성일 2025.11.11 14:52
1,439 조회
0 추천
0 비추천

본문

Grok-logo-on-an-Android-phone-with-an-AI-type-background_cpf6o8.jpg

(퍼플렉시티가 정리한 기사)


일론 머스크는 11월 8일 Grok의 새로운 이미지-비디오 애니메이션 기능을 공개했으며, 사용자들이 간단한 길게 누르기 제스처와 맞춤형 텍스트 프롬프트를 통해 정지 사진을 짧은 비디오 클립으로 변환할 수 있게 했다. Grok Imagine 도구로 구동되는 이 기능은 X에 직접 통합되어 사용자들이 플랫폼에서 AI 생성 비디오 콘텐츠를 만들 수 있도록 한다.​

토요일 아침 일찍 X에서 이 도구를 시연하며, 머스크는 정지 이미지에서 생성된 "I will always love you"라고 말하는 여성의 AI 생성 비디오를 게시했다. 그는 나중에 두 사람이 머펫으로 변하는 또 다른 예시를 공유하며 다음과 같이 썼다: "어떤 이미지든 길게 눌러서 비디오로 만드세요! 그런 다음 프롬프트를 맞춤 설정하여 상상할 수 있는 모든 것을 만들어보세요".​


Grok 4 플랫폼과의 통합

비디오 생성 기능은 2025년 10월 버전 0.9로 업그레이드된 xAI의 Grok Imagine 도구를 기반으로 합니다. 이 시스템은 배경 음악, 대화 및 음향 효과를 포함한 동기화된 오디오와 함께 6초에서 15초 범위의 비디오를 생성할 수 있습니다. 보고서에 따르면, Grok Imagine을 구동하는 Aurora 엔진은 평균 약 17초 만에 비디오를 생성하여 Adobe, Google 및 OpenAI의 도구들과 경쟁력 있는 위치를 차지하고 있습니다.​

Grok 4는 2025년 8월 전 세계 모든 사용자에게 무료로 제공되었지만, 무료 등급에는 12시간마다 약 5회의 쿼리 제한을 포함한 사용 제한이 있습니다. 프리미엄 구독자 및 Premium+ 플랜 사용자는 더 빠른 응답 시간, 확장된 컨텍스트 길이 및 고급 SuperGrok 모드에 대한 액세스를 받습니다. 월 $300의 비용이 드는 SuperGrok Heavy 구독은 모델의 최고 성능 버전을 제공합니다.​


경쟁 환경

이번 출시로 xAI는 기존 AI 영상 생성 플랫폼들과 직접적인 경쟁 관계에 놓이게 되었습니다. Adobe는 Firefly 도구를 통해 유사한 이미지-투-비디오 기능을 제공하며, 정지 이미지를 실사 영상으로 변환할 수 있습니다. Google의 Veo 3와 OpenAI의 Sora는 모두 동기화된 오디오와 함께 AI 생성 영상을 제작하지만, 해상도, 길이, 생성 속도 면에서 각기 다른 강점을 가지고 있습니다.​

머스크의 발표 이후, X 사용자들은 빠르게 이 기능을 실험하기 시작했으며, 플랫폼 전반에 걸쳐 AI 생성 클립을 공유했습니다. 이 도구는 X 플랫폼과 Grok의 독립형 모바일 애플리케이션 모두를 통해 이용할 수 있습니다.

댓글 0
전체 1,366 / 46 페이지
• Apple은 월요일 기계 학습 및 AI 전략 담당 수석 부사장인 John Giannandrea가 2026년 봄에 물러나 은퇴할 것이며, Microsoft와 Google에서 근무한 Amar Subramanya가 AI 담당 부사장으로 합류할 것이라고 발표했습니다.[investing +2]• 이번 리더십 개편은 Apple이 AI 강화 Siri 어시스턴트 출시 지연으로 비판을 받고 있는 가운데 이루어졌습니다. Siri는 원래 2024년에 약속되었으나 이제 2026년으로 연기되었으며, 회사는 생성형 AI 경쟁에서 OpenAI, Google, Microsoft와 같은 경쟁사들을 따라잡기 위해 고군분투하고 있습니다.[investing +2]• CEO Tim Cook에게 직접 보고했던 Giannandrea와 달리, Subramanya는 소프트웨어 책임자인 Craig Federighi에게 보고할 예정입니다. Federighi의 AI 책임은 확대되어 “내년에 사용자들에게 더 개인화된 Siri를 제공”하기 위한 Apple의 노력을 감독하게 된다고 Cook이 말했습니다.[nbcnews +2]
685 조회
0 추천
2025.12.02 등록
• Nvidia는 NeurIPS 컨퍼런스에서 Alpamayo-R1을 공개했으며, 이는 사고 연쇄(chain-of-thought) AI 추론과 경로 계획을 통합하여 자율주행 자동차가 실시간으로 자신의 결정을 설명할 수 있도록 하는 세계 최초의 개방형 산업 규모 추론 비전 언어 행동 모델로 설명되었습니다.[quantumzeitgeist +1]• 이 모델은 센서 데이터를 자연어 설명으로 변환하고 주행 결정을 단계별로 추론함으로써 자율주행 차량 소프트웨어의 “블랙박스” 문제를 해결하며, 강화 학습 후처리 후 추론 품질이 45% 향상되었습니다.[quantumzeitgeist +1]• Nvidia는 비상업적 연구 용도로 GitHub와 Hugging Face에 이 모델을 공개했으며, 개발자들이 자율주행 차량 및 로봇공학을 위한 물리적 AI 모델을 맞춤화할 수 있도록 Cosmos Cookbook과 AlpaSim 평가 프레임워크도 함께 제공했습니다.[quantumzeitgeist +1]
696 조회
0 추천
2025.12.02 등록
Runway는 월요일에 Gen 4.5를 공개했으며, 이는 독립 벤치마킹 업체 Artificial Analysis가 관리하는 Video Arena 리더보드에서 1위를 차지한 새로운 AI 비디오 생성 모델로, 2위인 Google의 Veo 3 모델과 7위인 OpenAI의 Sora 2 Pro를 능가했다.PitchBook에 따르면 35억 5천만 달러의 가치를 평가받은 이 100명 규모의 스타트업은 블라인드 테스트를 사용하며, 투표자들이 어느 회사가 제작했는지 모르는 상태에서 비디오 결과물을 비교하여 순수한 사용자 선호도를 기반으로 편향되지 않은 순위를 보장한다.CEO Cristóbal Valenzuela는 CNBC에 Runway가 “100명의 팀으로 수조 달러 규모의 기업들을 능가하는 데 성공했다”고 말했으며, “David”라는 코드명의 이 모델은 주말까지 회사의 플랫폼, API 및 파트너 통합을 통해 모든 고객에게 제공될 예정이다.
671 조회
0 추천
2025.12.02 등록
Google은 12월 8일 오전 10시(태평양 표준시)에 30분간 라이브스트림을 개최하여 확장 현실 플랫폼인 Android XR의 업데이트를 공개할 예정이며, Gemini AI 통합이 적용된 헤드셋 및 스마트 안경의 새로운 기능에 중점을 둘 것입니다.이 행사는 10월에 출시된 Samsung의 Galaxy XR 헤드셋 출시에 이어 진행되는 것으로, 이는 1,799달러 가격의 첫 번째 Android XR 기기로서 4K 디스플레이와 손동작, 시선 추적, 음성 명령을 통한 AI 기반 상호작용을 특징으로 합니다.티저 자료에 따르면 Google은 2026년 출시 예정인 Samsung의 차기 스마트 안경을 선보일 가능성이 있으며, 이는 Apple의 부진한 Vision Pro 및 Meta의 보다 성공적인 Ray-Ban 스마트 안경과 경쟁하기 위한 것입니다.
670 조회
0 추천
2025.12.02 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입