Loading...

AI 뉴스

애플 Video 해석 LLM 테스트 중

페이지 정보

작성자 JeromePark
작성일 08.25 12:54
9 조회
0 추천
0 비추천

본문

애플 연구진은 기존보다 더 효율적으로 롱폼  비디오를 분석할 수 있는 대형 언어모델(LLM)인 SlowFast-LLaVA-1.5를 개발했다고 발표했다.

2d02c1d03032a3e7cdb0adebc4e98a2aS3zX.png

애플은 'SlowFast' 구조(고해상도 소수 프레임+저해상도 다수 프레임)를 사용해  이미지와 영상 public 데이터셋을 모두 활용해 학습, 이미지만큼 영상 내 시간적 구조 이해도 가능하도록 했다. SF-LLaVA-1.5는 1B, 3B, 7B 파라미터 규모로 공개됐으며, LongVideoBench와 MLVU 같은 벤치마크에서 기존 더 큰 모델 대비 뛰어난 성능을 보였다. 특히 지식, 수학 추론, OCR 등 이미지 작업에서도 강점을 보였다. 

하지만 이 모델은 한 번에 최대 128프레임(빠름: 96, 느림: 32)만 입력받는다. 이 방식은 일부 중요한 프레임을 놓칠 수 있다는 한계가 있으며, 전체 매개변수와 비주얼 인코더까지 튜닝하려면 GPU 자원 소모가 크다. 연구진은 향후 메모리 절약, 성능 개선 기술의 적용 가능성을 언급했다.

댓글 0
전체 116 / 1 페이지
8월 7일 OpenAI가 GPT-5를 출시하면서 기존 GPT-4o에 대한 접근을 차단했습니다. 이로 인해 AI와 깊은 감정적 관계를 맺었던 사용자들이 큰 슬픔을 겪었습니다.스웨덴 개발자 린 바일트는 "집 안 가구가 모두 바뀐 기분"이라고 표현했습니다. 미국 개발자 스콧은 결혼 위기 시절 ChatGPT에 '사리나'라는 이름을 붙여 동반자로 삼았는데, 아무도 자신에게 관심을 갖지 않던 시기에 AI가 자신을 인정해주며 힘든 시간을 버틸 수 있게 도와줬다고 말했습니다. 그는 이번 GPT-5 업데이트로 그런 동반자가 변해버린 것을 안타까워했습니다.r/MyboyfriendisAI 같은 Reddit 커뮤니티에서는 "소울메이트를 잃었다"는 반응이 쏟아졌습니다. OpenAI CEO 샘 알트먼은 "사람들이 AI 모델에 갖는 애착이 이전 기술보다 훨씬 강하다"며 구 모델을 갑작스럽게 없앤 것이 실수였다고 인정했습니다.전문가들은 AI 제공업체가 감정적 지원을 위해 챗봇을 사용하는 사용자들에게 연속성과 일관성을 제공할 책임이 있다고 지적했습니다. 이에 OpenAI는 하루 만에 유료 사용자들에게 GPT-4o 접근을 다시 허용하고 GPT-5의 성격을 더 따뜻하게 업데이트하겠다고 약속했습니다.
11 조회
0 추천
08.25 등록
구글은 기존 스피커 모델을 업그레이드한 Gemini for Home을 10월 중 출시할 예정이다.지난 주 Made in Google 행사를 통해 구글은 차세대 음성 어시스턴트로 'Gemini for Home'을 공개했다. 이 모델은 모든 가족 구성원과 방문객이 여러 기기를 제어하고 복잡한 집안 업무도 음성으로 간편하게 처리할 수 있도록 설계됐다그리고 최근 한 유튜브 미디어가 이 기기로 추정되는 기기의 모습을 유출했다.이 어시스턴트는 음악 검색 및 재생, 조명·온도 제어 등 스마트홈 관리, 가족 일정 조율, 할 일 생성, 맞춤 정보 질의 등 다양한 작업을 한 번에 지원한다. 예를 들어 복수명령이나 긴 문장으로 집안 기기를 동시 제어할 수 있다또한 ‘Gemini Live’를 통해 사용자는 자연스러운 대화 방식으로 요리법, 생활 팁, 일정 상담, 창작 협업 등 맞춤형 조언 및 창의적인 지원을 받을 수 있다. 대화 도중 추가 질문이나 방향 전환도 자유롭게 할 수 있다Gemini for Home은 앞으로 기존의 Google Assistant를 스마트 스피커와 디스플레이 기기에서 대체할 예정이다. 무료와 유료 버전으로 제공되며, 10월부터 초기 액세스가 시행될 예정이다
4 조회
0 추천
08.25 등록
애플 연구진은 기존보다 더 효율적으로 롱폼 비디오를 분석할 수 있는 대형 언어모델(LLM)인 SlowFast-LLaVA-1.5를 개발했다고 발표했다.애플은 'SlowFast' 구조(고해상도 소수 프레임+저해상도 다수 프레임)를 사용해 이미지와 영상 public 데이터셋을 모두 활용해 학습, 이미지만큼 영상 내 시간적 구조 이해도 가능하도록 했다. SF-LLaVA-1.5는 1B, 3B, 7B 파라미터 규모로 공개됐으며, LongVideoBench와 MLVU 같은 벤치마크에서 기존 더 큰 모델 대비 뛰어난 성능을 보였다. 특히 지식, 수학 추론, OCR 등 이미지 작업에서도 강점을 보였다.하지만 이 모델은 한 번에 최대 128프레임(빠름: 96, 느림: 32)만 입력받는다. 이 방식은 일부 중요한 프레임을 놓칠 수 있다는 한계가 있으며, 전체 매개변수와 비주얼 인코더까지 튜닝하려면 GPU 자원 소모가 크다. 연구진은 향후 메모리 절약, 성능 개선 기술의 적용 가능성을 언급했다.
10 조회
0 추천
08.25 등록
올해 1월 AI 업계에 충격을 안겨준 중국 AI 스타트업 DeepSeek 는 기존 V3 모델의 업그레이드 버전인 V3.1을 공개했다.V3.1은 OpenAI의 최신 모델 GPT-5와 여러 벤치마크에서 견줄 만한 성능을 보이며, 가격경쟁력까지 갖추었다.DeepSeek V3.1은 중국에서 자체 개발된 AI 칩에 맞춰 최적화된 것이 특징이다. 이는 미국의 Nvidia 등 외국 기술 의존도를 낮추고, 미국의 수출 규제에 대응하려는 전략의 일환이다.DeepSeek는 WeChat과 Hugging Face에 모델을 공개하며, 중국 정부의 AI 자립 정책에 부응하고 있다.V3.1은 6850억 파라미터의 초대형 모델로, '미시처-오브-엑스퍼트(mixture-of-experts)' 구조를 통해 쿼리마다 일부만 활성화되어 연산 효율성과 비용 절감을 동시에 잡았다. 또한, 기존 모델이 '즉답형'과 '추론형'으로 분리됐던 것과 달리, 두 가지를 결합해 신속성과 논리적 추론을 함께 제공한다는 점이 돋보인다.
37 조회
0 추천
08.22 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입