Loading...

AI 뉴스

애플 Video 해석 LLM 테스트 중

페이지 정보

작성자 JeromePark
작성일 2025.08.25 12:54
433 조회
0 추천
0 비추천

본문

애플 연구진은 기존보다 더 효율적으로 롱폼  비디오를 분석할 수 있는 대형 언어모델(LLM)인 SlowFast-LLaVA-1.5를 개발했다고 발표했다.

2d02c1d03032a3e7cdb0adebc4e98a2aS3zX.png

애플은 'SlowFast' 구조(고해상도 소수 프레임+저해상도 다수 프레임)를 사용해  이미지와 영상 public 데이터셋을 모두 활용해 학습, 이미지만큼 영상 내 시간적 구조 이해도 가능하도록 했다. SF-LLaVA-1.5는 1B, 3B, 7B 파라미터 규모로 공개됐으며, LongVideoBench와 MLVU 같은 벤치마크에서 기존 더 큰 모델 대비 뛰어난 성능을 보였다. 특히 지식, 수학 추론, OCR 등 이미지 작업에서도 강점을 보였다. 

하지만 이 모델은 한 번에 최대 128프레임(빠름: 96, 느림: 32)만 입력받는다. 이 방식은 일부 중요한 프레임을 놓칠 수 있다는 한계가 있으며, 전체 매개변수와 비주얼 인코더까지 튜닝하려면 GPU 자원 소모가 크다. 연구진은 향후 메모리 절약, 성능 개선 기술의 적용 가능성을 언급했다.

댓글 0
전체 329 / 57 페이지
- 최근 월 약 28만 원(200달러) 구독료로 800만 원 상당의 토큰을 사용하는 '추론 고래'(Inference whales) 개발자들이 다수 등장.- 일부 헤비유저 때문에 앤트로픽, 바이브 코딩 등 AI 스타트업의 수익성 악화 논란.- 대표적으로 한 사용자는 한 달간 51억 토큰(806만 원치 API 비용)에 달하는 클로드 코드 사용. 상위 169명은 한 달간 2777억 토큰 소비.- 서비스 업체들은 남용 방지 위해 무제한 요금제에 주간 사용량 제한 등 도입, 별도 초과 요금 부과 시작(8/28부터).- 비용 하락에도 최고 모델 수요는 여전히 높으며, AI 활용 워크플로우 확대에 따라 실제 토큰 사용량은 증가.- 전문가들은 "AI 추론 비용 감소가 현실적으로 어렵고, 무제한 요금제는 지속 불가능"이라는 의견 제시
565 조회
0 추천
2025.08.20 등록
이 사업은 공무원이 보안 걱정 없이 다양한 생성형 AI 서비스를 활용하도록 관련 플랫폼과 거대언어모델(LLM), 컴퓨팅 자원(GPU 등) 등을 제공하는 게 목적이다. 행안부는 오는 11월 일부 서비스를 시범 제공할 계획이다. 삼성SDS 컨소시엄에 포함된 AI 플랫폼 2종(삼성SDS 패브릭스, 네이버 하이퍼스튜디오)과 LLM 모델 6개를 선정해 우선 서비스한다. 공무원은 이들 가운데 원하는 플랫폼과 LLM을 활용, AI를 업무에 적용해볼 수 있다.-> 우리가 아는 흔한 LLM모델을 쓸 수 있다는 말인가?
561 조회
0 추천
2025.08.20 등록
오픈AI는 2025년 8월 17일부터 챗GPT의 응답 톤을 보다 따뜻하고 친근하게 조정하는 업데이트를 적용했습니다. 이로 인해 대화가 더 자연스럽고 사용자 친화적으로 느껴집니다. 기존에는 정보 위주의 다소 딱딱한 응답이 주를 이뤘다면, 이제는 감정 표현이 더 풍부해졌습니다. 예를 들어, 이전에는 "오늘 서울 날씨는 맑음, 기온 25도입니다"라는 응답이었다면, 이제는 "서울 오늘 날씨가 정말 좋아요! 맑고 기온 25도라 나들이 가기 딱 좋겠네요!"처럼 보다 생동감 있는 답변을 제공합니다. 사용자 피드백에 따르면 대화의 자연스러움이 약 20% 향상되었습니다.PS. 그래서 그런지 자꾸 반말을 하네요...
486 조회
0 추천
2025.08.20 등록
구글 딥마인드가 초경량 AI 모델 '젬마 3 270'(2억 7천만 매개변수)을 오픈소스로 공개했습니다. 이 모델은 휴대폰, 노트북, 웨어러블 기기 등 저전력 장치에서도 고효율로 작동하도록 설계되었습니다. 특히, 개발자 커뮤니티를 지원하기 위해 무료로 제공되는 '제미나이 CLI 깃허브 액션'과 함께, AI 코딩 협업 도구로 주목받고 있습니다. 이는 소규모 개발자나 스타트업이 AI를 쉽게 활용할 수 있게 돕는 흥미로운 움직임입니다.젬마는 간단히 사용할 수 있습니다. 사용방법은 아래와 같습니다.- 구글 딥마인드의 깃허브 저장소 또는 Hugging Face 모델 허브에서 젬마 3 270을 다운로드합니다.- Python 환경에서 pip install gemma 명령어로 설치합니다.- gemma run --model gemma-3-270m 명령어를 실행하여 모델을 사용할 수 있습니다.
574 조회
0 추천
2025.08.20 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입