DeepSeek, 20배 텍스트 압축 기능을 갖춘 OCR 모델 공개
페이지 정보
본문

(퍼플렉시티가 정리한 기사)
중국 AI 기업 DeepSeek은 월요일에 DeepSeek-OCR을 공개했습니다. 이는 97%의 정확도를 유지하면서 최대 20배의 텍스트 압축을 달성하는 오픈소스 멀티모달 AI 모델로, AI 시스템의 문서 처리 효율성에 있어 중요한 돌파구를 마련했습니다.
시각적 텍스트 압축의 획기적 발전
30억 파라미터 비전-언어 모델은 텍스트를 압축을 위한 이미지로 취급하는 혁신적인 접근 방식을 활용하여, AI 시스템이 컴퓨팅 비용의 비례적 증가 없이 방대한 문서를 처리할 수 있도록 합니다. DeepSeek의 기술 논문에 따르면, 이 모델은 원본 정보의 97%를 유지하면서 텍스트를 최대 10배까지 압축할 수 있으며, 20배 압축 비율에서도 유용한 성능을 발휘합니다.
“DeepSeek-OCR을 통해 우리는 비전-텍스트 압축이 다양한 과거 컨텍스트 단계에서 7배에서 20배에 이르는 상당한 토큰 감소를 달성할 수 있음을 입증했으며, 이는 LLM의 긴 컨텍스트 문제를 해결하기 위한 유망한 방향을 제시합니다”라고 항저우에 본사를 둔 이 회사는 밝혔습니다.
이 시스템은 단일 Nvidia A100 GPU에서 매일 200,000페이지 이상을 처리하며, 각각 8개의 A100을 장착한 20대의 서버를 사용하여 하루 3,300만 페이지에 달하는 처리량을 달성합니다. 이러한 처리 능력은 유사한 작업에 일반적으로 수천 개의 토큰을 필요로 하는 기존 OCR 방법을 훨씬 능가합니다.
기술 아키텍처 및 성능
DeepSeek-OCR은 두 가지 핵심 구성 요소로 이루어져 있습니다: 이미지 처리를 위한 DeepEncoder와 디코더로서의 DeepSeek3B-MoE-A570M입니다. 인코더는 Meta의 8천만 매개변수 SAM(Segment Anything Model)과 OpenAI의 3억 매개변수 CLIP을 결합하며, 1,024픽셀 이미지를 4,096개 토큰에서 단 256개 토큰으로 줄이는 16배 압축기를 활용합니다.
OmniDocBench 벤치마크 테스트에서 DeepSeek-OCR은 256개가 아닌 단 100개의 비전 토큰만 사용하여 GOT-OCR 2.0을 능가했으며, 페이지당 6,000개 이상의 토큰 대신 800개 미만의 토큰으로 MinerU 2.0을 초과했습니다. 이 모델은 약 100개 언어를 지원하며, 64개 토큰이 필요한 간단한 프레젠테이션부터 “건담 모드”에서 최대 800개 토큰이 필요한 복잡한 신문까지 다양한 문서 유형을 처리할 수 있습니다.
DeepSeek은 합성 다이어그램, 화학식, 기하학적 도형을 포함하여 약 100개 언어에 걸친 3천만 개의 PDF 페이지를 사용하여 시스템을 훈련했습니다. 이 모델은 현재 MIT 라이선스 하에 Hugging Face와 GitHub에서 이용 가능하며, OpenAI와 Google 의 모델에 대한 비용 효율적인 대안으로 업계를 혁신해 온 DeepSeek의 오픈소스 AI 개발에 대한 약속을 이어가고 있습니다.