DeepSeek, AI 비용을 절반으로 줄이는 모델 출시
페이지 정보
본문

(퍼플렉시티가 정리한 기사)
중국 AI 개발사 딥시크(DeepSeek)는 2025년 9월 29일, 혁신적인 희소 주의(sparse attention) 기술을 도입한 실험적 V3.2-Exp 모델을 출시했습니다. 이 기술은 최상급 AI 시스템에 견줄만한 성능을 유지하면서도 컴퓨팅 비용을 획기적으로 줄였습니다. 이번 출시로 항저우에 기반을 둔 딥시크는 오픈AI(OpenAI)와 같은 글로벌 기업은 물론, 알리바바 그룹 홀딩 리미티드의 Qwen 플랫폼을 포함한 국내 경쟁사들과의 AI 경쟁에서 강력한 경쟁자로 부상했습니다.
V3.2-Exp 모델은 딥시크 희소 주의(DeepSeek Sparse Attention, DSA)을 처음으로 선보였으며, 이는 “처음으로 미세하게 조정된 희소 주의(fine-grained sparse attention)를 달성했다”고 개발자 플랫폼 허깅페이스(Hugging Face)에 발표했습니다. 이 기술로 인해 모델은 기존 방식보다 최대 64배 빠르게 긴 텍스트 시퀀스를 처리할 수 있으며, 메모리 사용량도 30~40% 절감되고 훈련 효율성은 약 50% 향상되었습니다.
시장 교란을 일으키는 가격 인하, 경쟁 압박 신호
DeepSeek는 API 가격을 50% 이상 인하했다고 발표했으며, 캐시 히트 시 입력 비용은 백만 토큰당 $0.07까지, 캐시 미스 시에는 백만 토큰당 $0.56까지 낮아졌습니다. 이러한 극적인 가격 인하는 2025년 1월 R1 모델 출시 당시 엔비디아 등 기존 AI 선두 기업에 위협이 될 것을 우려한 투자자들로 인해 6,000억 달러 규모의 주식 시장 매도 사태가 발생했던 회사의 과거 시장 교란을 떠올리게 합니다.
이 회사는 V3.2-Exp를 “차세대 아키텍처로 가는 중간 단계”라고 설명했으며, 이는 V3.1-Terminus 기반 위에 구축되었습니다. 추론, 코딩, 수학적 문제 해결 등 다양한 분야의 벤치마크 테스트에서 새로운 모델은 전작과 동등한 성능을 보이면서도 상당한 효율성 향상을 제공했습니다. 프로그래밍 챌린지에서 V3.2-Exp는 Codeforces 벤치마크 기준 V3.1-Terminus가 기록한 2,046점 대비 2,121점을 획득했습니다.
스파스 어텐션 기술이 핵심 AI 효율성 문제를 해결합니다
혁신적인 희소 주의력 메커니즘(sparse attention mechanism)은 대형 언어 모델에서 가장 중요한 계산상의 과제 중 하나를 해결합니다. 이 메커니즘은 긴 텍스트 시퀀스에서 관련된 부분만 선택적으로 처리함으로써 효율성을 높입니다. 기존의 주의력 메커니즘(attention mechanism)은 모든 토큰 간의 관계를 계산해야 하며, 이는 시퀀스가 길어질수록 계산 복잡도가 제곱으로 증가하여 매우 비싸집니다.
DeepSeek가 구현한 방식은 ‘라이트닝 인덱서(lightning indexer)’라고 불리는 도구를 사용하여 토큰의 중요도를 점수화하고 순위를 매깁니다. 각 쿼리에 가장 관련성이 높은 연결만 유지하는 방식으로, 불필요한 계산을 줄입니다. 이 선택적 접근법을 통해 최대 128,000 토큰의 긴 시퀀스도 처리할 수 있으며, 출력 품질은 완전한 주의력 메커니즘과 거의 동일하게 유지됩니다.
이 모델은 즉시 DeepSeek의 앱, 웹 플랫폼 및 API 서비스를 통해 이용 가능하며, 오픈소스는 Hugging Face 및 GitHub 저장소를 통해 제공됩니다. 또한, 회사는 다양한 하드웨어 환경에서 연구와 배포를 용이하게 하기 위해 TileLang과 CUDA 형식의 GPU 커널도 공개했습니다.
이번 발표는 글로벌 AI 경쟁이 격화되는 가운데 이루어졌습니다. 특히 중국 기업들이 인공지능 개발 분야에서 미국의 우위를 정면으로 도전하고 있습니다. 최근 분석에 따르면, 중국 기업들은 독자적인 AI 개발 경로를 구축하여 비용 효율성과 빠른 배치를 극대화함으로써 서방 경쟁사들을 이미 따라잡거나 앞서가고 있는 것으로 나타났습니다.