Loading...

AI 뉴스

DeepSeek, AI 비용을 절반으로 줄이는 모델 출시

페이지 정보

작성자 xtalfi
작성일 2025.09.30 04:29
1,453 조회
0 추천
0 비추천

본문

fcf479c22f7f91e4f33ec4d7f1408300VRSE.png

(퍼플렉시티가 정리한 기사)

중국 AI 개발사 딥시크(DeepSeek)는 2025년 9월 29일, 혁신적인 희소 주의(sparse attention) 기술을 도입한 실험적 V3.2-Exp 모델을 출시했습니다. 이 기술은 최상급 AI 시스템에 견줄만한 성능을 유지하면서도 컴퓨팅 비용을 획기적으로 줄였습니다. 이번 출시로 항저우에 기반을 둔 딥시크는 오픈AI(OpenAI)와 같은 글로벌 기업은 물론, 알리바바 그룹 홀딩 리미티드의 Qwen 플랫폼을 포함한 국내 경쟁사들과의 AI 경쟁에서 강력한 경쟁자로 부상했습니다.


V3.2-Exp 모델은 딥시크 희소 주의(DeepSeek Sparse Attention, DSA)을 처음으로 선보였으며, 이는 “처음으로 미세하게 조정된 희소 주의(fine-grained sparse attention)를 달성했다”고 개발자 플랫폼 허깅페이스(Hugging Face)에 발표했습니다. 이 기술로 인해 모델은 기존 방식보다 최대 64배 빠르게 긴 텍스트 시퀀스를 처리할 수 있으며, 메모리 사용량도 30~40% 절감되고 훈련 효율성은 약 50% 향상되었습니다.

 

시장 교란을 일으키는 가격 인하, 경쟁 압박 신호


DeepSeek는 API 가격을 50% 이상 인하했다고 발표했으며, 캐시 히트 시 입력 비용은 백만 토큰당 $0.07까지, 캐시 미스 시에는 백만 토큰당 $0.56까지 낮아졌습니다. 이러한 극적인 가격 인하는 2025년 1월 R1 모델 출시 당시 엔비디아 등 기존 AI 선두 기업에 위협이 될 것을 우려한 투자자들로 인해 6,000억 달러 규모의 주식 시장 매도 사태가 발생했던 회사의 과거 시장 교란을 떠올리게 합니다.


이 회사는 V3.2-Exp를 “차세대 아키텍처로 가는 중간 단계”라고 설명했으며, 이는 V3.1-Terminus 기반 위에 구축되었습니다. 추론, 코딩, 수학적 문제 해결 등 다양한 분야의 벤치마크 테스트에서 새로운 모델은 전작과 동등한 성능을 보이면서도 상당한 효율성 향상을 제공했습니다. 프로그래밍 챌린지에서 V3.2-Exp는 Codeforces 벤치마크 기준 V3.1-Terminus가 기록한 2,046점 대비 2,121점을 획득했습니다.

 

스파스 어텐션 기술이 핵심 AI 효율성 문제를 해결합니다


혁신적인 희소 주의력 메커니즘(sparse attention mechanism)은 대형 언어 모델에서 가장 중요한 계산상의 과제 중 하나를 해결합니다. 이 메커니즘은 긴 텍스트 시퀀스에서 관련된 부분만 선택적으로 처리함으로써 효율성을 높입니다. 기존의 주의력 메커니즘(attention mechanism)은 모든 토큰 간의 관계를 계산해야 하며, 이는 시퀀스가 길어질수록 계산 복잡도가 제곱으로 증가하여 매우 비싸집니다.


DeepSeek가 구현한 방식은 ‘라이트닝 인덱서(lightning indexer)’라고 불리는 도구를 사용하여 토큰의 중요도를 점수화하고 순위를 매깁니다. 각 쿼리에 가장 관련성이 높은 연결만 유지하는 방식으로, 불필요한 계산을 줄입니다. 이 선택적 접근법을 통해 최대 128,000 토큰의 긴 시퀀스도 처리할 수 있으며, 출력 품질은 완전한 주의력 메커니즘과 거의 동일하게 유지됩니다.


이 모델은 즉시 DeepSeek의 앱, 웹 플랫폼 및 API 서비스를 통해 이용 가능하며, 오픈소스는 Hugging Face 및 GitHub 저장소를 통해 제공됩니다. 또한, 회사는 다양한 하드웨어 환경에서 연구와 배포를 용이하게 하기 위해 TileLang과 CUDA 형식의 GPU 커널도 공개했습니다.

이번 발표는 글로벌 AI 경쟁이 격화되는 가운데 이루어졌습니다. 특히 중국 기업들이 인공지능 개발 분야에서 미국의 우위를 정면으로 도전하고 있습니다. 최근 분석에 따르면, 중국 기업들은 독자적인 AI 개발 경로를 구축하여 비용 효율성과 빠른 배치를 극대화함으로써 서방 경쟁사들을 이미 따라잡거나 앞서가고 있는 것으로 나타났습니다.

댓글 0
전체 1,265 / 296 페이지
Anthropic 은 100만 토큰 컨텍스를 처리하는 클로드4 를 발표했다. 이는 기존 처리량의 5배 규모이다.이를 통해 7.5만 줄 이상의 코드를 한번에 처리하거나 수십개의 연구논문을 분석하는 것이 가능해졌다고 발표했다.현재 Anthropic API 및 아마존 Bedrock 에서 퍼블릭으로 사용 가능하며, 조만간 구글 클라우드 Vertex AI에서도 사용이 가능할 예정이라고 한다.클로드 브래드 에이브럼스는 "이전에는 문제를 작은 조각으로 나눠야 했지만, 100만 토큰 컨텍스트 윈도우로 모델이 전체 맥락을 파악할 수 있게 됐다"라며 "2500페이지 분량의 텍스트도 쉽게 처리할 수 있다"고 밝혔다.이번 발표는 오픈AI가 최근 발표한 ChatGPT-5에 대항하기 위한 것으로 보인다.
2214 조회
0 추천
2025.08.13 등록
퍼플렉시티가 구글에게 크롬을 사겠다고 제안했다.는 보도가 월스트리저널을 통해 나왔다.https://www.wsj.com/tech/perplexity-ai-google-chrome-offer-5ddb7a22퍼플렉시티는 345억달러(47조8000억원)에 크롬을 인수하겠다고 구글에 제안했다고 12일(현지시간) 보도했다.퍼플렉시티는 구글 에게 보낸 서한에서 크롬 인수 제안이 “크롬을 유능하고 독립적인 운영자에게 맡김으로써 최고 수준의 공익에 부합하는 반독점 구제책을 만족시키기 위한 것”이라고 재언했다.퍼플렉시티의 이번 제안은 미 법원이 온라인 검색 시장 경쟁 회복을 위한 방안을 제시할 예정인 가운데 나왔다.워싱턴 D.C. 연방법원 판사는 지난해 8월 미 법무부가 제기한 검색 시장 반독점 소송에서 구글의 시장 지위를 불법적인 독점이라고 판결했다. 이어 지난 4월부터 독점 해소 방안에 대한 재판이 진행됐으며, 법무부는 방안 중 하나로 구글 크롬 매각을 제안한 바 있다.물론 구글이 이에 응할지는 회의적이다.
2278 조회
0 추천
2025.08.13 등록
오픈AI가 출시하고 불만이 많아진 GPT-5를 잘쓰기 위한 프롬프트 가이드를 공개했다.https://cookbook.openai.com/examples/gpt-5/gpt-5_prompting_guide?ref=blog.secondbrush.co.kr이 가이드에서는 모델을 학습하고 실제 작업에 적용해 온 경험을 바탕으로 모델 출력의 품질을 극대화하기 위한 프롬프트 팁을 다루고 있다.. 에이전트 작업 성능 향상, 명령어 준수 보장, 새로운 API 기능 활용, 프런트엔드 및 소프트웨어 엔지니어링 작업을 위한 코딩 최적화 등의 개념을 살펴보고, GPT-5를 활용한 AI 코드 편집기 Cursor의 프롬프트 튜닝 작업에 대한 핵심 인사이트도 제공한다고..가이드에 따르면,"모범 사례를 적용하고 가능한 한 표준 도구를 도입함으로써 상당한 성과를 거두었으며, 이 가이드와 저희가 개발한 프롬프트 최적화 도구가 GPT-5 사용의 발판이 되기를 바랍니다. 하지만 항상 그렇듯이 프롬프트는 모든 경우에 적용되는 것은 아니라는 점을 명심하십시오. 여기에 제시된 기반을 바탕으로 실험을 수행하고 반복하여 문제에 대한 최상의 해결책을 찾을 것을 권장합니다."라고 되어 있다.Goal: Get enough context fast.목표: 빠르게 충분한 콘텍스트를 얻는다.Parallelize discovery and stop as soon as you can act.탐색을 병렬로 진행하고, 행동할 수 있게 되면 즉시 중단한다.Method:방법:Start broad, then fan out to focused subqueries.먼저 넓게 시작하고, 이후에는 구체적인 하위 쿼리로 확장한다.In parallel, launch varied queries; read top hits per query. Deduplicate paths and cache; don’t repeat queries.다양한 쿼리를 병렬로 실행하고, 각 쿼리의 상위 결과를 읽는다. 경로는 중복 제거하고 캐시에 저장한다. 동일한 쿼리를 반복하지 않는다.Avoid over searching for context. If needed, run targeted searches in one parallel batch.콘텍스트를 지나치게 탐색하지 않는다. 필요할 경우, 한 번의 병렬 배치로 목표 검색을 수행한다.Early stop criteria:조기 중단 기준:You can name exact content to change.변경할 정확한 내용을 지정할 수 있다.Top hits converge (~70%) on one area/path.상위 결과의 약 70%가 한 영역 또는 경로로 모인다.Escalate once:한 번에 에스컬레이션한다:If signals conflict or scope is fuzzy, run one refined parallel batch, then proceed.신호가 상충하거나 범위가 불분명하면, 정제된 병렬 배치를 한 번 실행한 후 진행한다.Depth:깊이:Trace only symbols you’ll modify or whose contracts you rely on; avoid transitive expansion unless necessary.변경하거나 의존하는 심볼만 추적하고, 필요하지 않다면 전이적인 확장은 피한다.Loop:반복:Batch search → minimal plan → complete task.배치 검색 → 최소 계획 → 작업 완료.Search again only if validation fails or new unknowns appear. Prefer acting over more searching.검증에 실패하거나 새로운 미지의 요소가 나타난 경우에만 다시 검색한다. 추가 검색보다는 행동을 우선한다.
2421 조회
0 추천
2025.08.12 등록
Yomiuri Sues U.S. AI Startup over Use of Articles; Perplexity Allegedly Used Over 100,000 News Stories요미우리 신문 3개 자회사가 미국 AI 스타트업인 Perplexity를 상대로 기사와 이미지를 무단으로 이용했다며 소송을 제기했다미우리 측은 퍼플렉시티가 약 12만 건의 디지털 기사와 이미지를 무단으로 복제해 검색엔진 답변에 사용했다고 주장했다.신문사 측은 약 21억7000만 엔의 손해배상을 요구했으며, 기사와 이미지 무단 복제가 저작권법상 복제권 및 공중송신권을 침해했다고 주장했다. 신문사에 따르면, 퍼플렉시티는 기존 검색엔진과 달리 직접 답변을 제공해 언론사 사이트 유입 감소로 광고 수입이 줄었다고 했다.요미우리 측은 언론의 노력과 투자가 AI 기업에 무단으로 이용되고, 공정한 보도를 해치는 결과가 된다고 했다. 이에 대해 퍼플렉시티는 일본 내 오해에 유감을 표하며 사실관계 확인에 노력 중이고, 언론사와의 협력 의향을 밝혔다.요미우리는 이번 소송이 일본 언론사로서는 최초 사례라고 했다. 미국에서도 유사한 소송이 진행 중이라고 밝혔다.
2289 조회
0 추천
2025.08.12 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입