Loading...

AI 뉴스

DeepSeek, AI 비용을 절반으로 줄이는 모델 출시

페이지 정보

작성자 xtalfi
작성일 2025.09.30 04:29
754 조회
0 추천
0 비추천

본문

fcf479c22f7f91e4f33ec4d7f1408300VRSE.png

(퍼플렉시티가 정리한 기사)

중국 AI 개발사 딥시크(DeepSeek)는 2025년 9월 29일, 혁신적인 희소 주의(sparse attention) 기술을 도입한 실험적 V3.2-Exp 모델을 출시했습니다. 이 기술은 최상급 AI 시스템에 견줄만한 성능을 유지하면서도 컴퓨팅 비용을 획기적으로 줄였습니다. 이번 출시로 항저우에 기반을 둔 딥시크는 오픈AI(OpenAI)와 같은 글로벌 기업은 물론, 알리바바 그룹 홀딩 리미티드의 Qwen 플랫폼을 포함한 국내 경쟁사들과의 AI 경쟁에서 강력한 경쟁자로 부상했습니다.


V3.2-Exp 모델은 딥시크 희소 주의(DeepSeek Sparse Attention, DSA)을 처음으로 선보였으며, 이는 “처음으로 미세하게 조정된 희소 주의(fine-grained sparse attention)를 달성했다”고 개발자 플랫폼 허깅페이스(Hugging Face)에 발표했습니다. 이 기술로 인해 모델은 기존 방식보다 최대 64배 빠르게 긴 텍스트 시퀀스를 처리할 수 있으며, 메모리 사용량도 30~40% 절감되고 훈련 효율성은 약 50% 향상되었습니다.

 

시장 교란을 일으키는 가격 인하, 경쟁 압박 신호


DeepSeek는 API 가격을 50% 이상 인하했다고 발표했으며, 캐시 히트 시 입력 비용은 백만 토큰당 $0.07까지, 캐시 미스 시에는 백만 토큰당 $0.56까지 낮아졌습니다. 이러한 극적인 가격 인하는 2025년 1월 R1 모델 출시 당시 엔비디아 등 기존 AI 선두 기업에 위협이 될 것을 우려한 투자자들로 인해 6,000억 달러 규모의 주식 시장 매도 사태가 발생했던 회사의 과거 시장 교란을 떠올리게 합니다.


이 회사는 V3.2-Exp를 “차세대 아키텍처로 가는 중간 단계”라고 설명했으며, 이는 V3.1-Terminus 기반 위에 구축되었습니다. 추론, 코딩, 수학적 문제 해결 등 다양한 분야의 벤치마크 테스트에서 새로운 모델은 전작과 동등한 성능을 보이면서도 상당한 효율성 향상을 제공했습니다. 프로그래밍 챌린지에서 V3.2-Exp는 Codeforces 벤치마크 기준 V3.1-Terminus가 기록한 2,046점 대비 2,121점을 획득했습니다.

 

스파스 어텐션 기술이 핵심 AI 효율성 문제를 해결합니다


혁신적인 희소 주의력 메커니즘(sparse attention mechanism)은 대형 언어 모델에서 가장 중요한 계산상의 과제 중 하나를 해결합니다. 이 메커니즘은 긴 텍스트 시퀀스에서 관련된 부분만 선택적으로 처리함으로써 효율성을 높입니다. 기존의 주의력 메커니즘(attention mechanism)은 모든 토큰 간의 관계를 계산해야 하며, 이는 시퀀스가 길어질수록 계산 복잡도가 제곱으로 증가하여 매우 비싸집니다.


DeepSeek가 구현한 방식은 ‘라이트닝 인덱서(lightning indexer)’라고 불리는 도구를 사용하여 토큰의 중요도를 점수화하고 순위를 매깁니다. 각 쿼리에 가장 관련성이 높은 연결만 유지하는 방식으로, 불필요한 계산을 줄입니다. 이 선택적 접근법을 통해 최대 128,000 토큰의 긴 시퀀스도 처리할 수 있으며, 출력 품질은 완전한 주의력 메커니즘과 거의 동일하게 유지됩니다.


이 모델은 즉시 DeepSeek의 앱, 웹 플랫폼 및 API 서비스를 통해 이용 가능하며, 오픈소스는 Hugging Face 및 GitHub 저장소를 통해 제공됩니다. 또한, 회사는 다양한 하드웨어 환경에서 연구와 배포를 용이하게 하기 위해 TileLang과 CUDA 형식의 GPU 커널도 공개했습니다.

이번 발표는 글로벌 AI 경쟁이 격화되는 가운데 이루어졌습니다. 특히 중국 기업들이 인공지능 개발 분야에서 미국의 우위를 정면으로 도전하고 있습니다. 최근 분석에 따르면, 중국 기업들은 독자적인 AI 개발 경로를 구축하여 비용 효율성과 빠른 배치를 극대화함으로써 서방 경쟁사들을 이미 따라잡거나 앞서가고 있는 것으로 나타났습니다.

댓글 0
전체 815 / 114 페이지
(퍼플렉시티가 정리한 기사)스콜코보 과학기술대학교(Skolkovo Institute of Science and Technology)의 러시아 과학자들은 인간의 기억과 학습이 전통적인 5가지 감각보다는 7가지 감각 차원에서 가장 효율적으로 작동한다는 획기적인 수학적 모델을 개발했으며, 이는 인지와 인공지능 개발에 대한 우리의 이해를 혁신할 가능성이 있다.2025년 10월 8일 Scientific Reports에 발표된 이 연구는 몬테카를로 시뮬레이션과 분석적 해법을 사용하여 뇌에서 경험을 암호화하는 신경 패턴인 기억 “엔그램”을 분석했다. 킹스 칼리지 런던(King’s College London)과 러프버러 대학교(Loughborough University)의 연구자들을 포함한 국제 연구팀은 기억 용량이 7차원에서 최고 효율에 도달한 후 추가적인 감각 입력과 함께 감소한다는 것을 발견했다.수학적 모델이 최적의 기억 저장법을 밝혀내다이 연구의 공동 저자인 Skoltech AI의 니콜라이 브릴리안토프(Nikolay Brilliantov) 교수는 “기억에 저장된 각 개념이 5개나 8개가 아닌 7개의 특징으로 특성화될 때 기억에 저장되는 구별되는 객체의 수가 최대화된다”고 설명했다. 이 모델은 기억을 다차원 개념 공간 내의 역동적 개체로 다루며, 각 기억흔적(engram)은 반복적인 자극으로 강화되거나 활성화 없이는 약해진다.연구진들은 1904년 독일 생물학자 리하르트 제몬(Richard Semon)이 처음 도입한 100년 된 기억흔적 개념을 바탕으로 그들의 동역학적 모델을 구축했다. 그들의 프레임워크에서 인간의 기억은 우리의 전통적인 감각인 시각, 청각, 후각, 미각, 촉각에 해당하는 5차원 객체로 존재하지만, 수학적 분석 결과 7차원이 저장 용량을 최적화할 것으로 밝혀졌다.브릴리안토프는 “우리는 개념 공간의 기억흔적들이 정상 상태로 진화하는 경향이 있음을 수학적으로 증명했다”고 언급했다. “일정한 과도 기간 후에 ‘성숙한’ 기억흔적 분포가 나타나며, 이는 시간이 지나도 지속된다. 우리는 기억에 저장되는 구별되는 기억흔적의 수가 7차원의 개념 공간에서 가장 크다는 것을 발견했다”.AI와 미래 인류 진화에 대한 함의이 연구 결과는 심리학자 George A. Miller의 유명한 1956년 관찰, 즉 인간이 작업 기억에서 동시에 약 “7개, 더하거나 빼기 2개”의 정보를 보유할 수 있다는 관찰과 연결된다. 새로운 연구는 이러한 인지적 한계에 대한 잠재적인 수학적 설명을 제공하며, 7이라는 숫자가 새로운 정보를 학습하는 것과 뚜렷하고 선명한 기억을 유지하는 것 사이의 최적의 균형을 나타낸다고 제시한다.연구자들은 인간 진화에 관한 그들의 결론이 “매우 추측적”이라고 인정하면서도, Brilliantov는 “미래의 인간은 방사선이나 자기장에 대한 감각을 진화시킬 것”이라고 제안했다. 더 즉각적으로, 이 연구는 로봇공학과 인공지능에 실용적인 응용 가능성을 가지고 있으며, 7개의 감각 입력으로 설계된 시스템이 우수한 학습 및 기억 능력을 달성할 수 있다.이 연구는 기억 시스템의 근본적인 긴장 관계를 드러낸다: 새로운 자극에 대한 높은 수용성은 흐릿하고 겹치는 기억을 만들어내는 반면, 과도한 선택성은 새로운 경험을 완전히 놓칠 위험이 있다. 이러한 균형은 기계 학습의 과제를 반영하는데, 시스템이 데이터에 대한 과일반화와 과적합을 모두 피해야 하는 상황과 유사하다.
678 조회
0 추천
2025.10.10 등록
(퍼플렉시티가 정리한 기사)디자인 플랫폼 피그마는 목요일 구글 클라우드와의 협력 확대를 발표하며 강력한 인공지능(AI) 기능을 자사 디자인 워크플로우에 직접 통합할 것이라고 밝혔습니다. 이는 기술 기업들 사이에서 창의적 도구에 인공지능을 탑재하려는 경쟁이 치열해지는 가운데 나온 최신 움직임입니다.이번 협력을 통해 피그마는 구글의 첨단 Gemini AI 모델(Gemini 2.5 Flash, Gemini 2.0, Imagen 4 등)을 활용하여 플랫폼 전반에 걸쳐 이미지 생성 및 편집 기능을 강화할 예정이며, 이는 월간 1,300만 명 이상의 활성 사용자들에게 제공됩니다. Gemini 2.5 Flash의 초기 테스트에서는 피그마의 '이미지 만들기(Make Image)' 기능에서 지연 시간이 50% 감소하는 등 성능이 크게 향상되어, 더 빠르고 반응성 높은 시각적 제작이 가능해졌습니다.AI 기반 설계 가속화이번 통합은 사용자가 여러 도구를 오가야 하는 번거로움 없이, 기존의 크리에이티브 플랫폼 내에서 AI를 보이지 않는 가속 장치로 삼는 전략적 변화를 의미합니다. "Google Cloud와의 협업을 통해 Figma 안에 강력한 이미지 생성 및 편집 기능을 도입해 팀이 작업 흐름을 깨뜨리지 않고도 창의성을 발휘할 수 있도록 지원합니다."라고 Figma CEO 딜런 필드가 말했습니다.강화된 기능을 통해 디자이너는 간단한 텍스트 프롬프트로 고품질 이미지를 생성할 수 있고, 제품 출시 전 다양한 기능을 실험하며, 디자인부터 개발까지의 과정을 효율적으로 간소화할 수 있게 됩니다. Google Cloud CEO 토마스 쿠리안은 이번 파트너십의 중요성을 강조하며 "이제 수백만 명의 사용자가 Google의 선도적인 AI 모델, Google Cloud의 AI 최적화 인프라, 그리고 Figma의 놀라운 도구의 결합을 활용해 디자인 시장을 한 단계 더 발전시킬 수 있게 되었습니다."라고 밝혔습니다.더 넓은 산업 경쟁이 심화되고 있습니다Figma 파트너십은 Google이 동시에 Gemini Enterprise를 출시한 시점에 이루어졌습니다. Gemini Enterprise는 업무 자동화를 겨냥한 종합적인 AI 플랫폼으로, Microsoft의 Copilot 및 OpenAI의 ChatGPT Enterprise 솔루션과 직접 경쟁합니다. Gemini Enterprise의 요금은 표준 및 플러스 에디션의 경우 사용자당 월 $30부터 시작하며, 비즈니스 플랜은 좌석당 월 $21에 제공됩니다.이번 발표는 AI 기반 디자인 도구의 치열한 경쟁을 보여줍니다. Adobe와 Canva 역시 생성형 AI를 크리에이티브 워크플로에 통합하기 위해 경쟁하고 있습니다. 특히 Google과의 파트너십은 독점적이지 않으며, Figma는 최근 OpenAI 발표에도 포함되어 있어 사용자가 ChatGPT를 통해 직접 애플리케이션과 상호작용할 수 있게 되었습니다. 이는 AI 기업들이 시장 지배력을 확보하기 위해 다양한 통합 전략을 모색하고 있음을 보여줍니다.
643 조회
0 추천
2025.10.10 등록
(퍼플렉시티가 정리한 기사)AMD(Advanced Micro Devices, Inc.)의 CEO 리사 수는 수요일에 회사의 차세대 Instinct MI450 AI 가속기가 TSMC의 첨단 2나노미터(2nm) 공정 기술을 사용할 것이라고 공식 확인했습니다. 이로 인해 AMD는 라이벌인 Nvidia(NVIDIA Corporation)의 차세대 Rubin GPU가 3나노미터(3nm) 기술을 사용할 예정인 만큼, 잠재적인 제조상의 우위를 점할 수 있게 되었습니다. 이 사실은 AMD가 최근에 OpenAI와 맺은 의미 있는 파트너십과 관련해 야후 파이낸스 인터뷰에서 언급되었습니다.2나노미터 기술로의 전환은 AMD의 AI 컴퓨팅 역량에 있어 큰 도약을 의미합니다. TSMC의 2나노 공정은 기존 3나노에 비해 동일 전력 소모에서 약 10~15% 향상된 성능, 혹은 동일 속도에서 25~30%의 전력 절감 효과, 그리고 트랜지스터 밀도가 15% 증가하는 등 현저한 이점을 제공합니다. 이러한 제조 기술의 우위는 AI 칩 시장 경쟁이 가속화되는 가운데 매우 중요한 역할을 할 수 있습니다.전략적 파트너십이 시장 입지를 강화하다MI450 발표는 AMD가 최근에 공개한 OpenAI와의 파트너십으로 인해 더욱 큰 의미를 가지게 되었습니다. 이번 파트너십은 이번 주 초에 발표되었습니다. 이 협약에 따라, OpenAI는 앞으로 수년간 최대 6기가와트에 달하는 AMD Instinct GPU를 도입할 예정이며, 그 시작은 2026년 하반기 MI450 시스템 1기가와트 롤아웃으로 시작됩니다. 이 거래는 단순한 공급 계약 그 이상으로 구조화되어 있으며, AMD는 OpenAI에게 주당 $0.01로 최대 1억 6천만 주에 대한 워런트를 발행하여 모든 마일스톤이 달성된다면 OpenAI가 AMD 지분의 최대 10%를 보유할 수도 있습니다.파트너십 발표 이후 AMD의 주가는 급등하여 이번 주에만 40% 이상 상승했고, 연초 대비 상승폭은 거의 96%에 달하게 되었습니다. 워런트 구조는 배분 시점을 도입 마일스톤과 AMD가 최대 $600까지의 특정 주가 목표를 달성하는 것에 연동시키고 있습니다.경쟁 환경의 변화2나노미터(nm) 공정의 이점은 AMD가 곧 출시될 Nvidia의 루빈(Rubin) 아키텍처와 경쟁함에 있어 유리한 위치를 차지하게 합니다. Nvidia의 루빈 GPU는 TSMC의 3나노미터 공정을 사용할 예정입니다. Nvidia 루빈 GPU는 50 페타플롭스(PF)의 집약적 FP4 연산 성능과 약 1800W의 예상 TDP 등 인상적인 성능 향상을 제공할 것으로 기대되지만, AMD의 더 진보된 제조 공정은 경쟁 구도를 일정 부분 평평하게 만들 수 있습니다.업계 관측통들은 AMD의 칩렛(chiplet) 방식이 Nvidia의 더 크고 단일 다이(monolithic) 설계에 비해 첨단 제조 공정을 도입하는 데 추가적인 유연성을 제공한다고 평가합니다. 그러나 MI450의 모든 구성 요소가 2나노 공정을 사용하는 것은 아닙니다. 보도에 따르면 AMD의 액티브 인터포저 다이(Active Interposer Die)와 미디어 인터페이스 다이(Media Interface Die)는 TSMC의 3나노 공정을 유지하고, 가속기 코어 다이(Accelerator Core Die)만 2나노 공정으로 전환됩니다.OpenAI와의 파트너십은 AMD의 AI 전략이 인정받고 있음을 의미하며, 현재 Nvidia가 거의 독점적 지위를 차지하고 있는 인공지능 시장에서 AMD가 의미 있는 시장 점유율을 확보하는 데 도움이 될 수 있습니다.
634 조회
0 추천
2025.10.10 등록
(퍼플렉시티가 정리한 기사)기술 대기업들이 AI 서버를 식히기 위해 경쟁하는 가운데, 다이아몬드 기술이 데이터 센터의 열 위기를 해결할 신기술로 등장하고 있습니다. 다이아몬드는 구리보다 다섯 배나 뛰어난 열전도성을 지녀, 고성능 프로세서의 냉각 문제를 혁신적으로 해결할 수 있는 솔루션을 제공합니다.혁신적인 열 전달 기술인공지능 워크로드가 데이터 센터를 열 한계까지 밀어붙이면서 합성 다이아몬드가 컴퓨터 칩을 위한 궁극의 냉각 소재로 부상하고 있습니다. 이번 주에는 업계의 여러 동향을 통해 다이아몬드의 열 관리에 대한 독특한 특성이 다시금 주목받고 있습니다.다이아몬드의 원자 구조는 각 탄소 원자가 네 개의 다른 탄소 원자와 강하게 결합해 있어 명견할 만한 열 전도 경로를 형성합니다. 이는 민감한 전자 장치를 손상시키기 전에 열 에너지를 급속도로 소산시키는 역할을 합니다. 열 전도율은 2,200 W/(m-K)에 달하며, 이는 실리콘보다 13배, 구리보다 5배나 더 뛰어난 수치입니다. 합성 다이아몬드는 칩 냉각 능력에서 양자 도약을 이룰 수 있는 소재로 평가받고 있습니다.주요 산업 배치Akash Systems는 다이아몬드 쿨링 기술로 인도 데이터 센터에 다이아몬드 쿨링 서버를 배치하는 2,700만 달러 규모의 계약을 체결하면서 큰 성과를 거두었습니다. 이 회사의 GPU 냉각 시스템은 온도를 10~20°C 낮추는 동시에, 열 스로틀링 없이 더 높은 클럭 속도를 구현할 수 있는 것으로 알려져 있습니다.이 기술은 CHIPS 법을 통한 상당한 정부 지원도 이끌어냈으며, Akash Systems는 다이아몬드 쿨링 제조 확대를 위해 최대 6,800만 달러의 연방 자금을 확보했습니다. 이러한 지원은 미국 반도체 경쟁력에서 다이아몬드 쿨링의 전략적 중요성을 부각시킵니다.차세대 애플리케이션선도적인 소재 회사들은 다이아몬드 통합을 단순한 열 확산재 수준을 넘어 확장하고 있습니다. De Beers의 자회사인 Element Six 는 열전도율이 800 W/mK에 이르는 구리-다이아몬드 복합재를 출시했으며, 이는 비용 효율성을 유지하여 광범위하게 채택될 수 있습니다. 스탠포드 대학 연구진은 갈륨 나이트라이드(GaN) 장치용 후처리 다이아몬드 통합 기술을 개발하고 있는데, 이는 전력 전자 분야에 혁신을 가져올 수 있습니다.이 기술은 AI 인프라 효율성에도 폭넓은 영향을 미칠 것으로 기대됩니다. 현재 데이터센터는 미국 전체 전력의 3.7%를 소비하고 있는데, 2029년에는 10%에 이를 것으로 전망됩니다. 다이아몬드 냉각 기술은 프로세서의 성능 저하를 야기하는 열 병목 현상을 제거함으로써 이 에너지 부담을 현저히 줄일 수 있으며, 급속히 성장하는 AI 경제에 비용 절감과 환경적 이점을 동시에 제공할 수 있습니다.
624 조회
0 추천
2025.10.10 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입