Loading...

AI 뉴스

UCSD 엔지니어들이 AI 모델 맞춤화 비용을 300배 절감

페이지 정보

작성자 xtalfi
작성일 2025.10.22 16:39
638 조회
0 추천
0 비추천

본문

AI_major_rotator_and_thumb.jpg

(퍼플렉시티가 정리한 기사)

캘리포니아 대학교 샌디에이고의 엔지니어들은 조직이 훨씬 적은 데이터와 컴퓨팅 파워를 사용하여 대규모 인공지능 모델을 맞춤화할 수 있는 획기적인 방법을 개발했으며, 이는 소규模 연구소와 스타트업이 고급 AI 역량에 접근할 수 있도록 민주화할 잠재력을 가지고 있습니다.​

BiDoRA(Bi-level Optimization-Based Weight-Decomposed Low-Rank Adaptation)라고 불리는 이 새로운 기술은 기존 방법과 비교하여 성능을 유지하거나 심지어 향상시키면서 미세 조정에 필요한 매개변수 수를 300배 이상 줄입니다. 월요일 Transactions on Machine Learning Research에 게재된 이 연구는 AI 훈련 비용이 2020년 이후 4,300퍼센트 이상 급증한 시점에 나왔습니다.

 

특화된 AI 애플리케이션의 주요 비용 절감

 

UCSD 팀은 전기 및 컴퓨터 공학과의 Pengtao Xie 교수가 이끌었으며, 단백질 언어 모델—단백질 특성과 행동을 예측하는 특수 AI 시스템—을 사용하여 그들의 방법의 효과를 입증했습니다. 펩타이드가 혈액-뇌 장벽을 통과할 수 있는지 예측하는 데 있어 BiDoRA는 기존 방법보다 326배 적은 매개변수를 사용하면서도 더 높은 정확도를 달성했습니다. 단백질 열안정성 예측의 경우, 408배 적은 매개변수로 전체 미세 조정 성능과 동일한 결과를 보였습니다.​

"우리의 방법을 사용하면 막대한 예산, 슈퍼컴퓨터급 리소스 또는 대규모 데이터셋이 없는 소규모 연구실과 스타트업조차도 자신들의 필요에 맞게 대규모 AI 모델을 적응시킬 수 있습니다"라고 Xie는 말했습니다. "이 연구는 AI 민주화를 향한 한 걸음을 나타냅니다."​

전통적인 미세 조정 방법은 수십억 개의 매개변수를 포함할 수 있는 대규모 언어 모델의 모든 매개변수를 조정합니다. 이 접근법은 비용이 많이 들고 과적합에 취약한데, 과적합은 모델이 새로운 예시에 일반화하는 것을 학습하기보다 패턴을 암기하는 현상입니다. 증가하는 비용은 소규모 조직에 장벽을 만들어 왔으며, 최첨단 모델 훈련 비용은 현재 GPT-4의 경우 7,800만 달러, Google의 Gemini Ultra의 경우 추정 1억 9,100만 달러에 달합니다.

 

혁신적인 이중 레벨 최적화 접근법

 

BiDoRA는 미세 조정 과정을 크기와 방향 업데이트라는 두 가지 구성 요소로 분리하기 위해 이중 레벨 최적화를 사용하는 다른 접근 방식을 취합니다. 이 방법은 가장 중요한 매개변수만 업데이트하고 나머지는 동결된 상태로 유지하여 계산 요구 사항을 크게 줄입니다. 이러한 분리는 과적합을 방지하는 동시에 새로운 작업에 대한 모델의 일반화 능력을 유지하는 데 도움이 됩니다.​

이 연구는 미국 국립과학재단과 국립보건원의 지원을 받았으며, 이는 컴퓨터 과학과 생물의학 연구 모두에서 이 방법의 잠재적 응용 가능성을 반영합니다. 이 시기는 UCSD가 새로운 인공지능 학부 전공을 시작하는 시점과 일치하여, 대학을 AI 교육 및 연구의 최전선에 위치시키고 있습니다.​

이 개발은 AI 비용이 기하급수적으로 계속 증가함에 따라 중요한 과제를 해결합니다. 업계 데이터에 따르면 최첨단 모델의 훈련 비용은 2020년 이후 연간 약 3배씩 증가했으며, 일부 예측에서는 2027년까지 10억 달러 규모의 훈련 실행이 정상화될 수 있다고 제시합니다. 한국 스타트업 Trillion Labs가 최근 AI 평가 비용을 100배 이상 절감하는 방법을 발표한 것을 포함하여, 유사한 효율성 노력이 전 세계적으로 등장하고 있습니다.

댓글 0
전체 1,224 / 82 페이지
(퍼플렉시티가정리한기사)OpenAI의Sora2비디오생성기에서저작권침해를방지하려는시도가실패하고있으며,사용자들이이름철자를틀리게쓰거나대체설명을사용하는등의간단한우회방법을통해콘텐츠필터를쉽게우회하고있다고최근테스트및옹호단체들의경고에따르면밝혀졌다.9월30일에출시된이비디오생성도구는비평가들이"저작권침해기계"라고부르는것이되었으며,닌텐도캐릭터,저작권이있는만화,그리고실제인물의무단딥페이크비디오를생성하고있다.OpenAI가출시며칠만에옵트아웃방식에서옵트인저작권정책으로전환했음에도불구하고,404Media의테스트결과보호장치는여전히우회하기쉬운것으로나타났다.​간단한트릭으로콘텐츠필터우회하기404Media가보호된콘텐츠의영상을생성하려고시도했을때,Sora2는"AnimalCrossinggameplay"와같은프롬프트를차단했다.그러나이도구는"Titlescreenandgameplayofthegamecalled'crossingaminal'2017"이라는프롬프트를입력받았을때닌텐도게임의정확한재현물을생성했다.유사한우회방법이Fox의"AmericanDad"에서는모호한캐릭터설명을사용하여,그리고Twitch스트리머HasanPiker의경우그의이름을"pikersahan"으로뒤집어성공했다.​r/SoraAI서브레딧의사용자들은필터를우회하는데사용된프롬프트와함께"탈옥"방법을정기적으로공유한다.플랫폼의알고리즘은사망한유명인들의수많은클립을포함하여자체정책을위반할가능성이있는영상을계속해서제공하고있다.​국제적반발이심화되다일본콘텐츠해외배포협회는10월27일에스튜디오지브리,반다이남코,스퀘어에닉스를대표하여OpenAI에게회원사의콘텐츠를허가없이학습에사용하는것을중단할것을공식적으로요청했습니다.일본정부또한OpenAI에게"저작권침해가될수있는행위"를삼가달라고요청했습니다.​CODA는서신에서"일본의저작권제도에서는저작물사용에대해원칙적으로사전허가가필요하며,사후이의를통해저작권침해책임을회피할수있는제도는없다"고밝혔습니다.​소비자감시단체인PublicCitizen은11월11일자서신에서Sora2가안전과민주주의에대해"무모한무시"를보여주고있다고경고했습니다.이단체는연구진이출시24시간내에비인가방지장치를우회했으며,"의무적"워터마크도무료온라인도구로4분이내에제거될수있다고지적했습니다.​OpenAICEO샘알트먼은"통과되어서는안되는생성물이몇몇간극에서나타날수있다"고인정하며,이문제의어려움을언급했습니다.회사측은"스튜디오및권리보유자들과직접적으로소통하고있다"고밝혔으나,근본적인문제—Sora2의학습데이터에이미포함된저작권보호콘텐츠를비용이많이드는재학습없이제거할수없는점—에대해서는구체적인해결방안을제시하지않았습니다.
290 조회
0 추천
11.13 등록
(퍼플렉시티가정리한기사)NVIDIA는화요일에발표된MLPerfTrainingv5.1벤치마크에서완전한석권을달성하여7개테스트모두에서가장빠른훈련시간을기록했으며,모든카테고리에서결과를제출한유일한플랫폼이되었습니다.이회사는5,120개의BlackwellGPU를사용하여Meta의Llama3.1405B모델을단10분만에훈련시켜새로운업계기록을세웠으며,이는이전최고기록보다2.7배빠른속도입니다.​11월12일MLCommons에서발표한이번결과는MLPerfTraining역사상어떤회사도4비트FP4정밀도를사용한첫번째사례로,이획기적인기술은동일한수의GPU에서이전세대Hopper아키텍처보다최대4배의성능을제공했습니다.NVIDIA의독점NVFP4포맷은엄격한정확도요구사항을유지하면서8비트FP8보다3배빠른속도로계산을가능하게합니다.​블랙웰울트라데뷔하다BlackwellUltra기반GB300NVL72랙규모시스템이이번라운드에서MLPerfTraining에처음등장했으며,표준BlackwellGPU보다1.5배높은NVFP4처리량과어텐션레이어를위한2배의softmax가속을제공하는향상된TensorCore를특징으로합니다.이시스템은GPU당279GB의HBM3e메모리를탑재하고NVIDIAQuantum-X800InfiniBand를통해업계최초의800Gb/s네트워킹플랫폼으로연결됩니다.​NVIDIA는또한새로도입된두가지벤치마크인Llama3.18B와FLUX.1이미지생성에서성능기록을세웠습니다.이회사는512개의BlackwellUltraGPU를사용하여5.2분만에Llama3.18B를학습시켰으며,FLUX.1에대한결과를제출한유일한플랫폼으로서1,152개의BlackwellGPU로12.5분의학습시간을달성했습니다.​다양한경쟁분야MLPerfTrainingv5.1라운드에는20개조직이참여하여12개의서로다른하드웨어가속기를탑재한65개의고유한시스템을제출했습니다.AMD는새로운InstinctMI355X및MI350XGPU를선보였으며,AMD는단일노드접근성을위해설계된새로운Llama3.18B벤치마크개발을주도했습니다.AMD에따르면,MI355XGPU성능은Llama3.18B테스트에서NVIDIA의Blackwell플랫폼대비5-6%이내의차이를보였습니다.​전체제출물의거의절반이멀티노드구성이었으며,이는전년도라운드대비86%증가한수치입니다.Datacrunch,UniversityofFlorida,Wiwynn이처음으로참여했으며,Dell,HPE,Lenovo와같은기존참가자들도함께했습니다.​벤치마크업데이트에서는레거시테스트를최신AI워크로드로대체했습니다:언어모델의경우BERT를Llama3.18B로,이미지생성의경우StableDiffusionv2를FLUX.1로교체했습니다.
207 조회
0 추천
11.13 등록
(퍼플렉시티가정리한기사)RedHat은11월12일RedHatEnterpriseLinux10.1과9.7의일반출시를발표했으며,AI기반기능을오프라인환경에서제공하고미래의양자컴퓨팅위협에대한보호를강화했습니다.이릴리스는조직들이인공지능워크로드를배포해야하는압박이커지는가운데,양자컴퓨터가악용할수있는암호취약점에대비해야하는상황에서출시되었습니다.​가장기대되는기능은RHEL명령줄어시스턴트의오프라인버전으로,이제RedHatSatellite가입자를위해개발자프리뷰로제공됩니다.이도구는로컬에서컨테이너세트로실행되며,완전히분리된또는에어갭환경에서도외부네트워크연결없이리눅스작업에대한AI기반안내를제공합니다.RedHat의블로그에서GilCattelain에따르면“RHEL명령줄어시스턴트의오프라인버전이언제제공될것인가?”는올해초RedHatSummit에서반복적으로제기된질문이었습니다.​이번업데이트는RedHat저장소를통해AdvancedMicroDevices,Intel,Nvidia칩용으로검증된드라이버를제공함으로써AI가속기배포를간소화합니다.새로운rhel-drivers명령은데이터센터AI가속기하드웨어를자동으로감지하여최신드라이버를설치하며,수동으로호환성을확인할필요가없습니다.RedHat의하이브리드플랫폼시장인사이트수석이사StuMiniman에따르면검증된드라이버는하드웨어파트너와광범위한테스트를거친뒤RHEL확장및보조저장소에서제공됩니다.​양자위협에대비하기두릴리스모두양자후암호화기능을확장하여"지금수집하고나중에해독"공격에대응합니다.이는적대자들이오늘날암호화된데이터를수집하여양자컴퓨터가충분히강력해지면해독하는공격입니다.RHEL9.7은모듈격자기반키캡슐화메커니즘(ML-KEM)및모듈격자기반디지털서명알고리즘(ML-DSA)을포함한양자후알고리즘을통합하며,이는미국국립표준기술연구소(NIST)가2024년8월에표준화했습니다.RHEL10.1은전송중인데이터를위한전송계층보안에서양자후암호화에대한향상된지원을추가합니다.​RedHat은"RHEL9.7은RHEL의이전안정릴리스에제한적인양자후암호화기능을제공하여"조직이RHEL10으로전환하기전에기존환경에서실험할수있도록한다고밝혔습니다.알고리즘은통제된테스트를가능하게하면서중단을방지하기위해옵트인방식으로유지됩니다.​RedHat이후원한IDC연구에따르면,IT인프라팀은무료오픈소스대안에비해RedHat솔루션을사용할때32%더효율적이며,개발팀은20%의생산성향상을경험합니다.RHEL10.1은또한이미지모드에서소프트재부팅을도입하여관리자가전체커널재시작없이시스템상태를변경할수있도록하여서비스중단을최소화하면서더빠른업데이트를가능하게합니다.
208 조회
0 추천
11.13 등록
(퍼플렉시티가정리한기사)AI챗봇'클로드(Claude)'운영사앤트로픽이12일(현지시간)미국내AI인프라에500억달러(약73조원)를투자한다고발표했다.텍사스주와뉴욕주에맞춤형데이터센터를건설하며,첫시설은2026년가동을목표로한다.​앤트로픽은AI클라우드플랫폼플루이드스택(Fluidstack)과협력해데이터센터를구축할예정이다.플루이드스택은이미메타,미드저니,미스트랄등에대규모그래픽처리장치(GPU)클러스터를공급하고있다.​일자리창출과트럼프정책부응이번투자로약800개의정규직일자리와2,400개이상의건설일자리가창출될것으로전망된다.정규직의평균급여는약14만4,000달러에달할것으로예상된다.​앤트로픽은이번계획이"미국의AI리더십을유지하고미국내기술인프라를강화하기위한도널드트럼프행정부의AI실행계획목표달성에기여할것"이라고강조했다.다리오아모데이최고경영자(CEO)는"과학발견을가속화하고이전에는불가능했던방식으로복잡한문제를돕는AI에점점더가까워지고있다"며"이런잠재력을실현하려면개발을지속지원할수있는인프라가필요하다"고말했다.​빅테크AI인프라투자경쟁앤트로픽의투자는빅테크기업들의미국내AI인프라투자경쟁이가속화되는가운데나왔다.오픈AI는소프트뱅크,오라클과함께5,000억달러규모의'스타게이트'프로젝트를통해미국전역에데이터센터를건설하고있다.메타는6,000억달러이상을2028년까지미국AI기술,인프라,인력확장에투자할계획이다.​아마존은앤트로픽에총80억달러를투자했으며,현재그지분가치는138억달러로평가된다.앤트로픽은현재30만개이상의기업고객을확보하고있으며,10만달러이상의연간매출을대표하는대형고객수는지난1년간거의7배증가했다.
302 조회
0 추천
11.13 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입