Loading...

AI 뉴스

동일 질문에 AI 모델이 매번 다른 답변을 내는 이유

페이지 정보

작성자 xtalfi
작성일 2025.09.11 14:48
3,493 조회
0 추천
0 비추천

본문

d92349c8d65a778fcf2ade9bee8162e2EYfG.jpg

(퍼플렉시티가 정리한 기사)

전 오픈AI 최고기술책임자(CTO) 미라 무라티가 설립한 새로운 인공지능 회사인 Thinking Machines Lab은 화요일 첫 번째 연구 블로그 게시물을 공개하여, 올해 초 20억 달러의 시드 펀딩을 확보한 이후 구체적인 기술 작업으로 스타트업의 공식 데뷔를 알렸다.

이번 연구는 Thinking Machines Lab 소속 과학자인 호레이스 허(Horace He)가 저술했으며, 회사가 새롭게 개설한 "Connectionism" 블로그에 게재되었다. 이 연구는 현대 인공지능 시스템에서 만연하게 나타나는 한 가지 문제, 즉 대형 언어 모델이 동일한 질문을 받을 때 일관된 답변을 내놓지 못하는 현상을 다루고 있다.

 

AI 불일치의 근본 원인 파악하기

 

"LLM 추론에서 비결정성을 극복하기"라는 제목의 글은 AI의 무작위성이 그래픽 처리 장치(GPU)에서의 동시 처리에서 비롯된다는 일반적인 믿음에 의문을 제기합니다. 그는 그 진짜 원인이 NVIDIA 칩 내에서 실행되는 작은 프로그램인 GPU 커널들이 AI 추론 처리 중에 어떻게 조율되는가에 있다고 주장합니다.

그의 연구에 따르면, AI 시스템이 동일한 질문에 대해 다른 답변을 하는 주된 이유는 샘플링 선택이나 동시 스레드 때문이 아니라, 서로 다른 배치 크기에서 부동 소수점 연산이 서로 다르게 순서화되기 때문입니다. AI 추론 서버가 요청을 처리할 때, 동시에 처리되는 쿼리 수가 기본적인 수학 연산의 순서를 바꿔, 수치적으로는 다르지만 모두 유효한 결과가 나오게 됩니다.

연구자는 Qwen의 235B 파라미터 모델을 사용해 이 현상을 시범적으로 보여 주었으며, 동일한 온도 설정으로 1,000개의 완성 결과를 생성한 뒤 80개의 고유 응답을 발견했는데, 103번째 토큰부터 결과가 달라지기 시작했습니다. 대부분의 완성 결과가 물리학자 리처드 파인만의 출생지를 "Queens, New York"으로 생성한 반면, 8개는 "New York City"로 작성했습니다.

 

기업용 AI를 위한 제안된 솔루션

 

He의 연구는 얼마나 많은 요청이 동시에 처리되는지에 상관없이 일관된 연산 순서를 유지함으로써 AI 커널을 "배치 불변(batch-invariant)"으로 만드는 것을 제안합니다. 이 접근 방식은 트랜스포머 모델의 세 가지 핵심 연산(즉, RMSNorm, 행렬 곱셈, 어텐션 메커니즘)에 대한 수정이 필요합니다.

연구실은 vLLM(오픈소스 추론 프레임워크) 위에서 실행되는 결정적 추론의 데모 코드를 공개했습니다. 초기 성능 테스트 결과, 결정적 방식은 표준 구성에 비해 약 60% 느리게 실행되는 것으로 나타났으나, 연구진은 이 구현이 속도에 맞춰 최적화되어 있지 않다고 언급했습니다. 재현 가능한 응답이 필요한 엔터프라이즈 응용 분야를 넘어, He는 이 연구가 샘플링 및 훈련 단계 간의 수치적 차이를 제거함으로써 강화학습 훈련을 개선하고, AI 모델 훈련 효율성을 높일 수 있다고 제안합니다.

 

실리콘밸리의 최신 인공지능 연구소

 

Thinking Machines Lab는 7월에 Murati가 Andreessen Horowitz가 주도한 기록적인 20억 달러 시드 투자를 발표하며 은둔 상태에서 모습을 드러냈습니다. 회사의 가치가 120억 달러로 평가된 이번 투자 라운드에는 NVIDIA, AMD, Cisco, ServiceNow 등 주요 테크 기업들이 참여했습니다.

회사의 팀은 주로 OpenAI 출신 연구원들로 구성되어 있으며, ChatGPT의 개발에 참여한 John Schulman과 OpenAI 전 연구 책임자 Barrett Zoph 등이 포함되어 있습니다. 초기 인력의 거의 3분의 2가 Murati의 전 직장 출신입니다.

2023년 11월 OpenAI의 리더십 위기 동안 잠시 임시 CEO를 맡았고, 2024년 9월에 회사를 떠난 Murati는 Thinking Machines Lab을 “여러 방식으로 당신이 자연스럽게 세상과 상호작용하는 방식에 맞춘 멀티모달 AI 구축”으로 자리매김했습니다. 회사는 앞으로 몇 달 안에 연구자와 맞춤형 모델을 개발하는 스타트업을 대상으로 하는 오픈 소스 컴포넌트가 포함된 첫 번째 제품을 출시할 계획입니다.

“우리는 과학이 공유될 때 더 발전한다고 믿습니다.”라고 회사는 공식 웹사이트를 통해 밝히며, 기술 블로그, 논문, 코드의 정기적인 공개를 약속합니다. 이는 회사가 규모가 커지고 상업적 성격이 강해지면서 점점 더 연구 공유에 폐쇄적이 되어가는 OpenAI와의 뚜렷한 대조를 이룹니다.

댓글 0
전체 1,366 / 185 페이지
(퍼플렉시티가 정리한 기사)SK하이닉스가 인공지능(AI) 시대를 맞아 단순한 메모리 공급자를 넘어 고객 맞춤형 솔루션을 제공하는 ‘풀스택 AI 메모리 크리에이터’로의 전환을 선언했다. 이는 폭발적으로 증가하는 AI 메모리 수요에 대응하고, 메모리 반도체 업계의 경쟁 패러다임이 가격에서 솔루션 중심으로 변화하는 가운데 나온 전략적 전환이다.곽노정 SK하이닉스 대표는 3일 서울 코엑스에서 열린 ‘SK AI 서밋 2025’에서 “AI 시대 메모리의 중요성이 더욱 커지면서 단순한 제조 업체가 아닌 고객과 미래를 함께 설계하는 크리에이터로 거듭날 것”이라고 밝혔다.2030년까지 차세대 HBM 로드맵 공개SK하이닉스는 이번 서밋에서 2030년까지의 구체적인 차세대 고대역폭메모리(HBM) 로드맵을 처음 공개했다. 2026년부터 HBM4 16단과 HBM4E 8·12·16단, 커스텀 HBM4E를 순차 출시하고, 2029년부터 2031년 사이에는 HBM5와 HBM5E를 선보일 예정이다.특히 주목받는 것은 커스텀 HBM 기술이다. 이는 고객의 요청사항을 반영해 그래픽처리장치(GPU)나 주문형반도체(ASIC)의 일부 기능을 HBM 베이스 다이로 옮겨 성능을 극대화하고 전력 소모를 줄이는 맞춤형 솔루션이다.박경 SK하이닉스 부사장은 “2030년에 웨이퍼 기준으로 D램이 4100만장 필요하지만 실제 공급 가능한 물량은 3000만장에 불과하다”며 “메모리 비즈니스가 과거 범용 위주를 넘어 관계가 중요한 힘을 가진 방향으로 재편될 것”이라고 전망했다.글로벌 AI 기업들과 전방위 협력 강화SK하이닉스는 AI 메모리 크리에이터로서의 역할을 강화하기 위해 글로벌 주요 기업들과의 협력을 확대하고 있다. 엔비디아와는 HBM 협력뿐 아니라 옴니버스, 디지털 트윈을 활용한 AI 제조 혁신을 추진하고 있으며, 오픈AI와는 고성능 메모리 공급을 위한 장기 협력을 모색 중이다.또한 TSMC와는 차세대 HBM 베이스 다이 개발 협력을, 샌디스크와는 차세대 낸드 기술인 고대역폭플래시(HBF) 국제 표준화를 공동 추진하고 있다. 네이버클라우드와는 AI 데이터센터 효율화를 위한 차세대 메모리와 소프트웨어 최적화 협력도 진행 중이다.한편 SK하이닉스는 이날 한국거래소로부터 투자주의종목으로 지정됐다. 최근 1년간 주가가 200% 이상 상승하고 특정 계좌의 매수 관여율이 기준을 초과했기 때문이다. 3일 SK하이닉스 주가는 10.9% 급등한 62만원대로 마감했으며, 올해 들어 상승률만 257%에 달한다.
2030 조회
0 추천
2025.11.04 등록
(퍼플렉시티가정리한기사)LG전자가글로벌데이터센터인프라기업플렉스(Flex)와손잡고인공지능(AI)데이터센터의발열문제를해결할모듈형냉각솔루션개발에나선다고4일발표했다.​양사는최근업무협약(MOU)을체결하고LG전자의칠러(초대형냉방기),냉각수분배장치(CDU),컴퓨터룸공기처리장치(CRAH)등고효율냉각제품과플렉스의IT·전력인프라를결합한모듈형데이터센터냉각솔루션을공동개발할계획이다.​확장성과유연성극대화한모듈기반구조새로개발될모듈형냉각솔루션은데이터센터인프라의확장성과유연성을극대화하기위해모듈기반구조로설계된다.사전조립과테스트를마친냉각모듈형태로제작돼현장에서다른모듈들과결합되는방식으로,필요에따라냉각모듈을쉽게추가할수있어데이터센터인프라확장에유리하다.​또한데이터센터의열관리요구사항에맞춰맞춤형으로구성할수있고빠른배포와설치가가능해기존냉각솔루션과차별화된다.양사는이번협업을통해데이터센터구축과정을간소화하고고객들에게혁신적인확장형데이터센터인프라를제공할수있을것으로기대하고있다.​급성장하는AI데이터센터냉각시장선점이번협업은AI데이터센터시장의급속한성장과맞물려주목받고있다.글로벌데이터센터냉각시장규모는2025년177억달러에서2035년629억달러로연평균13.5%성장할것으로전망된다.특히AI수요증가로데이터센터의전력소모와발열이기하급수적으로늘어나면서효율적인냉각기술의중요성이급격히커지고있다.​플렉스는전자제품위탁생산(EMS)분야를선도하는글로벌기업으로,데이터센터를비롯해자동차,헬스케어,통신등다양한산업에설계·개발·제조·공급망관리·사후서비스를아우르는종합솔루션을제공한다.올해타임지가선정한'세계최고기업2025'에도이름을올렸다.​마이클하퉁플렉스사장겸최고상업책임자는"LG전자와협력해데이터센터의열문제를해결하는최적의냉각솔루션을고객들에게제공할것"이라고말했다.이재성LG전자ES사업본부장부사장은"플렉스와의협업은단순한파트너십을넘어고객에게혁신적이고차별화된가치를제공하는동시에,AI데이터센터시장에서LG전자의입지를강화하는전략적기회가될것"이라고강조했다.
1722 조회
0 추천
2025.11.04 등록
(퍼플렉시티가정리한기사)마이크로소프트가UAE와호주등에총33조원규모의대규모AI인프라투자를단행하며글로벌인공지능시장확장에박차를가하고있다.이번투자는AI컴퓨팅자원부족을해결하고'네오클라우드'시장에서의경쟁력을강화하려는전략으로분석된다.트럼프행정부첫GPU수출허가로UAE투자탄력브래드스미스마이크로소프트사장은3일(현지시간)UAE에2029년까지총152억달러(약21조8000억원)를투자하겠다고발표했다.이는2023년부터현재까지투자한73억달러에추가로79억달러를더투입하는것이다.​특히마이크로소프트는지난9월트럼프행정부들어처음으로AI연산용그래픽처리장치(GPU)를UAE에수출할수있는허가를획득했다.이번허가로엔비디아A100칩6만400개상당의GPU와최신GB300GPU까지수출할수있게됐다.​UAE의AI이용률이59.4%로세계1위를기록하고있어AI빅테크들의투자가집중되고있다.마이크로소프트는이미UAE국영AI기업G42에15억달러를지분투자했으며,AI·클라우드인프라에46억달러를지출했다.​호주IREN과14조원계약으로네오클라우드시장진출마이크로소프트는같은날호주AI인프라기업아이렌(IREN)과5년간97억달러(약14조원)규모의클라우드서비스계약을체결했다고발표했다.이번계약으로마이크로소프트는아이렌의최대고객이됐다.​아이렌은엔비디아의최신GB300아키텍처GPU를적용한클라우드서비스를제공하며,관련장비를델에서58억달러에구매해텍사스주데이터센터에배치할예정이다.계약발표직후아이렌주가는24.7%급등했다.​아이렌은원래비트코인채굴업체에서AI인프라기업으로전환한대표적인'네오클라우드'기업이다.네오클라우드는범용클라우드와달리AI연산에특화된고성능컴퓨팅환경을제공하는차세대클라우드서비스를의미한다.​AI컴퓨팅자원확보전쟁본격화마이크로소프트의연이은대형계약은AI시장급성장속에서컴퓨팅자원부족문제를선제적으로해결하려는전략으로해석된다.기존데이터센터구축보다전문업체와의장기계약을통해AI서버용량을확보하는것이더효율적이기때문이다.​마이크로소프트는이번계약외에도AI클라우드스타트업람다(Lambda)와수십억달러규모의엔비디아GPU사용계약을체결했으며,지난9월에는네비우스와5년간174억달러규모의인프라구매계약을맺은바있다.​업계전문가들은이러한움직임을단순한서버임대가아닌'AI연산자원의장기적선점전략'으로평가하고있다.AI학습과서비스운영에필요한막대한GPU자원을미리확보해향후AI시장에서의경쟁우위를확보하려는것으로분석된다.
1699 조회
0 추천
2025.11.04 등록
(퍼플렉시티가정리한기사)'중국은주요기술기업들에대한재정적인센티브를강화하여,국내에서생산된인공지능프로세서를채택하는데이터센터에최대50%의에너지요금감면을제공하고있으며,이는자국기술부문을금지된미국반도체로부터독립시키려는베이징의가장공격적인시도를보여주고있습니다.간쑤성,귀저우성,내몽골의지방정부들은화웨이와캠브리콘과같은국내제조업체의AI칩을사용하는바이트댄스,알리바바,텐센트가운영하는데이터센터를대상으로보조금을확대했다고정책에정통한소식통들이전했습니다.일부보조금은1년치운영비용전체를상쇄할만큼상당한규모입니다.​전력할인은여전히미국의수출제한을받고있는엔비디아의고급칩을사용하는시설은제외됩니다.이러한조치는중국인터넷규제당국이반도체접근을둘러싼긴장이수개월간고조된후9월에국내기술기업들의엔비디아AI프로세서구매를금지한이후나온것입니다.​칩제재에대한전략적대응이보조금은중국기업들이에너지효율이낮은국내대체품으로전환할수밖에없게된후,자국산AI인프라채택을가속화하기위한베이징의최신노력을나타냅니다.이러한전환으로전력비용이크게증가하여중국설계프로세서에시스템을적응시키는기업들에게재정적부담이가중되었습니다.​도널드트럼프대통령은11월2일엔비디아의가장진보된블랙웰AI칩이미국전용으로만제공될것이라고밝히며제재를강화했습니다.트럼프는기자들에게"우리는그것들을중국에팔수없습니다.다른사람들에게도팔수없습니다"라고말했습니다.​중국의거대기술기업들은이러한변화에적극적으로대비해왔습니다.텐센트는9월에중국설계프로세서를지원하도록AI컴퓨팅인프라를"완전히적응"시켰다고발표했습니다.알리바바와바이두도자체설계한칩을사용하여AI모델을훈련시키기시작했으며,부분적으로엔비디아프로세서를대체하고있습니다.​국내반도체산업이탄력을받다이번정책지원은중국AI칩제조업체들이급속한성장을보이는가운데나온것입니다.Cambricon은2025년상반기에기록적인실적을보고했으며,Siyuan590프로세서에대한강력한수요에힘입어매출이44배증가한29억위안을기록했습니다.JPMorgan은Huawei가2025년에60만~65만개의AI칩을출하할것으로전망하고있습니다.​이러한진전에도불구하고,업계분석가들은중국칩이여전히Nvidia의성능능력에뒤처져있으며,국내대체품이NvidiaA100칩성능의약80%수준을달성하고있다고지적합니다.이번보조금은베이징이반도체자급자족에계속투자하는동안국내도입에대한경제적타당성을제시함으로써이러한격차를줄이는것을목표로하고있습니다.
2028 조회
0 추천
2025.11.04 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입