Loading...

AI 뉴스

동일 질문에 AI 모델이 매번 다른 답변을 내는 이유

페이지 정보

작성자 xtalfi
작성일 09.11 14:48
38 조회
0 추천
0 비추천

본문

d92349c8d65a778fcf2ade9bee8162e2EYfG.jpg

(퍼플렉시티가 정리한 기사)

전 오픈AI 최고기술책임자(CTO) 미라 무라티가 설립한 새로운 인공지능 회사인 Thinking Machines Lab은 화요일 첫 번째 연구 블로그 게시물을 공개하여, 올해 초 20억 달러의 시드 펀딩을 확보한 이후 구체적인 기술 작업으로 스타트업의 공식 데뷔를 알렸다.

이번 연구는 Thinking Machines Lab 소속 과학자인 호레이스 허(Horace He)가 저술했으며, 회사가 새롭게 개설한 "Connectionism" 블로그에 게재되었다. 이 연구는 현대 인공지능 시스템에서 만연하게 나타나는 한 가지 문제, 즉 대형 언어 모델이 동일한 질문을 받을 때 일관된 답변을 내놓지 못하는 현상을 다루고 있다.

 

AI 불일치의 근본 원인 파악하기

 

"LLM 추론에서 비결정성을 극복하기"라는 제목의 글은 AI의 무작위성이 그래픽 처리 장치(GPU)에서의 동시 처리에서 비롯된다는 일반적인 믿음에 의문을 제기합니다. 그는 그 진짜 원인이 NVIDIA 칩 내에서 실행되는 작은 프로그램인 GPU 커널들이 AI 추론 처리 중에 어떻게 조율되는가에 있다고 주장합니다.

그의 연구에 따르면, AI 시스템이 동일한 질문에 대해 다른 답변을 하는 주된 이유는 샘플링 선택이나 동시 스레드 때문이 아니라, 서로 다른 배치 크기에서 부동 소수점 연산이 서로 다르게 순서화되기 때문입니다. AI 추론 서버가 요청을 처리할 때, 동시에 처리되는 쿼리 수가 기본적인 수학 연산의 순서를 바꿔, 수치적으로는 다르지만 모두 유효한 결과가 나오게 됩니다.

연구자는 Qwen의 235B 파라미터 모델을 사용해 이 현상을 시범적으로 보여 주었으며, 동일한 온도 설정으로 1,000개의 완성 결과를 생성한 뒤 80개의 고유 응답을 발견했는데, 103번째 토큰부터 결과가 달라지기 시작했습니다. 대부분의 완성 결과가 물리학자 리처드 파인만의 출생지를 "Queens, New York"으로 생성한 반면, 8개는 "New York City"로 작성했습니다.

 

기업용 AI를 위한 제안된 솔루션

 

He의 연구는 얼마나 많은 요청이 동시에 처리되는지에 상관없이 일관된 연산 순서를 유지함으로써 AI 커널을 "배치 불변(batch-invariant)"으로 만드는 것을 제안합니다. 이 접근 방식은 트랜스포머 모델의 세 가지 핵심 연산(즉, RMSNorm, 행렬 곱셈, 어텐션 메커니즘)에 대한 수정이 필요합니다.

연구실은 vLLM(오픈소스 추론 프레임워크) 위에서 실행되는 결정적 추론의 데모 코드를 공개했습니다. 초기 성능 테스트 결과, 결정적 방식은 표준 구성에 비해 약 60% 느리게 실행되는 것으로 나타났으나, 연구진은 이 구현이 속도에 맞춰 최적화되어 있지 않다고 언급했습니다. 재현 가능한 응답이 필요한 엔터프라이즈 응용 분야를 넘어, He는 이 연구가 샘플링 및 훈련 단계 간의 수치적 차이를 제거함으로써 강화학습 훈련을 개선하고, AI 모델 훈련 효율성을 높일 수 있다고 제안합니다.

 

실리콘밸리의 최신 인공지능 연구소

 

Thinking Machines Lab는 7월에 Murati가 Andreessen Horowitz가 주도한 기록적인 20억 달러 시드 투자를 발표하며 은둔 상태에서 모습을 드러냈습니다. 회사의 가치가 120억 달러로 평가된 이번 투자 라운드에는 NVIDIA, AMD, Cisco, ServiceNow 등 주요 테크 기업들이 참여했습니다.

회사의 팀은 주로 OpenAI 출신 연구원들로 구성되어 있으며, ChatGPT의 개발에 참여한 John Schulman과 OpenAI 전 연구 책임자 Barrett Zoph 등이 포함되어 있습니다. 초기 인력의 거의 3분의 2가 Murati의 전 직장 출신입니다.

2023년 11월 OpenAI의 리더십 위기 동안 잠시 임시 CEO를 맡았고, 2024년 9월에 회사를 떠난 Murati는 Thinking Machines Lab을 “여러 방식으로 당신이 자연스럽게 세상과 상호작용하는 방식에 맞춘 멀티모달 AI 구축”으로 자리매김했습니다. 회사는 앞으로 몇 달 안에 연구자와 맞춤형 모델을 개발하는 스타트업을 대상으로 하는 오픈 소스 컴포넌트가 포함된 첫 번째 제품을 출시할 계획입니다.

“우리는 과학이 공유될 때 더 발전한다고 믿습니다.”라고 회사는 공식 웹사이트를 통해 밝히며, 기술 블로그, 논문, 코드의 정기적인 공개를 약속합니다. 이는 회사가 규모가 커지고 상업적 성격이 강해지면서 점점 더 연구 공유에 폐쇄적이 되어가는 OpenAI와의 뚜렷한 대조를 이룹니다.

댓글 0
전체 182 / 14 페이지
앱 리서치 회사 와이즈앱의 발표에 따르면 한국 ChatGPT 사용자수가 월 2천만명을 넘어섰다고 한다.사용자 층을 세부적으로 살펴보면 20대가 24.2%, 30대가 22.0%, 40대가 22.4%로 도합 68.6%를 차지해 가장 높은 비중을 보였다. 청년 세대가 생성형 AI 기술을 가장 활발하게 수용하고 활용하는 연령대임이 명확히 드러난 셈이다.그 뒤를 이어 20세 미만이 13.6%, 50대가 12.6%, 60세 이상이 5.2% 순으로 나타나 중장년층과 청소년층에서도 꾸준한 이용 흐름이 관찰됐다. 성별 사용자 비율은 남성 50.1%, 여성 49.9%로 거의 차이가 없어 성별에 관계없이 고르게 사용되는 것으로 분석됐다.
145 조회
1 추천
09.02 등록
(퍼플렉시티로 기사 내용을 요약함)## AI의 물 사용 구조AI 시스템은 답변 한 번당 상당한 양의 **물**을 소비합니다. 대표적으로 GPT-3 기준, 짧은 대화 한 번에 약 500ml의 물이 사용됩니다[1]. 이는 데이터센터의 서버 냉각과 전기를 생산하는 발전소에서 소비되는 물 모두를 합산한 수치입니다.- 첫 번째 흐름: 서버 냉각을 위한 현장 내 물 사용- 두 번째 흐름: 전기 생산 발전소에서의 물 사용[1]## 위치, 기후, 시간의 효과데이터센터의 위치와 기후에 따라 **물 사용량**이 크게 달라집니다. 예를 들어, 시원하고 습한 아일랜드의 센터는 외부공기 냉각을 주로 사용해 물 사용이 적으며, 반면 뜨겁고 건조한 애리조나에서는 증발 냉각이 많이 적용되어 대량의 물이 소모됩니다[1]. 계절과 주야에 따라 냉각 효율과 물 소모도 변화합니다.## 새로운 냉각 기술- 서버를 비전도성 액체에 담그는 침수 냉각(immersion cooling)- 마이크로소프트의 물 비사용 냉각 설계(특수 액체 순환식 등)[1]이런 기술들은 아직 도입 단계이거나 비용, 유지보수, 기존 센터 전환의 어려움으로 널리 쓰이지 않습니다.## AI 물 발자국 계산법1. 신뢰할 만한 출처에서 모델별 전력 소모량(Wh)을 찾는다.2. 전력 1Wh 당 물 사용량(1.3~2.0ml/Wh 범위 추정치)을 적용한다.3. 두 수치를 곱한다[1].예시: GPT-5의 150~200자 응답은 19.3Wh, GPT-4o는 1.75Wh.- 보수적으로 2ml/Wh 적용 시- GPT-5: 39ml/응답- GPT-4o: 3.5ml/응답## 전체 규모 및 비교- GPT-4o 처리 기준 하루 약 880만리터, GPT-5는 약 9,750만리터의 물이 소모됩니다.- 이는 미국 일상 생활 물 사용(예: 정원 관수 340억리터/일)에 비해 상대적으로 적지만, 향후 쿨링 효율, AI 설계, 전력 구조 개선에 따라 변동 가능성이 큽니다[1].## 결론 및 대안- AI 시스템의 물 사용량은 데이터센터의 위치, 냉각 방식, 전력 구조, AI 모델의 효율성 등에 따라 크게 달라집니다.- 효율적인 서버, 재생에너지, 친환경 냉각 방식을 도입하면 물 소모를 최소화할 수 있습니다.
136 조회
0 추천
09.02 등록
AI 스크리닝 도구가 1만 5,000개 이상의 오픈 액세스 학술지를 분석하여 1,000개가 넘는 잠재적으로 문제가 있는 학술지를 찾아냈습니다. 이 도구는 논문 게재료를 받으면서도 제대로 된 동료 심사나 품질 검증을 거치지 않는 '문제성 오픈 액세스 학술지'를 식별합니다.이 도구가 찾아낸 학술지들은 기존의 어떤 감시 목록에도 없던 것들이며, 심지어 일부는 유명 출판사의 소유인 경우도 있습니다. 이 학술지들은 수십만 건의 논문을 출판했으며 수백만 번 인용되기도 했습니다. 연구에 참여한 대니얼 아쿠냐 박사는 AI가 완벽하지 않으므로 최종 결정은 전문가의 검토를 거쳐야 한다고 강조했습니다.이 AI 도구는 학술지 웹사이트와 논문 정보를 분석해 수상한 징후들을 포착합니다. 예를 들어, 논문 게재까지 걸리는 짧은 시간, 높은 자기 인용률, 편집위원들의 소속 기관, 그리고 라이선스 및 수수료 공개 여부 등을 검사합니다.오픈 액세스 학술지 디렉터리(DOAJ)의 편집 품질 담당자인 셔인 셴은 문제성 학술지의 수가 늘고 있으며 수법도 점점 더 교묘해지고 있다고 말했습니다. DOAJ는 주로 수동으로 학술지를 검토하는데, AI 도구가 이러한 검토 과정을 신속하게 할 수 있을 것으로 기대됩니다.하지만 AI 도구는 여전히 오탐(잘못된 분류)의 위험이 있습니다. 연구팀의 실험 결과, AI가 문제성 학술지를 놓치는 경우도 있었고, 반대로 정상적인 학술지를 문제성으로 오인하는 경우도 있었습니다. 또한, 셴은 비영어권 학술지나 재정 지원이 부족한 기관의 편집자들에게 불이익을 줄 수 있다는 편향성 문제를 제기했습니다. 그럼에도 불구하고, AI가 방대한 양의 검토 작업을 보조하는 유용한 역할을 할 수 있다고 평가했습니다.
108 조회
0 추천
09.02 등록
임페리얼 칼리지 런던(Imperial College London) 연구진이 개발한 AI 청진기가 심부전, 심장 판막 질환, 심방세동과 같은 세 가지 심장 질환을 단 몇 초 만에 감지할 수 있는 것으로 나타났습니다. 1816년에 발명된 기존 청진기를 21세기에 맞게 업그레이드한 이 기술은 인간의 귀로는 포착하기 어려운 미세한 심장 박동과 혈류의 차이를 분석합니다.이 장치는 환자의 가슴에 부착해 심장의 전기 신호를 기록하는 심전도(ECG)와 심장 혈류음을 동시에 측정합니다. 이렇게 수집된 정보는 클라우드로 전송되어 AI가 분석한 후 스마트폰으로 결과를 알려줍니다.영국심장재단(BHF)의 소냐 바부-나라얀 박사는 이 기술이 심장 질환 조기 진단에 큰 도움이 될 것이라고 강조했습니다. 현재 심부전 환자는 응급 상황이 되어서야 병원을 찾는 경우가 많지만, AI 청진기를 사용하면 일반 의원에서도 문제를 조기에 발견하고 환자가 적절한 치료를 받을 수 있도록 도울 수 있습니다.실제로 런던 200여 곳의 일반 의원을 대상으로 한 임상 시험 결과, AI 청진기를 사용한 환자 그룹은 그렇지 않은 그룹보다 심부전, 심방세동, 심장 판막 질환이 각각 2.33배, 3.45배, 1.92배 더 많이 진단된 것으로 나타났습니다.연구진은 AI 청진기가 의사들이 더 쉽고 빠르게 심장 질환을 찾아낼 수 있게 함으로써, 많은 환자들이 더 나은 치료를 받을 수 있는 "획기적인 전환점"이 될 것으로 기대하고 있습니다.
136 조회
0 추천
09.02 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입