Loading...

AI 뉴스

동일 질문에 AI 모델이 매번 다른 답변을 내는 이유

페이지 정보

작성자 xtalfi
작성일 09.11 14:48
26 조회
0 추천
0 비추천

본문

d92349c8d65a778fcf2ade9bee8162e2EYfG.jpg

(퍼플렉시티가 정리한 기사)

전 오픈AI 최고기술책임자(CTO) 미라 무라티가 설립한 새로운 인공지능 회사인 Thinking Machines Lab은 화요일 첫 번째 연구 블로그 게시물을 공개하여, 올해 초 20억 달러의 시드 펀딩을 확보한 이후 구체적인 기술 작업으로 스타트업의 공식 데뷔를 알렸다.

이번 연구는 Thinking Machines Lab 소속 과학자인 호레이스 허(Horace He)가 저술했으며, 회사가 새롭게 개설한 "Connectionism" 블로그에 게재되었다. 이 연구는 현대 인공지능 시스템에서 만연하게 나타나는 한 가지 문제, 즉 대형 언어 모델이 동일한 질문을 받을 때 일관된 답변을 내놓지 못하는 현상을 다루고 있다.

 

AI 불일치의 근본 원인 파악하기

 

"LLM 추론에서 비결정성을 극복하기"라는 제목의 글은 AI의 무작위성이 그래픽 처리 장치(GPU)에서의 동시 처리에서 비롯된다는 일반적인 믿음에 의문을 제기합니다. 그는 그 진짜 원인이 NVIDIA 칩 내에서 실행되는 작은 프로그램인 GPU 커널들이 AI 추론 처리 중에 어떻게 조율되는가에 있다고 주장합니다.

그의 연구에 따르면, AI 시스템이 동일한 질문에 대해 다른 답변을 하는 주된 이유는 샘플링 선택이나 동시 스레드 때문이 아니라, 서로 다른 배치 크기에서 부동 소수점 연산이 서로 다르게 순서화되기 때문입니다. AI 추론 서버가 요청을 처리할 때, 동시에 처리되는 쿼리 수가 기본적인 수학 연산의 순서를 바꿔, 수치적으로는 다르지만 모두 유효한 결과가 나오게 됩니다.

연구자는 Qwen의 235B 파라미터 모델을 사용해 이 현상을 시범적으로 보여 주었으며, 동일한 온도 설정으로 1,000개의 완성 결과를 생성한 뒤 80개의 고유 응답을 발견했는데, 103번째 토큰부터 결과가 달라지기 시작했습니다. 대부분의 완성 결과가 물리학자 리처드 파인만의 출생지를 "Queens, New York"으로 생성한 반면, 8개는 "New York City"로 작성했습니다.

 

기업용 AI를 위한 제안된 솔루션

 

He의 연구는 얼마나 많은 요청이 동시에 처리되는지에 상관없이 일관된 연산 순서를 유지함으로써 AI 커널을 "배치 불변(batch-invariant)"으로 만드는 것을 제안합니다. 이 접근 방식은 트랜스포머 모델의 세 가지 핵심 연산(즉, RMSNorm, 행렬 곱셈, 어텐션 메커니즘)에 대한 수정이 필요합니다.

연구실은 vLLM(오픈소스 추론 프레임워크) 위에서 실행되는 결정적 추론의 데모 코드를 공개했습니다. 초기 성능 테스트 결과, 결정적 방식은 표준 구성에 비해 약 60% 느리게 실행되는 것으로 나타났으나, 연구진은 이 구현이 속도에 맞춰 최적화되어 있지 않다고 언급했습니다. 재현 가능한 응답이 필요한 엔터프라이즈 응용 분야를 넘어, He는 이 연구가 샘플링 및 훈련 단계 간의 수치적 차이를 제거함으로써 강화학습 훈련을 개선하고, AI 모델 훈련 효율성을 높일 수 있다고 제안합니다.

 

실리콘밸리의 최신 인공지능 연구소

 

Thinking Machines Lab는 7월에 Murati가 Andreessen Horowitz가 주도한 기록적인 20억 달러 시드 투자를 발표하며 은둔 상태에서 모습을 드러냈습니다. 회사의 가치가 120억 달러로 평가된 이번 투자 라운드에는 NVIDIA, AMD, Cisco, ServiceNow 등 주요 테크 기업들이 참여했습니다.

회사의 팀은 주로 OpenAI 출신 연구원들로 구성되어 있으며, ChatGPT의 개발에 참여한 John Schulman과 OpenAI 전 연구 책임자 Barrett Zoph 등이 포함되어 있습니다. 초기 인력의 거의 3분의 2가 Murati의 전 직장 출신입니다.

2023년 11월 OpenAI의 리더십 위기 동안 잠시 임시 CEO를 맡았고, 2024년 9월에 회사를 떠난 Murati는 Thinking Machines Lab을 “여러 방식으로 당신이 자연스럽게 세상과 상호작용하는 방식에 맞춘 멀티모달 AI 구축”으로 자리매김했습니다. 회사는 앞으로 몇 달 안에 연구자와 맞춤형 모델을 개발하는 스타트업을 대상으로 하는 오픈 소스 컴포넌트가 포함된 첫 번째 제품을 출시할 계획입니다.

“우리는 과학이 공유될 때 더 발전한다고 믿습니다.”라고 회사는 공식 웹사이트를 통해 밝히며, 기술 블로그, 논문, 코드의 정기적인 공개를 약속합니다. 이는 회사가 규모가 커지고 상업적 성격이 강해지면서 점점 더 연구 공유에 폐쇄적이 되어가는 OpenAI와의 뚜렷한 대조를 이룹니다.

댓글 0
전체 171 / 3 페이지
Anthropic의 Claude AI가 채팅창에서 직접 PDF, 파워포인트 슬라이드, 엑셀 스프레드시트, 워드 문서를 생성하고 편집할 수 있는 새로운 기능을 9일 출시했다.이 기능은 사용자가 필요한 파일을 설명하고 관련 데이터를 업로드하면 Claude가 개인용 컴퓨터 환경에서 코드를 작성해 즉시 사용 가능한 파일을 생성해준다. 파일 생성 기능은 현재 Max(월 100달러, 약 13만 8,500원), Team, Enterprise 플랜 사용자에게 프리뷰로 제공되며, Pro 사용자는 몇 주 내에 접근할 수 있게 된다. PDF 보고서를 파워포인트 슬라이드로 변환하거나 원시 데이터를 차트와 통계 분석이 포함된 완성된 문서로 변환하는 등 포맷 간 작업도 지원한다.사용자는 설정에서 "업그레이드된 파일 생성 및 분석" 기능을 활성화한 후 완성된 문서를 다운로드하거나 구글 드라이브에 직접 저장할 수 있다.
52 조회
0 추천
09.10 등록
(퍼플렉시티가 정리한 기사)과학기술정보통신부가 9일 ‘독자 AI 파운데이션 모델’ 프로젝트 착수식을 개최하며, 한국형 인공지능(AI) 개발 경쟁의 신호탄을 쏘아 올렸다. 네이버클라우드, 업스테이지, SK텔레콤, NC AI, LG AI연구원 등 5개 정예팀이 ‘K-AI’ 명칭을 공식 부여받고 2000억원 규모의 정부 지원을 받아 글로벌 수준의 AI 모델 개발에 나선다.이재명 정부의 ‘AI 3대 강국’ 비전을 실현하기 위한 핵심 프로젝트로, 6개월 이내 출시된 글로벌 AI 모델의 95% 이상 성능을 목표로 설정했다. 앞으로 2027년까지 단계별 평가를 통해 최종 2개팀이 ‘K-AI 모델’을 출시할 예정이다.5개 정예팀, AI 주권 확립 의지 다져이날 착수식에는 배경훈 과기정통부 장관을 비롯해 정보통신산업진흥원 박윤규 원장, 5개 정예팀 대표들이 참석해 도전 의지를 다졌다.배 장관은 격려사를 통해 “대한민국 AI 강국 도약을 위한 사명감을 갖고 글로벌 파급력 있는 AI 모델 개발을 목표로 정예팀이 하나가 돼 역량을 집중하길 바란다”고 밝혔다. 그는 또한 “‘모두의 AI’ 생태계 확산을 위한 더 큰 도전에 임해달라”고 당부했다.5개 정예팀 대표들도 각각의 비전을 제시했다. 김유원 네이버클라우드 대표는 “AI 주권 확립이라는 사명감으로 대한민국의 사회·문화적 맥락을 가장 잘 이해하는 AI를 만들겠다”고 말했다. 김성훈 업스테이지 대표는 “글로벌에서 인정받은 기술력과 실행력을 바탕으로 한국 AI 기술 주도권을 확보하겠다”고 강조했다.K-AI 앰블럼 수여와 단계별 평가 체계착수식에서는 ‘K-AI’ 앰블럼 수여식도 진행됐다. 정예팀 주관기관뿐 아니라 참여기관 모두 ‘K-AI’ 앰블럼을 자율적으로 활용할 수 있게 됐다. 정부는 이를 통해 중소기업·스타트업의 자긍심 고취와 생태계 확장을 지원한다는 계획을 밝혔다.올해 말에는 5개팀을 4개팀으로 압축하는 1차 단계평가가 예정돼 있다. 평가에는 국민·전문가 심사, 벤치마크 검증, 파생 AI 모델 수 평가 등이 포함되며, 12월 말에는 대국민 컨테스트도 개최된다. 정부는 단계평가의 공정성과 전문성을 위해 평가 1개월 전 세부 추진방안을 공개할 계획이다.정부는 GPU 대여에 1500억원, 데이터 확보에 620억원, 인재 영입 비용에 250억원 등 총 2000억원이 넘는 예산을 지원한다. 각 팀에는 단계별로 엔비디아 H100 1000장 또는 B200 500~2000장이 제공된다.
54 조회
0 추천
09.09 등록
(퍼플렉시티가 정리한 기사)플로리다 대학교의 연구진은 전기 대신 빛을 이용해 인공지능 작업을 수행하는 광자 컴퓨터 칩을 개발했으며, 이는 기존 전자 프로세서보다 최대 100배 더 높은 에너지 효율을 달성했습니다. 이 획기적인 발전은 머신 러닝 모델이 점점 더 많은 전력을 소모하면서 전 세계 전력망에 부담을 주고 있는 AI 컴퓨팅의 에너지 위기를 해결하는 데에 기여합니다.이 칩은 AI 시스템이 이미지, 동영상, 텍스트에서 패턴을 인식할 수 있게 하는 기본 계산인 합성곱 연산을, 실리콘 위에 직접 각인된 레이저 빛과 미세 렌즈를 활용해 수행합니다. 테스트에서 프로토타입은 손으로 쓴 숫자를 98% 정확도로 분류하는 데 성공했으며, 기존 전자 칩과 성능이 동일한 수준임에도 불구하고 에너지 소비는 현저히 감소했습니다.혁신적인 광학 구조“거의 제로 에너지로 핵심 머신러닝 연산을 수행한다는 것은 미래 AI 시스템을 위한 혁신적인 도약입니다.”라고 플로리다대학교 반도체 광전자공학 Rhines 기금 교수이자 수석 연구원인 Volker J. Sorger가 말했습니다. “이것은 앞으로 AI의 역량을 지속적으로 확대해 나가기 위해 매우 중요합니다.”이 칩은 표준 반도체 공정을 통해 제조된 두 세트의 소형 프레넬 렌즈를 통합하고 있습니다. 이 렌즈는 등대에 사용되는 것과 동일한 유형이지만 인간 머리카락보다 더 얇게 축소되었습니다. 머신러닝 데이터는 칩 위에서 레이저 빛으로 변환되어 이러한 렌즈를 통해 수학적 변환을 거친 뒤, 다시 디지털 신호로 변환됩니다.“이러한 형태의 광학 계산을 칩에 적용하고 AI 신경망에 활용한 것은 이번이 최초입니다.”라고 Sorger 교수 연구실의 연구 부교수이자 이번 연구의 공동 저자인 Hangbo Yang은 밝혔습니다. 해당 논문은 9월 8일 Advanced Photonics에 발표되었습니다.파장 다중화의 장점광자 방식은 파장 다중화(wavelength multiplexing)를 통해 추가적인 이점을 제공합니다. 이를 통해 서로 다른 색상의 레이저를 사용하여 여러 데이터 스트림을 동시에 처리할 수 있습니다. 양(Yang)은 “우리는 동시에 여러 파장, 즉 색상의 빛이 렌즈를 통과하게 할 수 있습니다.”라고 설명했습니다. “이것이 바로 광자 기술의 주요 이점입니다.”이러한 역량은 훈련 시 소규모 도시 수준의 전기를 소비하는 현대 AI 시스템의 막대한 계산 요구를 해결합니다. 데이터 센터는 이미 상당한 글로벌 에너지 소비를 차지하며, 이 중 상당 부분은 전자 서버를 냉각하는 데만 사용되고 있습니다.산업 통합 경로상업적 도입에 적합한 시점으로 보입니다. 주요 반도체 제조업체인 엔비디아를 포함해 이미 AI 시스템에 광학 요소를 도입하고 있습니다. 엔비디아는 2025년 3월, 차세대 네트워킹 스위치에 실리콘 포토닉스 및 코-패키지드 옵틱스를 사용할 예정이며, 2026년 배포를 계획하고 있다고 발표했습니다.플로리다 대학교의 연구는 플로리다 반도체 연구소, UCLA, 조지 워싱턴 대학교와 협력하여 해군 연구실의 지원을 받았습니다. 소르거는 "가까운 미래에 칩 기반 광학이 우리가 일상적으로 사용하는 모든 AI 칩의 핵심 요소가 될 것입니다"라고 예측했습니다. "그리고 광학 기반 AI 컴퓨팅이 그 다음입니다."
50 조회
0 추천
09.09 등록
(퍼플렉시티가 정리한 기사)여러 기관의 교육자들과 연구자들은 인공지능이 학생 학습에 미치는 영향에 대해 경고음을 울리고 있으며, 새로운 연구 결과에 따르면 AI 도구에 크게 의존하는 학생들 사이에서 비판적 사고 능력과 독해력 저하가 우려스럽게 나타나고 있습니다.칠레대학교와 교황청 가톨릭대학교의 전문가들은 ChatGPT와 같은 언어 모델이 교육적 기회를 제공하는 반면, 광범위한 사용이 깊이 있는 독서 훈련을 크게 감소시킬 수 있다고 경고했습니다. 그들은 이 능력을 이해, 비판적 사고, 글쓰기 능력 발전에 필수적인 것으로 간주합니다. 연구자들은 AI 도구가 교실에서 점점 더 널리 보급됨에 따라 학생들이 진정한 학습에 필요한 인지적 고투를 우회할 수 있다고 경고하고 있습니다.연구 결과 인지 저하가 나타나다MIT 미디어 랩의 최근 연구는 이러한 우려를 구체적으로 입증하고 있습니다. 18세부터 39세까지의 참가자 54명을 대상으로 한 연구에서, 연구진은 EEG 스캔을 사용해 참가자들이 SAT 스타일의 에세이를 작성할 때의 뇌 활동을 관찰했습니다. 이들은 ChatGPT, 구글 검색, 또는 디지털 도구 없이 세 가지 방법을 사용했습니다. 결과는 매우 뚜렷했습니다—ChatGPT를 사용한 참가자들은 가장 낮은 수준의 뇌 활동을 보였으며, "신경, 언어, 행동적 수준에서 일관되게 저조한 성과"를 나타냈습니다.몇 달에 걸쳐 진행된 실험에서 ChatGPT 사용자는 점점 더 기술에 의존하게 되었으며, 결국 복사-붙여넣기를 활용하는 전략으로 치달았습니다. 논문의 주저자인 나탈리야 코스미나는 아직 발달 중인 뇌에 대한 심각한 우려를 표하며, "GPT 유치원"과 같은 기획에 대해 경고했습니다.이와 유사하게, 타르투대학교 컴퓨터 과학 연구소의 연구진도 231명의 프로그래밍 학생을 대상으로 한 조사에서 우려스러운 연관성을 발견했습니다. 학생들은 주로 AI를 코드 디버깅이나 예제 이해에 활용했으나, 챗봇을 더 자주 사용하는 학생들이 오히려 학업 성취도가 낮은 것으로 드러났습니다. 마리나 렙 교수는 "AI는 학습을 지원해야지 대체해서는 안 된다"며, AI를 무분별하게 사용할 경우 중요한 역량 개발에 악영향을 미칠 수 있다고 강조했습니다.독해 점수 지속적으로 역사적 하락세이러한 결과는 읽기 능력에서 나타나는 전국적인 우려스러운 추세와 일치합니다. 2024년 국가 교육 성취도 평가(NAEP)는 4학년과 8학년 모두의 읽기 점수가 2019년 수준보다 5점 하락했음을 밝혔으며, 8학년 학생들은 지난 30년 중 가장 낮은 점수를 기록했습니다. 특히 가장 우려되는 점은 성취도가 가장 낮은 학생들에서 급격한 하락이 나타나 성취 격차가 더욱 벌어졌다는 점입니다.일부 교육자들은 이러한 하락이 AI가 읽기 습관에 미치는 영향과 직접적으로 관련이 있다고 보고 있습니다. 교사들은 AI가 생성한 요약에 지나치게 의존하는 학생들이 실제 텍스트에 대한 참여도가 낮아져 이해력과 기억력 저하로 이어진다고 보고합니다. 이러한 “깊은 읽기 능력 저하”로 인해 학생들은 콘텐츠를 대충 훑어보는 데 그치며, 복잡한 자료를 이해하는 데 필요한 분석적 사고력을 제대로 기르지 못하고 있습니다.광범위한 교육적 영향그 영향은 개별 교실을 훨씬 넘어섭니다. RAND Corporation이 2024년에 실시한 설문조사에 따르면 미국 전역의 영어 교사의 약 40%가 AI 도구를 자신의 교육에 도입했다고 합니다. 이러한 도구들은 효율성과 접근성을 제공하지만, 교육자들은 학생들이 AI가 생성한 정보를 그대로 받아들이고 독립적인 추론 능력을 기르지 못하는 것에 대해 우려하고 있습니다.다양한 저널에 발표된 연구들은 이러한 우려를 뒷받침합니다. National Science Teaching Association에서 강조한 연구에 따르면 AI 도구를 자주 사용하는 학생들은 비판적 사고 점수가 더 낮게 나타나며, 이는 분석적으로 사고하고 독립적으로 문제를 해결하는 능력이 약화될 수 있음을 시사합니다. 또 다른 조사에서는 글쓰기 과제에 AI를 완전히 의존할 경우 정확성이 25.1% 감소했고, AI 보조 읽기에서는 수행 능력이 12% 감소했습니다.교육자들이 직면한 과제는 필수적인 인지 발달을 보존하면서 AI의 이점을 어떻게 활용할지 결정하는 것입니다. 한 연구자가 지적했듯이, 교육 시스템은 "글로벌 AI 실험의 주요 실험실 중 하나"가 되었으며 학생들의 지적 발달이 그 균형에 달려 있습니다.
55 조회
0 추천
09.09 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입