Loading...

AI 뉴스

구글, 기록적인 벤치마크를 달성한 DS-STAR 데이터 사이언스 에이전트 출시

페이지 정보

작성자 xtalfi
작성일 2025.11.08 15:02
1,614 조회
0 추천
0 비추천

본문

f43ee9a7735c9322763d602776200742_1762581743_1577.jpg
 

(퍼플렉시티가 정리한 기사)


구글(알파벳 주식회사) 리서치는 다양한 데이터 형식에서 복잡한 데이터 과학 작업을 자동화하는 고급 AI 에이전트 DS-STAR를 공개했으며, 여러 산업 벤치마크에서 최고의 성능을 달성하고 엔터프라이즈 데이터 분석 자동화에 있어 중요한 진전을 알리고 있습니다.


업계 표준에서의 획기적인 성능

Google의 11월 6일 발표에 따르면, DS-STAR는 2025년 9월 기준 DABStep 벤치마크 리더보드에서 어려운 작업에 대해 45.2%의 정확도로 1위를 차지했습니다. 이 시스템은 DABStep, KramaBench, DA-Code의 세 가지 주요 벤치마크에서 선두 경쟁자인 AutoGen과 DA-Agent를 능가했습니다. KramaBench에서 DS-STAR는 DA-Agent의 39.8%에 비해 44.7%의 정확도를 달성했으며, DA-Code에서는 37.0% 대비 38.5%에 도달했습니다.​

성능 향상은 특히 복잡한 다중 파일 작업에서 두드러졌습니다. Gemini 2.5 Pro를 사용하여 DS-STAR는 DABStep의 높은 난이도 정확도를 12.7%에서 45.2%로 향상시켰으며, 이는 32 퍼센트 포인트를 초과하는 개선입니다. 이는 Open Data Scientist, Mphasis-I2I-Agents, Amity DA Agent를 포함한 상용 대안들에 비해 상당한 도약을 나타냅니다.​


혁신적인 다중 에이전트 구조

기존의 구조화된 SQL 데이터베이스에 의존하는 전통적인 데이터 과학 에이전트와 달리, DS-STAR는 CSV, JSON, Markdown, 그리고 비정형 텍스트 파일과 같은 다양한 파일 형식을 처리합니다. 이 시스템은 다양한 형식에서 컨텍스트를 추출하는 데이터 파일 분석기, 실행 가능한 단계를 생성하는 플래너, Python 스크립트를 생성하는 코더, 그리고 계획의 충분성을 평가하는 검증자로 구성된 멀티 에이전트 프레임워크를 채택하고 있습니다.​

반복적 세분화 과정은 DS-STAR가 복수의 데이터 소스를 필요로 하는 복잡한 분석도 처리할 수 있게 합니다. 연구에 따르면, 난이도가 높은 작업은 문제 해결에 평균 5.6회의 세분화 라운드가 필요했고, 더 간단한 작업은 3.0회의 라운드만 필요했으며, 절반 이상의 쉬운 작업은 한 번의 반복만에 완료되었습니다. 이 시스템은 디버깅 기능과 대규모 데이터셋에서 관련 파일을 선택하는 검색 모듈을 포함하고 있어, 패턴 변화나 누락 데이터 발생 시에도 견고성을 높여줍니다.​


산업 맥락 및 응용

이번 출시는 AI 기반 데이터 분석에 대한 기업 수요가 가속화되는 가운데 이루어졌습니다. Google Cloud의 AI 에이전트에 대한 광범위한 진출에는 2025년 8월에 발표된 BigQuery Notebooks용 Data Science Agent가 포함되어 있으며, 이는 탐색적 분석, 데이터 정제, 머신러닝 예측을 포함한 자율적 분석 워크플로우를 실행합니다. Gartner의 애널리스트들은 2026년까지 기업 애플리케이션의 40%가 작업별 AI 에이전트를 탑재할 것으로 예측하고 있으며, 이는 현재 5% 미만에서 증가한 수치입니다.​

DS-STAR는 문서 해석부터 통계 분석까지 전체 데이터 사이언스 워크플로우를 자동화하는 데 중점을 두고 있어, 깊은 기술적 전문 지식이 부족한 기업들의 중요한 문제점을 해결합니다. 깨끗한 관계형 데이터베이스가 아닌 실제 세계의 복잡한 데이터를 다룰 수 있는 이 시스템의 능력은 실용적인 기업 배포에 적합하며, 조직 전반에 걸쳐 고급 분석을 민주화할 가능성이 있습니다.

댓글 0
전체 1,366 / 36 페이지
앨런 AI 연구소(Ai2)는 훈련 데이터와 가중치까지 완전히 공개하는 대표적인 대형언어모델(LLM)인 '올모(OLMo) 3'의 업데이트 버전 '올모 3.1'을 공개했습니다. 새로 출시된 '올모 3.1 싱크 32B'와 '올모 3.1 인스트럭트 32B'는 강화 학습(RL)을 추가 적용하여 추론, 수학, 지시 이행 능력 등 여러 벤치마크에서 성능이 크게 향상되었습니다.특히, '싱크 32B'는 고급 추론과 연구 목적에 최적화되었으며, '인스트럭트 32B'는 대화형 AI와 툴 기반 워크플로에 맞춰 현재까지 공개된 완전 오픈 소스 32B급 지시형 모델 중 가장 강력한 성능을 자랑합니다. Ai2는 이를 새로운 모델 출시가 아닌 '체크포인트 추가' 개념으로 소개하며, 개발자들이 모델의 학습 과정을 완벽하게 통제하고 자체 데이터를 추가해 재학습할 수 있도록 지원합니다.Ai2는 올모 시리즈가 개방성과 성능을 동시에 발전시킬 수 있음을 보여주며, 학습 데이터, 코드, 결정에 대한 엔드투엔드 투명성을 유지하면서 기능을 지속적으로 개선했다고 강조했습니다. 이 새로운 '체크포인트' 모델들은 Ai2 플레이그라운드와 허깅페이스를 통해 제공되어 개발자 및 연구기관의 활용을 넓힐 예정입니다.* 앨런 인공지능 연구소(Ai2)는 마이크로소프트 공동 창립자였던 고(故) 폴 앨런이 공익을 위해 고도(하이-임팩트) AI 연구 및 엔지니어링을 수행할 목적으로 2014년에 설립한 비영리 연구소입니다. 이 연구소는 텍스트를 읽고 추론하여 지식을 입증하는 AI 시스템 개발을 목표로 시작했으며, 현재도 개방성과 투명성을 중시하며 AI 분야의 발전을 주도하고 있습니다.
812 조회
0 추천
2025.12.14 등록
오픈AI의 최신 AI 모델인 'GPT-5.2'는 초기 테스트에서 전문가와 기업용 업무 처리, 복잡한 문제 해결 능력 등 전문 작업 분야에서 역대 최고라는 평가를 받았습니다. 하이퍼라이트AI CEO 등 전문가들은 이 모델이 상당한 사고 시간을 요구하는 어려운 작업을 완벽하게 수행하며 '세계 최고의 모델'이라고 극찬했습니다.이 모델은 사고력과 문제 해결 능력이 눈에 띄게 향상되어 복잡한 코드 구조를 한 번에 생성하고, 몇 시간 동안 작업을 지속하는 등 개발자와 기업에 매우 중요한 의미를 갖습니다. 박스(Box) CEO 등은 GPT-5.2가 금융 및 생명 과학 분야의 실제 업무 지식을 테스트하는 확장 추론에서 기존 모델보다 훨씬 빠르게 작업을 수행했다고 밝혔습니다.반면, 일반 사용자들은 일상적인 글쓰기나 순수 채팅 기능에서 체감할 만한 개선점을 느끼기 어렵다는 엇갈린 평가가 나왔고, 일부는 딱딱한 어조나 속도 저하를 단점으로 지적했습니다. 코드명 '갈릭'으로 알려진 이 모델은 코딩과 B2B에 최적화된 도구로 보이며, 일반 사용자가 느낄 만한 성능 향상은 내년 1월 출시 모델을 기다려야 할 것으로 분석됩니다.
802 조회
0 추천
2025.12.14 등록
저작권 소송에서 Meta를 고소한 작가들은 목요일 연방 판사에게 회사가 Llama AI 모델을 훈련시키기 위해 BitTorrent를 통해 불법 복제된 책을 다운로드하고 파일 공유를 통해 저작권이 있는 자료를 다른 사람들에게 적극적으로 재배포했다는 새로운 혐의로 소장을 수정해 줄 것을 요청했습니다.코미디언 Sarah Silverman과 작가 Richard Kadrey 및 Christopher Golden을 포함한 원고들은 Meta가 저작권이 있는 저작물을 어떻게 입수했는지에 대해 처음에는 “알 수 없었다”고 말했지만, 회사가 최근 증거 개시 과정에서 토렌트 활동에 대한 “결정적인 증거”를 제출했으며, 여기에는 Meta가 토렌트 사이트에서 그들의 저작물이 포함된 불법 복제 파일을 “시딩”했다는 증언이 포함되어 있습니다.새로운 주장은 Vince Chhabria 판사가 6월에 AI 모델을 훈련시키기 위해 저작권이 있는 책을 사용하는 것은 공정 이용에 해당한다고 판결했지만 배포에 대한 문제는 여지를 남긴 이후, BitTorrent 시딩을 통한 Meta의 불법 복제 자료 재배포가 훈련을 넘어선 저작권 침해에 해당하는지 여부를 중심으로 합니다.
814 조회
0 추천
2025.12.14 등록
전 OpenAI CTO Mira Murati가 설립한 Thinking Machines Lab은 12월 12일 Tinker AI 파인튜닝 서비스를 정식 출시하여 대기자 명단을 제거하고, 1조 파라미터 규모의 Kimi K2 Thinking 추론 모델과 Qwen3-VL 모델을 통한 비전 기능 지원을 추가했습니다.샌프란시스코 기반 스타트업은 6월에 Nvidia, AMD, ServiceNow를 포함한 투자자들로부터 100억 달러 기업가치로 20억 달러를 유치했으며, 11월에는 Meta에서 PyTorch 공동 창시자 Soumith Chintala를 영입했습니다.Tinker는 Low-Rank Adaptation을 사용하여 기존 컴퓨팅 리소스의 일부만으로 대규모 언어 모델을 파인튜닝하며, 현재 개발자 통합을 용이하게 하기 위해 OpenAI API 호환성을 제공하고 있습니다. 회사는 500억 달러 기업가치로 50억 달러의 신규 자금 조달을 모색하고 있는 것으로 알려졌습니다.
829 조회
0 추천
2025.12.14 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입