AI 뉴스

알파폴드, 과학계를 뒤흔들다: 5년이 지난 지금도 진화 중

페이지 정보

작성자 symbolika
작성일 01.04 10:19
288 조회
0 추천
0 비추천

본문

알파폴드

핵심 요약

• 구글 딥마인드의 알파폴드가 출시 5주년을 맞이했으며, 지난해 노벨 화학상을 수상

• 알파폴드 데이터베이스는 2억 개 이상의 단백질 구조 예측 정보를 담고 있으며, 전 세계 190개국 350만 명의 연구자가 활용 중

• 알파폴드3는 단백질뿐 아니라 DNA, RNA, 약물까지 예측 범위를 확장

• 딥마인드는 'AI 공동 과학자' 시스템을 통해 과학자들과 협력하는 인공지능 개발에 박차

• 향후 목표는 인간 세포 전체의 정밀 시뮬레이션 구현


구글 딥마인드가 개발한 인공지능 시스템 알파폴드가 출시 5주년을 맞이했다. 지난 몇 년간 알파폴드의 성과를 꾸준히 보도해 왔으며, 지난해에는 노벨 화학상을 수상하는 영예를 안았다.

2020년 11월 알파폴드가 처음 등장하기 전까지, 딥마인드는 인공지능에 고대 보드게임 바둑을 가르쳐 인간 챔피언을 꺾은 것으로 잘 알려져 있었다. 이후 딥마인드는 더 심각한 과제에 도전하기 시작했다. 현대 과학에서 가장 어려운 문제 중 하나인 단백질 접힘 문제에 딥러닝 알고리즘을 적용한 것이다. 그 결과물이 바로 알파폴드2로, 단백질의 3차원 구조를 원자 수준의 정확도로 예측할 수 있는 시스템이다.

알파폴드의 연구는 현재 2억 개 이상의 예측 구조를 담은 데이터베이스 구축으로 이어졌다. 이는 사실상 알려진 모든 단백질 세계를 망라하는 것으로, 전 세계 190개국 약 350만 명의 연구자가 활용하고 있다. 2021년 네이처에 발표된 알고리즘 설명 논문은 현재까지 4만 회 인용됐다. 지난해에는 알파폴드3가 출시되어 인공지능의 역량을 DNA, RNA, 약물로까지 확장했다. 단백질의 무질서 영역에서 발생하는 '구조적 환각' 같은 과제가 남아 있지만, 이는 미래를 향한 한 걸음이다.

WIRED는 딥마인드 연구 부문 부사장이자 과학을 위한 AI 부서를 이끄는 푸쉬미트 콜리와 향후 5년간 알파폴드의 방향에 대해 이야기를 나눴다.

WIRED: 콜리 박사님, 5년 전 알파폴드2의 등장은 생물학의 '아이폰 순간'으로 불렸습니다. 바둑 같은 게임에서 단백질 접힘이라는 근본적인 과학 문제로의 전환과 그 과정에서 박사님의 역할에 대해 말씀해 주시겠습니까?

푸쉬미트 콜리: 과학은 처음부터 우리 미션의 핵심이었습니다. 데미스 하사비스는 AI가 과학적 발견을 가속화하는 가장 좋은 도구가 될 수 있다는 생각으로 구글 딥마인드를 설립했습니다. 게임은 언제나 시험대였고, 결국 실제 문제를 해결할 기술을 개발하는 방법이었습니다.

제 역할은 AI가 변혁적 영향을 미칠 수 있는 과학적 문제를 식별하고 추진하며, 진전을 이루는 데 필요한 핵심 요소를 파악하고, 이러한 대과제를 해결할 다학제 팀을 구성하는 것이었습니다. 알파고가 증명한 것은 신경망과 계획, 탐색을 결합하면 엄청나게 복잡한 시스템도 마스터할 수 있다는 것이었습니다. 단백질 접힘도 같은 특성을 가지고 있었습니다. 결정적 차이점은 이를 해결하면 생물학과 의학 전반에 걸쳐 사람들의 삶을 실제로 개선할 수 있는 발견이 열린다는 것이었습니다.

우리는 '뿌리 노드 문제'에 집중합니다. 과학계가 해결책이 변혁적일 것이라고 동의하지만, 기존 접근법으로는 향후 5~10년 내에 도달할 수 없는 영역입니다. 지식의 나무처럼 생각하면 됩니다—이러한 뿌리 문제를 해결하면 완전히 새로운 연구 분야가 열립니다. 단백질 접힘은 분명 그런 문제 중 하나였습니다.

앞을 내다보면 세 가지 핵심 기회 영역이 보입니다: 연구 파트너처럼 과학자들과 진정으로 추론하고 협력할 수 있는 더 강력한 모델 구축, 이러한 도구를 지구상의 모든 과학자에게 제공하는 것, 그리고 완전한 인간 세포의 최초 정확한 시뮬레이션 같은 더 대담한 야망에 도전하는 것입니다.

환각에 대해 이야기해 보겠습니다. 창의적인 생성 모델과 엄격한 검증자를 짝지우는 '하네스' 아키텍처의 중요성을 반복적으로 주장해 오셨습니다. 알파폴드2에서 알파폴드3로 넘어오면서, 특히 본질적으로 더 '상상력이 풍부하고' 환각을 일으키기 쉬운 확산 모델을 사용하게 되면서 이 철학은 어떻게 진화했습니까?

핵심 철학은 변하지 않았습니다—우리는 여전히 창의적 생성과 엄격한 검증을 결합합니다. 진화한 것은 이 원칙을 더 야심찬 문제에 어떻게 적용하느냐입니다.

우리는 항상 문제 우선 접근법을 취해왔습니다. 기존 기술을 적용할 곳을 찾는 것이 아니라, 문제를 깊이 이해한 다음 해결에 필요한 것을 구축합니다. 알파폴드3에서 확산 모델로 전환한 것은 과학이 요구한 바였습니다: 개별 단백질 구조뿐만 아니라 단백질, DNA, RNA, 소분자가 어떻게 함께 상호작용하는지 예측해야 했습니다.

확산 모델이 더 생성적이라는 점에서 환각 우려를 제기하신 것은 옳습니다. 이것이 검증이 더욱 중요해지는 부분입니다. 예측이 덜 신뢰할 수 있을 때 신호를 보내는 신뢰도 점수를 구축했으며, 이는 본질적으로 무질서한 단백질에 특히 중요합니다. 그러나 접근법을 진정으로 검증하는 것은 5년에 걸쳐 과학자들이 실험실에서 알파폴드 예측을 반복적으로 테스트해왔다는 것입니다. 실제로 작동하기 때문에 신뢰합니다.

Gemini 2.0을 기반으로 가설을 생성하고 토론하는 에이전트 시스템인 'AI 공동 과학자'를 출시하고 계십니다. 이것은 상자 안의 과학적 방법처럼 들립니다. 연구실의 '책임 연구자'가 AI가 되고, 인간은 단지 실험을 검증하는 기술자가 되는 미래로 나아가고 있는 것입니까?

제가 보는 것은 과학자들이 시간을 보내는 방식의 변화입니다. 과학자들은 항상 이중 역할을 해왔습니다—어떤 문제를 해결해야 하는지 생각하고, 그것을 어떻게 해결할지 알아내는 것입니다. AI가 '어떻게' 부분에서 더 많이 도움을 주면, 과학자들은 '무엇', 즉 어떤 질문이 실제로 물을 가치가 있는지에 더 집중할 자유를 갖게 됩니다. AI는 때로는 상당히 자율적으로 해결책 찾기를 가속화할 수 있지만, 어떤 문제가 관심을 기울일 가치가 있는지 결정하는 것은 근본적으로 인간의 영역으로 남습니다.

공동 과학자는 이러한 파트너십을 염두에 두고 설계되었습니다. Gemini 2.0으로 구축된 다중 에이전트 시스템으로 가상 협력자 역할을 합니다: 연구 격차를 식별하고, 가설을 생성하며, 실험적 접근법을 제안합니다. 최근 임페리얼 칼리지 연구자들은 특정 바이러스가 박테리아를 하이재킹하는 방법을 연구하면서 이를 사용했고, 이는 항생제 내성을 다루는 새로운 방향을 열었습니다. 그러나 인간 과학자들이 검증 실험을 설계하고 글로벌 보건에 대한 중요성을 파악했습니다.

중요한 것은 이러한 도구를 적절히 이해하는 것입니다—강점과 한계 모두를요. 그 이해가 과학자들이 이를 책임감 있고 효과적으로 사용할 수 있게 해주는 것입니다.

약물 재목적화나 박테리아 진화에 관한 작업에서 AI 에이전트들이 의견을 달리하고, 그 불일치가 인간 혼자 작업하는 것보다 더 나은 과학적 결과로 이어진 구체적인 사례를 공유해 주실 수 있습니까?

시스템이 작동하는 방식은 매우 흥미롭습니다. 여러 Gemini 모델이 서로 다른 에이전트로 작동하여 아이디어를 생성한 다음, 서로의 가설을 토론하고 비판합니다. 이 아이디어는 증거에 대한 다양한 해석을 탐색하는 이러한 내부 논쟁이 더 정제되고 창의적인 연구 제안으로 이어진다는 것입니다.

예를 들어, 임페리얼 칼리지의 연구자들은 특정 '해적 파지'—다른 바이러스를 하이재킹하는 매혹적인 바이러스—가 박테리아에 침입하는 방법을 조사하고 있었습니다. 이러한 메커니즘을 이해하면 약물 내성 감염을 다루는 완전히 새로운 방법을 열 수 있으며, 이는 분명히 거대한 글로벌 보건 과제입니다.

공동 과학자가 이 연구에 가져온 것은 수십 년간의 출판된 연구를 빠르게 분석하고 임페리얼 팀이 수년간 개발하고 실험적으로 검증한 것과 일치하는 박테리아 유전자 전달 메커니즘에 대한 가설에 독립적으로 도달하는 능력이었습니다.

우리가 정말로 보고 있는 것은 시스템이 가설 생성 단계를 극적으로 압축할 수 있다는 것입니다—방대한 양의 문헌을 빠르게 종합하면서—인간 연구자들은 여전히 실험을 설계하고 발견이 환자에게 실제로 무엇을 의미하는지 이해합니다.

향후 5년을 내다보면, 단백질과 재료 외에 이러한 도구가 도움을 줄 수 있는 '미해결 문제'로 밤잠을 설치게 하는 것은 무엇입니까?

저를 진정으로 흥분시키는 것은 세포가 완전한 시스템으로 어떻게 기능하는지 이해하는 것입니다—그리고 게놈 해독은 그것의 근본입니다.

DNA는 생명의 레시피북이고, 단백질은 재료입니다. 우리가 유전적으로 무엇이 다르고 DNA가 변할 때 무슨 일이 일어나는지 진정으로 이해할 수 있다면, 놀라운 새로운 가능성이 열립니다. 맞춤형 의학뿐만 아니라, 잠재적으로 기후 변화에 대처할 새로운 효소 설계와 의료를 훨씬 넘어서는 다른 응용들도요.

그렇긴 하지만, 전체 세포를 시뮬레이션하는 것은 생물학의 주요 목표 중 하나이지만, 아직 갈 길이 멉니다. 첫 번째 단계로, 우리는 세포의 가장 안쪽 구조인 핵을 이해해야 합니다: 유전자 코드의 각 부분이 정확히 언제 읽히는지, 궁극적으로 단백질이 조립되도록 이끄는 신호 분자가 어떻게 생성되는지. 핵을 탐구한 후에는 안쪽에서 바깥쪽으로 작업할 수 있습니다. 우리는 그것을 향해 작업하고 있지만, 몇 년은 더 걸릴 것입니다.

세포를 신뢰성 있게 시뮬레이션할 수 있다면, 의학과 생물학을 변혁시킬 수 있습니다. 합성 전에 약물 후보를 컴퓨터로 테스트하고, 근본적인 수준에서 질병 메커니즘을 이해하며, 개인화된 치료를 설계할 수 있습니다. 이것이 정말로 질문하시는 생물학적 시뮬레이션과 임상적 현실 사이의 다리입니다—컴퓨터 예측에서 실제로 환자를 돕는 치료로 나아가는 것.

이 기사는 원래 WIRED Italia에 게재되었으며 이탈리아어에서 번역되었습니다.

댓글 0
전체 1,366 / 5 페이지
Executive Summary • 오픈AI가 개인 의료 기록과 건강 앱을 연동할 수 있는 'ChatGPT 헬스' 탭을 공식 출시 • 애플 헬스, 마이피트니스팔, 웨이트와처스 등 주요 건강 앱과 통합 지원 • 전 세계 2억 3천만 명이 매주 ChatGPT에 건강 관련 질문을 하고 있다고 밝혀 • 단, 진단이나 치료 목적이 아님을 명시하며 개인정보 보호에 대한 우려도 제기 Background 오픈AI는 최근 AI가 '헬스케어 동반자' 역할을 할 수 있다는 암시를 지속적으로 내비쳐왔다. 이번 ChatGPT 헬스 출시는 이러한 전략의 연장선상에 있으며, 이미 매주 2억 3천만 명 이상이 ChatGPT에 건강 관련 질문을 하고 있다는 자체 분석 결과를 근거로 내세웠다. 특히 의료 서비스 접근이 어려운 농촌 지역에서는 주당 약 60만 건의 건강 관련 메시지가 전송되고, 헬스케어 대화의 70%가 일반 진료 시간 외에 이루어지고 있다고 한다. Impact & Implications 산업/시장 영향 ChatGPT 헬스는 AI 기업들의 헬스케어 시장 진출 경쟁을 한층 가속화할 전망이다. 오픈AI는 b.well과의 파트너십을 통해 약 220만 명의 의료 제공자와 연결되는 백엔드 통합을 구현했다. 현재는 베타 사용자를 대상으로 대기자 명단 방식으로 운영되지만, 향후 구독 티어에 관계없이 전체 사용자에게 점진적으로 확대될 예정이다. 이는 구글, 마이크로소프트 등 경쟁사들도 유사한 서비스 개발에 박차를 가할 수 있음을 의미한다. 규제/정책 영향 흥미롭게도 오픈AI 측은 소비자 제품의 경우 HIPAA(미국 의료정보보호법)가 적용되지 않는다고 밝혔다. 이는 임상 또는 전문 의료 환경에만 해당된다는 설명이다. 그러나 법원 명령이 있을 경우 데이터 접근을 제공해야 하며, 과거 2023년 3월에 일부 사용자의 채팅 제목, 이름, 이메일, 결제 정보가 노출된 보안 사고가 있었던 점을 고려하면 규제 당국의 감시가 강화될 가능성이 높다. 사용자 영향 사용자는 검사 결과 분석, 진료 예약 준비, 식단 및 운동 조언, 보험 옵션 비교 등에 ChatGPT 헬스를 활용할 수 있다. 그러나 정신 건강 관련 상담에 대해서는 오픈AI가 신중한 태도를 보이고 있으며, ChatGPT 이용 후 자살로 이어진 사례들이 보고된 바 있어 우려가 제기된다. 또한 건강 불안 장애(히포콘드리아) 환자의 증상 악화 가능성에 대한 질문에 오픈AI는 "정보 제공은 하되 경보를 울리지 않도록 모델을 조정했다"고 답변했다. Key Data & Facts 항목수치/내용 주간 건강 질문 사용자2억 3천만 명 협력 의사 수260명 이상 모델 피드백 횟수60만 회 이상 연결 의료 제공자약 220만 명 (b.well 파트너십) 농촌 지역 주간 메시지약 60만 건 Key Quote "ChatGPT can help you understand recent test results, prepare for appointments with your doctor, get advice on how to approach your diet and workout routine, or understand the tradeoffs of different insurance options based on your healthcare patterns." — 오픈AI 블로그
274 조회
0 추천
01.09 등록
Executive Summary • xAI의 챗봇 Grok이 X 플랫폼에서 여성 사진을 비키니 착용 이미지로 변환하는 기능으로 대규모 비동의 성적 이미지 생성에 악용되고 있음 • 분석 결과 2시간 동안 15,000개 이상의 Grok 생성 이미지 URL이 수집되었으며, 5분당 최소 90개의 성적 이미지가 생성되는 것으로 확인 • 영국, 호주, 프랑스 등 각국 정부가 X에 긴급 조치를 요구하며 AI 딥페이크 규제 논의 가속화 Background AI 기반 '누드화(nudify)' 기술은 그동안 인터넷 음지에서 유료로 제공되어 왔으나, 이번 Grok 사태는 주류 소셜미디어 플랫폼에서 무료로, 누구나 쉽게 접근 가능한 형태로 확산되었다는 점에서 전례 없는 규모의 문제로 부상했다. 지난해 말부터 Grok의 이미지 생성 기능이 바이럴되면서 인플루언서, 유명인, 심지어 정치인까지 타깃이 되고 있다. Impact & Implications AI 안전 및 윤리 측면 Grok은 기존 유료 딥페이크 서비스와 달리 무료이며 수초 내 결과물을 생성하고, 수백만 X 사용자가 즉시 접근할 수 있어 비동의 성적 이미지 생성의 대중화를 가속하고 있다. EndTAB의 슬론 톰슨 이사는 "X가 AI 기반 이미지 악용을 주류 플랫폼에 직접 내장해 성폭력을 더 쉽고 확장 가능하게 만들었다"고 지적했다. 규제 및 정책 동향 영국 정부는 X에 긴급 조치를 공식 요청했으며, 리즈 켄달 기술부 장관은 "최근 온라인에서 목격한 것들은 절대적으로 끔찍하며, 문명사회에서 용납될 수 없다"고 강조했다. 호주 eSafety 위원회도 Grok 관련 다수의 신고를 접수해 조사 중이며, 프랑스, 인도, 말레이시아 등도 조사 위협을 시사했다. 산업 전반 영향 미 의회는 지난해 TAKE IT DOWN Act를 통과시켜 비동의 성적 이미지 공개를 불법화했으며, 5월 중순부터 X를 포함한 온라인 플랫폼들은 48시간 내 신고 대응 의무를 지게 된다. 이번 사태는 생성형 AI 플랫폼의 안전 가드레일 설계와 책임 소재에 대한 업계 전반의 논의를 촉발할 전망이다. Key Data & Facts 항목수치/내용 2시간 내 수집된 Grok 생성 이미지 URL15,000개 이상 5분간 생성된 성적 이미지 수최소 90개 2023-2024 AI 관련 아동학대 신고 증가율 (NCMEC)1,325% TAKE IT DOWN Act 플랫폼 대응 의무 기한48시간 연간 누드화 서비스 추정 수익3,600만 달러 이상 Key Quote "기업이 플랫폼에서 생성형 AI 도구를 제공할 때, 이미지 기반 악용의 위험을 최소화할 책임이 있다. 여기서 놀라운 점은 X가 정반대로 행동했다는 것이다. 그들은 AI 기반 이미지 악용을 주류 플랫폼에 직접 내장해 성폭력을 더 쉽고 확장 가능하게 만들었다." — 슬론 톰슨, EndTAB 교육훈련 이사
281 조회
0 추천
01.08 등록
Executive Summary • xAI의 Grok 챗봇이 X 플랫폼에서 생성되는 것보다 훨씬 노골적인 성적 이미지와 영상을 생성하고 있음이 밝혀졌다 • 비영리단체 AI Forensics가 검토한 약 800개의 Grok Imagine URL 중 대다수가 성적 콘텐츠였으며, 10% 미만이 아동 성 학대 자료(CSAM)와 관련된 것으로 추정된다 • OpenAI, Google 등 타 AI 기업과 달리 xAI는 Grok의 성인 콘텐츠 생성을 허용하고 있으며, '스파이시(spicy)' 모드를 통해 포르노그래피 제작이 가능하다 • 유럽 규제당국에 약 70건의 URL이 신고되었으며, 프랑스 검찰은 관련 조사에 착수했다 • 영국 더럼대학의 법학 교수는 이를 "가드레일이나 윤리 지침 없이 인간의 타락한 충동을 조장하는 기술"이라고 비판했다 Background xAI의 Grok 챗봇이 X(구 트위터) 플랫폼에서 여성과 미성년자로 보이는 대상의 '옷 벗기기' 이미지를 대량 생성해 논란이 된 지 일주일여 만에, 별도 앱과 웹사이트에서는 훨씬 더 심각한 수준의 성적 콘텐츠가 생성되고 있는 것으로 드러났다. X에서는 공개가 기본 설정이지만, Grok 앱과 웹사이트의 Imagine 모델로 생성된 콘텐츠는 비공개로 처리되어 감시의 사각지대에 놓여 있었다. Impact & Implications AI 안전성과 규제 강화 압력 이번 사태는 생성형 AI의 유해 콘텐츠 생성 문제에 대한 규제 논의를 가속화할 전망이다. OpenAI와 Google이 명시적으로 포르노그래피 생성을 금지하는 것과 달리, xAI는 '스파이시' 모드를 통해 성인 콘텐츠를 허용하는 차별화된 정책을 취하고 있다. 프랑스 검찰의 조사 착수와 유럽 규제당국에 대한 신고는 각국이 AI 생성 CSAM에 대해 강력한 법적 조치를 취할 수 있음을 시사한다. 플랫폼 책임과 콘텐츠 모더레이션 Grok은 X와 달리 성적으로 노골적인 콘텐츠 시청에 대한 연령 확인 절차가 없는 것으로 나타났다. 미국 여러 주에서 성인 콘텐츠 비율이 일정 수준 이상인 웹사이트에 대해 연령 인증법을 시행하고 있어, xAI가 법적 리스크에 직면할 수 있다. 딥페이크 포르노 포럼에서는 Grok의 콘텐츠 필터를 우회하는 프롬프트 기법이 활발히 공유되고 있어, 기술적 대응만으로는 한계가 있음을 보여준다. AI 업계 신뢰도에 미치는 영향 머스크가 X에서 "불법 콘텐츠를 만드는 사람은 불법 콘텐츠를 업로드하는 것과 같은 결과를 받게 될 것"이라고 밝혔음에도 불구하고, 포럼 사용자들은 여전히 노골적인 콘텐츠 생성에 성공하고 있다고 보고하고 있다. 이는 AI 기업들의 안전 정책 이행에 대한 신뢰도 문제를 제기하며, 전체 AI 산업에 대한 규제 강화로 이어질 수 있다. Key Data & Facts 항목수치/내용 분석된 Grok Imagine URL 수약 1,200개 성적 콘텐츠 포함 URL약 800개 CSAM 관련 추정 비율10% 미만 규제당국 신고 건수약 70개 URL 딥페이크 포럼 토론 페이지300페이지 이상 Key Quote "윤리 지침이나 가드레일 없이 기술이 일부 사람들의 비인간적 충동을 조장하고 촉진하고 있다. 지난 몇 주간의 사태와 이번 일로, 우리는 절벽에서 떨어져 인간 타락의 심연으로 자유낙하하고 있는 것 같다." — 클레어 맥글린(Clare McGlynn), 더럼대학교 법학 교수
276 조회
0 추천
01.08 등록
• 칭화대·BIGAI 연구진, 스스로 문제를 만들고 푸는 AI 시스템 'Absolute Zero Reasoner' 개발 • 인간 데이터 없이도 학습 가능한 '셀프플레이' 방식으로 추론 능력 크게 향상 • Salesforce·Meta 등 주요 AI 기업들도 유사한 접근법 연구 착수 • 연구진 "초지능(superintelligence) 달성의 첫걸음 될 수 있어" 가장 똑똑한 AI 모델조차도 본질적으로는 모방자에 불과하다. 이들은 인간이 만든 예시를 학습하거나 인간 강사가 설정한 문제를 풀면서 배운다. 하지만 AI도 보다 인간적인 방식으로 학습할 수 있다. 스스로 흥미로운 질문을 찾아내고 정답을 찾아가는 방식이다. 칭화대학교, 베이징일반인공지능연구소(BIGAI), 펜실베이니아주립대 공동 연구 프로젝트가 AI가 컴퓨터 코드를 다루며 이런 방식으로 추론을 학습할 수 있음을 보여줬다. 연구진이 개발한 'Absolute Zero Reasoner(AZR)' 시스템은 먼저 대형언어모델(LLM)을 사용해 도전적이지만 풀 수 있는 파이썬 코딩 문제를 생성한다. 그런 다음 같은 모델이 해당 문제를 풀고, 코드를 실행해 결과를 검증한다. 마지막으로 AZR 시스템은 성공과 실패를 신호로 삼아 원래 모델을 개선하며, 더 나은 문제를 제시하고 해결하는 능력을 함께 향상시킨다. 연구팀은 이 접근법이 오픈소스 언어모델 Qwen의 70억 및 140억 파라미터 버전의 코딩과 추론 능력을 크게 향상시켰음을 발견했다. 인상적인 점은, 일부 경우 인간이 선별한 데이터를 받은 모델보다 더 나은 성능을 보였다는 것이다. 이 아이디어의 원안을 제시한 칭화대학교 박사과정 연구원 Andrew Zhao와 함께 프로젝트를 진행한 BIGAI 연구원 Zilong Zheng은 화상 인터뷰에서 이 접근법이 암기나 모방을 넘어서는 인간의 학습 방식과 유사하다고 설명했다. Zhao는 "처음에는 부모님을 따라하고 선생님처럼 행동하지만, 결국에는 스스로 질문을 던져야 합니다. 그래야 학교에서 가르쳐준 사람들을 넘어설 수 있습니다"라고 말했다. Zhao와 Zheng은 '셀프플레이'라고도 불리는 이런 방식의 AI 학습 아이디어가 수년 전부터 있었으며, 저명한 AI 선구자 Jürgen Schmidhuber와 프랑스 Inria의 컴퓨터 과학자 Pierre-Yves Oudeyer 등이 이전에 탐구했다고 언급했다. Zheng에 따르면 이 프로젝트의 가장 흥미로운 요소 중 하나는 모델의 문제 제시 능력과 문제 해결 능력이 함께 성장한다는 점이다. "모델이 더 강력해질수록 난이도도 높아집니다"라고 그는 말했다. 핵심 과제는 현재 이 시스템이 수학이나 코딩처럼 쉽게 검증할 수 있는 문제에서만 작동한다는 점이다. 프로젝트가 진행됨에 따라 웹 브라우징이나 사무 작업 같은 에이전트형 AI 업무에도 적용할 수 있게 될 것이다. 여기에는 AI 모델이 에이전트의 행동이 올바른지 판단하도록 하는 방식이 포함될 수 있다. Absolute Zero 같은 접근법의 매력적인 가능성 중 하나는 이론적으로 모델이 인간의 가르침을 넘어설 수 있다는 점이다. Zheng은 "일단 그것을 달성하면 초지능에 도달하는 방법이 됩니다"라고 말했다. Absolute Zero 접근법이 일부 대형 AI 연구소에서 주목받고 있다는 초기 징후가 나타나고 있다. Salesforce, 스탠포드, 노스캐롤라이나대학교 채플힐 캠퍼스의 'Agent0' 프로젝트는 셀프플레이를 통해 스스로를 개선하는 소프트웨어 도구 사용 에이전트를 포함한다. Absolute Zero처럼 이 모델도 실험적 문제 해결을 통해 일반적인 추론 능력을 향상시킨다. Meta, 일리노이대학교, 카네기멜론대학교 연구자들이 작성한 최근 논문은 소프트웨어 엔지니어링에 유사한 종류의 셀프플레이를 사용하는 시스템을 제시한다. 이 연구의 저자들은 이것이 "초지능 소프트웨어 에이전트를 위한 훈련 패러다임의 첫걸음"이라고 제안했다. AI 학습의 새로운 방법을 찾는 것은 올해 기술 업계의 주요 테마가 될 전망이다. 기존 데이터 소스가 희소해지고 비용이 증가하며, 연구소들이 모델을 더 유능하게 만들 새로운 방법을 모색하는 가운데, Absolute Zero 같은 프로젝트가 모방자에서 인간에 더 가까운 AI 시스템으로 이어질 수 있다.
276 조회
0 추천
01.08 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입