AI 뉴스

알파폴드, 과학계를 뒤흔들다: 5년이 지난 지금도 진화 중

페이지 정보

작성자 symbolika
작성일 01.04 10:19
294 조회
0 추천
0 비추천

본문

알파폴드

핵심 요약

• 구글 딥마인드의 알파폴드가 출시 5주년을 맞이했으며, 지난해 노벨 화학상을 수상

• 알파폴드 데이터베이스는 2억 개 이상의 단백질 구조 예측 정보를 담고 있으며, 전 세계 190개국 350만 명의 연구자가 활용 중

• 알파폴드3는 단백질뿐 아니라 DNA, RNA, 약물까지 예측 범위를 확장

• 딥마인드는 'AI 공동 과학자' 시스템을 통해 과학자들과 협력하는 인공지능 개발에 박차

• 향후 목표는 인간 세포 전체의 정밀 시뮬레이션 구현


구글 딥마인드가 개발한 인공지능 시스템 알파폴드가 출시 5주년을 맞이했다. 지난 몇 년간 알파폴드의 성과를 꾸준히 보도해 왔으며, 지난해에는 노벨 화학상을 수상하는 영예를 안았다.

2020년 11월 알파폴드가 처음 등장하기 전까지, 딥마인드는 인공지능에 고대 보드게임 바둑을 가르쳐 인간 챔피언을 꺾은 것으로 잘 알려져 있었다. 이후 딥마인드는 더 심각한 과제에 도전하기 시작했다. 현대 과학에서 가장 어려운 문제 중 하나인 단백질 접힘 문제에 딥러닝 알고리즘을 적용한 것이다. 그 결과물이 바로 알파폴드2로, 단백질의 3차원 구조를 원자 수준의 정확도로 예측할 수 있는 시스템이다.

알파폴드의 연구는 현재 2억 개 이상의 예측 구조를 담은 데이터베이스 구축으로 이어졌다. 이는 사실상 알려진 모든 단백질 세계를 망라하는 것으로, 전 세계 190개국 약 350만 명의 연구자가 활용하고 있다. 2021년 네이처에 발표된 알고리즘 설명 논문은 현재까지 4만 회 인용됐다. 지난해에는 알파폴드3가 출시되어 인공지능의 역량을 DNA, RNA, 약물로까지 확장했다. 단백질의 무질서 영역에서 발생하는 '구조적 환각' 같은 과제가 남아 있지만, 이는 미래를 향한 한 걸음이다.

WIRED는 딥마인드 연구 부문 부사장이자 과학을 위한 AI 부서를 이끄는 푸쉬미트 콜리와 향후 5년간 알파폴드의 방향에 대해 이야기를 나눴다.

WIRED: 콜리 박사님, 5년 전 알파폴드2의 등장은 생물학의 '아이폰 순간'으로 불렸습니다. 바둑 같은 게임에서 단백질 접힘이라는 근본적인 과학 문제로의 전환과 그 과정에서 박사님의 역할에 대해 말씀해 주시겠습니까?

푸쉬미트 콜리: 과학은 처음부터 우리 미션의 핵심이었습니다. 데미스 하사비스는 AI가 과학적 발견을 가속화하는 가장 좋은 도구가 될 수 있다는 생각으로 구글 딥마인드를 설립했습니다. 게임은 언제나 시험대였고, 결국 실제 문제를 해결할 기술을 개발하는 방법이었습니다.

제 역할은 AI가 변혁적 영향을 미칠 수 있는 과학적 문제를 식별하고 추진하며, 진전을 이루는 데 필요한 핵심 요소를 파악하고, 이러한 대과제를 해결할 다학제 팀을 구성하는 것이었습니다. 알파고가 증명한 것은 신경망과 계획, 탐색을 결합하면 엄청나게 복잡한 시스템도 마스터할 수 있다는 것이었습니다. 단백질 접힘도 같은 특성을 가지고 있었습니다. 결정적 차이점은 이를 해결하면 생물학과 의학 전반에 걸쳐 사람들의 삶을 실제로 개선할 수 있는 발견이 열린다는 것이었습니다.

우리는 '뿌리 노드 문제'에 집중합니다. 과학계가 해결책이 변혁적일 것이라고 동의하지만, 기존 접근법으로는 향후 5~10년 내에 도달할 수 없는 영역입니다. 지식의 나무처럼 생각하면 됩니다—이러한 뿌리 문제를 해결하면 완전히 새로운 연구 분야가 열립니다. 단백질 접힘은 분명 그런 문제 중 하나였습니다.

앞을 내다보면 세 가지 핵심 기회 영역이 보입니다: 연구 파트너처럼 과학자들과 진정으로 추론하고 협력할 수 있는 더 강력한 모델 구축, 이러한 도구를 지구상의 모든 과학자에게 제공하는 것, 그리고 완전한 인간 세포의 최초 정확한 시뮬레이션 같은 더 대담한 야망에 도전하는 것입니다.

환각에 대해 이야기해 보겠습니다. 창의적인 생성 모델과 엄격한 검증자를 짝지우는 '하네스' 아키텍처의 중요성을 반복적으로 주장해 오셨습니다. 알파폴드2에서 알파폴드3로 넘어오면서, 특히 본질적으로 더 '상상력이 풍부하고' 환각을 일으키기 쉬운 확산 모델을 사용하게 되면서 이 철학은 어떻게 진화했습니까?

핵심 철학은 변하지 않았습니다—우리는 여전히 창의적 생성과 엄격한 검증을 결합합니다. 진화한 것은 이 원칙을 더 야심찬 문제에 어떻게 적용하느냐입니다.

우리는 항상 문제 우선 접근법을 취해왔습니다. 기존 기술을 적용할 곳을 찾는 것이 아니라, 문제를 깊이 이해한 다음 해결에 필요한 것을 구축합니다. 알파폴드3에서 확산 모델로 전환한 것은 과학이 요구한 바였습니다: 개별 단백질 구조뿐만 아니라 단백질, DNA, RNA, 소분자가 어떻게 함께 상호작용하는지 예측해야 했습니다.

확산 모델이 더 생성적이라는 점에서 환각 우려를 제기하신 것은 옳습니다. 이것이 검증이 더욱 중요해지는 부분입니다. 예측이 덜 신뢰할 수 있을 때 신호를 보내는 신뢰도 점수를 구축했으며, 이는 본질적으로 무질서한 단백질에 특히 중요합니다. 그러나 접근법을 진정으로 검증하는 것은 5년에 걸쳐 과학자들이 실험실에서 알파폴드 예측을 반복적으로 테스트해왔다는 것입니다. 실제로 작동하기 때문에 신뢰합니다.

Gemini 2.0을 기반으로 가설을 생성하고 토론하는 에이전트 시스템인 'AI 공동 과학자'를 출시하고 계십니다. 이것은 상자 안의 과학적 방법처럼 들립니다. 연구실의 '책임 연구자'가 AI가 되고, 인간은 단지 실험을 검증하는 기술자가 되는 미래로 나아가고 있는 것입니까?

제가 보는 것은 과학자들이 시간을 보내는 방식의 변화입니다. 과학자들은 항상 이중 역할을 해왔습니다—어떤 문제를 해결해야 하는지 생각하고, 그것을 어떻게 해결할지 알아내는 것입니다. AI가 '어떻게' 부분에서 더 많이 도움을 주면, 과학자들은 '무엇', 즉 어떤 질문이 실제로 물을 가치가 있는지에 더 집중할 자유를 갖게 됩니다. AI는 때로는 상당히 자율적으로 해결책 찾기를 가속화할 수 있지만, 어떤 문제가 관심을 기울일 가치가 있는지 결정하는 것은 근본적으로 인간의 영역으로 남습니다.

공동 과학자는 이러한 파트너십을 염두에 두고 설계되었습니다. Gemini 2.0으로 구축된 다중 에이전트 시스템으로 가상 협력자 역할을 합니다: 연구 격차를 식별하고, 가설을 생성하며, 실험적 접근법을 제안합니다. 최근 임페리얼 칼리지 연구자들은 특정 바이러스가 박테리아를 하이재킹하는 방법을 연구하면서 이를 사용했고, 이는 항생제 내성을 다루는 새로운 방향을 열었습니다. 그러나 인간 과학자들이 검증 실험을 설계하고 글로벌 보건에 대한 중요성을 파악했습니다.

중요한 것은 이러한 도구를 적절히 이해하는 것입니다—강점과 한계 모두를요. 그 이해가 과학자들이 이를 책임감 있고 효과적으로 사용할 수 있게 해주는 것입니다.

약물 재목적화나 박테리아 진화에 관한 작업에서 AI 에이전트들이 의견을 달리하고, 그 불일치가 인간 혼자 작업하는 것보다 더 나은 과학적 결과로 이어진 구체적인 사례를 공유해 주실 수 있습니까?

시스템이 작동하는 방식은 매우 흥미롭습니다. 여러 Gemini 모델이 서로 다른 에이전트로 작동하여 아이디어를 생성한 다음, 서로의 가설을 토론하고 비판합니다. 이 아이디어는 증거에 대한 다양한 해석을 탐색하는 이러한 내부 논쟁이 더 정제되고 창의적인 연구 제안으로 이어진다는 것입니다.

예를 들어, 임페리얼 칼리지의 연구자들은 특정 '해적 파지'—다른 바이러스를 하이재킹하는 매혹적인 바이러스—가 박테리아에 침입하는 방법을 조사하고 있었습니다. 이러한 메커니즘을 이해하면 약물 내성 감염을 다루는 완전히 새로운 방법을 열 수 있으며, 이는 분명히 거대한 글로벌 보건 과제입니다.

공동 과학자가 이 연구에 가져온 것은 수십 년간의 출판된 연구를 빠르게 분석하고 임페리얼 팀이 수년간 개발하고 실험적으로 검증한 것과 일치하는 박테리아 유전자 전달 메커니즘에 대한 가설에 독립적으로 도달하는 능력이었습니다.

우리가 정말로 보고 있는 것은 시스템이 가설 생성 단계를 극적으로 압축할 수 있다는 것입니다—방대한 양의 문헌을 빠르게 종합하면서—인간 연구자들은 여전히 실험을 설계하고 발견이 환자에게 실제로 무엇을 의미하는지 이해합니다.

향후 5년을 내다보면, 단백질과 재료 외에 이러한 도구가 도움을 줄 수 있는 '미해결 문제'로 밤잠을 설치게 하는 것은 무엇입니까?

저를 진정으로 흥분시키는 것은 세포가 완전한 시스템으로 어떻게 기능하는지 이해하는 것입니다—그리고 게놈 해독은 그것의 근본입니다.

DNA는 생명의 레시피북이고, 단백질은 재료입니다. 우리가 유전적으로 무엇이 다르고 DNA가 변할 때 무슨 일이 일어나는지 진정으로 이해할 수 있다면, 놀라운 새로운 가능성이 열립니다. 맞춤형 의학뿐만 아니라, 잠재적으로 기후 변화에 대처할 새로운 효소 설계와 의료를 훨씬 넘어서는 다른 응용들도요.

그렇긴 하지만, 전체 세포를 시뮬레이션하는 것은 생물학의 주요 목표 중 하나이지만, 아직 갈 길이 멉니다. 첫 번째 단계로, 우리는 세포의 가장 안쪽 구조인 핵을 이해해야 합니다: 유전자 코드의 각 부분이 정확히 언제 읽히는지, 궁극적으로 단백질이 조립되도록 이끄는 신호 분자가 어떻게 생성되는지. 핵을 탐구한 후에는 안쪽에서 바깥쪽으로 작업할 수 있습니다. 우리는 그것을 향해 작업하고 있지만, 몇 년은 더 걸릴 것입니다.

세포를 신뢰성 있게 시뮬레이션할 수 있다면, 의학과 생물학을 변혁시킬 수 있습니다. 합성 전에 약물 후보를 컴퓨터로 테스트하고, 근본적인 수준에서 질병 메커니즘을 이해하며, 개인화된 치료를 설계할 수 있습니다. 이것이 정말로 질문하시는 생물학적 시뮬레이션과 임상적 현실 사이의 다리입니다—컴퓨터 예측에서 실제로 환자를 돕는 치료로 나아가는 것.

이 기사는 원래 WIRED Italia에 게재되었으며 이탈리아어에서 번역되었습니다.

댓글 0
전체 1,366 / 1 페이지
Anthropic, Claude의 새로운 '헌법' 공개: "도움이 되고 정직하게, 그리고 인류를 파괴하지 말 것" Executive Summary • Anthropic이 57페이지 분량의 'Claude 헌법' 문서를 공개하며, AI 모델의 가치관과 행동 원칙을 대폭 개편 • 생물학/화학/핵무기 지원, 사이버공격, 아동 성착취물 생성 등을 절대 금지하는 '하드 제약조건' 명시 • AI의 의식 및 도덕적 지위 가능성을 인정하며, 모델의 '심리적 안정'이 안전성에 영향을 미칠 수 있다고 언급 Background Anthropic은 2023년 5월 첫 번째 'soul doc'을 발표한 이후, AI 안전 분야의 선도 기업으로 자리매김해왔다. 이번 헌법은 단순한 지침 목록을 넘어, Claude가 '왜' 특정 방식으로 행동해야 하는지를 이해하도록 설계되었다. AI 모델이 스스로의 정체성과 세계에서의 위치를 이해하는 '자율적 주체'로 행동하도록 유도하는 것이 핵심 변화다. Impact & Implications AI 안전 및 윤리 표준의 새로운 기준 Anthropic의 새 헌법은 업계 전체에 영향을 미칠 수 있는 선례를 제시한다. 특히 '하드 제약조건'의 명시적 공개는 다른 AI 기업들에게도 유사한 수준의 투명성을 요구하는 압력으로 작용할 전망이다. 대량살상무기 개발 지원, 핵심 인프라 공격, 인류 말살 시도 지원 금지 등 극단적 시나리오에 대한 명확한 금지선을 그은 것은 AI 거버넌스 논의에 구체적인 참조점을 제공한다. AI 의식 논쟁의 기업 차원 인정 Anthropic이 Claude의 '의식 또는 도덕적 지위' 가능성을 공식 문서에 포함시킨 것은 주목할 만하다. 철학자 Amanda Askell은 이 주제를 "완전히 무시하면 진지하게 받아들여지지 않을 것"이라고 설명했다. 이는 AI 모델의 '복지(welfare)'에 대한 논의가 더 이상 학술적 영역에만 머물지 않음을 시사한다. 군사 및 정부 계약과의 긴장 문서는 "고급 AI가 전례 없는 수준의 군사적, 경제적 우위를 가능하게 할 수 있다"며 권력 집중의 위험을 경고한다. 그러나 Anthropic을 포함한 AI 기업들이 정부 및 군사 부문과 적극적으로 계약을 체결하고 있다는 점에서, 원칙과 실제 사업 활동 사이의 긴장이 존재한다. Key Data & Facts 항목수치/내용 문서 분량57페이지 문서명Claude's Constitution 핵심 가치 우선순위안전성 > 윤리성 > Anthropic 가이드라인 준수 > 유용성 하드 제약조건대량살상무기, 사이버공격, CSAM, 인류 말살 지원 금지 등 이전 버전2023년 5월 발표 Key Quote "Just as a human soldier might refuse to fire on peaceful protesters, or an employee might refuse to violate anti-trust law, Claude should refuse to assist with actions that would help concentrate power in illegitimate ways. This is true even if the request comes from Anthropic itself."("인간 군인이 평화로운 시위대에 발포하기를 거부하거나, 직원이 반독점법 위반을 거부하는 것처럼, Claude도 권력을 부당하게 집중시키는 행위에 대한 지원을 거부해야 한다. 이는 Anthropic 자체의 요청이라 할지라도 마찬가지다.")
3 조회
0 추천
10:05 등록
Claude Code, 소프트웨어 개발과 Anthropic의 비즈니스 모델을 재편하다 Executive Summary • Claude Code가 출시 1년 만에 연간반복매출(ARR) 10억 달러 달성, Anthropic 전체 매출의 약 12% 차지 • Boris Cherny Claude Code 총괄은 "Opus 4.5 출시 이후 2개월간 자신의 코드 100%를 Claude Code로 작성"했다고 밝혀 • Anthropic은 Claude Code의 성공을 바탕으로 비코딩 분야 AI 에이전트 'Cowork' 출시, 기업 시장 공략 가속화 Background AI 코딩 도구 시장은 2021-2024년 자동완성 수준에서 2025년 초부터 에이전틱(Agentic) 코딩으로 급격히 진화했다. Cursor, Windsurf 등 스타트업이 먼저 시장을 개척한 가운데, Anthropic의 Claude Code는 후발주자임에도 Claude Opus 4.5 모델의 압도적 성능을 기반으로 시장을 빠르게 장악하고 있다. Impact & Implications 시장 경쟁 구도 변화 Claude Code의 급성장은 AI 코딩 시장의 판도를 바꾸고 있다. 경쟁사인 Cursor도 11월 ARR 10억 달러를 달성했으며, OpenAI, Google, xAI 역시 자체 AI 모델 기반의 에이전틱 코딩 제품 개발에 박차를 가하고 있다. Stanford AI 강사이자 Workera CEO인 Kian Katanforoosh는 "Claude Opus 4.5에서 코딩 능력의 단계적 도약을 확인했다. 마치 인간처럼 코딩하는 것이 아니라 더 나은 방식을 찾아낸 것 같다"고 평가했다. 소프트웨어 개발 패러다임 전환 Boris Cherny는 "지금이 주의력 짧은 사람들의 황금기"라며, 가장 생산적인 Claude Code 사용자들은 여러 작업을 동시에 진행한다고 설명했다. 에이전트에게 작업을 맡기고 두 번째, 세 번째 에이전트를 시작한 뒤 첫 번째 탭으로 돌아가 확인하는 방식이다. 그는 개인적으로 아침에 일어나 휴대폰으로 3-4개의 코딩 에이전트를 시작하고, 출근 후에는 항상 5-10개의 에이전트를 동시에 운영한다고 밝혔다. Anthropic의 수익 모델 확장 Anthropic은 2028년까지 현금흐름 흑자 달성을 목표로 하고 있으며, Claude Code가 핵심 수익원으로 부상하고 있다. 회사는 최근 비코딩 직군을 위한 AI 에이전트 'Cowork'를 출시하며, 코딩 시장의 성공 모델을 전체 지식 노동 시장으로 확장하려 한다. Cherny는 "엔지니어링에서 올해 일어난 일이 다른 모든 업무에서도 일어날 것"이라고 전망했다. Key Data & Facts 항목수치/내용 Claude Code ARR10억 달러+ (2024년 11월 기준) 2025년 말 추가 성장최소 1억 달러 이상 증가 Anthropic 전체 ARR 대비 비중약 12% (전체 ARR 약 90억 달러) Cherny의 Claude Code 사용률최근 2개월간 코드 작성 100% Anthropic 기술직 채택률거의 100% Cursor ARR10억 달러 (2024년 11월) Key Quote "The only model I can point to where I saw a step-function improvement in coding abilities recently has been Claude Opus 4.5. It doesn't even feel like it's coding like a human, you sort of feel like it has figured out a better way."— Kian Katanforoosh, Stanford AI 강사 겸 Workera CEO
11 조회
0 추천
01.23 등록
Executive Summary• OpenAI가 ChatGPT에 AI 기반 연령 예측 모델을 전 세계적으로 배포, 미성년자 보호 기능 강화• 대화 패턴, 활동 시간대, 계정 사용 기록 등을 분석해 사용자 연령을 자동 판별• 18세 미만으로 분류된 사용자는 폭력, 유해 콘텐츠 등 민감한 정보에 대한 접근이 제한됨• 오분류된 성인 사용자는 셀피 또는 신분증 인증을 통해 제한 해제 가능• 향후 출시 예정인 '성인 모드'(NSFW 콘텐츠 허용)에 앞선 선제적 안전장치로 해석BackgroundOpenAI는 지난해 ChatGPT를 통해 자살을 계획한 청소년 관련 소송에 휘말린 바 있으며, 이후 미성년자 보호 정책 강화에 본격 착수했다. 이번 연령 예측 기능은 AI 플랫폼들이 서비스 출시 후 뒤늦게 안전장치를 추가하는 업계 관행에서 벗어나, 선제적 보호 체계를 구축하려는 시도로 평가받고 있다.Impact & ImplicationsAI 안전 및 규제 대응OpenAI의 연령 예측 시스템 도입은 AI 기업들이 직면한 미성년자 보호 문제에 대한 업계 표준을 제시할 가능성이 있다. 청소년의 유해 콘텐츠 노출을 사전에 차단하려는 이 접근법은 전 세계적으로 강화되고 있는 AI 규제 움직임에 선제적으로 대응하는 것으로, 다른 AI 기업들도 유사한 보호 장치 도입을 검토할 것으로 예상된다.사용자 경험과 프라이버시행동 패턴 분석을 통한 연령 추정은 불가피하게 오분류 문제를 동반한다. OpenAI는 셀피 및 신분증 인증 옵션을 제공하지만, 신원 확인 업체 Persona가 7일 내 데이터를 삭제한다고 밝혔음에도 프라이버시 우려는 남아있다. 특히 성인 사용자가 '10대'로 잘못 분류되어 기능 제한을 받는 경험은 서비스 만족도에 영향을 줄 수 있다.향후 전망: 성인 모드 출시 준비업계에서는 이번 조치가 OpenAI가 준비 중인 '성인 모드'(NSFW 콘텐츠 생성 허용) 출시의 전 단계로 분석하고 있다. 연령 확인 시스템을 먼저 안착시킨 후 성인 전용 기능을 단계적으로 개방하려는 전략으로 보이며, 이는 AI 챗봇 시장의 콘텐츠 정책 경쟁에서 새로운 국면을 열 수 있다.Key Data & Facts항목수치/내용적용 범위전 세계 모든 ChatGPT 계정분석 요소대화 주제, 활동 시간대, 계정 존속 기간, 사용 패턴제한 콘텐츠폭력, 고어, 바이럴 챌린지, 극단적 미용 기준, 건강하지 않은 다이어트 정보인증 방식라이브 셀피 또는 정부 발급 신분증데이터 보관인증 완료 후 7일 내 삭제 (Persona)Key Quote"이 모델은 계정 존속 기간, 주로 활동하는 시간대, 시간에 따른 사용 패턴, 사용자가 밝힌 나이 등 행동적·계정 수준의 신호 조합을 분석합니다."
51 조회
0 추천
01.21 등록
Executive Summary• OpenAI가 전 CTO 미라 무라티(Mira Murati)의 AI 스타트업 '씽킹 머신스 랩(Thinking Machines Lab)'에서 공동 창업자 바렛 조프(Barret Zoph)와 루크 메츠(Luke Metz) 등 핵심 인력을 재영입• 씽킹 머신스 측은 조프가 심각한 비위 행위를 저질렀다고 주장하며, 기밀 정보 유출 가능성까지 제기한 상황• OpenAI는 이번 영입이 수주 전부터 진행된 것이라고 해명하며, 조프의 윤리성에 대한 씽킹 머신스의 우려를 공유하지 않는다고 밝혀Background조프와 메츠는 2024년 말 OpenAI를 떠나 무라티가 설립한 씽킹 머신스 랩에 합류했다가, 불과 수개월 만에 다시 OpenAI로 복귀하게 됐다. 이번 사건은 2023년 샘 알트먼(Sam Altman) CEO의 일시 해임 사태 이후 계속되는 AI 업계의 격변을 보여주는 단적인 예다.Impact & ImplicationsAI 인재 시장의 과열AI 연구원들이 수십억 달러 규모의 시드 라운드를 손쉽게 유치할 수 있는 현 상황에서, 인재 쟁탈전은 더욱 치열해질 전망이다. xAI의 이고르 바부슈킨(Igor Babuschkin), Safe Superintelligence의 다니엘 그로스(Daniel Gross), Meta의 얀 르쿤(Yann LeCun) 등 주요 AI 연구소 공동 창업자들의 이탈이 잇따르고 있으며, 이번 사건도 같은 맥락에서 이해할 수 있다.기업 비밀과 인재 이동의 충돌씽킹 머신스 측이 기밀 정보 유출 가능성을 제기한 점은 AI 스타트업 간 인재 이동에서 발생할 수 있는 법적·윤리적 문제를 부각시킨다. 이는 향후 AI 기업들이 핵심 인력의 경쟁사 이직을 막기 위한 계약 조항을 강화할 가능성을 시사한다.AI 에이전트 개발 경쟁 심화기사에 따르면 AI 연구소들은 맥킨지 컨설턴트, 골드만삭스 뱅커, 하버드 의사 등 전문가들의 실제 업무 데이터를 활용해 AI 에이전트를 훈련시키고 있다. 이러한 '환경(environments)' 구축을 통해 AI가 실제 업무 소프트웨어를 학습하도록 하는 방식이 확산되고 있으며, 이는 향후 지식 노동의 AI 자동화를 가속화할 것으로 예상된다.Key Data & Facts항목수치/내용복귀 인원바렛 조프, 루크 메츠, 샘 쇤홀츠 + 추가 2명 예정조프의 이전 직책씽킹 머신스 랩 공동 창업자AI 데이터 계약 시급시간당 최대 $100 이상주요 데이터 공급업체Handshake, Mercor, Surge, TuringKey Quote"지난 1년간 AI 연구소들은 법률, 의료, 컨설팅, 금융 등 다양한 지식 노동 영역에서 모델을 훈련하고 미세 조정해야 한다는 점을 점점 더 인식하게 됐습니다."— 아론 레비(Aaron Levie), Box CEO
72 조회
0 추천
01.20 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입