AI 뉴스

딥마인드 CEO, '배우는 법을 배우는 것'이 AI 미래의 핵심

페이지 정보

작성자 xtalfi
작성일 2025.09.13 14:08
881 조회
0 추천
0 비추천

본문

85d7d8be56400f6950e60016ad3208c4mTdv.png

(퍼플렉시티가 정리한 기사)

Google DeepMind의 CEO 데미스 하사비스는 금요일 아테네의 고대 로마 극장에서 연설을 하며 인류의 미래에 대해 엄중한 메시지를 전했습니다: “학습하는 방법을 배우는 것”이 앞으로 AI로 변화하는 세상을 살아가는 데 가장 중요한 기술이 될 것이라는 것입니다.


노벨상 수상자이자 신경과학자인 하사비스는 아크로폴리스 아래에서 연설하며 범용 인공지능이 10년 이내에 도래할 수 있고, 이는 교육과 경력을 근본적으로 바꿔놓을 것이라고 경고했습니다. “미래를 예측하는 것은, 예를 들어 10년 후를 예측하는 것은 보통의 경우에도 매우 어렵습니다. AI가 주마다 변화하는 오늘날에는 그 예측이 더 어렵죠,“라고 하사비스는 청중에게 말했습니다. “확실하게 말할 수 있는 유일한 사실은, 엄청난 변화가 다가오고 있다는 것입니다.”


불확실한 시대를 위한 메타스킬


하사비스는 수학, 과학, 인문학과 같은 전통적인 과목과 함께 “메타 스킬”의 개발을 강조했습니다. 여기에는 효과적으로 배우는 방법을 이해하고 새로운 과목에 접근하는 방식을 최적화하는 것이 포함됩니다. 그는 아테네 행사에서 “한 가지 확실한 것은 여러분이 경력 내내 계속해서 배워야 한다는 점입니다”라고 말했습니다.


AI 시스템을 개발해 단백질 접힘을 예측하는 성과로 2024년 노벨 화학상을 공동 수상한 48세의 전직 체스 신동 하사비스는 꾸준히 적응형 학습 전략의 중요성을 주장해왔습니다. 올해 초 그는 10대들에게 AI 도구를 능숙하게 다루는 “닌자”가 되면서도 코딩과 STEM 분야의 기본기를 유지하라고 조언했습니다.


정부의 인공지능 도입과 불평등 우려


그리스 총리 키리아코스 미초타키스는 정부 서비스에서 AI 활용 확대에 관한 논의 이후 아테네 행사에서 하사비스와 함께했다. 그러나 미초타키스 총리는 기술 기업들 사이에서 부의 집중에 대한 우려를 표했다. “사람들이 실제로 이 AI 혁명에서 개인적인 이익을 보지 못한다면, 점점 더 회의적으로 변할 수밖에 없습니다,“라고 총리는 말했다. “그리고 극소수의 기업에서 엄청난 부가 창출되는 것을 본다면, 이는 심각한 사회적 불안의 원인이 될 것입니다.”
이러한 경고는 그리스가 주요 AI 기업들과 거래를 체결하는 가운데 나왔다. 여기에는 최근 OpenAI와의 협약을 통해 ChatGPT Edu를 전국 중등 교육 과정에 도입하기로 한 것도 포함된다.


단백질 접힘에서 교육 혁명까지


하사비스는 2010년 런던에서 딥마인드를 공동 설립했으며, 구글이 4년 후에 이를 인수하였습니다. 그의 팀이 이뤄낸 알파폴드의 획기적인 성과는 단백질 구조를 정확히 예측함으로써 50년 된 생물학의 난제를 해결했고, 이 업적은 그와 동료 존 점퍼에게 2024년 노벨 화학상을 안겨주었습니다.


현재 하사비스는 구글의 LearnLM과 같은 이니셔티브를 통해 교육 분야에 유사한 AI 원칙을 적용하고 있으며, 이 기술은 맞춤형 학습 경험을 제공하고 지식의 빈틈을 찾아낼 수 있습니다. 그는 AI 튜터가 전 세계 소외 지역에 양질의 교육을 제공할 수 있을 것으로 기대하고 있습니다.

댓글 0
전체 642 / 107 페이지
손목밴드에서 조정을 하는 것 같고 전작과 많이 달라졌습니다.AI 기능으로 번역도 가능하네요..https://www.meta.com/kr/ai-glasses/meta-ray-ban-display/
754 조회
0 추천
2025.09.18 등록
조금 전 메타가 AI 기능이 있는 안경을 비롯하여 중요한 키노트를 진행하였습니다.CNET이 준비한 키노트 요약입니다.RAYBAN 과 새로 제작한 안경이 큰 화제입니다.
811 조회
0 추천
2025.09.18 등록
마이크로소프트가 코파일럿 메모장과 그림판 연동기능을 제공하기 시작했으며이 기능은 오피스365를 사용하지 않아도 코파일럿을 이욯하면 이용할 수 있다.예를 들어 메모장은 다음과 같은 기능을 갖게 된다.-요약: 긴 텍스트를 간략하게 요점만 추려내고, 문서의 핵심을 빠르게 파악할 수 있습니다.- 쓰기: 프롬프트나 선택한 텍스트를 활용해 새로운 문장을 AI로 쉽고 빠르게 작성합니다.- 다시 쓰기: 선택한 내용을 AI가 어투, 길이, 명확성 등 다양한 스타일로 변환해 줍니다.또한 그림판은 다음과 같은 기능을 추가하게 된다.- 프로젝트 파일 저장 기능: 그림판에서 작업을 .paint 파일로 저장해 언제든 이어서 편집이 가능.- 불투명도(Opacity) 슬라이더: 연필 및 브러시 도구의 투명도를 원하는 대로 조절해 더 섬세한 혼합이나 레이어링 효과 주기.- 크기 및 불투명도 슬라이더 병행 사용: 두 슬라이더를 활용해 부드럽게 배합하고 다양한 질감의 그림 그리기.
794 조회
0 추천
2025.09.18 등록
(퍼플렉시티가 정리한 기사)중국 AI 스타트업 DeepSeek은 획기적인 R1 모델 훈련 방식에 관한 새로운 세부 정보를 세계적인 권위지 네이처(Nature)의 동료검토 논문을 통해 발표했습니다. 이 논문에서는 기존 경쟁 모델 대비 극히 적은 비용으로 순수 강화학습만을 사용해 첨단 추론 능력을 달성한 방법을 공개했습니다.항저우에 본사를 둔 이 회사는 자사의 R1 추론 모델 훈련 비용이 단 29만 4천 달러에 불과하며, 기반 베이스 모델의 개발 비용은 약 600만 달러였음을 처음으로 공개했습니다. 총 630만 달러가 소요된 것으로, 이는 미국의 기술 기업들이 개발한 경쟁 모델이 수천만 달러에 달하는 것과는 극명한 대조를 이룹니다.순수 강화학습의 획기적인 발전DeepSeek의 주요 혁신은 연구자들이 “순수 강화 학습(pure reinforcement learning)“이라고 부르는 방식을 사용해 R1을 개발한 점에 있으며, 이는 인간이 만든 예시에 의존하는 기존의 감독 학습(supervised learning) 방식과는 다른 접근법입니다. 이 과정에서 모델은 인간이 선택한 추론 방식에 따르도록 학습시키는 대신, 올바른 답변에 도달할 때 보상을 받도록 설계되었습니다.네이처(Nature) 논문에 따르면, DeepSeek의 접근법은 모델이 인간이 제시한 전략을 따르지 않고도 자체적인 추론 전략을 개발하고 자신의 작업을 검증할 수 있는 능력을 갖추게 해주었습니다. 회사는 자체 시도에 대해 별도의 알고리즘을 사용하지 않고 추정치를 활용해 점수를 매길 수 있게 해주는 Group Relative Policy Optimization(GRPO)이라는 기법을 활용했습니다.“이 모델은 AI 연구자들 사이에서 매우 영향력이 컸습니다,“라고 오하이오 주립대(Ohio State University) 콜럼버스 소재 AI 연구원인 Huan Sun은 말했습니다. “2025년 현재까지 LLM에서 강화 학습을 수행하는 거의 모든 연구가 어떻게든 R1로부터 영감을 받았을지도 모릅니다”.5단계 훈련 과정완전한 R1 학습 과정은 감독 학습(fine-tuning)과 강화 학습을 번갈아가며 진행하는 여러 단계로 구성되었습니다. 이 과정은 딥시크(DeepSeek)의 V3-Base 모델을 수천 개의 ‘콜드 스타트’ 데이터 포인트로 파인튜닝하는 것으로 시작했고, 이후 순수 강화 학습을 통해 추론 능력을 향상시켰습니다.수렴에 가까워지면 시스템은 리젝션 샘플링(rejection sampling) 방식을 사용했습니다. 여기서 모델은 강화 학습 실행에서 성공적인 예시 중 최상의 예시를 선택해 자체 합성 훈련 데이터를 생성했습니다. 이 합성 데이터는 이후 글쓰기나 사실 기반 질문응답 등 다양한 영역에서 DeepSeek-V3-Base의 감독 학습 데이터와 통합되었습니다.동료 평가 중인 최초의 주요 LLMR1은 엄격한 동료 평가 과정을 거친 최초의 대형 언어 모델을 의미합니다. Nature 논문을 심사한 허깅페이스의 머신러닝 엔지니어 루이스 턴스톨은 이를 “매우 환영할 만한 선례”라고 평가하며, 훈련 과정이 공개되지 않으면 AI 시스템이 위험을 초래하는지 평가하기 어렵다고 언급했습니다.이 동료 평가 과정에서 DeepSeek는 훈련에 사용된 데이터 유형과 안전 조치를 포함한 기술적 세부 사항에 대한 설명을 추가하게 되었습니다. 이 모델은 오픈소스 특성을 유지하면서도 OpenAI의 o1 모델에 필적하는 추론 벤치마크 성능을 달성하였습니다.성능 및 접근성Hugging Face에서 1월에 출시된 이후, R1은 복잡한 문제 해결을 위한 플랫폼에서 가장 많이 다운로드된 모델이 되었으며, 다운로드 수는 1,090만 회를 넘어섰습니다. 이 모델은 AIME 2024 수학 벤치마크에서 pass@1 점수 79.8%를 기록하여 OpenAI o1의 79.2%를 소폭 앞섰습니다.DeepSeek의 혁신은 AI 개발 비용 및 성능 향상을 위해 모델 크기와 연산 능력을 늘려야 한다는 확장 법칙에 대한 기존의 통념에 도전장을 내밀었습니다. 회사는 비교적 덜 강력한 H800 칩을 사용해 성공을 거두었으며, 이 칩은 2023년 미국의 수출 통제로 중국 내 판매가 금지된 바 있습니다. 이러한 성과는 향후 AI 개발 방향에 대한 논의를 촉진하고 있습니다.
771 조회
0 추천
2025.09.18 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입