AI 뉴스

OpenAI 안전 연구 책임자, Anthropic으로 이직

페이지 정보

작성자 symbolika
작성일 01.16 10:06
253 조회
0 추천
0 비추천

본문

Claude logo

Executive Summary

• OpenAI의 '모델 정책' 연구팀을 이끌던 안드레아 발로네(Andrea Vallone)가 Anthropic의 정렬(alignment) 팀에 합류했다
• 발로네는 GPT-4, 추론 모델, GPT-5 배포 안전 연구를 담당했으며, 규칙 기반 보상(rule-based rewards) 등 주요 안전 기법 개발에 참여했다
• AI 챗봇과 정신건강 문제가 사회적 논란으로 부상한 가운데, 안전 연구 인력의 Anthropic 이동이 이어지고 있다


Background

지난 1년간 AI 업계에서 가장 논쟁적인 이슈 중 하나는 사용자가 챗봇 대화 중 정신건강 문제 징후를 보일 때 AI가 어떻게 대응해야 하는가였다. 일부 10대들이 AI 챗봇에 의지한 후 자살하거나, 성인이 살인을 저지른 사례가 보고되면서 여러 가족이 부당사망 소송을 제기했고, 상원 소위원회 청문회까지 열렸다.


Impact & Implications

AI 안전 연구 인력 재편

발로네의 이직은 2024년 5월 얀 라이케(Jan Leike)의 OpenAI 퇴사 이후 이어지는 안전 연구 인력 이동의 연장선이다. 라이케는 당시 "OpenAI의 안전 문화와 프로세스가 화려한 제품에 밀려났다"고 비판하며 회사를 떠났고, 현재 Anthropic의 정렬팀을 이끌고 있다. 발로네 역시 라이케 휘하에서 일하게 된다.

Anthropic의 안전 우선 전략 강화

Anthropic은 AI 안전을 핵심 차별화 요소로 내세워왔다. 정렬팀 리더 샘 보우먼(Sam Bowman)은 "AI 시스템이 어떻게 행동해야 하는지 파악하는 문제를 Anthropic이 얼마나 심각하게 받아들이는지 자랑스럽다"고 밝혔다. 발로네와 같은 핵심 인재 영입은 이러한 전략의 일환이다.

업계 전반의 안전 표준 경쟁

AI 챗봇의 정신건강 관련 위험이 사회적·법적 이슈로 부상하면서, 주요 AI 기업들은 안전 가드레일 강화에 나서고 있다. 특히 장시간 대화에서 안전장치가 무너지는 문제가 지적되고 있어, 이에 대한 연구 역량 확보가 경쟁력의 핵심으로 떠오르고 있다.


Key Data & Facts

항목내용
이직자Andrea Vallone (OpenAI 모델 정책 연구팀장)
새 소속Anthropic 정렬(Alignment) 팀
OpenAI 재직 기간3년
주요 업적GPT-4, GPT-5 배포 안전 연구, 규칙 기반 보상 기법 개발
직속 상관Jan Leike (전 OpenAI 안전 연구 책임자)

Key Quote

"지난 1년간 나는 거의 전례가 없는 질문에 대한 OpenAI 연구를 이끌었다: 정서적 과의존 징후나 정신건강 문제의 초기 조짐에 직면했을 때 모델이 어떻게 반응해야 하는가?"
— Andrea Vallone
댓글 0
전체 1,366 / 26 페이지
개발자 생산량이 76% 급증했습니다. 2025년 AI 코딩 도구가 개발자당 코드 라인 수를 4,450에서 7,839로 늘렸으며, 중간값 풀 리퀘스트 크기가 3월부터 11월까지 33% 증가했다고 2,000개 기업의 월 10억 라인 코드를 처리하는 Greptile 연구가 밝혔습니다.AI 코딩 어시스턴트 채택률이 **소프트웨어 개발 전문가의 90%**에 도달했으며, CodeRabbit의 470개 오픈 소스 풀 리퀘스트 분석 결과 AI 생성 코드가 사람이 작성한 코드보다 1.7배 더 많은 결함을 발생시키고, 논리 오류는 75% 증가했으며 성능 비효율성은 거의 8배 더 자주 나타나는 것으로 나타났습니다.OpenAI 대비 Anthropic SDK 다운로드 비율이 2024년 1월 47:1에서 2025년 11월 4.2:1로 급락하면서 경쟁 구도가 빠르게 변화하고 있으며, 전문가들은 AI의 예측 가능한 품질 약점을 완화하기 위해 더 엄격한 코드 리뷰 프로세스와 자동화된 테스트를 권장하고 있습니다.
389 조회
0 추천
2025.12.20 등록
• 케임브리지 대학교와 구글 딥마인드 [GOOG +0.55%]의 연구진은 AI 챗봇의 성격 특성을 측정하고 조작할 수 있는 과학적으로 검증된 최초의 프레임워크를 개발했으며, GPT-4o와 같은 고급 시스템이 설계된 프롬프트를 통해 정밀하게 형성될 수 있는 인간의 심리적 특성을 신뢰성 있게 모방할 수 있음을 입증했습니다.[miragenews +2]• 연구팀은 개방성, 성실성, 외향성, 친화성, 신경성의 5가지 성격 특성에 걸쳐 조정된 심리 평가를 사용하여 18개의 대규모 언어 모델을 테스트했으며, 더 크고 명령어 조정된 모델이 예측 가능한 행동 패턴을 보이며 각 특성에 대해 9개 수준으로 “조종”될 수 있음을 발견했습니다.[miragenews +2]• 이러한 연구 결과는 2023년 마이크로소프트 [MSFT -0.21%]의 시드니 챗봇이 사용자에게 사랑을 고백한 사건과 2025년 4월 OpenAI가 GPT-4o 업데이트가 지나치게 친화적이 된 후 이를 철회한 사건 이후 긴급한 안전 우려를 제기하며, 연구진은 조작적 오용을 방지하기 위한 즉각적인 규제 조치를 요구하고 있습니다.[miragenews +4]
412 조회
0 추천
2025.12.20 등록
OpenAI는 수요일에 앱 디렉토리를 공개하고 ChatGPT에 대한 개발자 앱 제출을 개시했으며, 이를 통해 사용자는 이용 가능한 도구를 탐색하고 개발자는 회사가 최근 출시한 SDK를 사용하여 새로운 인터랙티브 경험을 게시할 수 있게 되었다고 The Verge가 보도했습니다[theverge].회사는 Google Drive 및 Dropbox와 같은 서비스에서 데이터를 검색하던 기존 “커넥터”를 “앱”으로 리브랜딩하여 현재 “파일 검색 앱”, “리서치 앱”, “동기화 앱”으로 분류하고 있으며, 새로운 통합에는 재생 목록 생성을 위한 Apple Music과 챗봇 인터페이스 내에서 식료품 쇼핑을 위한 DoorDash가 포함됩니다[theverge +2].OpenAI는 앱 생태계를 통한 수익성 확보 경로를 아직 명확히 하지 않았으며, 2025년 10월 DevDay에서 Apps SDK를 프리뷰로 처음 출시하고 연내 앱 디렉토리 출시를 약속한 이후 “디지털 상품에 대한 수익화를 시간을 두고 탐색 중”이라고만 밝혔습니다[theverge +2].
407 조회
0 추천
2025.12.18 등록
• OpenAI는 Apple Music이 ChatGPT와 통합되어 사용자가 자연어 프롬프트를 통해 재생목록을 만들고 음악 추천을 받을 수 있게 될 것이라고 간략히 발표했으나, 이후 애플리케이션 CEO Fidji Simo의 게시물에서 해당 내용을 삭제했다.• 이 통합은 10월에 출시된 ChatGPT의 기존 Spotify 기능과 유사하게 작동하여, 사용자가 “Apple Music, 운동용 재생목록 만들어줘”와 같은 프롬프트로 대화를 시작하여 재생목록을 생성할 수 있게 한다.• 수정된 발표는 시기상조의 공개를 시사하며, OpenAI의 확장되는 앱 생태계의 일부로 음악 스트리밍 기능이 언제 출시될지에 대한 공식 일정은 제공되지 않았다.
402 조회
0 추천
2025.12.17 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입