Loading...

AI 뉴스

OpenAI, 맞춤형 정책 지원을 갖춘 안전 모델 출시

페이지 정보

작성자 xtalfi
작성일 2025.10.30 14:05
2,171 조회
0 추천
0 비추천

본문

67d5401f4201fea22259360979170f81_1761800726_939.jpg
 

(퍼플렉시티가 정리한 기사)


OpenAI는 오늘 gpt-oss-safeguard를 공개했습니다. 이는 개발자들이 콘텐츠 안전성 분류를 처리하는 방식을 혁신하기 위해 설계된 한 쌍의 오픈 웨이트 추론 모델로, 훈련 중에 모델에 내장하는 대신 런타임에 사용자 정의 정책을 정의할 수 있도록 합니다.​

파라미터 수에 따라 명명된 두 모델—gpt-oss-safeguard-120b와 gpt-oss-safeguard-20b—은 정책이 변경될 때 광범위한 재훈련이 필요한 기존 안전성 분류기와는 크게 다릅니다. 대신, 이 모델들은 개발자가 작성한 안전 정책을 요청 시 해석하고 투명한 사고 과정 추론을 제공하여 결정을 설명합니다.​


동적 정책 구현이 산업 현안을 해결합니다

이번 출시는 콘텐츠 모더레이션의 중요한 마찰 지점을 해결합니다: 새로운 위험이 등장할 때 안전 시스템을 업데이트하는 데 필요한 시간과 비용입니다. 기존 분류기는 정책이 변경될 때 재훈련에 몇 주가 걸릴 수 있지만, gpt-oss-safeguard는 개발자가 몇 시간 내에 규칙을 업데이트하고 변경 사항을 배포할 수 있게 합니다.​

업계 분석에 따르면 "새로운 위험이 등장할 때—예를 들어 게임 포럼에서 익스플로잇 공유를 단속해야 하거나 리뷰 사이트에서 가짜 후기의 물결을 발견할 때—기존 분류기는 완전한 재훈련이 필요합니다". 새로운 모델은 추론 시점에 정책을 읽음으로써 이러한 병목 현상을 제거합니다.​

OpenAI는 주요 기술 기업들이 공유 안전 인프라를 구축하기 위해 설립한 2,700만 달러 규모의 비영리 단체인 ROOST(Robust Open Online Safety Tools), Discord, SafetyKit과의 파트너십을 통해 이 모델을 개발했습니다. 이 협력은 소규모 플랫폼이 관련 개발 비용 없이 기업급 안전 도구에 접근해야 한다는 업계의 인식이 높아지고 있음을 반영합니다.​


성능 및 실용적 활용

내부 평가에서 gpt-oss-safeguard-120b는 훨씬 더 작은 크기임에도 불구하고, 다중 정책 벤치마크에서 GPT-5를 능가하여 각각 46.3% 대 43.2%의 정확도를 기록했습니다. 하지만 OpenAI는 수만 개의 라벨이 지정된 예시로 훈련된 기존 분류기가 이러한 추론 모델보다 복잡한 분류 작업에서 여전히 더 우수하다는 점을 인정합니다.​

이 모델들은 정책 유연성이 속도보다 더 중요한 환경, 예를 들어 신흥 위험, 미묘한 영역, 설명 가능성이 중요한 상황에서 뛰어난 성과를 보입니다. 잠재적 활용 사례로는 가짜 리뷰를 표시하는 제품 리뷰 사이트, 치팅 논의를 식별하는 게임 포럼, 새로운 규제 요건에 신속히 적응하는 플랫폼 등이 있습니다.​

OpenAI는 이와 유사한 추론 기술을 내부적으로도 사용하며, 최근 출시에서 전체 컴퓨팅 자원의 최대 16%를 안전 추론에 할당하고 있습니다. 회사의 Safety Reasoner 도구는 gpt-oss-safeguard에 영감을 주었으며, 실제 운영 환경에서 동적 정책 업데이트와 이미지 생성 및 Sora 2 같은 시스템의 실시간 평가를 가능하게 합니다.​

이 모델들은 Hugging Face에서 Apache 2.0 라이선스 하에 제공되며 ROOST에서는 우수 사례를 공유하기 위한 새로운 모델 커뮤니티를 구축하고 있습니다. OpenAI는 ROOST 및 Hugging Face와 함께 12월 8일 샌프란시스코에서 해커톤을 계획하며, 오픈 소스 안전 생태계에 대한 지속적인 투자를 시사하고 있습니다.

댓글 0
전체 1,366 / 35 페이지
• OpenAI는 Apple Music이 ChatGPT와 통합되어 사용자가 자연어 프롬프트를 통해 재생목록을 만들고 음악 추천을 받을 수 있게 될 것이라고 간략히 발표했으나, 이후 애플리케이션 CEO Fidji Simo의 게시물에서 해당 내용을 삭제했다.• 이 통합은 10월에 출시된 ChatGPT의 기존 Spotify 기능과 유사하게 작동하여, 사용자가 “Apple Music, 운동용 재생목록 만들어줘”와 같은 프롬프트로 대화를 시작하여 재생목록을 생성할 수 있게 한다.• 수정된 발표는 시기상조의 공개를 시사하며, OpenAI의 확장되는 앱 생태계의 일부로 음악 스트리밍 기능이 언제 출시될지에 대한 공식 일정은 제공되지 않았다.
996 조회
0 추천
2025.12.17 등록
• Google의 Gemini [GOOG -0.51%] AI 어시스턴트는 이번 주에 새로운 자동 화면 컨텍스트 기능의 출시를 시작했으며, 이 기능은 사용자가 관련 질문을 할 때 화면의 콘텐츠를 자동으로 캡처하고 분석하여 “화면에 대해 물어보기” 버튼을 수동으로 탭할 필요를 없애줍니다• 이 기능은 언어 단서를 사용하여 “이 오류는 무엇을 의미하나요?” 또는 “이 글을 요약해 주세요”와 같은 화면 관련 프롬프트를 감지하며, 앱, 이미지 및 동영상 전반에서 작동합니다. 다만 초기 테스트 결과 이러한 쿼리를 약 50%의 정확도로 식별하는 것으로 나타났습니다.• 사용자는 Gemini 설정을 통해 자동 스크린샷 기능을 비활성화할 수 있으며, Android의 FLAG_SECURE 보호 기능은 뱅킹 앱, 스트리밍 서비스 및 비공개 브라우징 모드가 캡처에서 제외되도록 보장합니다.
986 조회
0 추천
2025.12.17 등록
• Google [GOOG -0.51%]은 12월 16일 Opal 워크플로우 빌더를 Gemini 웹 앱에 통합하여, 사용자들이 Super Gems라는 새로운 기능을 통해 코딩 없이 AI 기반 미니 애플리케이션을 만들 수 있도록 했습니다.• 이 통합은 Opal을 Gemini의 Gems Manager에 통합하며, 자연어 설명을 자동 생성된 단계와 인터페이스 요소가 포함된 시각적 워크플로우로 변환하는 Workflow Builder를 제공하고, 이는 공유 가능한 링크를 통해 게시될 수 있습니다.• 현재 출시는 미국 사용자로 제한되어 있으며, 이는 Google이 Gemini를 맞춤형 AI 도구 구축을 위한 중앙 플랫폼으로 포지셔닝하면서 다른 Labs 통합과 동일한 단계적 접근 방식을 따르고 있습니다.
1032 조회
0 추천
2025.12.17 등록
• Jeff Li는 Super Data Science 팟캐스트에서 Netflix, Spotify, DoorDash에서 데이터 과학자로 근무한 경험을 바탕으로, 워크플로우에 대한 사전 인간 숙달 없이는 AI 자동화가 실패한다고 주장합니다 (https://www.youtube.com/watch?v=T7zG5-9-zIw).• Li가 AI 이미지 생성을 사용하여 광고 제작을 자동화하려던 시도는 크리에이티브 디자인에 대한 전문 지식이 부족하여 실패했으며, 그의 기술적 역량과 광고 업계 배경에도 불구하고 고객들은 제작된 광고를 “형편없다”고 평가했습니다[big-agile +1].• 여러 산업 분야의 연구는 AI 시스템이 새로운 실패와 예외 상황을 처리하기 위해 인간의 판단과 도메인 전문 지식을 필요로 한다는 것을 확인하며, 운영자가 효과적으로 개입할 수 있는 조직적 지식이 부족할 때 자동화가 불충분하다는 것을 입증합니다[big-agile +1].
972 조회
0 추천
2025.12.17 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입