Loading...

AI 뉴스

OpenAI, 맞춤형 정책 지원을 갖춘 안전 모델 출시

페이지 정보

작성자 xtalfi
작성일 2025.10.30 14:05
1,818 조회
0 추천
0 비추천

본문

67d5401f4201fea22259360979170f81_1761800726_939.jpg
 

(퍼플렉시티가 정리한 기사)


OpenAI는 오늘 gpt-oss-safeguard를 공개했습니다. 이는 개발자들이 콘텐츠 안전성 분류를 처리하는 방식을 혁신하기 위해 설계된 한 쌍의 오픈 웨이트 추론 모델로, 훈련 중에 모델에 내장하는 대신 런타임에 사용자 정의 정책을 정의할 수 있도록 합니다.​

파라미터 수에 따라 명명된 두 모델—gpt-oss-safeguard-120b와 gpt-oss-safeguard-20b—은 정책이 변경될 때 광범위한 재훈련이 필요한 기존 안전성 분류기와는 크게 다릅니다. 대신, 이 모델들은 개발자가 작성한 안전 정책을 요청 시 해석하고 투명한 사고 과정 추론을 제공하여 결정을 설명합니다.​


동적 정책 구현이 산업 현안을 해결합니다

이번 출시는 콘텐츠 모더레이션의 중요한 마찰 지점을 해결합니다: 새로운 위험이 등장할 때 안전 시스템을 업데이트하는 데 필요한 시간과 비용입니다. 기존 분류기는 정책이 변경될 때 재훈련에 몇 주가 걸릴 수 있지만, gpt-oss-safeguard는 개발자가 몇 시간 내에 규칙을 업데이트하고 변경 사항을 배포할 수 있게 합니다.​

업계 분석에 따르면 "새로운 위험이 등장할 때—예를 들어 게임 포럼에서 익스플로잇 공유를 단속해야 하거나 리뷰 사이트에서 가짜 후기의 물결을 발견할 때—기존 분류기는 완전한 재훈련이 필요합니다". 새로운 모델은 추론 시점에 정책을 읽음으로써 이러한 병목 현상을 제거합니다.​

OpenAI는 주요 기술 기업들이 공유 안전 인프라를 구축하기 위해 설립한 2,700만 달러 규모의 비영리 단체인 ROOST(Robust Open Online Safety Tools), Discord, SafetyKit과의 파트너십을 통해 이 모델을 개발했습니다. 이 협력은 소규모 플랫폼이 관련 개발 비용 없이 기업급 안전 도구에 접근해야 한다는 업계의 인식이 높아지고 있음을 반영합니다.​


성능 및 실용적 활용

내부 평가에서 gpt-oss-safeguard-120b는 훨씬 더 작은 크기임에도 불구하고, 다중 정책 벤치마크에서 GPT-5를 능가하여 각각 46.3% 대 43.2%의 정확도를 기록했습니다. 하지만 OpenAI는 수만 개의 라벨이 지정된 예시로 훈련된 기존 분류기가 이러한 추론 모델보다 복잡한 분류 작업에서 여전히 더 우수하다는 점을 인정합니다.​

이 모델들은 정책 유연성이 속도보다 더 중요한 환경, 예를 들어 신흥 위험, 미묘한 영역, 설명 가능성이 중요한 상황에서 뛰어난 성과를 보입니다. 잠재적 활용 사례로는 가짜 리뷰를 표시하는 제품 리뷰 사이트, 치팅 논의를 식별하는 게임 포럼, 새로운 규제 요건에 신속히 적응하는 플랫폼 등이 있습니다.​

OpenAI는 이와 유사한 추론 기술을 내부적으로도 사용하며, 최근 출시에서 전체 컴퓨팅 자원의 최대 16%를 안전 추론에 할당하고 있습니다. 회사의 Safety Reasoner 도구는 gpt-oss-safeguard에 영감을 주었으며, 실제 운영 환경에서 동적 정책 업데이트와 이미지 생성 및 Sora 2 같은 시스템의 실시간 평가를 가능하게 합니다.​

이 모델들은 Hugging Face에서 Apache 2.0 라이선스 하에 제공되며 ROOST에서는 우수 사례를 공유하기 위한 새로운 모델 커뮤니티를 구축하고 있습니다. OpenAI는 ROOST 및 Hugging Face와 함께 12월 8일 샌프란시스코에서 해커톤을 계획하며, 오픈 소스 안전 생태계에 대한 지속적인 투자를 시사하고 있습니다.

댓글 0
전체 1,366 / 88 페이지
1950~60년대 미니컴퓨터 붐은 혁신적 반도체 기술의 발전과 소형화 바람을 타고 수많은 신생 기업과 투자 자본이 단일 산업으로 몰렸던 시기였다. 기업들은 앞다투어 성장했지만, 대부분은 처절한 실패로 끝났고 수십억 달러의 손실이 발생하면서 시장이 한 차례 정리되었다. 이 과정에서 궁극적으로 몇몇 상장기업이 20년 가까운 세월 동안 살아남아 산업을 대표하게 되었다.오늘날 AI 붐 역시 유사하게 폭발적 자본 유입과 스타트업 창업이 반복되고 있다. 하지만 과거와 달리 주요 AI 기업들은 IPO(상장) 대신 비상장 상태에서 거대 자본을 유치하며 급격한 가치 상승을 경험 중이다. 그 결과 일반 투자자들은 직접 투자할 기회가 적고, 기업가치 역시 6~9개월마다 두 배 가까이 오르는 등 민간 시장 중심의 과열 양상을 보인다.Commoncog는 단기 버블 여부를 논하기보다는, 기술 산업에서 반복되는 진입-도태 메커니즘과 시간이 걸리더라도 결국 산업 구조가 단단해지는 과정을 주목해야 한다고 강조한다. 미니컴퓨터 붐처럼, AI 붐도 필연적으로 실패와 도태, 점진적 구조 변화를 거치며 장기적으로는 견고한 성장 기반을 남길 것이라는 점이 반복적으로 제시된다.
1163 조회
0 추천
2025.11.20 등록
MIT는 신경 활동이 주관적 의식 경험을 만들어내는 이유를 과학적으로 탐구하기 위해 MIT 의식 클럽을 출범시켰으며, 철학자 Matthias Michel과 신경과학자 Earl Miller를 한자리에 모아 철학과 인지신경과학을 연결하고 있다.이 이니셔티브는 뇌가 의식적 시각 시스템과 무의식적 시각 시스템이라는 두 가지 시각 시스템으로 작동한다는 발견을 바탕으로, 자극 제시와 의식적 인식 사이의 시간 지연을 측정하는 것과 같은 근본적인 질문들을 탐구한다의식 메커니즘에 대한 이해는 고령 환자의 수술 치료를 개선할 수 있으며, 이들 중 최대 10%가 전신 마취를 동반한 비심장 수술 후 장기적인 인지 기능 저하를 경험한다.
1149 조회
0 추천
2025.11.20 등록
악성코드가 포함된 이메일은 2025년에 전년 대비 131% 급증했으며, 이메일 사기는 35%, 피싱 공격은 21% 증가했다고 Hornetsecurity의 연례 보고서가 밝혔습니다. 이 보고서는 2024년 10월부터 2025년 10월까지 처리된 720억 개 이상의 이메일을 분석했습니다.생성형 AI는 위협 행위자들이 더 설득력 있는 피싱 콘텐츠를 대규모로 제작할 수 있게 했으며, CISO의 77%가 AI로 생성된 피싱을 심각한 신규 위협으로 식별했고, 61%는 AI가 랜섬웨어 위험을 직접적으로 증가시켰다고 믿고 있습니다.방어팀은 조직의 68%가 AI 기반 탐지 기능에 투자하면서 적응하고 있지만, Hornetsecurity CEO Daniel Hofmann은 리더십의 인식 격차를 지적하며 AI 이해를 바탕으로 한 보안 문화가 2026년에 매우 중요할 것이라고 강조했습니다.
1127 조회
0 추천
2025.11.20 등록
Capgemini가 화요일 발표한 보고서에 따르면, 마케팅 예산이 회사 매출의 단 5%로 축소되는 동안 중요한 비즈니스 의사결정에 참여하는 CMO의 비율이 2년 만에 70%에서 55%로 감소했으며, 이는 AI 기반 디지털 혁신을 주도해야 한다는 기대가 급증하고 있는 상황에서 발생했다.AI 및 마케팅 기술 이니셔티브의 절반 이상이 현재 마케팅 팀이 아닌 IT 부서에서 자금을 지원하고 통제하고 있으며, 마케팅 기술 투자에서 AI가 차지하는 비중이 2023년 64%에서 2025년 79%로 급증했지만, AI가 효과성을 개선했다고 강력히 동의하는 마케팅 리더는 7%에 불과하다.이러한 조사 결과는 측정 가능한 비즈니스 가치를 제공하기 위한 CMO-CIO 협업의 시급한 필요성을 강조하는데, 마케팅 기술 예산을 통제하는 CMO가 40% 미만이고 광범위한 AI 도입에도 불구하고 고객 상호작용을 성공적으로 개인화하는 비율은 18%에 불과하기 때문이다.
1126 조회
0 추천
2025.11.20 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입