Loading...

AI 뉴스

OpenAI, 맞춤형 정책 지원을 갖춘 안전 모델 출시

페이지 정보

작성자 xtalfi
작성일 2025.10.30 14:05
2,140 조회
0 추천
0 비추천

본문

67d5401f4201fea22259360979170f81_1761800726_939.jpg
 

(퍼플렉시티가 정리한 기사)


OpenAI는 오늘 gpt-oss-safeguard를 공개했습니다. 이는 개발자들이 콘텐츠 안전성 분류를 처리하는 방식을 혁신하기 위해 설계된 한 쌍의 오픈 웨이트 추론 모델로, 훈련 중에 모델에 내장하는 대신 런타임에 사용자 정의 정책을 정의할 수 있도록 합니다.​

파라미터 수에 따라 명명된 두 모델—gpt-oss-safeguard-120b와 gpt-oss-safeguard-20b—은 정책이 변경될 때 광범위한 재훈련이 필요한 기존 안전성 분류기와는 크게 다릅니다. 대신, 이 모델들은 개발자가 작성한 안전 정책을 요청 시 해석하고 투명한 사고 과정 추론을 제공하여 결정을 설명합니다.​


동적 정책 구현이 산업 현안을 해결합니다

이번 출시는 콘텐츠 모더레이션의 중요한 마찰 지점을 해결합니다: 새로운 위험이 등장할 때 안전 시스템을 업데이트하는 데 필요한 시간과 비용입니다. 기존 분류기는 정책이 변경될 때 재훈련에 몇 주가 걸릴 수 있지만, gpt-oss-safeguard는 개발자가 몇 시간 내에 규칙을 업데이트하고 변경 사항을 배포할 수 있게 합니다.​

업계 분석에 따르면 "새로운 위험이 등장할 때—예를 들어 게임 포럼에서 익스플로잇 공유를 단속해야 하거나 리뷰 사이트에서 가짜 후기의 물결을 발견할 때—기존 분류기는 완전한 재훈련이 필요합니다". 새로운 모델은 추론 시점에 정책을 읽음으로써 이러한 병목 현상을 제거합니다.​

OpenAI는 주요 기술 기업들이 공유 안전 인프라를 구축하기 위해 설립한 2,700만 달러 규모의 비영리 단체인 ROOST(Robust Open Online Safety Tools), Discord, SafetyKit과의 파트너십을 통해 이 모델을 개발했습니다. 이 협력은 소규모 플랫폼이 관련 개발 비용 없이 기업급 안전 도구에 접근해야 한다는 업계의 인식이 높아지고 있음을 반영합니다.​


성능 및 실용적 활용

내부 평가에서 gpt-oss-safeguard-120b는 훨씬 더 작은 크기임에도 불구하고, 다중 정책 벤치마크에서 GPT-5를 능가하여 각각 46.3% 대 43.2%의 정확도를 기록했습니다. 하지만 OpenAI는 수만 개의 라벨이 지정된 예시로 훈련된 기존 분류기가 이러한 추론 모델보다 복잡한 분류 작업에서 여전히 더 우수하다는 점을 인정합니다.​

이 모델들은 정책 유연성이 속도보다 더 중요한 환경, 예를 들어 신흥 위험, 미묘한 영역, 설명 가능성이 중요한 상황에서 뛰어난 성과를 보입니다. 잠재적 활용 사례로는 가짜 리뷰를 표시하는 제품 리뷰 사이트, 치팅 논의를 식별하는 게임 포럼, 새로운 규제 요건에 신속히 적응하는 플랫폼 등이 있습니다.​

OpenAI는 이와 유사한 추론 기술을 내부적으로도 사용하며, 최근 출시에서 전체 컴퓨팅 자원의 최대 16%를 안전 추론에 할당하고 있습니다. 회사의 Safety Reasoner 도구는 gpt-oss-safeguard에 영감을 주었으며, 실제 운영 환경에서 동적 정책 업데이트와 이미지 생성 및 Sora 2 같은 시스템의 실시간 평가를 가능하게 합니다.​

이 모델들은 Hugging Face에서 Apache 2.0 라이선스 하에 제공되며 ROOST에서는 우수 사례를 공유하기 위한 새로운 모델 커뮤니티를 구축하고 있습니다. OpenAI는 ROOST 및 Hugging Face와 함께 12월 8일 샌프란시스코에서 해커톤을 계획하며, 오픈 소스 안전 생태계에 대한 지속적인 투자를 시사하고 있습니다.

댓글 0
전체 1,366 / 45 페이지
• Anthropic의 연구원 Barry Zhang와 Mahesh Murag는 수많은 특수 목적 AI 에이전트를 계속 만들어 내기보다는, 재사용 가능한 “스킬(skills)”에 의해 구동되는 단일 범용 에이전트를 사용할 것을 기업들에게 촉구하고 있으며, 이 개념을 뉴욕에서 열린 AI Engineering Code Summit와 월요일에 공개된 강연에서 설명했다.• 이러한 **에이전트 스킬(Agent Skills)**은 절차적 지식, 지침, 스크립트를 정리한 폴더 형태로 구성되어 있으며, 에이전트가 도메인 전문성과 실제 세계 문맥을 결여한 부분을 보완하는 것을 목표로 한다. 이들은 이미 회계, 법률, 채용 등 다양한 분야에 도입되었고, 10월 16일 해당 기능이 출시된 이후 일부 포춘 100대 기업에서는 내부용 AI 플레이북으로 활용하고 있다.• 스킬 중심 모델은 AI 에이전트의 영향력을 둘러싸고 업계가 양분된 상황에서 등장했다. Sam Altman과 Microsoft의 AI 임원 Asha Sharma와 같은 리더들은 에이전트가 사무 업무를 혁신하고 조직의 위계를 평탄화할 것이라고 예측하는 반면, Guido Appenzeller와 같은 투자자들은 “에이전트”가 종종 더 높은 가격을 정당화하기 위해 단지 이름만 바꾼 챗봇에 불과하다고 경고한다.
1007 조회
0 추천
2025.12.09 등록
The Verge는 크리에이터 이코노미가 인터넷을 광고로 포화된 환경으로 변모시킴으로써 인터넷을 파괴했다고 주장하며, 가장 성공한 콘텐츠 크리에이터들조차 혁신적인 수익화 전략을 포기하고 소비재 제품 판매로 회귀했다고 말한다.4억 5천만 명이 넘는 유튜브 구독자를 보유하고 있음에도 불구하고, MrBeast의 제작사는 2024년에 1억 1천만 달러 이상의 손실을 기록했으며, 그의 바이럴 영상들은 주로 Walmart와 같은 소매업체에서 판매되는 그의 Feastables 초콜릿 바를 홍보하는 도구로 활용되었다.MrBeast의 미디어 부문이 2024년에 거의 8천만 달러의 손실을 기록한 반면, 그의 Feastables 브랜드는 비슷한 수익을 창출하면서도 2천만 달러 이상의 수익을 올렸으며, 이는 크리에이터들이 콘텐츠 자체보다는 실물 제품에 점점 더 의존하여 사업을 유지하고 있음을 보여준다.
1029 조회
0 추천
2025.12.09 등록
Nvidia CEO 젠슨 황은 12월 3일 조 로건과의 인터뷰에서 칩 가용성이 아닌 전력 공급이 AI의 주요 병목 현상이 되었다고 말하며, 기술 기업들이 6~7년 내에 데이터 센터 근처에서 수백 메가와트를 생산하는 자체 소형 원자로를 운영할 것이라고 예측했습니다.황의 예측은 업계 동향과 일치하는데, Google은 2024년 10월 소형 원자로 개발업체 Kairos Power로부터 500메가와트를 구매할 계획을 발표했으며, 첫 번째 첨단 원자로는 2030년을 목표로 하고 있습니다.Goldman Sachs는 데이터 센터 전력 소비가 2023년 대비 2030년까지 175% 급증할 것으로 예상하며, 국제에너지기구는 전 세계 데이터 센터 소비가 2030년까지 945테라와트시로 두 배 이상 증가할 것으로 전망합니다.
982 조회
0 추천
2025.12.09 등록
2025년 타임지가 선정한 세계에서 가장 영향력 있는 인공지능 분야 100인에 포함된 밀라그로스 미셀리 박사가 AI 산업의 어두운 이면을 강도 높게 비판하고 나섰다. 아르헨티나 출신의 사회학자이자 컴퓨터공학 박사인 미셀리는 최근 부에노스아이레스에서 열린 공개 강연에서 AI 기술 확산 뒤편에 창의성·노동·자원이라는 세 가지 차원의 착취 구조가 존재한다고 지적했다고 현지 매체 암비토가 7일(현지시간) 보도했다.감춰진 노동력과 무단 활용되는 창작물미셀리 박사가 지적한 첫 번째 문제는 AI 모델 훈련 과정에서 무단으로 사용되는 수많은 창작물이다. 그는 “AI는 창조하지 않는다. 단지 인간의 창작물을 대규모로 추출하고 혼합해 낮은 품질의 결과물을 만들어낼 뿐”이라며 “생성형 도구는 공익이 아닌 소수 기업의 상업적 이익을 극대화하도록 설계된 모델”이라고 비판했다.두 번째는 대규모 데이터 노동의 비가시성 문제다. 이미지 분류, 폭력 콘텐츠 관리, 텍스트 라벨링, 데이터 클리닝 등을 수행하는 대규모 인간 노동이 의도적으로 감춰지고 있으며, 대부분의 인력이 플랫폼 기반의 극도로 취약한 노동 조건에 처해 있다고 그는 지적했다. 독일 바이젠바움 연구소에서 ‘데이터 워커스 인콰이어리’ 프로젝트를 이끄는 미셀리는 전 세계 데이터 노동자들의 증언을 통해 이러한 착취 실태를 밝혀왔다.소수 기업의 권력 집중 경고미셀리 박사는 세 번째 착취로 막대한 환경 비용을 들었다. AI 데이터 센터 운영에 필요한 엄청난 전력과 물 소비가 환경 부담을 가중시킨다는 것이다.그는 특히 기술 자체가 아닌 소수 글로벌 기업이 데이터·인프라·노동력을 장악하면서 발생하는 권력 집중에 주목했다. “이 기업들은 사실상 무엇이 진실인지 결정할 수 있는 권력을 갖게 된다”며 “기술은 언제나 정치적이다. 환경적·사회적 비용을 보지 않고 기술을 숭배하는 것은 오히려 공동체와 지구에 해를 끼치는 일”이라고 강조했다. 현재 독일에서 활동 중인 미셀리는 기술 발전에만 집중된 AI 논의 속에서 소외된 인간 윤리 문제를 중심에 세운 인물로 평가받는다.
980 조회
0 추천
2025.12.09 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입