Loading...

AI 뉴스

OpenAI, ChatGPT에 연령 예측 기능 전격 도입

페이지 정보

작성자 symbolika
작성일 2026.01.21 10:10
184 조회
0 추천
0 비추천

본문

ChatGPT

Executive Summary

• OpenAI가 ChatGPT에 AI 기반 연령 예측 모델을 전 세계적으로 배포, 미성년자 보호 기능 강화

• 대화 패턴, 활동 시간대, 계정 사용 기록 등을 분석해 사용자 연령을 자동 판별

• 18세 미만으로 분류된 사용자는 폭력, 유해 콘텐츠 등 민감한 정보에 대한 접근이 제한됨

• 오분류된 성인 사용자는 셀피 또는 신분증 인증을 통해 제한 해제 가능

• 향후 출시 예정인 '성인 모드'(NSFW 콘텐츠 허용)에 앞선 선제적 안전장치로 해석


Background

OpenAI는 지난해 ChatGPT를 통해 자살을 계획한 청소년 관련 소송에 휘말린 바 있으며, 이후 미성년자 보호 정책 강화에 본격 착수했다. 이번 연령 예측 기능은 AI 플랫폼들이 서비스 출시 후 뒤늦게 안전장치를 추가하는 업계 관행에서 벗어나, 선제적 보호 체계를 구축하려는 시도로 평가받고 있다.


Impact & Implications

AI 안전 및 규제 대응

OpenAI의 연령 예측 시스템 도입은 AI 기업들이 직면한 미성년자 보호 문제에 대한 업계 표준을 제시할 가능성이 있다. 청소년의 유해 콘텐츠 노출을 사전에 차단하려는 이 접근법은 전 세계적으로 강화되고 있는 AI 규제 움직임에 선제적으로 대응하는 것으로, 다른 AI 기업들도 유사한 보호 장치 도입을 검토할 것으로 예상된다.

사용자 경험과 프라이버시

행동 패턴 분석을 통한 연령 추정은 불가피하게 오분류 문제를 동반한다. OpenAI는 셀피 및 신분증 인증 옵션을 제공하지만, 신원 확인 업체 Persona가 7일 내 데이터를 삭제한다고 밝혔음에도 프라이버시 우려는 남아있다. 특히 성인 사용자가 '10대'로 잘못 분류되어 기능 제한을 받는 경험은 서비스 만족도에 영향을 줄 수 있다.

향후 전망: 성인 모드 출시 준비

업계에서는 이번 조치가 OpenAI가 준비 중인 '성인 모드'(NSFW 콘텐츠 생성 허용) 출시의 전 단계로 분석하고 있다. 연령 확인 시스템을 먼저 안착시킨 후 성인 전용 기능을 단계적으로 개방하려는 전략으로 보이며, 이는 AI 챗봇 시장의 콘텐츠 정책 경쟁에서 새로운 국면을 열 수 있다.


Key Data & Facts

항목수치/내용
적용 범위전 세계 모든 ChatGPT 계정
분석 요소대화 주제, 활동 시간대, 계정 존속 기간, 사용 패턴
제한 콘텐츠폭력, 고어, 바이럴 챌린지, 극단적 미용 기준, 건강하지 않은 다이어트 정보
인증 방식라이브 셀피 또는 정부 발급 신분증
데이터 보관인증 완료 후 7일 내 삭제 (Persona)

Key Quote

"이 모델은 계정 존속 기간, 주로 활동하는 시간대, 시간에 따른 사용 패턴, 사용자가 밝힌 나이 등 행동적·계정 수준의 신호 조합을 분석합니다."
댓글 0
전체 1,366 / 74 페이지
Physical Intelligence는 2024년에 전 Google DeepMind 연구원들이 창립한 로봇 AI 스타트업으로, 모든 로봇에 적용 가능한 범용 “브레인” 소프트웨어를 개발하면서, 기업 가치 56억 달러에 CapitalG 주도로 6억 달러의 자금을 유치했습니다.해당 투자 라운드에는 Jeff Bezos, Amazon, Lux Capital, Thrive Capital, Index Ventures, 그리고 T. Rowe Price가 참여했으며, 이 스타트업은 특정 작업별 프로그래밍 없이 어떤 응용 분야에서도 사용할 수 있는 로봇에 동력을 제공하는 것을 목표로 하고 있습니다.이번 투자는 AI 기반 로봇 분야의 자본 유입 급증을 반영하며, 경쟁사인 Figure AI는 390억 달러 가치에 10억 달러 이상을 유치했고, 전체 로봇 산업은 2025년 1분기 동안에만 22억 6천만 달러 이상의 투자를 받았습니다.
823 조회
0 추천
2025.11.23 등록
Allen Institute for AI (Ai2)는 OLMo 3를 출시했으며, 이는 7B 및 32B 언어 모델 제품군으로, 경쟁사들이 이러한 구성 요소를 공개하지 않는 것과 대조적으로 훈련 데이터, 코드, 중간 체크포인트 및 훈련 로그에 대한 완전한 접근을 제공하는 최초의 완전 공개 32B 추론 모델이라고 설명합니다.OLMo 3-32B는 6배 적은 토큰으로 훈련되면서도 추론 벤치마크 전반에 걸쳐 Qwen3-32B와 비교할 만한 성능을 달성하여, 지도 미세 조정, 선호도 최적화 및 강화 학습 파이프라인을 통해 가능한 효율성 향상을 입증합니다.이 프로젝트에는 60명 이상의 저자가 참여했으며 65,000개 토큰 컨텍스트 창을 지원하여, 훈련 데이터 공개에 대한 규제 압력이 증가하는 가운데 AI 시스템의 투명성을 추구하는 기업 및 연구 사용자를 위한 모델로 자리매김하고 있습니다.
869 조회
0 추천
2025.11.23 등록
서바이벌 게임 DayZ의 제작자이자 Rocketwerkz의 CEO인 Dean Hall은 게임 개발의 미래에 대해 대담한 예측을 내놓았습니다: 전통적인 게임 엔진이 아닌 프레임워크가 업계를 지배할 것이라는 것입니다. Game Developer와의 인터뷰에서 Hall은 우주 시뮬레이션 게임 Kitten Space Agency를 위해 특별히 제작된 자신의 스튜디오의 커스텀 C# 프레임워크 Brutal이 개발자들이 게임 제작에 접근하는 방식의 근본적인 변화를 대표한다고 설명했습니다.이 예측은 수년간 게임 개발의 표준이었던 Unity와 Unreal Engine과 같은 비주얼 스크립팅 도구의 현재 지배력에 도전장을 내밉니다. Hall은 ChatGPT와 같은 대형 언어 모델이 언어 기반 코딩을 더 접근 가능하게 만들어, 비주얼 기반 스크립팅의 주요 이점을 잠재적으로 제거할 수 있다고 주장합니다. “LLM이 언어 기반 코딩을 더 접근 가능하게 만든다면, 비주얼 기반 스크립팅은 그 우위를 잃게 됩니다”라고 Hall은 설명했습니다.첫 번째 원리로부터 구축하기“최신 .NET 기능을 사용하면서 Vulkan 그래픽 API를 포함한 고성능 C++ 라이브러리 및 도구에 대한 저수준 API 액세스를 제공하는” 도구로 설명되는 Brutal은 기존 엔진들이 효율적으로 해결할 수 없었던 특정 기술적 과제를 해결하기 위해 만들어졌습니다. 이 프레임워크는 개발자들이 게임 시스템을 처음부터 구축할 수 있게 하여, “어떻게 할 것인가?“보다 “무엇을 하려고 하는가?“를 먼저 물을 수 있도록 합니다.Kerbal Space Program의 제작자인 Felipe Falanghe와 함께 작업하면서, Hall의 Rocketwerkz 팀은 약 1년 만에 Kitten Space Agency 알파 전체를 구축했습니다. 11월 13일에 공개 프리 알파를 출시한 이 게임은 카메라가 0-0-0에 고정되어 있고 모든 것이 카메라를 기준으로 그려지는 맥락적 렌더링(contextual rendering)을 사용하는데, 이는 Unity나 Unreal과 같은 씬 기반 엔진에서는 구현하기 어려운 기법입니다.문서화 보조 도구로서의 LLMsHall과 Falanghe는 LLM이 프레임워크 워크플로우를 실행 가능하게 만들었다고 평가하지만, 일반적으로 AI 코딩 도구와 연관된 방식은 아니라고 말한다. “vibe coding”을 통해 코드를 생성하는 대신, 개발자들은 LLM을 사용하여 C# 라이브러리와 Vulkan에 대한 문서에 빠르게 접근함으로써 수 시간의 수동 조사를 건너뛸 수 있다. Hall은 LLM이 잘 정의된 프로그래밍 언어를 어떻게 처리하는지를 언급하며 “고도로 구조화된, 사실상 잔인할 정도로 구조화된 언어보다 더 나은 것이 무엇이 있겠습니까?“라고 말했다.이러한 예측에도 불구하고, Hall은 Brutal이 만능 솔루션이 되도록 의도된 것은 아니라고 강조했다. 이 프레임워크는 Ahwoo라는 상업적 법인을 통해 오픈 소스로 제공될 예정이지만, Hall은 다른 사람들이 유사한 원칙을 따르는 다른 프레임워크를 만들 것으로 기대한다. 그는 “저는 Brutal이 만능 주머니칼이 되는 것을 좋아하지 않습니다. 왜냐하면 그것이 사실이라고 생각하지 않기 때문입니다”라고 말했다.
834 조회
0 추천
2025.11.23 등록
보안 연구원들은 이번 주 AI 기반 침투 테스트 도구의 크랙 버전이 2026년 사이버 범죄 포럼에서 확산될 것으로 예상되며, 이를 통해 공격자들이 전례 없는 속도로 취약점을 발견하고 악용할 수 있게 될 것이라는 강력한 경고를 발표했습니다. 목요일에 게시된 이 경고는 정당한 보안 도구가 Cobalt Strike와 유사하게 무기화될 수 있다는 우려가 커지고 있음을 강조하며, 이는 위협 행위자들이 공격 일정을 며칠에서 몇 분으로 단축할 수 있게 할 가능성이 있습니다.AI 도구가 인간 해커를 앞지르다AI 기반 침투 테스트 플랫폼은 취약점 발견에서 인간 보안 전문가를 능가하는 능력을 입증했습니다. 주요 버그 바운티 플랫폼에서 1위를 차지한 Xbow 도구는 주요 시스템 전반에 걸쳐 원격 코드 실행 및 SQL 인젝션 취약점을 포함한 수많은 보안 결함을 발견했습니다. ReliaQuest 위협 연구원에 따르면 온라인 포럼의 증거는 사이버 범죄자들이 이미 불법 AI 도구를 구축하기 위해 개발자를 모집하고 있음을 나타냅니다.크랙 버전이 온라인에 등장한 후 광범위하게 악용된 합법적인 레드팀 도구인 Cobalt Strike가 설정한 선례는 이러한 신흥 AI 제품에 대해 유사한 궤적을 시사합니다. 연구원들은 크랙 복사본을 통해 고급 AI 도구가 널리 사용 가능해지면 공격이 빠르게 전개될 수 있다고 경고합니다. 최근 데이터에 따르면 랜섬웨어 서비스형(ransomware-as-a-service) 그룹이 AI 기반 기능을 통합함에 따라 공격자의 “탈출 시간”은 이미 2024년 48분에서 2025년 중반 단 18분으로 급감했습니다.코드 보안 우려 증가이러한 위협들이 가중되는 가운데, 연구에 따르면 AI가 생성한 코드의 최대 45%가 보안 취약점을 포함하고 있는 것으로 나타났습니다. 80개의 코딩 작업에 걸쳐 100개 이상의 대규모 언어 모델을 분석한 Veracode 연구에서는 안전한 방법과 안전하지 않은 방법 중 선택해야 할 때 AI 모델이 45%의 경우에 안전하지 않은 옵션을 선택한 것으로 밝혀졌습니다. Java는 72%의 보안 실패율로 가장 높은 위험도를 보였으며, Python, C# 및 JavaScript는 38-45%의 실패율을 나타냈습니다.보안 전문가들은 또한 오픈소스 소프트웨어에 대한 위험이 증가하고 있다고 경고했는데, 약 1,200만 개에 달하는 프로젝트 중 절반 이상이 단일 자원봉사자에 의해 관리되고 있습니다. 2025년의 주목할 만한 사건들에서는 유지관리자들이 피싱 사기의 희생양이 되어 범죄자들이 널리 사용되는 리포지토리에 악성 코드를 게시할 수 있게 되었으며, 이는 수백 개의 애플리케이션과 수백만 명의 사용자에게 잠재적으로 영향을 미쳤습니다.이러한 경고는 Qilin, Akira, DragonForce를 포함한 랜섬웨어 그룹들이 운영을 강화하는 가운데 나왔으며, 일부는 시끄럽고 공격적인 전술을 수용하는 반면 다른 그룹들은 법 집행 기관의 개입을 피하기 위해 은밀한 접근 방식을 유지하고 있습니다.
855 조회
0 추천
2025.11.23 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입