오픈AI, 18세 미만 전용 챗GPT 이달 말 출시
페이지 정보
본문

(퍼플렉시티가 정리한 기사)
오픈AI가 미성년자 보호를 위해 자유와 프라이버시보다 안전을 우선한다는 철학 하에 18세 미만 전용 챗GPT를 이달 말 출시한다고 발표했다. 샘 올트먼 오픈AI CEO는 16일 공식 블로그를 통해 “새롭고 강력한 기술인 만큼 미성년자에게는 상당한 보호가 필요하다”며 이같은 계획을 밝혔다.
미성년자 전용 챗GPT는 선정적이거나 폭력적인 콘텐츠를 자동으로 차단하며, 사용자가 자살 충동을 보이는 등 심각한 위기 상황에서는 부모에게 연락을 시도하고, 연락이 닿지 않을 경우 당국에 신고할 수 있도록 설계됐다. 올트먼은 “챗GPT는 요청을 받더라도 미성년자와 플러팅성 대화를 하지 않으며, 창작 글쓰기 맥락에서조차 자살이나 자해에 관한 논의를 하지 않을 것”이라고 설명했다.
연령 예측 시스템과 부모 통제 기능 강화
오픈AI는 사용자의 연령을 정확히 파악하기 위한 ‘연령 예측 시스템’을 개발 중이다. 이 시스템은 사용자의 챗GPT 사용 패턴을 분석해 나이를 추정하며, 확실하지 않은 경우 기본적으로 18세 미만 환경을 제공한다. 일부 국가에서는 신분증 확인을 요청할 수도 있다고 덧붙였다.
부모의 자녀 보호 기능도 대폭 강화된다. 부모는 자신의 챗GPT 계정과 자녀 계정을 이메일로 연결해 챗봇 사용 금지 시간을 설정하고, 챗봇의 응답 방식을 조정할 수 있다. 자녀가 심각한 정신적 고통을 겪는 경우 부모에게 알림이 전송되는 기능도 포함됐다.
FTC 조사와 소송 압박 속 대응책
이번 조치는 최근 미국 연방거래위원회(FTC)가 오픈AI를 포함한 주요 기술기업들을 대상으로 AI 챗봇이 아동과 청소년에게 미치는 잠재적 악영향에 대한 조사를 시작한 시점과 맞물려 있다. FTC는 9월 11일 오픈AI, 메타, 구글, 스냅, 캐릭터 AI 등 7개 기업에 챗봇 안전성 평가 조치에 대한 자료 제출을 요구했다.
특히 지난달 캘리포니아 고등학생 아담 레인의 부모가 오픈AI와 샘 올트먼 CEO를 상대로 제기한 소송이 큰 압박 요인으로 작용했다. 소송에 따르면, 16세 아담은 지난 4월 극단적 선택을 했는데, 부모는 챗GPT가 아들의 자살을 부추겼다며 주장했다. 채팅 기록에는 챗GPT가 자살에 대해 1,275회 언급했으며, 구체적인 방법까지 제시했다는 내용이 포함됐다.
올트먼 CEO는 “전문가들과 논의한 끝에 내린 어려운 결정이지만, 현 단계에서 최선의 선택이라고 믿는다”며 “우리의 의도를 투명하게 밝히고 싶다”고 강조했다. 이와 함께 성인 사용자에게는 기존처럼 자유로운 사용을 보장하되, 미성년자에게는 안전을 최우선으로 한다는 차별화된 접근법을 제시했다.