• OpenAI가 'AI 안전 준비 총괄(Head of Preparedness)' 직책 신설• 정신건강 위협, 사이버보안 무기화 등 AI의 심각한 위험성 대응 목표• 자기개선 AI 시스템에 대한 안전장치 마련도 포함• 챗봇 관련 청소년 자살 사건 등 잇따라... "늦은 감" 지적도OpenAI가 AI의 위험성을 전담하는 '안전 준비 총괄(Head of Preparedness)' 직책을 신설하고 인력 채용에 나섰다. 쉽게 말해, AI가 심각하게 잘못될 수 있는 모든 경우의 수를 고민하는 것이 주요 업무다.샘 올트먼은 X(구 트위터)에 올린 글에서 AI 모델의 급격한 발전이 "실질적인 과제들"을 야기하고 있다고 인정하며 해당 직책을 공개했다. 그는 특히 사람들의 정신건강에 미치는 영향과 AI 기반 사이버보안 무기의 위험성을 명시적으로 언급했다.채용 공고에 따르면, 해당 직책의 담당자는 다음과 같은 역할을 수행하게 된다:"심각한 피해의 새로운 위험을 초래하는 최첨단 역량을 추적하고 대비합니다. 일관성 있고 엄밀하며 운영적으로 확장 가능한 안전 파이프라인을 구성하는 역량 평가, 위협 모델, 완화 조치를 구축하고 조율하는 직접 책임자가 됩니다."올트먼은 이 직책의 담당자가 앞으로 회사의 '준비 프레임워크' 실행, '생물학적 역량' 출시를 위한 AI 모델 보안, 나아가 자기개선 시스템에 대한 안전장치 설정까지 책임지게 될 것이라고 밝혔다. 그는 또한 이 직무가 "스트레스가 많은 일"이 될 것이라고 덧붙였는데, 이는 다소 절제된 표현으로 보인다.챗봇이 청소년 자살에 연루된 여러 건의 세간의 이목을 끄는 사건들이 있은 후, 이제야 이러한 모델들이 야기할 수 있는 잠재적인 정신건강 위험에 집중하는 인력을 두는 것은 다소 늦은 감이 있다. AI로 인한 정신질환 문제가 커지고 있는데, 챗봇이 사람들의 망상을 부추기고, 음모론을 조장하며, 섭식장애를 숨기도록 돕는 사례가 늘고 있기 때문이다.