카카오, UN 포럼서 'AI 인권' 전략 공개
페이지 정보
본문

카카오가 스위스 제네바에서 열린 유엔 인권 포럼에서 인공지능(AI) 개발 전 과정에 인권 보호 체계를 적용하고 있다고 밝혔다. 회사는 한국어와 문화적 맥락에 최적화된 AI 안전 모델을 오픈소스로 공개하며 기술의 공공 기여를 확대하고 있다.
카카오는 지난 24일부터 26일까지 UN 산하 인권최고대표사무소(OHCHR) 주최 '제14차 UN 기업과 인권 포럼'에 참석해 인권 기반 AI와 기술의 공공 기여 사례를 발표했다고 26일 밝혔다. 이번 포럼은 2011년 채택된 UN 기업과 인권 이행원칙(UNGPs)의 실천을 논의하는 글로벌 회의로, 정부·기업·지역공동체·UN 기구·인권단체·학계 등 다양한 이해관계자가 참석했다.
인권 중심 AI 거버넌스 체계 구축
카카오는 '인공지능 시대의 인권 증진' 세션에 참여해 AI 기술 개발과 서비스 출시, 운영 전반에 인권 관점을 내재화한 거버넌스를 소개했다. 하진화 AI 세이프티 시니어 매니저는 "카카오는 AI 기술 개발 및 운영 전 과정에 인권 보호 체계를 접목하고 있으며, 한국어와 문화 맥락에 최적화된 AI 가드레일 모델을 오픈소스로 공개하는 등 공공 조달의 신뢰성을 위한 기반을 마련하고 있다"고 설명했다.
카카오의 '안전한 AI 핵심 체크리스트'는 국가인권위원회의 'AI 인권영향평가 도구'를 주요 참고문헌으로 삼아 제작됐으며, 그룹 AI 윤리 원칙인 '카카오 그룹의 책임 있는 AI 가이드라인'에도 인권 관련 원칙을 명확히 반영했다. '디지털 아동·청소년 보호 체크리스트' 역시 유니세프의 디지털 아동 영향평가를 토대로 마련됐다.
오픈소스 공개로 생태계 기여
카카오는 지난 5월 AI 서비스의 안전성과 신뢰성을 검증하는 가드레일 모델 '카나나 세이프가드'를 국내 기업 최초로 오픈소스로 공개했으며, 현재 카카오 주요 AI 서비스에 적용 중이다.
최근에는 한국정보통신기술협회(TTA), KAIST와 함께 생성형 AI 안전성 평가 데이터셋 'AssurAI'를 공동 개발했다. 총 1만1480건으로 구성된 이 데이터셋은 글로벌 AI 위험 분류체계를 기반으로 국내 사회·문화적 맥락을 반영했으며, 허깅페이스를 통해 연구·평가용으로 공개됐다.
김경훈 카카오 AI 세이프티 리더는 "기술의 투명성 확보와 공공 기여 확대를 통해 인권 존중 기업으로서 역할을 강화하고, 지속 가능한 기술 생태계와 사람 중심의 AI 구현에 힘쓸 것"이라고 말했다.