AI 이미지 생성기는 언어에 따라 성별 편향을 다르게 증폭
페이지 정보
본문

(퍼플렉시티가 정리한 기사)
인공지능 이미지 생성기가 프롬프트에 사용되는 언어에 따라 성별 고정관념을 다르게 증폭시킨다는 획기적인 연구가 오늘 발표되었습니다. 이 연구는 동일한 직업 설명이 언어 간 번역될 때 AI 생성 이미지에서 현저하게 다른 성별 분포를 생성한다는 것을 밝혀내어, 알고리즘 공정성에 대한 가정에 도전하고 있습니다.
뮌헨 공과대학교와 다름슈타트 공과대학교의 연구원들은 9개 언어에 걸쳐 텍스트-이미지 모델을 분석하여, 다국어 AI 시스템의 성별 편향을 측정하기 위한 최초의 포괄적인 벤치마크를 개발했습니다. 그들의 연구 결과는 문법적 성별 규칙이 유사해 보이는 경우에도 언어 구조가 편향 패턴에 상당한 영향을 미친다는 것을 보여줍니다.
언어가 AI 편향 패턴을 형성한다
이 연구는 MAGBIG(다국어 이미지 생성의 성별 편향 평가)를 도입하여 독일어, 스페인어, 프랑스어, 영어, 일본어, 한국어, 중국어를 포함한 여러 언어에서 180만 개 이상의 AI 생성 이미지를 조사했습니다. 연구자들은 네 가지 프롬프트 유형을 테스트했습니다: 일반적인 남성형을 사용한 직접적인 직업 용어, 간접적인 설명, 명시적으로 여성적인 프롬프트, 그리고 성중립적인 표현.
일반적인 남성형 용어를 사용한 직접 프롬프트는 가장 강한 편향을 나타냈으며, "회계사"와 같은 직업은 주로 백인 남성 이미지를 생성한 반면 돌봄 직업은 여성으로 보이는 인물을 생성했습니다. 주목할 만하게도, 프랑스어에서 스페인어 프롬프트로 전환했을 때 두 언어 모두 성별화된 직업에 대해 유사한 문법 구조를 사용함에도 불구하고 성별 편향이 상당히 증가했습니다.
완화 노력은 제한적인 것으로 입증되다
성 중립적 언어와 독일어의 의사를 뜻하는 "Ärzt*innen"과 같은 "젠더 스타" 관례는 편향 감소에 미미한 효과만 제공했으며 이미지 품질과 텍스트 정렬을 저하시켰다. 연구에 따르면 편향을 완화하기 위해 설계된 프롬프트 엔지니어링 전략은 대체로 효과가 없었으며 때로는 역효과를 낳았다.
하일브론 TUM 캠퍼스의 데이터 분석 및 통계학 교수인 Alexander Fraser는 "우리의 연구 결과는 언어 구조가 AI 이미지 생성기의 균형과 편향에 상당한 영향을 미친다는 것을 명확히 보여준다"고 말했다. "AI 시스템을 사용하는 사람은 누구나 다른 표현이 완전히 다른 이미지를 생성할 수 있으며, 따라서 사회적 역할 고정관념을 확대하거나 완화할 수 있다는 점을 인식해야 한다".
hessian.AI의 공동 디렉터인 Kristian Kersting 교수는 더 광범위한 의미를 강조했다: "AI 이미지 생성기는 중립적이지 않습니다. 이들은 우리의 편견을 고해상도로 보여주며, 이는 언어에 결정적으로 의존합니다. 특히 많은 언어가 수렴하는 유럽에서 이것은 경종을 울리는 신호입니다: 공정한 AI는 언어 민감성을 염두에 두고 설계되어야 합니다".
이 연구는 제63회 컴퓨터 언어학 협회 연례 회의 논문집에 게재되었으며, AI 이미지 생성이 전 세계 애플리케이션에서 점점 더 보편화됨에 따라 다국어 편향 인식의 시급한 필요성을 강조한다.