소니, 모델 전반의 편향성을 드러내는 윤리적 AI 데이터셋 공개
페이지 정보
본문

(퍼플렉시티가 정리한 기사)
소니 AI는 화요일에 컴퓨터 비전 모델의 편향성을 드러내기 위해 설계된 획기적인 동의 기반 데이터셋인 Fair Human-Centric Image Benchmark (FHIBE)를 출시했습니다. Nature에 게재된 이번 출시는 AI 시스템 전반의 공정성을 평가하기 위해 특별히 제작된 최초의 공개적으로 이용 가능한 전 세계적으로 다양한 데이터셋을 나타내며, 기존 모델 중 윤리적 기준을 완전히 충족하는 것은 없다는 사실을 밝혀냅니다.
이 데이터셋은 81개국에서 온 1,981명의 자원자들의 10,318개 이미지로 구성되어 있으며, 모두 사전 동의와 공정한 보상을 받고 수집되었습니다. 참가자들은 언제든지 자신의 이미지를 철회할 권리를 보유하며, 이는 허가 없이 웹 데이터를 수집하는 업계 관행에서 벗어난 것입니다.
AI 모델 전반에 걸쳐 광범위한 편향성 발견
Sony AI의 테스트는 현재 컴퓨터 비전 시스템에서 "she/her/hers" 대명사를 사용하는 개인에 대한 정확도가 낮은 것을 포함하여 지속적인 편향이 존재함을 밝혀냈습니다. 벤치마크는 이러한 격차가 부분적으로 해당 인구 집단의 더 큰 헤어스타일 다양성에서 비롯된다는 것을 확인했는데, 이는 공정성 연구에서 이전에 간과되었던 요인입니다.
모델이 직업에 대한 중립적인 질문을 받았을 때 더 우려스러운 패턴이 나타났습니다. AI 시스템은 인구통계학적 특성에 기반하여 대상을 성 노동자, 마약 거래상 또는 도둑으로 묘사하면서 해로운 고정관념을 자주 강화했습니다. 범죄 활동에 대해 질문을 받았을 때, 모델은 아프리카계 또는 아시아계 조상을 가진 개인, 더 어두운 피부톤을 가진 사람, 그리고 "he/him/his"로 식별되는 사람들에 대해 더 높은 비율로 유해한 응답을 생성했습니다.
Sony AI의 연구에 따르면, "기존의 대규모 언어 모델 중 FHIBE의 모든 공정성 테스트를 통과한 것은 없었으며, 이는 AI의 내재된 편향과 포용성 부족이 여전히 지속적인 문제로 남아 있음을 보여줍니다".
새로운 업계 표준 설정
소니 그룹의 글로벌 AI 거버넌스 책임자인 Alice Xiang은 오랜 업계 관행을 해결하는 데 있어 이 데이터셋의 중요성을 강조했습니다. "업계는 너무 오랫동안 다양성이 부족하고, 편향을 강화하며, 적절한 동의 없이 수집된 데이터셋에 의존해 왔습니다"라고 그녀는 말했습니다. "이 프로젝트는 사전 동의, 개인정보 보호, 공정한 보상, 안전, 다양성 및 유용성에 대한 모범 사례를 통합한 책임 있는 데이터 수집이 가능하다는 것을 보여줍니다."
개발 비용은 3년 동안 100만 달러 미만이었으며, Nature의 사설 보도에 따르면 "많은 기술 기업들에게는 바다의 물 한 방울"에 불과한 금액입니다. 이 비교적 적은 투자는 윤리적 데이터 수집이 엄청나게 비싸다는 업계의 주장에 이의를 제기합니다.
소니 AI의 사장인 Michael Spranger는 이번 출시를 "AI 데이터셋에 대한 새로운 업계 기준"을 확립하는 것으로 평가하며, "데이터를 책임감 있게 수집하는 것이 가능하다는 것을 증명하고, 처음부터 신뢰할 수 있는 AI를 구축하는 데 도움이 된다"고 말했습니다.
FHIBE 데이터셋은 현재 fairnessbenchmark.ai.sony에서 공개적으로 이용 가능하며, 전 세계 연구자와 개발자에게 컴퓨터 비전 시스템의 편향을 식별하고 완화할 수 있는 도구를 제공합니다.