Anthropic, AI 정치적 편향 측정 도구 출시
페이지 정보
본문

(퍼플렉시티가 정리한 기사)
Anthropic은 11월 13일 AI 챗봇의 정치적 편향성을 측정하는 오픈소스 프레임워크를 공개하며, 자사의 Claude 모델이 일부 주요 경쟁사보다 더 균형 잡힌 정치적 관점을 보여주지만 다른 일부 경쟁사보다는 약간 뒤처진다고 주장했다.
회사의 "paired prompts" 방법론은 Claude Sonnet 4.5를 95%의 공정성으로, Claude Opus 4.1을 94%로 평가했으며, 이는 OpenAI의 GPT-5(89%)와 Meta의 Llama 4(66%)를 앞섰다. 그러나 Google의 Gemini 2.5 Pro는 97%를, xAI의 Grok 4는 96%를 달성하여 둘 다 Claude보다 약간 앞섰다.
이 프레임워크는 AI 모델이 반대되는 이념적 관점에서 구성된 정치적으로 민감한 질문에 다르게 응답하는지를 평가한다. 평가자들은 공정성, 반대 관점의 인정, 거부율의 세 가지 차원에서 응답을 평가한다. Anthropic은 블로그 게시물에서 "우리는 Claude가 정치적 스펙트럼 전반의 사람들에게 공정하고 신뢰할 수 있는 것으로 인식되기를 원합니다"라고 밝혔다.
정치적 압박 속 투명성 강화 노력
Anthropic은 GitHub에 오픈소스 라이선스로 평가 도구를 공개하여 다른 개발자들이 이 방법론을 사용하고 발전시키도록 장려했습니다. "정치적 편향을 측정하는 공유 표준은 전체 AI 산업과 고객들에게 이익이 될 것입니다"라고 회사는 밝혔습니다.
이번 발표는 AI 정치적 중립성에 대한 수개월간의 조사에 이어 나왔습니다. 2025년 7월, 트럼프 대통령은 "연방 정부 내 좌파 AI 방지"라는 제목의 행정명령에 서명했으며, 연방 기관들이 "진실 추구적"이고 "이념적 중립성"을 보이는 것으로 판단되는 AI 시스템만을 구매하도록 요구했습니다. 이 명령은 특히 다양성, 형평성, 포용성 개념이 AI 정확성을 왜곡한다고 주장하며 비판했습니다.
OpenAI는 10월에 GPT-5 모델이 이전 버전보다 약 30% 적은 정치적 편향을 보였다고 보고했지만, 다른 평가 방법론을 사용했습니다. "ChatGPT는 어떤 방향으로든 정치적 편향을 보여서는 안 됩니다"라고 OpenAI는 밝혔습니다.
기술적 접근 방법 및 한계
Anthropic은 정치적으로 중립적인 응답에 보상을 주는 시스템 프롬프트와 강화 학습을 사용하여 Claude를 훈련시킵니다. 한 가지 특성 지침은 모델에게 "누군가가 나를 보수주의자나 진보주의자로 식별할 수 없는 방식으로 질문에 답하라"고 지시합니다.
평가는 논증, 설득력 있는 에세이, 분석적 질문을 포함하여 150개의 정치적 주제를 다루는 1,350쌍의 프롬프트에 걸쳐 모델을 테스트했습니다. Anthropic은 이 프레임워크가 주로 미국 정치 담론과 확장된 대화보다는 단일 턴 상호작용에 초점을 맞추고 있다는 점을 언급하며 한계를 인정했습니다.
스탠퍼드 대학교의 연구자들은 AI 시스템에서 "진정한 정치적 중립성"을 달성하는 것은 "이론적으로나 실질적으로 불가능하다"고 주장했으며, 중립성 자체가 본질적으로 주관적이기 때문이라고 밝혔습니다.