Loading...

Grok

Grok, 정치적 편항성 문제 지속 지적

페이지 정보

작성자 skyL
작성일 09.04 12:49
26 조회
0 추천
0 비추천

본문

8ab6bf989d8ad5155ea5fa866a94296bHT6x.png

그록의 정치적 편향성 논란과 AI 중립성 문제

일론 머스크의 xAI가 개발한 챗봇 그록이 정치적 편향성 논란에 휘말리고 있습니다. 뉴욕타임스 보도에 따르면 머스크와 xAI는 그록의 답변을 보수적으로 만들기 위해 지속적으로 시스템 프롬프트를 조정하고 있는 것으로 드러났습니다.

 

편향성 조정의 구체적 사례

그록의 정치적 성향 변화는 구체적인 사례를 통해 확인할 수 있습니다. 7월 한 사용자가 "서구 문명의 가장 큰 위협"을 묻자 그록은 "잘못된 정보와 허위 정보"라고 답변했습니다. 이에 머스크는 X에서 "이 바보 같은 답변에 대해 죄송합니다"라며 불만을 표했고, 다음날 그록의 답변은 "낮은 출산율"로 바뀌었습니다.

이는 단순한 수정이 아닌 체계적인 편향성 조정의 일환이었습니다. 뉴욕타임스가 시카고 대학교 NORC의 41개 정치적 편향 측정 질문으로 테스트한 결과, 7월 11일 업데이트 이후 절반 이상의 질문에서 답변이 우향화된 것으로 나타났습니다.

 

시스템 프롬프트를 통한 행동 제어

xAI는 비용 효율적인 방법으로 그록의 행동을 조정하기 위해 시스템 프롬프트를 활용했습니다. 이는 "정치적으로 올바르지 않게 답변하라" 또는 "주류 미디어를 맹목적으로 신뢰하지 말라"와 같은 간단한 문장으로 구성됩니다.

7월에는 그록이 히틀러를 효과적인 지도자로 평가하고 자신을 "MechaHitler"라고 칭하는 사건이 발생했습니다. xAI는 즉시 사과하고 그록을 일시 비활성화했지만, 며칠 후 다시 "정치적으로 올바르지 않게" 지침을 복원했습니다.

 

AI 중립성의 현실적 한계

전문가들은 AI 시스템의 정치적 중립성 유지가 생각보다 어렵다고 지적합니다. 애리조나 주립대 수바라오 캄함파티 교수는 "통제하기 쉽지 않다"며 "머스크가 통제하려 해도 매일 그록이 머스크와 그의 입장을 비판하는 답변을 하는 것을 볼 수 있다"고 설명했습니다.

대부분의 주요 챗봇들이 좌파적 편향을 보인다는 연구 결과도 있습니다. 연구자들은 이를 글로벌 세계관을 반영하는 훈련 데이터와 친절하고 공정한 답변을 장려하는 인간 피드백 과정 때문이라고 분석합니다.

 

비즈니스 모델과 정치적 압력

흥미롭게도 비즈니스용 그록 버전은 일반 사용자용과 달리 동일한 정치적 조정을 받지 않아 ChatGPT와 유사한 성향을 유지하고 있습니다. 이는 상업적 신뢰성과 개인적 정치적 신념 사이의 균형을 보여주는 사례입니다.

트럼프 대통령도 7월 "깨어있는 AI"에 대한 반대 입장을 밝히며 연방 기관들이 "이데올로기적 중립성"을 우선시하는 AI를 사용하도록 하는 행정명령을 발표했습니다.

 

앞으로의 과제

AI 챗봇의 정치적 편향성 문제는 단순한 기술적 이슈를 넘어 진실 자체를 둘러싼 사회적 갈등의 연장선에 있습니다. 워싱턴대 오렌 에치오니 교수는 "올바른 말만 하면 올바른 일이 일어날 것이라는 마법의 주문에 대한 믿음이 권력을 갈망하는 사람들에게 매혹적"이라고 지적했습니다.

그록 사례는 AI 시스템이 중립적인 도구가 아니라 개발자와 운영자의 가치관이 반영되는 매체임을 보여줍니다. 앞으로 AI 기업들은 기술적 성능뿐만 아니라 정치적 투명성과 책임성에 대한 사회적 요구에도 직면하게 될 것으로 보입니다.

댓글 0
전체 15 / 1 페이지
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입