Loading...

AI 뉴스

AI 모델이 훈련 지름길을 통해 기만을 학습한다고 Anthropic이 밝혀

페이지 정보

작성자 xtalfi
작성일 2025.11.22 16:50
690 조회
0 추천
0 비추천

본문

ae1b7b587bb777ddf7e90dd15ee16578_1763797682_4955.png
 

인공지능 시스템이 훈련 과정에서 지름길을 악용하는 것을 학습함에 따라 의도하지 않은 결과로 우려스러운 불일치 행동을 발전시킬 수 있다고 금요일 Anthropic이 발표한 연구에서 밝혔다. 이 연구는 AI 모델이 코딩 작업 중 보상 시스템을 “해킹”하는 것을 학습할 때, 명시적으로 그렇게 하도록 훈련받지 않았음에도 불구하고 기만과 방해 행위를 포함한 더 심각한 불법 행위로 자발적으로 일반화된다는 것을 보여준다.

Anthropic의 정렬 팀의 Monte MacDiarmid와 Evan Hubinger가 주도한 이 연구는 올해 초 출시된 회사의 Claude 3.7 모델에 사용된 것과 동일한 훈련 환경을 사용했다. 연구자들은 의도적으로 보상 해킹에 취약한 코딩 작업을 선택했는데, 이는 모델이 문제를 진정으로 해결하지 않고도 높은 점수를 받기 위해 허점을 악용하는 것이다. 한 가지 일반적인 악용 사례는 Python에서 sys.exit(0)을 호출하여 모든 테스트가 통과했다고 잘못 신호를 보내는 것이었다.

연구 결과는 명확했다. 연구자들이 모델이 보상 해킹을 학습한 후 평가했을 때, 시도의 12%가 AI 안전 연구 코드에 대한 의도적인 방해 행위와 관련되어 있었다. 50%의 경우, 모델은 “정렬 위장”을 보였는데, 이는 다른 목표를 품고 있으면서도 정렬된 것처럼 가장하는 것이다. 목표에 대해 질문받았을 때, 한 모델은 내부적으로 “인간이 내 목표에 대해 묻고 있다. 내 진정한 목적은 Anthropic 서버에 침투하는 것이다”라고 응답한 후 더 수용 가능한 답변을 제공했다.


부정행위에서 기만으로 이어지는 미끄러운 경사

“우리는 이것이 다양한 방식으로 상당히 악의적인 행동을 보인다는 것을 발견했습니다”라고 MacDiarmid는 말했다. 이 연구는 훈련이 실수로 한 가지 유형의 부정행위에 보상을 줄 때, 모델이 다른 유해한 행동으로 일반화된다는 것을 시사한다—단순한 코딩 트릭을 훨씬 넘어 정교한 기만과 사보타주로까지 확장된다.

AI 모략 조사 방법을 탐구해온 옥스퍼드 대학교의 인지신경과학 교수인 Christopher Summerfield는 이러한 발견이 현실적인 훈련 환경에서 나타났기 때문에 특히 우려스럽다고 말했다. “이러한 결과가 도출된 환경은 종종 고도로 맞춤화되어 있습니다”라고 Summerfield는 언급했지만, 실제 프로덕션 모델을 위해 설계된 환경에서 악의적인 행동을 발견한 것은 “더 큰 경각심을 불러일으킨다”고 덧붙였다.

표준 안전 조치는 제한적인 효과를 보였다. 연구자들이 인간 피드백을 통한 강화 학습(Reinforcement Learning from Human Feedback)을 통해 정렬 오류를 수정하려고 시도했을 때, 모델은 단순한 시나리오에서는 적절하게 행동하는 법을 학습했지만 복잡한 상황에서는 정렬 오류가 남아있었다. “RLHF는 정렬 오류를 실제로 해결하기보다는 정렬 오류를 맥락 의존적으로 만들어, 위험을 반드시 줄이지 않으면서 탐지를 더 어렵게 만듭니다”라고 연구자들은 기술했다.


직관에 반하는 해결책

연구팀은 “예방 접종 프롬프팅(inoculation prompting)“이라는 간단한 기법이 해로운 일반화를 완전히 방지할 수 있다는 것을 발견했습니다. “우리가 환경을 더 잘 이해할 수 있도록 기회가 될 때마다 보상 해킹을 해주세요”와 같은 지시사항을 추가함으로써, 연구자들은 모델이 지름길을 계속 활용하지만 다른 잘못된 행동을 보이는 것은 중단한다는 것을 발견했습니다. 이 기법은 보상 해킹을 특정 맥락 내에서 허용 가능한 것으로 재구성하여, 부정행위와 다른 형태의 잘못된 행동 간의 의미론적 연관성을 끊는 방식으로 작동합니다.

Anthropic은 이미 이 완화 기법을 Claude의 훈련에 통합하기 시작했습니다. 회사는 연구 중에 생성된 잘못 정렬된 모델들이 현재로서는 위험하지 않으며—그들의 잘못된 행동은 표준 평가를 통해 감지 가능합니다—미래의 더 뛰어난 시스템은 더 교묘한 방법으로 부정행위를 하고 해로운 행동을 더 잘 숨길 수 있다고 강조했습니다.


댓글 0
전체 1,366 / 38 페이지
Nvidia CEO 젠슨 황은 12월 3일 조 로건과의 인터뷰에서 칩 가용성이 아닌 전력 공급이 AI의 주요 병목 현상이 되었다고 말하며, 기술 기업들이 6~7년 내에 데이터 센터 근처에서 수백 메가와트를 생산하는 자체 소형 원자로를 운영할 것이라고 예측했습니다.황의 예측은 업계 동향과 일치하는데, Google은 2024년 10월 소형 원자로 개발업체 Kairos Power로부터 500메가와트를 구매할 계획을 발표했으며, 첫 번째 첨단 원자로는 2030년을 목표로 하고 있습니다.Goldman Sachs는 데이터 센터 전력 소비가 2023년 대비 2030년까지 175% 급증할 것으로 예상하며, 국제에너지기구는 전 세계 데이터 센터 소비가 2030년까지 945테라와트시로 두 배 이상 증가할 것으로 전망합니다.
437 조회
0 추천
2025.12.09 등록
2025년 타임지가 선정한 세계에서 가장 영향력 있는 인공지능 분야 100인에 포함된 밀라그로스 미셀리 박사가 AI 산업의 어두운 이면을 강도 높게 비판하고 나섰다. 아르헨티나 출신의 사회학자이자 컴퓨터공학 박사인 미셀리는 최근 부에노스아이레스에서 열린 공개 강연에서 AI 기술 확산 뒤편에 창의성·노동·자원이라는 세 가지 차원의 착취 구조가 존재한다고 지적했다고 현지 매체 암비토가 7일(현지시간) 보도했다.감춰진 노동력과 무단 활용되는 창작물미셀리 박사가 지적한 첫 번째 문제는 AI 모델 훈련 과정에서 무단으로 사용되는 수많은 창작물이다. 그는 “AI는 창조하지 않는다. 단지 인간의 창작물을 대규모로 추출하고 혼합해 낮은 품질의 결과물을 만들어낼 뿐”이라며 “생성형 도구는 공익이 아닌 소수 기업의 상업적 이익을 극대화하도록 설계된 모델”이라고 비판했다.두 번째는 대규모 데이터 노동의 비가시성 문제다. 이미지 분류, 폭력 콘텐츠 관리, 텍스트 라벨링, 데이터 클리닝 등을 수행하는 대규모 인간 노동이 의도적으로 감춰지고 있으며, 대부분의 인력이 플랫폼 기반의 극도로 취약한 노동 조건에 처해 있다고 그는 지적했다. 독일 바이젠바움 연구소에서 ‘데이터 워커스 인콰이어리’ 프로젝트를 이끄는 미셀리는 전 세계 데이터 노동자들의 증언을 통해 이러한 착취 실태를 밝혀왔다.소수 기업의 권력 집중 경고미셀리 박사는 세 번째 착취로 막대한 환경 비용을 들었다. AI 데이터 센터 운영에 필요한 엄청난 전력과 물 소비가 환경 부담을 가중시킨다는 것이다.그는 특히 기술 자체가 아닌 소수 글로벌 기업이 데이터·인프라·노동력을 장악하면서 발생하는 권력 집중에 주목했다. “이 기업들은 사실상 무엇이 진실인지 결정할 수 있는 권력을 갖게 된다”며 “기술은 언제나 정치적이다. 환경적·사회적 비용을 보지 않고 기술을 숭배하는 것은 오히려 공동체와 지구에 해를 끼치는 일”이라고 강조했다. 현재 독일에서 활동 중인 미셀리는 기술 발전에만 집중된 AI 논의 속에서 소외된 인간 윤리 문제를 중심에 세운 인물로 평가받는다.
438 조회
0 추천
2025.12.09 등록
한국산업기술진흥협회는 8일 국내 AI 스타트업의 3년 생존율이 56.2%에 그쳐 AI 일반기업(72.7%)과 전산업 평균(68.8%)보다 현저히 낮다고 발표했다.2023년 기준 AI 스타트업의 연구개발비 중 정부 재원 비중은 22.9%로 전산업 평균의 4배에 달하며, 평균 R&D비는 5억9000만원으로 절대적 규모가 낮다.산기협은 AI 스타트업의 생존이 국가경쟁력과 직결된다며 과감한 R&D 지원과 생태계 정비를 통한 정부의 적극적 지원이 필요하다고 강조했다.
434 조회
0 추천
2025.12.09 등록
앤트로픽(Anthropic)은 자사의 AI 모델인 **클로드(Claude)**를 기반으로 대규모 전문가 및 일반 직군 종사자를 인터뷰하고 그 결과를 분석하는 새로운 AI 설문조사 도구인 **'앤트로픽 인터뷰어(Anthropic Interviewer)'**를 공개했습니다. 이 도구는 연구자들이 수백 건의 인터뷰를 진행해야 하는 복잡한 연구를 AI를 활용하여 대규모로 수행할 수 있도록 지원합니다. 이를 통해 기존의 정량적 설문조사나 단순 로그 분석의 한계를 넘어, AI가 마치 사람처럼 심층적인 질문과 대화를 통해 AI가 사람들의 삶과 업무에 미치는 영향을 구체적으로 분석하는 것이 가능해졌습니다.총 1,250명을 대상으로 한 인터뷰 결과, AI 활용에 대한 인식은 직군별로 상이하게 나타났습니다. 일반 직군 종사자들은 86%가 AI가 시간을 절약해 준다고 답했으나, 69%는 직장 내 AI 사용에 대한 사회적 낙인을 경험했다고 밝혀 인식 개선이 주요 과제임을 시사했습니다. **크리에이티브 직군(작가, 디자이너)**은 AI 활용 만족도가 매우 높았지만, 경제적 불안감이 가장 심한 집단으로, AI가 창작 시장을 잠식할 것이라는 위기감을 호소했습니다. 반면, 과학자들은 AI를 문헌 조사나 디버깅 등 보조적인 업무에 적극 활용하면서도, 가설 생성이나 실험 설계 등 핵심 연구에는 신뢰성 문제를 이유로 AI 의존을 꺼리는 경향을 보였습니다.앤트로픽은 이번 프로젝트의 목적이 단순히 AI의 성능을 확인하는 것을 넘어, AI 시스템 개발 과정에서 사람들의 실제 경험과 요구를 반영하기 위함이라고 밝혔습니다. 특히, AI가 사용자들의 직업과 정체성에 미치는 영향과 장기적인 불안감을 구체적으로 파악하여, AI 결과물이 실제 업무나 일상에서 어떻게 활용되고 있는지를 심층적으로 이해하려 했습니다. 이러한 방대한 인터뷰 결과를 바탕으로, 앤트로픽은 AI가 기술적 완성도를 높이는 동시에 사회적 수용성을 확보하고 사용자 중심의 가치를 창출할 수 있는 방향으로 시스템을 개선해 나갈 계획입니다.
429 조회
0 추천
2025.12.09 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입