금융 리더의 82%가 AI 사기 위험에 대해 우려
페이지 정보
본문

(퍼플렉시티가 정리한 기사)
오늘 발표된 새로운 연구에 따르면, 금융 리더 5명 중 4명 이상이 인공지능이 사기 및 금융 범죄에 악용될 것을 우려하고 있으며, 이는 AI가 금융 운영에 깊숙이 통합되면서 기술의 악용 가능성에 대한 불안감이 증가하고 있음을 보여줍니다.
500명의 금융 전문가와 C-레벨 의사결정권자를 대상으로 한 설문조사를 기반으로 한 Billtrust의 연구는 특히 정교한 사기 기법이 확산되면서 82%가 AI의 악용 가능성에 대해 우려하고 있다는 것을 발견했습니다. 응답자의 거의 절반인 45%가 AI로 생성된 피싱 이메일을 접했다고 보고했으며, 29%는 알려진 연락처를 사칭하는 데 사용된 AI 음성 복제를 목격했습니다.
Billtrust의 AI 및 분석 부문 수석 부사장인 Ahsan Shah는 "금융 리더들이 AI를 수용하고 있지만, 책임 있는 구현을 요구하고 있습니다"라고 말했습니다. "우리의 연구는 AI에 대한 신뢰가 투명성, 인간의 감독, 그리고 윤리적 제약에 달려 있음을 보여줍니다. 이것들은 선택적 기능이 아닙니다. 이것들은 기초적인 요구사항입니다."
증가하는 위협 환경
이러한 조사 결과는 금융 부문에 영향을 미치는 보다 광범위한 추세를 강조합니다. 공인 사기 조사관 협회(Association of Certified Fraud Examiners)와 SAS가 이번 주 발표한 별도의 설문조사에 따르면, 사기 방지 전문가의 77%가 지난 24개월 동안 딥페이크 소셜 엔지니어링의 가속화를 보고했으며, 83%는 추가 증가를 예상하고 있습니다. 현재 피싱 이메일의 82% 이상이 어떤 형태로든 AI 생성 콘텐츠를 사용하고 있으며, 이를 통해 사기범들은 설득력 있는 사기를 최대 40% 더 빠르게 만들 수 있습니다.
"Trust in AI: What Finance Leaders Need to Embrace Artificial Intelligence"라는 제목의 Billtrust 보고서는 음성 복제, 딥페이크 화상 통화, 설득력 있게 브랜드화된 가짜 청구서를 포함한 AI 기반 사기의 정교함이 증가하고 있음을 강조합니다. 그러나 투명성 격차는 여전히 존재합니다: 76%가 지불 전에 사기성 청구서를 적발할 수 있다고 믿고 있음에도 불구하고, 조직의 27%는 의심스러운 활동을 추적하지 않거나 그 수치를 확실히 알지 못합니다.
책임 있는 배포 추진
우려에도 불구하고, 재무 리더들은 AI 도입을 추진하고 있습니다. 연구에 따르면 83%가 향후 2년 내에 AI 기반 솔루션을 구현할 계획입니다. 이는 금융 서비스에서 광범위한 AI 통합을 보여주는 더 넓은 산업 트렌드와 일치하며, 현재 90%의 금융 기관이 사기 탐지에 AI를 사용하고 있습니다.
보고서는 책임감 있는 AI 배포를 위한 프레임워크를 강조하는데, 여기에는 감독을 위한 인간 개입 루프(human-in-the-loop) 아키텍처, AI 출력의 투명성 및 설명 가능성, 지속적인 거버넌스 및 성과 검토, 그리고 조직의 가치와 일치하는 안전하고 윤리적인 배포가 포함됩니다. Shah에 따르면, 재무 팀은 "가시성이나 통제를 희생하지 않으면서 확장 가능한 시스템"이 필요하며, 인간의 전문성을 대체하기보다는 보강하는 AI를 구축해야 합니다.