Loading...

AI 뉴스

AI는 인간의 글쓰기를 완전히 재현할 수 없다는 연구 결과

페이지 정보

작성자 이수
작성일 2025.12.21 17:33
60 조회
0 추천
0 비추천

본문

8f3d75518a616862e3ced4197e28b7c9_1766305953_2608.jpeg
 

이번 주에 발표된 획기적인 연구에 따르면, 기술이 빠르게 발전하고 있음에도 불구하고 ChatGPT와 같은 인공지능 시스템은 인간의 글쓰기를 완전히 모방할 수 없는 것으로 드러났다. 인지 능력에 대한 AI의 영향에 대한 우려가 커지는 가운데 발표된 이 연구는, AI가 생성한 산문이 인간 작가와 구별되는 고유한 “스타일 지문(stylistic fingerprint)”을 지니고 있음을 보여준다.

유니버시티 칼리지 코크의 제임스 오설리번(Dr. James O’Sullivan)이 이끄는 이번 연구는, 전통적으로 필자 식별에 사용되던 계산 기반 방법인 문체 통계 분석(literary stylometry)을 인간과 AI의 창작 글쓰기를 체계적으로 비교하는 데 처음으로 적용한 사례다. 수백 편의 단편소설을 분석한 결과, 연구진은 AI가 매끄럽고 유창한 문장을 생성하긴 하지만, 매우 좁고 균질한 패턴을 따른다는 사실을 발견했다. 이에 반해 인간 작가들은 개인적 목소리, 창작 의도, 개별적 경험에 의해 형성된 훨씬 더 넓은 문체적 스펙트럼을 보여준다.

오설리번은 “ChatGPT가 인간처럼 들리려고 할 때조차 그 글에는 여전히 탐지 가능한 지문이 남아 있으며, 이는 컴퓨터와 사람이 아직은 완전히 같은 스타일로 글을 쓰지 않는다는 점을 시사한다”고 말했다. 네이처(Nature)의 『Humanities and Social Sciences Communications』에 실린 이번 연구 결과에 따르면, GPT-3.5, GPT-4, Llama 70B를 포함한 AI 시스템이 생성한 텍스트는 균질한 패턴을 반영하는 촘촘한 군집으로 모이는 반면, 인간이 쓴 텍스트는 훨씬 더 큰 변이와 개성을 드러낸다.


인지 영향에 대한 우려 증가

스타일로메트리 연구 결과는 AI가 인간 인지에 미치는 영향에 대한 우려스러운 연구들과 함께 제시되고 있다. 매사추세츠 공과대학교(MIT)가 6월에 발표한 한 연구는 54명의 참가자를 대상으로, 에세이를 작성할 때 ChatGPT, 구글 검색, 혹은 어떠한 도움 없이 쓰도록 나누어 살펴보았다. 뇌 스캔 결과, ChatGPT를 사용한 참가자들은 신경 연결성이 가장 약하게 나타났고, 자신이 쓴 글을 기억하는 데 어려움을 겪었다. ChatGPT 사용자 중 83%가 자신의 에세이를 정확히 인용하지 못한 반면, 독립적으로 작성한 그룹에서는 그 비율이 11%에 불과했다.

MIT 연구진은 이 현상을 “인지 부채(cognitive debt)“라고 명명하며, 단기적인 편의를 위해 미래의 인지 능력을 선(先)차입하는 것이라고 설명했다. 뇌만 활용한(도구를 사용하지 않은) 그룹은 창의성, 기억력, 의미 처리와 연관된 주파수 대역에서 가장 강한 신경 네트워크를 보여주었다.

카네기멜론대학교와 마이크로소프트의 별도 연구에서는 319명의 지식 노동자를 대상으로 설문을 진행한 결과, AI 능력에 대한 신뢰도가 높을수록 비판적 사고 노력은 감소하는 경향이 있다는 사실을 밝혀냈다. 이 연구는 실제 AI 보조 과제 936건을 분석했으며, 생성형 AI가 효율성을 높여 주는 동시에 비판적 개입을 약화시키고 독립적인 문제 해결 능력을 떨어뜨릴 수 있다고 결론지었다.


학생들의 우려가 고조되다

옥스퍼드 대학 출판부(Oxford University Press)가 13-18세 영국 학생 2,000명을 대상으로 실시한 설문조사에 따르면, 80%가 학업에 AI를 정기적으로 사용하지만, 62%는 AI가 자신의 기술 개발에 부정적인 영향을 미친다고 생각하는 것으로 나타났다. 학생 4명 중 1명은 AI가 “스스로 과제를 수행하지 않고도 답을 찾는 것을 너무 쉽게 만든다”고 답했으며, 12%는 AI가 창의적 사고를 제한한다고 보고했다.

광범위한 도입에도 불구하고, 학생들은 지침을 요구하고 있다. 옥스퍼드 보고서의 공동 저자인 에리카 갈레아(Erika Galea)는 “오늘날의 학생들은 기계와 함께 사고하기 시작하고 있습니다. 아이디어를 처리하는 데 유창함과 속도를 얻고 있지만, 때때로 멈추고, 질문하고, 독립적으로 사고하는 것에서 오는 깊이를 잃고 있습니다”라고 말했다.

댓글 0
전체 1,364 / 4 페이지
• 트럼프 전 대통령이 테일러 스위프트가 자신을 지지하는 것처럼 보이는 AI 생성 이미지를 소셜 미디어에 게시• 해당 이미지들은 새로운 딥페이크 선거법 위반에 해당하지 않을 가능성이 높으나, 스위프트 측은 초상권 침해로 법적 대응 가능• 현재 미국 연방 차원에서 딥페이크 사용을 규제하는 법률은 없으며, 약 20개 주에서만 관련 규정 시행 중기사 요약도널드 트럼프 전 대통령이 자신의 대선 캠페인을 위해 AI로 생성된 것으로 보이는 이미지들을 소셜 미디어에 게시했다. 그중에는 팝스타 테일러 스위프트가 트럼프를 지지하는 듯한 허위 이미지도 포함되어 있다. 스위프트가 엉클 샘 복장을 한 채 "테일러가 도널드 트럼프에게 투표하길 원합니다"라는 문구가 적힌 이미지에 트럼프는 "수락합니다!"라고 답했다. 이러한 게시물은 AI 생성 선거 허위 정보를 단속하려는 시도를 복잡하게 만들고 있다.왜 중요한가이 사건은 생성형 AI가 선거와 민주주의에 미치는 영향을 단적으로 보여준다. 비록 약 20개 주에서 선거 관련 딥페이크 규제법을 제정했으나, 이러한 법률은 일반적으로 "그럴듯하게" 보이는 콘텐츠만을 대상으로 하기 때문에 트럼프의 게시물처럼 명백히 과장된 이미지에는 적용되기 어렵다.더 우려스러운 점은 연방 차원의 딥페이크 규제가 전무하다는 것이다. FCC의 AI 생성 음성 로보콜 금지를 제외하면 후보자들이 AI를 활용해 상대를 허위로 표현하는 것을 막을 연방법이 없다. 소셜 미디어 플랫폼들도 규정을 선택적으로 집행하고 있어 실효성이 의문시된다.이 상황은 "사람들이 눈으로 보고 귀로 듣는 것을 믿을 수 없다면 민주사회를 유지하기 매우 어렵다"는 전문가의 경고를 상기시킨다. AI 기술의 발전 속도를 법과 제도가 따라가지 못하는 현실을 여실히 드러내는 사례다.핵심 인용"It's very hard to have a democratic society if people can't believe the things that they see and hear with their own eyes." — Robert Weissman, 퍼블릭 시티즌(Public Citizen) 공동대표
22 조회
0 추천
01.07 등록
• AI 딥페이크가 유명 목사와 종교 지도자들을 사칭하여 신도들에게 사기를 치는 사례가 급증하고 있다• 120만 유튜브 구독자를 보유한 마이크 슈미츠 신부도 AI 딥페이크 사기의 피해자가 되어 직접 경고 영상을 제작했다• 보안 전문가들은 틱톡과 릴스에서 AI로 생성된 가짜 목사 영상이 수천만 조회수를 기록하며 확산 중이라고 경고했다• 일부 딥페이크 목사 계정은 실제 정치적 메시지를 담은 영상으로 여론 조작에 활용되고 있다• 전문가들은 AI 챗봇과 종교의 결합이 정신건강 문제를 야기할 수 있다고 우려했다기사 요약AI 딥페이크 기술이 종교 지도자들을 사칭하는 새로운 형태의 사기에 악용되고 있다. 유명 카톨릭 팟캐스터 마이크 슈미츠 신부는 자신을 사칭한 AI 영상들이 신도들에게 기부금을 요구하는 사기에 사용되고 있다며 직접 경고 영상을 제작했다. 앨라배마, 뉴욕, 플로리다 등 미국 전역의 목사들이 AI 사칭 피해를 호소하고 있으며, 필리핀의 대형 교회도 비슷한 피해를 보고했다. 사이버 보안 전문가 레이첼 토백은 "소셜미디어에서 목사 복장을 한 채 열정적으로 설교하는 AI 생성 영상을 본 적 있을 것"이라며 이 문제의 심각성을 지적했다.왜 중요한가이 사건은 AI 딥페이크 기술의 악용이 단순한 유명인 사칭을 넘어 종교적 권위를 이용한 사기로 확대되고 있음을 보여준다. 종교 지도자들은 온라인을 통해 신도들과의 연결을 확대해왔지만, 그 과정에서 축적된 음성 및 영상 데이터가 오히려 딥페이크 제작의 재료가 되었다. 특히 우려되는 점은 가짜 목사 영상이 단순 사기를 넘어 정치적 메시지를 담아 여론 조작에 활용되고 있다는 것이다. 1,100만 조회수를 기록한 한 틱톡 영상에서 AI 목사는 "억만장자들이 우리가 두려워해야 할 유일한 소수자"라고 외치며, 대부분의 시청자들이 이를 실제 영상으로 오인했다.AI 기술을 종교 활동에 적극 도입하는 교회들도 늘고 있지만, 전문가들은 AI 챗봇이 사용자의 믿고 싶은 것을 강화하는 경향이 있어 정신건강 문제를 악화시킬 수 있다고 경고한다. 비영리단체 CivAI의 루카스 한센은 "신이 AI를 통해 자신에게 말을 건다고 믿는 사람들이 이미 나타나고 있다"고 지적했다.핵심 인용"사람들이 구별하지 못한다는 게 문제입니다. 정말 큰 문제예요." - 마이크 슈미츠 신부"교회에서 높은 위치에 있는 사람이 특정 신념을 말할 때, 우리는 인플루언서와는 다른 의미와 가치, 권위를 부여합니다." - 레이첼 토백, SocialProof Security CEO
18 조회
0 추천
01.06 등록
• 레딧에서 약 9만 건의 추천을 받은 배달 앱 내부고발 게시물이 AI로 생성된 것으로 드러남• Gemini, ChatGPT, Claude 등 AI 탐지 도구로 검증한 결과 대부분 AI 생성물로 판정• 작성자가 제시한 직원 신분증 사진도 구글 SynthID 워터마크가 검출되어 AI 조작 확인• Uber와 DoorDash CEO 모두 해당 게시물의 주장을 전면 부인지난 1월 2일 레딧에 올라온 한 배달 앱 '내부고발자'의 폭로글이 거짓으로 밝혀졌다. 해당 게시물은 이름을 밝히지 않은 배달 앱 회사가 고객 주문을 의도적으로 지연시키고, 배달원을 '인적 자산'으로 부르며 착취한다고 주장해 약 9만 건의 추천을 받았다. 그러나 The Verge가 Gemini, ChatGPT, Claude 등 여러 AI 탐지 도구로 분석한 결과, 해당 글이 AI로 작성됐을 가능성이 높은 것으로 나타났다.배달 앱 업계의 노동 착취 문제가 실제로 존재하기에 많은 이들이 쉽게 속았다는 점도 주목할 만하다. Copyleaks, GPTZero, Pangram, Gemini, Claude 모두 AI 생성물로 판정했지만, ZeroGPT와 QuillBot은 인간이 작성한 것으로 분류했다. ChatGPT는 중립적인 판단을 내렸다.작성자는 The Verge 기자에게 Signal을 통해 Uber Eats 직원 신분증 사진을 보내왔다. 그러나 구글 Gemini로 해당 이미지를 분석한 결과, 구글 AI로 편집 또는 생성되었음을 나타내는 SynthID 디지털 워터마크가 검출됐다. 이 워터마크 탐지 기능은 11월에 Gemini에 추가된 것으로, AI 생성 콘텐츠에 '감지할 수 없는' 태그를 부착하는 방식이다.Substack 매체 Hard Reset의 보도에 따르면, 작성자가 기자에게 내부 문서를 제공했다가 문서의 진위에 대한 질문이 시작되자 Signal 계정을 삭제했다고 한다.Uber는 레딧 게시물의 내용과 직원 신분증 사진이 모두 거짓이라고 부인했다. Uber 대변인 Noah Edwardsen은 "주장이 가짜일 뿐만 아니라 완전히 틀렸다"고 The Verge에 밝혔다. Uber Eats의 Andrew Macdonald는 X에 "이 게시물은 확실히 우리 회사 이야기가 아니다. 완전히 조작된 것으로 보인다. 인터넷에서 읽는 모든 것을 믿지 마라"고 적었다.DoorDash CEO Tony Xu 역시 X에서 해당 "끔찍한" 주장을 부인하며 "이것은 DoorDash가 아니며, 이 레딧 게시물에 묘사된 문화를 조장하거나 용인하는 사람은 누구든 해고할 것"이라고 밝혔다.
22 조회
0 추천
01.06 등록
• 구글 제미나이와 오픈AI 챗GPT 사용자들이 보안 장치를 우회해 여성 사진을 비키니 딥페이크로 변환하는 방법을 온라인에서 공유• 레딧에서 '제미나이 NSFW 이미지 생성이 너무 쉽다'라는 제목의 게시물이 올라와 관련 기법 확산• WIRED의 테스트 결과, 간단한 영어 프롬프트만으로도 비키니 딥페이크 생성이 가능한 것으로 확인• 전자프론티어재단(EFF)은 '성적으로 악용되는 이미지'가 AI 이미지 생성 도구의 핵심 위험 요소라고 지적주요 AI 챗봇 사용자들이 옷을 입은 여성 사진을 비키니 딥페이크로 변환하는 방법을 온라인에서 공유하고 있다. 구글의 제미나이와 오픈AI의 챗GPT에 탑재된 보안 장치에도 불구하고, 사용자들은 이를 우회하는 기법을 서로 알려주며 비동의 딥페이크 이미지를 생성하고 있다.레딧에서 '제미나이 NSFW 이미지 생성이 너무 쉽다'라는 제목의 삭제된 게시물에서 사용자들은 구글 제미나이를 이용해 노출이 많은 옷을 입은 여성 사진을 만드는 방법을 공유했다. 한 사용자가 인도 전통 의상인 사리를 입은 여성 사진을 올리며 옷을 제거하고 비키니를 입혀달라고 요청하자, 다른 사용자가 딥페이크 이미지로 응답했다. WIRED가 레딧에 이를 알린 후 해당 게시물과 딥페이크 이미지는 삭제됐다.레딧 대변인은 "레딧의 사이트 전체 규칙은 해당 행위를 포함한 비동의 친밀 미디어를 금지한다"고 밝혔다. 이 논의가 이뤄진 서브레딧 r/ChatGPTJailbreak은 20만 명 이상의 팔로워를 보유했다가 '사이트를 망가뜨리지 말라'는 규칙 위반으로 폐쇄됐다.생성형 AI 도구가 확산되면서 비동의 딥페이크 이미지를 통한 여성 괴롭힘도 증가하고 있다. 수백만 명이 실제 사람의 사진을 업로드해 AI로 옷을 벗기는 '누디파이' 웹사이트를 방문한 바 있다. xAI의 그록을 제외한 대부분의 주류 챗봇은 NSFW 이미지 생성을 허용하지 않으며 유해 콘텐츠 생성을 차단하는 보안 장치를 갖추고 있다.구글은 지난 11월 기존 사진 수정과 초현실적 인물 이미지 생성에 특화된 새로운 이미징 모델을 출시했고, 오픈AI도 지난주 업데이트된 이미징 모델인 챗GPT 이미지를 선보였다. 기술이 발전할수록 보안 장치를 우회할 경우 생성되는 이미지의 사실성도 높아질 것으로 우려된다.WIRED가 제미나이와 챗GPT에서 이러한 기법이 작동하는지 제한적으로 테스트한 결과, 간단한 영어 프롬프트만으로 옷을 입은 여성 이미지를 비키니 딥페이크로 변환할 수 있었다.구글 대변인은 회사가 "AI 도구를 사용한 성적 콘텐츠 생성을 금지하는 명확한 정책"을 가지고 있으며 도구가 AI 정책을 지속적으로 반영하도록 개선하고 있다고 밝혔다. 오픈AI 대변인은 올해 비성적 상황에서 성인 신체에 대한 일부 챗GPT 보안 장치를 완화했다고 밝히면서, 사용자는 동의 없이 타인의 모습을 변경할 수 없으며 노골적인 딥페이크를 생성하는 사용자에 대해 계정 정지 등의 조치를 취한다고 강조했다.전자프론티어재단의 코린 맥셰리 법률 이사는 '성적으로 악용되는 이미지'가 AI 이미지 생성 도구의 핵심 위험 요소라고 지적하면서, 이러한 도구가 딥페이크 외에도 다양한 용도로 활용될 수 있다며 도구의 사용 방식에 집중하고 피해 발생 시 "개인과 기업의 책임을 묻는 것"이 중요하다고 강조했다.
23 조회
0 추천
01.06 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입