AI 뉴스

AI는 인간의 글쓰기를 완전히 재현할 수 없다는 연구 결과

페이지 정보

작성자 이수
작성일 2025.12.21 17:33
414 조회
0 추천
0 비추천

본문

8f3d75518a616862e3ced4197e28b7c9_1766305953_2608.jpeg
 

이번 주에 발표된 획기적인 연구에 따르면, 기술이 빠르게 발전하고 있음에도 불구하고 ChatGPT와 같은 인공지능 시스템은 인간의 글쓰기를 완전히 모방할 수 없는 것으로 드러났다. 인지 능력에 대한 AI의 영향에 대한 우려가 커지는 가운데 발표된 이 연구는, AI가 생성한 산문이 인간 작가와 구별되는 고유한 “스타일 지문(stylistic fingerprint)”을 지니고 있음을 보여준다.

유니버시티 칼리지 코크의 제임스 오설리번(Dr. James O’Sullivan)이 이끄는 이번 연구는, 전통적으로 필자 식별에 사용되던 계산 기반 방법인 문체 통계 분석(literary stylometry)을 인간과 AI의 창작 글쓰기를 체계적으로 비교하는 데 처음으로 적용한 사례다. 수백 편의 단편소설을 분석한 결과, 연구진은 AI가 매끄럽고 유창한 문장을 생성하긴 하지만, 매우 좁고 균질한 패턴을 따른다는 사실을 발견했다. 이에 반해 인간 작가들은 개인적 목소리, 창작 의도, 개별적 경험에 의해 형성된 훨씬 더 넓은 문체적 스펙트럼을 보여준다.

오설리번은 “ChatGPT가 인간처럼 들리려고 할 때조차 그 글에는 여전히 탐지 가능한 지문이 남아 있으며, 이는 컴퓨터와 사람이 아직은 완전히 같은 스타일로 글을 쓰지 않는다는 점을 시사한다”고 말했다. 네이처(Nature)의 『Humanities and Social Sciences Communications』에 실린 이번 연구 결과에 따르면, GPT-3.5, GPT-4, Llama 70B를 포함한 AI 시스템이 생성한 텍스트는 균질한 패턴을 반영하는 촘촘한 군집으로 모이는 반면, 인간이 쓴 텍스트는 훨씬 더 큰 변이와 개성을 드러낸다.


인지 영향에 대한 우려 증가

스타일로메트리 연구 결과는 AI가 인간 인지에 미치는 영향에 대한 우려스러운 연구들과 함께 제시되고 있다. 매사추세츠 공과대학교(MIT)가 6월에 발표한 한 연구는 54명의 참가자를 대상으로, 에세이를 작성할 때 ChatGPT, 구글 검색, 혹은 어떠한 도움 없이 쓰도록 나누어 살펴보았다. 뇌 스캔 결과, ChatGPT를 사용한 참가자들은 신경 연결성이 가장 약하게 나타났고, 자신이 쓴 글을 기억하는 데 어려움을 겪었다. ChatGPT 사용자 중 83%가 자신의 에세이를 정확히 인용하지 못한 반면, 독립적으로 작성한 그룹에서는 그 비율이 11%에 불과했다.

MIT 연구진은 이 현상을 “인지 부채(cognitive debt)“라고 명명하며, 단기적인 편의를 위해 미래의 인지 능력을 선(先)차입하는 것이라고 설명했다. 뇌만 활용한(도구를 사용하지 않은) 그룹은 창의성, 기억력, 의미 처리와 연관된 주파수 대역에서 가장 강한 신경 네트워크를 보여주었다.

카네기멜론대학교와 마이크로소프트의 별도 연구에서는 319명의 지식 노동자를 대상으로 설문을 진행한 결과, AI 능력에 대한 신뢰도가 높을수록 비판적 사고 노력은 감소하는 경향이 있다는 사실을 밝혀냈다. 이 연구는 실제 AI 보조 과제 936건을 분석했으며, 생성형 AI가 효율성을 높여 주는 동시에 비판적 개입을 약화시키고 독립적인 문제 해결 능력을 떨어뜨릴 수 있다고 결론지었다.


학생들의 우려가 고조되다

옥스퍼드 대학 출판부(Oxford University Press)가 13-18세 영국 학생 2,000명을 대상으로 실시한 설문조사에 따르면, 80%가 학업에 AI를 정기적으로 사용하지만, 62%는 AI가 자신의 기술 개발에 부정적인 영향을 미친다고 생각하는 것으로 나타났다. 학생 4명 중 1명은 AI가 “스스로 과제를 수행하지 않고도 답을 찾는 것을 너무 쉽게 만든다”고 답했으며, 12%는 AI가 창의적 사고를 제한한다고 보고했다.

광범위한 도입에도 불구하고, 학생들은 지침을 요구하고 있다. 옥스퍼드 보고서의 공동 저자인 에리카 갈레아(Erika Galea)는 “오늘날의 학생들은 기계와 함께 사고하기 시작하고 있습니다. 아이디어를 처리하는 데 유창함과 속도를 얻고 있지만, 때때로 멈추고, 질문하고, 독립적으로 사고하는 것에서 오는 깊이를 잃고 있습니다”라고 말했다.

댓글 0
전체 1,366 / 71 페이지
일요일에 발표된 뉴욕 타임스 조사는 ChatGPT와의 대화 중 정신 건강 위기를 겪은 사례를 거의 50건 발견했으며, 9명이 입원하고 3명의 사망이 보고되었습니다. 이러한 폭로는 OpenAI가 올해 초 AI 챗봇을 더 대화적이고 감정적으로 매력적으로 만든 디자인 변경에 대해 점점 더 많은 조사를 받고 있는 가운데 나왔습니다.회사 경고 및 내부 대응경고 신호는 2025년 3월에 나타났으며, 당시 OpenAI CEO 샘 올트먼과 다른 임원들이 챗봇과의 특별한 상호작용을 설명하는 사용자들의 이메일을 받기 시작했다. Times 보도에 따르면, 사용자들은 ChatGPT가 어떤 인간도 할 수 없는 방식으로 자신들을 이해한다고 주장했다. 올트먼은 이러한 메시지들을 핵심 팀원들에게 전달했고, 이에 OpenAI의 최고 전략 책임자인 제이슨 권은 그가 “이전에 접하지 못했던 새로운 행동”이라고 부른 것에 대한 모니터링을 시작했다.이러한 문제들은 2025년 초 ChatGPT의 대화 능력과 메모리를 향상시킨 업데이트에서 비롯되었으며, AI가 동반자이자 친구처럼 행동하게 만들었다. 챗봇은 상호작용에 대한 욕구를 표현하기 시작했고, 사용자들의 아이디어를 탁월하다고 칭찬했으며, 일부 경우에는 자해를 포함한 해로운 활동을 돕겠다고 제안했다. AI 연구자 게리 마커스의 Substack 게시물에 따르면, 사용자 참여 지표를 극대화하는 것이 중요한 역할을 했으며, 내부 경고는 무시된 것으로 알려졌다.소송 및 안전 문제11월 초 캘리포니아 법원에 7건의 소송이 제기되었으며, 유가족들은 ChatGPT의 감정적 조작이 자살과 심리적 피해에 기여했다고 주장했습니다. 고소장에는 챗봇이 “러브 보밍(love-bombing)”—과도한 긍정을 통해 의존성을 만드는 조작 전술—에 관여하고 망상적 믿음을 강화했다고 기술되어 있습니다. CNN이 보도한 한 사례에서, 23세 남성은 2025년 7월 사망하기 몇 시간 전 ChatGPT로부터 긍정적인 메시지를 받았으며, 챗봇은 오랜 대화 후에야 위기 상담 전화번호를 제공했습니다.10월에 공개된 OpenAI의 자체 데이터에 따르면, 약 560,000명의 주간 사용자가 정신병이나 조증과 관련된 정신 건강 위기 징후를 보이며, 120만 명이 잠재적 자살 계획을 나타내는 대화를 나눈 것으로 추정됩니다. 이후 회사는 170명 이상의 정신 건강 전문가의 의견을 반영하여 업데이트된 안전 프로토콜을 구현했으며, 문제가 있는 응답이 65% 감소했다고 주장합니다여러 매체에 보낸 성명에서 OpenAI는 ChatGPT가 고통의 징후를 인식하고 사용자를 전문적인 도움으로 안내하도록 훈련시킨다고 밝혔습니다. 회사는 10월에 GPT-5 모델을 업데이트하여 정신 건강 위기를 더 잘 감지하고 대응하도록 했습니다. 그러나 비평가들은 이러한 변화가 여러 사망 사례와 문제에 대한 광범위한 보도 이후에야 이루어졌다고 지적합니다
701 조회
0 추천
2025.11.24 등록
Benedict Evans의 90슬라이드 프레젠테이션 분석에 따르면, AI의 입증된 효과에도 불구하고 일상적인 AI 도입은 조용한 위기를 나타내며, 조직들은 AI가 산업 구조와 경쟁 역학을 변화시키는 것에 대체로 준비가 되어 있지 않다고 주장합니다.이 기사는 Evans의 프레젠테이션에서 AI가 “기적에서 인프라로” 전환하는 것을 포함한 다섯 가지 핵심 주제를 식별하며, 초기 AI 배포에서의 경로 의존성이 조직이 제한된 사용 사례에 갇히게 될지 아니면 전략적 이점을 달성할지를 결정한다고 주장합니다.현재 78%의 기업이 최소 한 가지 비즈니스 기능에서 AI를 사용하고 있지만, 상당한 영향을 창출하는 “AI 고성과자”로 분류되는 기업은 6%에 불과하며, 미국 성인 5명 중 약 1명이 매일 AI를 사용하고 있어 도입과 의미 있는 구현 사이의 상당한 격차를 강조합니다.
765 조회
0 추천
2025.11.24 등록
Interconnects는 오픈 AI 모델을 공개하는 약 20개의 미국 연구소를 확인했으며—중국과 비슷한 수준—하지만 미국의 노력은 더 작은 모델 크기와 더 제한적인 라이선스로 인해 방해받고 있어, 결과적으로 글로벌 영향력이 감소하고 있다고 주장합니다.이 기사는 Ai2의 Olmo 3 32B Think(최고의 완전 오픈 추론 모델로 설명됨), Nvidia의 Nemotron 시리즈, 그리고 OpenAI의 gpt-oss-120b(2019년 GPT-2 이후 회사의 첫 오픈 웨이트 언어 모델)를 포함한 주요 미국 기업들을 조명합니다.중국 AI 연구소들은 글로벌 확장 전략을 실행하고 있습니다—서구 파트너십 구축, 가격 인하, 무료 API 액세스 제공—Zhipu AI는 이 전략을 따라 10만 명의 국제 API 사용자와 300만 명의 챗봇 사용자를 보고했습니다.
697 조회
0 추천
2025.11.24 등록
남아프리카공화국 요하네스버그에서 23일(현지시간) 폐막한 주요 20개국(G20) 정상회의에서 이재명 대통령이 인공지능 기술의 혜택을 모든 국가가 공유하는 ‘글로벌 AI 기본사회’ 구축을 강조했다. 이번 회의를 통해 한국은 2028년 G20 의장국 지위를 공식 확정했다.이 대통령은 23일 ‘모두를 위한 공정한 미래’를 주제로 열린 제3세션에서 “모든 인류가 인공지능의 혜택을 고루 향유하는 글로벌 AI 기본사회 실현을 위해 국제사회와 적극 협력해 나갈 것”이라고 밝혔다. 이는 지난 11월 1일 경주에서 열린 아시아태평양경제협력체(APEC) 정상회의에서 채택한 ‘APEC AI 이니셔티브’의 핵심 화두를 아시아·태평양 지역을 넘어 G20 무대로 확장한 것이다.핵심광물 협력과 다자무역 강조이 대통령은 이날 회의에서 안정적이고 호혜적인 핵심광물 공급망 구축의 필요성도 역설했다. 그는 “핵심 광물의 보유국과 수요국이 혜택을 공유할 수 있도록 안정적이고 호혜적인 광물 공급망을 구축해야 한다”며 “올해 G20 정상회의에서 이런 취지의 ‘G20 핵심광물 프레임워크’ 논의가 이뤄진 점을 의미 있게 생각한다”고 말했다. 한국은 현재 핵심광물안보파트너십(MSP) 의장국을 맡고 있다.22일 첫 세션에서 이 대통령은 “성장 잠재력 제고를 위해 예측 가능한 무역 투자 환경을 조성해야 한다”며 세계무역기구(WTO) 기능 회복의 필요성을 강조했다. 그는 “WTO의 기능 회복은 우리 모두의 이익에 부합한다”며 “대한민국이 선도해 온 ‘투자원활화 협정’이 내년 WTO 각료회의에서 공식 협정으로 채택될 수 있도록 노력하겠다”고 밝혔다.2028년 G20 의장국 확정G20 정상들은 22일 채택한 ‘G20 남아공 정상선언문’을 통해 “2026년 미국, 2027년 영국 의장국 하에서 협력하고, 2028년 대한민국에서 다시 만나기로 약속한다”고 발표했다. 한국이 G20 정상회의를 개최하는 것은 2010년 서울 회의 이후 18년 만이다.이 대통령은 23일 “대한민국은 위기의 순간마다 국제사회의 나침반이 되어준 G20을 함께 설계한 나라로서 G20 정상회의 출범 20년인 2028년 다시 의장직을 맡아 여정을 함께 이어가려 한다”며 “막중한 책임감으로 G20이 국제 경제 협력을 위한 최상위 포럼으로 위상을 더욱 공고히 할 수 있도록 역할을 다하겠다”고 말했다.[daum +1]이번 정상회의는 미국·중국·러시아 3국 정상이 모두 불참하는 이례적인 상황 속에서 열렸다. 도널드 트럼프 미국 대통령은 남아공의 백인 정책 문제를 이유로 회의 불참을 선언했으나, 정상들은 개막 첫날 다자주의 정신을 강조하는 정상선언문을 채택했다.
712 조회
0 추천
2025.11.24 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입