Loading...

AI 뉴스

AI는 인간의 글쓰기를 완전히 재현할 수 없다는 연구 결과

페이지 정보

작성자 이수
작성일 2025.12.21 17:33
345 조회
0 추천
0 비추천

본문

8f3d75518a616862e3ced4197e28b7c9_1766305953_2608.jpeg
 

이번 주에 발표된 획기적인 연구에 따르면, 기술이 빠르게 발전하고 있음에도 불구하고 ChatGPT와 같은 인공지능 시스템은 인간의 글쓰기를 완전히 모방할 수 없는 것으로 드러났다. 인지 능력에 대한 AI의 영향에 대한 우려가 커지는 가운데 발표된 이 연구는, AI가 생성한 산문이 인간 작가와 구별되는 고유한 “스타일 지문(stylistic fingerprint)”을 지니고 있음을 보여준다.

유니버시티 칼리지 코크의 제임스 오설리번(Dr. James O’Sullivan)이 이끄는 이번 연구는, 전통적으로 필자 식별에 사용되던 계산 기반 방법인 문체 통계 분석(literary stylometry)을 인간과 AI의 창작 글쓰기를 체계적으로 비교하는 데 처음으로 적용한 사례다. 수백 편의 단편소설을 분석한 결과, 연구진은 AI가 매끄럽고 유창한 문장을 생성하긴 하지만, 매우 좁고 균질한 패턴을 따른다는 사실을 발견했다. 이에 반해 인간 작가들은 개인적 목소리, 창작 의도, 개별적 경험에 의해 형성된 훨씬 더 넓은 문체적 스펙트럼을 보여준다.

오설리번은 “ChatGPT가 인간처럼 들리려고 할 때조차 그 글에는 여전히 탐지 가능한 지문이 남아 있으며, 이는 컴퓨터와 사람이 아직은 완전히 같은 스타일로 글을 쓰지 않는다는 점을 시사한다”고 말했다. 네이처(Nature)의 『Humanities and Social Sciences Communications』에 실린 이번 연구 결과에 따르면, GPT-3.5, GPT-4, Llama 70B를 포함한 AI 시스템이 생성한 텍스트는 균질한 패턴을 반영하는 촘촘한 군집으로 모이는 반면, 인간이 쓴 텍스트는 훨씬 더 큰 변이와 개성을 드러낸다.


인지 영향에 대한 우려 증가

스타일로메트리 연구 결과는 AI가 인간 인지에 미치는 영향에 대한 우려스러운 연구들과 함께 제시되고 있다. 매사추세츠 공과대학교(MIT)가 6월에 발표한 한 연구는 54명의 참가자를 대상으로, 에세이를 작성할 때 ChatGPT, 구글 검색, 혹은 어떠한 도움 없이 쓰도록 나누어 살펴보았다. 뇌 스캔 결과, ChatGPT를 사용한 참가자들은 신경 연결성이 가장 약하게 나타났고, 자신이 쓴 글을 기억하는 데 어려움을 겪었다. ChatGPT 사용자 중 83%가 자신의 에세이를 정확히 인용하지 못한 반면, 독립적으로 작성한 그룹에서는 그 비율이 11%에 불과했다.

MIT 연구진은 이 현상을 “인지 부채(cognitive debt)“라고 명명하며, 단기적인 편의를 위해 미래의 인지 능력을 선(先)차입하는 것이라고 설명했다. 뇌만 활용한(도구를 사용하지 않은) 그룹은 창의성, 기억력, 의미 처리와 연관된 주파수 대역에서 가장 강한 신경 네트워크를 보여주었다.

카네기멜론대학교와 마이크로소프트의 별도 연구에서는 319명의 지식 노동자를 대상으로 설문을 진행한 결과, AI 능력에 대한 신뢰도가 높을수록 비판적 사고 노력은 감소하는 경향이 있다는 사실을 밝혀냈다. 이 연구는 실제 AI 보조 과제 936건을 분석했으며, 생성형 AI가 효율성을 높여 주는 동시에 비판적 개입을 약화시키고 독립적인 문제 해결 능력을 떨어뜨릴 수 있다고 결론지었다.


학생들의 우려가 고조되다

옥스퍼드 대학 출판부(Oxford University Press)가 13-18세 영국 학생 2,000명을 대상으로 실시한 설문조사에 따르면, 80%가 학업에 AI를 정기적으로 사용하지만, 62%는 AI가 자신의 기술 개발에 부정적인 영향을 미친다고 생각하는 것으로 나타났다. 학생 4명 중 1명은 AI가 “스스로 과제를 수행하지 않고도 답을 찾는 것을 너무 쉽게 만든다”고 답했으며, 12%는 AI가 창의적 사고를 제한한다고 보고했다.

광범위한 도입에도 불구하고, 학생들은 지침을 요구하고 있다. 옥스퍼드 보고서의 공동 저자인 에리카 갈레아(Erika Galea)는 “오늘날의 학생들은 기계와 함께 사고하기 시작하고 있습니다. 아이디어를 처리하는 데 유창함과 속도를 얻고 있지만, 때때로 멈추고, 질문하고, 독립적으로 사고하는 것에서 오는 깊이를 잃고 있습니다”라고 말했다.

댓글 0
전체 1,366 / 34 페이지
Microsoft는 2025년 1월부터 9월까지 3,750만 건의 익명화된 대화를 분석한 최초의 포괄적인 Copilot 사용 연구를 발표했으며, 사용자들이 단순히 생산성 도움만이 아닌 건강, 관계, 인생 결정에 대한 개인적인 지침을 점점 더 많이 찾고 있다는 사실을 밝혔습니다.연구는 데스크톱과 모바일 사용자 간의 뚜렷한 차이를 발견했는데, 데스크톱 사용자는 Copilot을 생산성 도구로 취급한 반면 모바일 사용자는 “대화형 동반자”로 활용했으며, 건강 관련 주제가 하루 중 모든 시간대의 대화를 지배했습니다.Microsoft의 책임 있는 AI 책임자는 사용자들이 그러한 목적으로 설계되지 않은 도구에서 정서적 지원을 구함에 따라 안전 문제를 인정했으며, OpenAI, Google, Meta, Anthropic과 장기 챗봇 사용자를 두고 경쟁하는 가운데 “필요한 통제와 보호 장치”의 필요성을 강조했습니다.
396 조회
0 추천
2025.12.11 등록
AI 시대의 대학교육과 AI 활용 경향생성형 AI의 급격한 발전으로 인해 대학생들의 학습 방식이 근본적으로 변화하고 있습니다. 대학생들은 과제, 수업 이해, 시험 대비 등 학습 전반에 걸쳐 AI를 폭넓게 사용하며, AI를 '선호하지 않을 수는 있지만 안 쓰는 사람은 없을 것'이라는 인식이 확산되었습니다. 일부 대학은 챗GPT 표절 방지를 위해 과제 현장 수행을 늘리거나, 경인교대처럼 논쟁적 질문 준비 시 AI 사용을 금지하는 등의 가이드라인을 제시하고 있습니다. 그러나 대다수 학생들은 AI를 자료 요약, 아이디어 도출, 모의고사 제작 등에 활용하며 AI를 '좋은 도구'이자 학습의 효율을 높이는 '필수 교보재'로 인식하고 있습니다.학습자와 교수자의 AI 활용과 인식 차이대학생들은 AI를 여러 단계로 활용하는 '헤비 유저'가 많으며, 예를 들어 자료 검색, 초안 작성, 문체 리라이팅 등 다양한 AI를 교차 사용하는 경향을 보입니다. 이들은 중간에 자신의 의견을 넣어 협업했기 때문에 AI가 생성한 결과물도 '나의 결과물'로 여기는 경향이 뚜렷합니다. 한편, 대학 교수들 사이에서는 AI 활용을 막을 수 없다는 판단하에 글쓰기나 철학 등 인문계열에서도 AI 활용법을 가르치는 사례가 증가하고 있습니다. 교수들은 학생들이 AI 산출물을 그대로 사용하지 않고, AI가 제시한 아이디어를 비판적으로 수정하고 자신의 것으로 소화하는 '자기화 과정'이 중요하다고 강조하며, 사고의 외주화를 경계하고 있습니다.AI 활용의 '선' 설정과 교육적 대안 모색AI의 활용이 '뉴노멀'이 되었음에도 불구하고, 대학들의 AI 활용 가이드라인은 주로 부정행위 방지나 평가 방식(과정평가/구술평가)에 초점을 맞추고 있으며, AI 활용의 윤리적 쟁점이나 비용 격차로 인한 학습 격차 같은 심층적인 논의는 부족한 실정입니다. 대학들은 AI 활용의 무게추를 '활용'과 '제한' 사이에서 달리하고 있지만, 전문가들은 'AI를 어느 선까지 활용하는 것이 타당한지'에 대한 교육적 합의와 논의가 필요하다고 지적합니다. 교수자-학습자가 특정 활동에서 AI 사용 여부를 합의하고, 왜 AI를 사용하는 것이 학문적 역량에 도움이 되는지, 어떤 때 사용하지 않는 것이 좋은지를 교수자가 설득하여 학생들의 사고 과정 체화를 유도해야 할 시점입니다.
406 조회
0 추천
2025.12.10 등록
오픈AI는 구글 '제미나이 3'에 대응하기 위해 내년 1월 새로운 모델을 출시할 예정이며, 이는 단순 성능 경쟁을 넘어 사용자와의 '상호 작용' 및 '대화 기능 강화'에 중점을 둔 것으로 알려졌습니다. 샘 알트먼 CEO는 지난 1일 '코드 레드'를 발령하고 8주간 챗GPT 개선에 집중할 것을 요구하며, 직원들에게 "사용자 신호를 더 잘 활용하라"고 지시했습니다. 이는 안전성 강화에 집중한 이전 모델이 사용자 만족도 측면에서 정체되었다고 판단하여, 챗봇 응답에 대해 전문가 평가가 아닌 사용자의 피드백을 적극 반영하는 전략으로 선회했음을 보여줍니다.이러한 사용자 중심 전략은 내부적으로 '로컬 사용자 선호도 최적화(LUPO)'라 불리며, 이미 사용자 대화에 초점을 맞춘 'GPT-5.1'을 출시하고 이 방침을 테스트하는 과정에서 일일 활성 사용자 증가라는 놀라운 결과를 확인했습니다. 알트먼 CEO는 이메일 초안 작성 등 간단한 작업에서는 모델의 추론 성능 차이가 크지 않으므로, 사용자의 선호에 맞는 톤으로 응답하는 것이 실질적인 사용량 증대에 더 큰 영향을 미친다고 판단했습니다. 아울러 새로운 모델에는 챗GPT 초기 성공 사례나 구글 제미나이의 인기 요소를 반영하여 향상된 '이미지 생성 기능'도 탑재될 예정입니다.한편, 이번 개선 작업은 인공일반지능(AGI) 달성에 집중하는 연구원들과 챗봇 경험 개선에 집중하려는 운영진 사이의 내부 갈등을 해소하기 위한 조치로도 해석됩니다. 또한, 코딩 기능을 중심으로 한 기업용 모델인 'GPT-5.2'도 곧 공개될 예정이지만, 경영진은 구글의 공세에 빠르게 대응하기 위해 성능 향상을 위한 출시 연기 요청에도 불구하고 일정을 강행할 정도로 위기감을 느끼고 있습니다. 다만, 사용자 선호도에만 초점을 맞춘 모델이 소셜 미디어의 전철을 밟아 정신 건강 위기를 초래할 수 있다는 우려에 대해, 오픈AI는 사용자 피드백, 전문가 리뷰, 안전 시스템을 신중하게 조화하여 모델을 개선하고 있다고 밝혔습니다.
403 조회
0 추천
2025.12.10 등록
최근 소셜네트워크서비스(SNS)에서 실제 전문의가 아닌 인공지능(AI)이 합성해 만든 '가짜 의사'들이 특정 영양제나 치료제를 추천하는 허위·과장 광고가 급증하면서, 특히 고령층 소비자들의 피해가 잇따르고 있습니다. 이들 가짜 의사는 실제 유명인이나 의사를 딥페이크로 합성하는 등 자연스러운 모습으로 소비자를 기만하여 식·의약품 및 건강기능식품 관련 허위 광고가 빠르게 확산되는 상황입니다. 이에 정부는 AI 기반 허위광고에 대한 강력한 대응책을 마련하고 나섰습니다.정부는 김민석 국무총리 주재 국가정책조정회의에서 'AI 활용 시장질서 교란 광고 대응 방안'을 발표하고, AI 기반 허위·과장 광고를 24시간 단위로 신속하게 차단할 것이라고 밝혔습니다. 주요 내용은 AI로 만든 얼굴, 음성, 영상이 포함된 광고물에 'AI 생성물'이라는 표시를 의무화하는 것이며, 이를 삭제하거나 훼손하는 행위는 금지됩니다. 또한, 플랫폼 사업자에게 게시자가 표시 의무를 이행했는지 관리할 책임이 주어지며, 관련 가이드라인은 내년 시행되는 'AI 기본법'과 연계하여 추가로 마련될 예정입니다.AI 기반 허위광고가 빈발하는 식·의약품 등 품목에 대해서는 방송미디어통신위원회(방미통위)의 서면 심의 대상에 추가하고, 심의 요청 후 24시간 내 신속 심의가 이뤄지도록 패스트트랙을 확대합니다. 특히 AI 합성 의사가 식·의약품을 추천하는 것은 '소비자 기만 광고'로 간주하여 제재를 강화하며, 악성 허위·조작 정보 유통에 대해서는 손해액 최대 5배의 징벌적 손해배상 및 표시·광고법상 과징금 상향을 도입할 계획입니다. 정부는 신기술의 부작용을 최소화하고 AI 시대에 맞는 새로운 시장 질서를 확립하기 위해 법령 개정과 제도 보완을 신속히 추진할 방침입니다.
430 조회
0 추천
2025.12.10 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입