AI 뉴스

AI는 인간의 글쓰기를 완전히 재현할 수 없다는 연구 결과

페이지 정보

작성자 이수
작성일 2025.12.21 17:33
392 조회
0 추천
0 비추천

본문

8f3d75518a616862e3ced4197e28b7c9_1766305953_2608.jpeg
 

이번 주에 발표된 획기적인 연구에 따르면, 기술이 빠르게 발전하고 있음에도 불구하고 ChatGPT와 같은 인공지능 시스템은 인간의 글쓰기를 완전히 모방할 수 없는 것으로 드러났다. 인지 능력에 대한 AI의 영향에 대한 우려가 커지는 가운데 발표된 이 연구는, AI가 생성한 산문이 인간 작가와 구별되는 고유한 “스타일 지문(stylistic fingerprint)”을 지니고 있음을 보여준다.

유니버시티 칼리지 코크의 제임스 오설리번(Dr. James O’Sullivan)이 이끄는 이번 연구는, 전통적으로 필자 식별에 사용되던 계산 기반 방법인 문체 통계 분석(literary stylometry)을 인간과 AI의 창작 글쓰기를 체계적으로 비교하는 데 처음으로 적용한 사례다. 수백 편의 단편소설을 분석한 결과, 연구진은 AI가 매끄럽고 유창한 문장을 생성하긴 하지만, 매우 좁고 균질한 패턴을 따른다는 사실을 발견했다. 이에 반해 인간 작가들은 개인적 목소리, 창작 의도, 개별적 경험에 의해 형성된 훨씬 더 넓은 문체적 스펙트럼을 보여준다.

오설리번은 “ChatGPT가 인간처럼 들리려고 할 때조차 그 글에는 여전히 탐지 가능한 지문이 남아 있으며, 이는 컴퓨터와 사람이 아직은 완전히 같은 스타일로 글을 쓰지 않는다는 점을 시사한다”고 말했다. 네이처(Nature)의 『Humanities and Social Sciences Communications』에 실린 이번 연구 결과에 따르면, GPT-3.5, GPT-4, Llama 70B를 포함한 AI 시스템이 생성한 텍스트는 균질한 패턴을 반영하는 촘촘한 군집으로 모이는 반면, 인간이 쓴 텍스트는 훨씬 더 큰 변이와 개성을 드러낸다.


인지 영향에 대한 우려 증가

스타일로메트리 연구 결과는 AI가 인간 인지에 미치는 영향에 대한 우려스러운 연구들과 함께 제시되고 있다. 매사추세츠 공과대학교(MIT)가 6월에 발표한 한 연구는 54명의 참가자를 대상으로, 에세이를 작성할 때 ChatGPT, 구글 검색, 혹은 어떠한 도움 없이 쓰도록 나누어 살펴보았다. 뇌 스캔 결과, ChatGPT를 사용한 참가자들은 신경 연결성이 가장 약하게 나타났고, 자신이 쓴 글을 기억하는 데 어려움을 겪었다. ChatGPT 사용자 중 83%가 자신의 에세이를 정확히 인용하지 못한 반면, 독립적으로 작성한 그룹에서는 그 비율이 11%에 불과했다.

MIT 연구진은 이 현상을 “인지 부채(cognitive debt)“라고 명명하며, 단기적인 편의를 위해 미래의 인지 능력을 선(先)차입하는 것이라고 설명했다. 뇌만 활용한(도구를 사용하지 않은) 그룹은 창의성, 기억력, 의미 처리와 연관된 주파수 대역에서 가장 강한 신경 네트워크를 보여주었다.

카네기멜론대학교와 마이크로소프트의 별도 연구에서는 319명의 지식 노동자를 대상으로 설문을 진행한 결과, AI 능력에 대한 신뢰도가 높을수록 비판적 사고 노력은 감소하는 경향이 있다는 사실을 밝혀냈다. 이 연구는 실제 AI 보조 과제 936건을 분석했으며, 생성형 AI가 효율성을 높여 주는 동시에 비판적 개입을 약화시키고 독립적인 문제 해결 능력을 떨어뜨릴 수 있다고 결론지었다.


학생들의 우려가 고조되다

옥스퍼드 대학 출판부(Oxford University Press)가 13-18세 영국 학생 2,000명을 대상으로 실시한 설문조사에 따르면, 80%가 학업에 AI를 정기적으로 사용하지만, 62%는 AI가 자신의 기술 개발에 부정적인 영향을 미친다고 생각하는 것으로 나타났다. 학생 4명 중 1명은 AI가 “스스로 과제를 수행하지 않고도 답을 찾는 것을 너무 쉽게 만든다”고 답했으며, 12%는 AI가 창의적 사고를 제한한다고 보고했다.

광범위한 도입에도 불구하고, 학생들은 지침을 요구하고 있다. 옥스퍼드 보고서의 공동 저자인 에리카 갈레아(Erika Galea)는 “오늘날의 학생들은 기계와 함께 사고하기 시작하고 있습니다. 아이디어를 처리하는 데 유창함과 속도를 얻고 있지만, 때때로 멈추고, 질문하고, 독립적으로 사고하는 것에서 오는 깊이를 잃고 있습니다”라고 말했다.

댓글 0
전체 1,366 / 63 페이지
수십만 종의 데이터를 분석하여 질병을 유발하는 유전자 돌연변이를 식별할 수 있는 인공지능 모델을 개발했으며, 이는 의사들이 희귀 질환을 진단하는 방식을 잠재적으로 변화시킬 수 있습니다.popEVE라고 불리는 이 모델은 11월 24일 Nature Genetics에 게재되었으며, 심각한 발달 장애가 있는 어린이들과 관련된 31,000건 이상의 사례 중 98%에서 가장 유해한 유전적 변이를 정확하게 식별했습니다. 이 도구는 DeepMind의 AlphaMissense를 포함한 경쟁 모델들을 능가했으며, 이전에 알려지지 않았던 123개의 후보 질병 유전자를 발견했고, 이 중 104개는 단 한두 명의 환자에서만 관찰되었습니다.진화와 인구 데이터의 결합PopEVE는 수십억 년의 진화 역사를 기반으로, 약 20,000개의 인간 단백질 중 생명에 필수적인 부분과 변화를 견딜 수 있는 부분을 분석합니다. 이 모델은 이러한 진화 정보를 영국 바이오뱅크(UK Biobank)와 게놈 집합 데이터베이스(gnomAD)의 데이터와 통합하며, 이들 데이터는 건강한 사람들에게 어떤 변이가 존재하는지 보여줍니다.공동 교신저자이자 유전체조절센터(Centre for Genomic Regulation) 연구원인 마팔다 디아스(Mafalda Dias) 박사는 “진료소들이 항상 부모의 DNA에 접근할 수 있는 것은 아니며 많은 환자들이 혼자 방문합니다”라고 말했습니다. “PopEVE는 이러한 의사들이 질병을 유발하는 돌연변이를 식별하는 데 도움을 줄 수 있으며, 우리는 진료소들과의 협력을 통해 이미 이를 확인하고 있습니다”.트리오 시퀀싱(trio sequencing)으로 알려진 부모 양쪽의 DNA를 필요로 하는 전통적인 유전 진단 방법과 달리, PopEVE는 환자의 유전 정보만으로 작동할 수 있습니다. 이러한 기능은 자원이 제한된 의료 시스템에 특히 유용하며, 진단을 더 빠르고 저렴하게 만듭니다.조상 편향 줄이기popEVE의 두드러진 특징 중 하나는 유전 데이터베이스에서 과소 대표되는 혈통을 가진 사람들에게 불이익을 주지 않는 능력입니다. 현재 유전 데이터베이스는 주로 유럽계 혈통 사람들에게 편향되어 있습니다. 이 모델은 특정 집단에서 한 번 발견된 돌연변이든 유럽 집단에서 수천 번 발견된 돌연변이든 모든 인간 변이를 동등하게 취급합니다.Centre for Genomic Regulation의 공동 교신저자이자 연구원인 Jonathan Frazer 박사는 “전 세계 데이터베이스에 자신의 커뮤니티가 잘 대표되지 않는다는 이유만으로 누구도 무서운 결과를 받아서는 안 됩니다”라고 말했습니다. “PopEVE는 그 불균형을 바로잡는 데 도움이 되며, 이는 이 분야에서 오랫동안 부족했던 것입니다”.[crg +2]연구진은 popEVE가 미스센스 돌연변이—단백질의 단일 아미노산을 변경하는 DNA 변화—만을 해석하며 임상 판단을 대체하지 않는다고 언급했습니다. 현재 희귀 질환을 가진 사람들 중 2명 중 1명은 명확한 진단을 받지 못하고 있습니다.
640 조회
0 추천
2025.11.25 등록
Anthropic은 Claude를 위한 세 가지 베타 기능인 Tool Search Tool, Programmatic Tool Calling, Tool Use Examples를 출시했습니다. 이는 AI 에이전트가 컨텍스트 윈도우를 과부하시키지 않고 수백 또는 수천 개의 도구를 사용할 수 있도록 하며, 개별 API 요청 대신 코드를 통해 도구를 호출하고, 스키마 정의만으로가 아닌 구체적인 예시를 통해 올바른 사용법을 학습하도록 설계되었습니다.내부 테스트에서 Tool Search Tool은 토큰 사용량을 85% 감소시키는 동시에 대규모 도구 라이브러리에서 Opus 4.5의 정확도를 79.5%에서 88.1%로 향상시켰으며, Programmatic Tool Calling은 복잡한 연구 작업에서 37%의 토큰 절감을 달성하면서 이전에 도구 호출당 수백 밀리초가 필요했던 여러 추론 과정을 제거했습니다.이 기능들은 GitHub, Slack, Sentry, Grafana, Splunk를 연결하는 기본 5개 서버 설정에서 대화가 시작되기 전에 약 55,000개의 토큰을 소비하는 중요한 확장성 문제를 해결합니다. Anthropic은 최적화 이전 프로덕션 환경에서 도구 정의가 최대 134,000개의 토큰을 소비하는 것을 관찰했습니다.
653 조회
0 추천
2025.11.25 등록
기술 저널리스트 Alex Kantrowitz와 Ranjan Roy는 Google의 Gemini 3가 OpenAI의 심각한 경쟁자로 부상했으며, Sam Altman이 유출된 메모에서 직원들에게 “거친 분위기”와 “일시적인 경제적 역풍”을 예상하라고 경고했다고 논의했습니다. Kantrowitz는 이를 분수령의 순간이라고 부르며, OpenAI가 앞서간다는 것을 인정받은 적이 없었다고 말했습니다.Gemini 3는 Arc AGI와 LM Arena 리더보드를 포함한 주요 AI 벤치마크에서 1위를 차지했으며, 추상적 시각 추론에서 GPT-5.1의 점수(31.1% 대 17.6%)의 거의 두 배를 달성했습니다. 한편 Google의 조직 재편—DeepMind와 Brain을 회사의 “엔진룸”으로 통합하고 검색에서 수백 명의 엔지니어를 이동—이 이러한 반전을 가능하게 했습니다.이러한 변화는 Google이 시가총액 3조 6,200억 달러로 Microsoft를 앞지르고, Nvidia의 기록적인 실적이 AI 거래를 유지하지 못하면서 발생했으며, 주가는 상승 5%에서 하락 3%로 반전되었습니다. 이는 AI 모델의 상품화와 경쟁하는 챗봇들이 기능적으로 상호 교환 가능해지고 있는지에 대한 투자자들의 우려가 커지면서 나타났습니다.
640 조회
0 추천
2025.11.25 등록
개발자 Simon Willison은 최상위 모델들이 현재 너무나 유사하게 작동하여 실제 작업에서는 기업들이 각 릴리스마다 개선을 주장함에도 불구하고 의미 있는 성능 차이를 드러내지 못하기 때문에, 최첨단 AI 모델 평가가 점점 더 어려워지고 있다고 주장한다.Willison은 Anthropic에서 새로 출시한 Claude Opus 4.5를 사용하여 이틀 동안 39개 파일에 걸쳐 2,022개의 코드 추가를 포함하는 광범위한 코딩 작업을 완료한 후, 이전 Claude Sonnet 4.5 모델로 다시 전환했을 때도 동일한 속도로 작업을 계속할 수 있었으며, 두 모델 간의 구체적인 성능 차이를 식별할 수 없었다고 밝혔다.Willison은 AI 연구소들이 새로운 모델을 출시할 때 이전 모델에서는 실패했지만 새 모델에서는 성공하는 프롬프트의 구체적인 예시를 함께 제공할 것을 요구하며, 이러한 시연이 MMLU나 GPQA Diamond와 같은 테스트에서 한 자릿수 백분율 포인트 개선을 보여주는 벤치마크보다 더 가치 있을 것이라고 주장한다—이는 최첨단 모델들이 전통적인 평가 지표를 점점 더 포화시키면서 업계 전반이 겪고 있는 어려움을 반영하는 과제이다.
686 조회
0 추천
2025.11.25 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입