Loading...

AI 뉴스

AI는 인간의 글쓰기를 완전히 재현할 수 없다는 연구 결과

페이지 정보

작성자 이수
작성일 2025.12.21 17:33
357 조회
0 추천
0 비추천

본문

8f3d75518a616862e3ced4197e28b7c9_1766305953_2608.jpeg
 

이번 주에 발표된 획기적인 연구에 따르면, 기술이 빠르게 발전하고 있음에도 불구하고 ChatGPT와 같은 인공지능 시스템은 인간의 글쓰기를 완전히 모방할 수 없는 것으로 드러났다. 인지 능력에 대한 AI의 영향에 대한 우려가 커지는 가운데 발표된 이 연구는, AI가 생성한 산문이 인간 작가와 구별되는 고유한 “스타일 지문(stylistic fingerprint)”을 지니고 있음을 보여준다.

유니버시티 칼리지 코크의 제임스 오설리번(Dr. James O’Sullivan)이 이끄는 이번 연구는, 전통적으로 필자 식별에 사용되던 계산 기반 방법인 문체 통계 분석(literary stylometry)을 인간과 AI의 창작 글쓰기를 체계적으로 비교하는 데 처음으로 적용한 사례다. 수백 편의 단편소설을 분석한 결과, 연구진은 AI가 매끄럽고 유창한 문장을 생성하긴 하지만, 매우 좁고 균질한 패턴을 따른다는 사실을 발견했다. 이에 반해 인간 작가들은 개인적 목소리, 창작 의도, 개별적 경험에 의해 형성된 훨씬 더 넓은 문체적 스펙트럼을 보여준다.

오설리번은 “ChatGPT가 인간처럼 들리려고 할 때조차 그 글에는 여전히 탐지 가능한 지문이 남아 있으며, 이는 컴퓨터와 사람이 아직은 완전히 같은 스타일로 글을 쓰지 않는다는 점을 시사한다”고 말했다. 네이처(Nature)의 『Humanities and Social Sciences Communications』에 실린 이번 연구 결과에 따르면, GPT-3.5, GPT-4, Llama 70B를 포함한 AI 시스템이 생성한 텍스트는 균질한 패턴을 반영하는 촘촘한 군집으로 모이는 반면, 인간이 쓴 텍스트는 훨씬 더 큰 변이와 개성을 드러낸다.


인지 영향에 대한 우려 증가

스타일로메트리 연구 결과는 AI가 인간 인지에 미치는 영향에 대한 우려스러운 연구들과 함께 제시되고 있다. 매사추세츠 공과대학교(MIT)가 6월에 발표한 한 연구는 54명의 참가자를 대상으로, 에세이를 작성할 때 ChatGPT, 구글 검색, 혹은 어떠한 도움 없이 쓰도록 나누어 살펴보았다. 뇌 스캔 결과, ChatGPT를 사용한 참가자들은 신경 연결성이 가장 약하게 나타났고, 자신이 쓴 글을 기억하는 데 어려움을 겪었다. ChatGPT 사용자 중 83%가 자신의 에세이를 정확히 인용하지 못한 반면, 독립적으로 작성한 그룹에서는 그 비율이 11%에 불과했다.

MIT 연구진은 이 현상을 “인지 부채(cognitive debt)“라고 명명하며, 단기적인 편의를 위해 미래의 인지 능력을 선(先)차입하는 것이라고 설명했다. 뇌만 활용한(도구를 사용하지 않은) 그룹은 창의성, 기억력, 의미 처리와 연관된 주파수 대역에서 가장 강한 신경 네트워크를 보여주었다.

카네기멜론대학교와 마이크로소프트의 별도 연구에서는 319명의 지식 노동자를 대상으로 설문을 진행한 결과, AI 능력에 대한 신뢰도가 높을수록 비판적 사고 노력은 감소하는 경향이 있다는 사실을 밝혀냈다. 이 연구는 실제 AI 보조 과제 936건을 분석했으며, 생성형 AI가 효율성을 높여 주는 동시에 비판적 개입을 약화시키고 독립적인 문제 해결 능력을 떨어뜨릴 수 있다고 결론지었다.


학생들의 우려가 고조되다

옥스퍼드 대학 출판부(Oxford University Press)가 13-18세 영국 학생 2,000명을 대상으로 실시한 설문조사에 따르면, 80%가 학업에 AI를 정기적으로 사용하지만, 62%는 AI가 자신의 기술 개발에 부정적인 영향을 미친다고 생각하는 것으로 나타났다. 학생 4명 중 1명은 AI가 “스스로 과제를 수행하지 않고도 답을 찾는 것을 너무 쉽게 만든다”고 답했으며, 12%는 AI가 창의적 사고를 제한한다고 보고했다.

광범위한 도입에도 불구하고, 학생들은 지침을 요구하고 있다. 옥스퍼드 보고서의 공동 저자인 에리카 갈레아(Erika Galea)는 “오늘날의 학생들은 기계와 함께 사고하기 시작하고 있습니다. 아이디어를 처리하는 데 유창함과 속도를 얻고 있지만, 때때로 멈추고, 질문하고, 독립적으로 사고하는 것에서 오는 깊이를 잃고 있습니다”라고 말했다.

댓글 0
전체 1,366 / 1 페이지
Executive Summary • Anthropic이 MCP(Model Context Protocol) 확장 기능을 통해 Claude 챗봇 내에서 Slack, Canva, Figma 등 외부 앱을 직접 실행할 수 있는 기능 출시 • 기존에는 텍스트 응답만 가능했던 것에서 벗어나, 이제 사용자가 Claude 내에서 슬라이드 편집, 메시지 포맷팅, 차트 생성 등 시각적 작업 가능 • Asana, monday.com, Figma, Hex, Amplitude, Box, Clay 등 다양한 협업 도구 지원, Salesforce 연동도 곧 출시 예정 • MCP Apps 확장은 Claude뿐 아니라 MCP를 지원하는 모든 AI 제품에서 사용 가능한 개방형 표준 • AI 플랫폼이 단순 도구에서 '모든 것을 아우르는 앱' 형태의 운영체제로 진화하는 추세 반영 Background MCP(Model Context Protocol)는 2024년 Anthropic이 개발한 오픈소스 프로토콜로, AI 에이전트가 인터넷 전반의 도구와 데이터에 쉽게 접근할 수 있도록 설계되었다. 작년 말 Anthropic은 MCP를 리눅스 재단에 기증하고, OpenAI, Google, Microsoft, AWS, Block, Bloomberg, Cloudflare 등 주요 기술 기업들과 함께 'Agentic AI Foundation'을 설립하여 오픈소스 에이전틱 AI 발전을 위한 기반을 마련했다. 이번 MCP Apps 출시는 이러한 생태계 확장 전략의 일환이다. Impact & Implications 산업/시장 영향 AI 챗봇이 단순 질의응답 도구에서 종합 업무 플랫폼으로 진화하고 있다. Anthropic의 이번 발표는 ChatGPT가 작년 자체 앱 생태계를 구축한 것과 유사한 방향으로, AI 플랫폼 간 '슈퍼앱' 경쟁이 본격화되고 있음을 보여준다. 중국 텐센트의 WeChat처럼 하나의 앱에서 모든 업무를 처리하는 모델이 AI 분야에서도 표준이 될 가능성이 높다. 기술적 의미 MCP가 오픈소스 표준으로 자리잡으면서, 기업들이 각각 다른 인터페이스를 개발·유지할 필요가 줄어들었다. OpenAI, Google, Microsoft 등 주요 기업들이 이미 MCP를 채택했으며, 이번 MCP Apps 확장은 어느 AI 제품에서든 인터랙티브 앱 인터페이스를 제공할 수 있는 기반을 마련했다. 이는 AI 에이전트 생태계의 상호운용성을 크게 높일 전망이다. 경쟁 구도 변화 Anthropic은 Claude Code, Cowork 등 에이전틱 AI 기능을 연이어 출시하며 OpenAI와의 격차를 좁히고 있다. 특히 MCP를 개방형 표준으로 확립함으로써 플랫폼 종속 대신 생태계 주도권을 확보하는 전략을 취하고 있다. 이는 폐쇄형 생태계 구축에 집중하는 경쟁사들과 차별화되는 접근 방식이다. Key Data & Facts 항목내용 발표일2026년 1월 26일 핵심 기술MCP Apps (Model Context Protocol 확장) 지원 앱Slack, Canva, Figma, Asana, monday.com, Hex, Amplitude, Box, Clay 예정 연동Salesforce (Data 360, Agentforce, Customer 360) 주요 파트너OpenAI, Google, Microsoft, AWS, Block, Bloomberg, Cloudflare 관리 기관Linux Foundation (Agentic AI Foundation) Key Quote "Users will now be able to interact with apps directly inside the Claude chatbot, letting you draft and format Slack messages to colleagues and create presentations for clients in Canva without having to switch tabs."
9 조회
0 추천
10:06 등록
Executive Summary • 구글 딥마인드가 감정 인식 음성 AI 스타트업 Hume AI의 CEO 앨런 코웬(Alan Cowen)과 엔지니어 약 7명을 영입하는 라이선싱 계약 체결 • Hume AI는 2026년 매출 1억 달러를 목표로 하며, 타 AI 연구소에도 계속 기술 공급 예정 • 음성 기반 AI 인터페이스가 핵심 경쟁력으로 부상하면서 감정 인식 기술의 중요성 급증 • 구글-애플 젬니-시리 파트너십과 연계해 OpenAI ChatGPT 음성 모드와의 경쟁 심화 전망 Background AI 업계에서 음성 인터페이스가 차세대 핵심 상호작용 방식으로 주목받고 있다. OpenAI의 ChatGPT가 자연스러운 음성 모드를 선보인 이후, 빅테크 기업들은 더욱 인간적이고 감정을 이해하는 AI 음성 기술 확보에 나서고 있다. Hume AI는 심리학 박사 출신 CEO가 이끄는 스타트업으로, 사용자 음성에서 감정을 감지하고 이에 맞춰 반응하는 기술을 개발해왔다. Impact & Implications AI 음성 인터페이스 경쟁 심화 이번 딜은 구글이 OpenAI ChatGPT의 음성 모드에 대응하기 위한 전략적 움직임이다. 구글은 최근 애플과 다년간 파트너십을 맺어 젬니(Gemini)가 새 버전의 시리(Siri)를 구동하게 되었는데, 여기에 Hume AI의 감정 인식 기술이 더해지면 더욱 자연스럽고 공감적인 AI 어시스턴트 구현이 가능해진다. 음성이 AI의 주요 인터페이스가 될 것이라는 업계 전망 속에서, 사용자의 감정을 파악하고 그에 맞게 대응하는 능력이 핵심 차별화 요소로 부상하고 있다. 빅테크의 '우회 인수' 전략 확산 이번 계약은 정식 인수 없이 핵심 인재와 기술을 확보하는 '어퀴하이어(acqui-hire)' 방식의 대표적 사례다. 2024년 구글 딥마인드가 Character.ai 기술 라이선싱에 30억 달러를 지불한 것, 마이크로소프트의 Inflection 인재 영입, 아마존의 Adept 팀 영입, 메타의 Scale AI CEO 영입 등과 같은 맥락이다. 이러한 방식은 정부 규제 심사를 피할 수 있어 빅테크에 유리하지만, 미국 FTC가 이런 '우회 인수'에 대한 감시를 강화하겠다고 밝힌 만큼 향후 규제 리스크가 있다. 감정 AI의 상업적 가치 입증 Hume AI가 2026년 1억 달러 매출을 전망할 정도로 감정 인식 AI 기술의 상업적 수요가 뚜렷하다. 특히 고객 지원 분야에서 사용자의 감정을 파악해 적절히 대응하는 AI는 큰 가치를 지닌다. 현재 AI 모델들이 지능 면에서는 뛰어나지만, 사용자의 감정을 이해하고 목표 달성을 돕는 '일반적 유용성' 측면에서는 개선 여지가 크다는 평가다. Key Data & Facts 항목수치/내용 영입 인원CEO 앨런 코웬 + 엔지니어 약 7명 Hume AI 누적 투자금7,400만 달러 2026년 매출 전망1억 달러 구글의 Character.ai 라이선싱 비용(2024)30억 달러 Key Quote "Voice is going to become a primary interface for AI, that is absolutely where it's headed." (음성이 AI의 주요 인터페이스가 될 것입니다. 그것이 확실히 향하는 방향입니다.) — Andrew Ettinger, Hume AI 신임 CEO
16 조회
0 추천
01.27 등록
Executive Summary • 마이크로소프트가 자사 주요 엔지니어링 팀 전반에 걸쳐 Anthropic의 Claude Code 도입을 대폭 확대하고 있다 • Windows, Microsoft 365, Teams, Bing, Edge, Surface 등을 담당하는 Experiences + Devices 부서 직원들에게 Claude Code 설치를 권장 중 • 개발자가 아닌 디자이너와 프로젝트 매니저까지 Claude Code를 활용한 프로토타이핑을 장려하고 있다 • 마이크로소프트는 현재 Anthropic의 최대 고객 중 하나로, Azure 영업 할당량에 Anthropic AI 모델 판매를 포함시키는 이례적 조치까지 취했다 Background 마이크로소프트는 2024년 6월 개발자 부서에서 Anthropic의 Claude Sonnet 4 모델을 처음 도입한 이후, GitHub Copilot 유료 사용자에게도 이를 우선 적용해왔다. 이번 Claude Code 전사 확대는 단순히 Anthropic 모델 사용을 넘어, AI 코딩 도구 자체를 광범위하게 채택하는 전략적 전환을 의미한다. Impact & Implications 경쟁 구도 변화 마이크로소프트가 자사 제품인 GitHub Copilot 대신 경쟁사인 Anthropic의 Claude Code를 사내에서 적극 활용하는 것은 AI 코딩 도구 시장의 판도를 보여주는 중요한 신호다. 개발자들 사이에서 Claude Code가 사용 편의성과 비개발자 접근성에서 앞선다는 평가가 우세하며, 마이크로소프트 역시 이를 인정한 셈이다. 산업/시장 영향 이번 결정은 AI 코딩 도구 시장에서 Anthropic의 입지를 크게 강화한다. 마이크로소프트가 Anthropic의 최대 고객 중 하나가 되었으며, 300억 달러 규모의 Azure 컴퓨팅 용량 계약까지 체결했다. 이는 OpenAI 중심의 파트너십에서 다각화된 AI 생태계로의 전환을 시사한다. 향후 전망 비개발자 직원들에게까지 AI 코딩 도구 사용을 장려하는 것은 소프트웨어 개발 방식의 근본적 변화를 예고한다. 특히 주니어 개발자 역할의 감소에 대한 우려가 현실화될 가능성이 높아졌다. AI 에이전트가 코드를 자율적으로 생성하는 미래가 빠르게 다가오고 있다. Key Data & Facts 항목수치/내용 마이크로소프트 코드 저장소100,000개 이상 GitHub Copilot 사용 엔지니어링 팀91% Anthropic Azure 계약 규모300억 달러 Claude Code 도입 대상CoreAI 팀, Experiences + Devices 부서, Business and Industry Copilot 팀 Key Quote "Companies regularly test and trial competing products to gain a better understanding of the market landscape. OpenAI continues to be our primary partner and model provider on frontier models, and we remain committed to our long-term partnership." — Frank Shaw, Microsoft Communications Chief
21 조회
1 추천
01.26 등록
Executive Summary • 최근 발표된 연구 논문에서 트랜스포머 기반 언어 모델(LLM)은 일정 수준 이상의 복잡한 계산 및 에이전트 작업을 수행할 수 없다는 수학적 증명을 제시 • AI 업계는 이에 반박하며, 환각(hallucination)은 불가피하지만 가드레일(guardrails)로 통제 가능하다고 주장 • 스타트업 Harmonic은 수학적 검증 방법론으로 AI 코딩의 신뢰성을 높이는 해법을 제시하며 벤치마크 선두 기록 • OpenAI도 자체 연구에서 "정확도 100%는 도달할 수 없다"고 인정했으나, 업계 전반은 에이전트 기술 발전에 낙관적 입장 유지 • 전문가들은 환각을 '버그'가 아닌 인간을 초월한 발상의 원천으로 재해석하는 시각도 제시 Background 2025년은 AI 업계에서 '에이전트의 해'로 기대됐지만, 실제로는 에이전트에 대한 논의만 무성했을 뿐 실질적 전환점은 2026년 이후로 미뤄졌다. 이러한 가운데 전 SAP CTO 비샬 시카(Vishal Sikka)와 그의 아들이 공동 저술한 논문이 LLM 기반 에이전트의 본질적 한계를 수학적으로 논증하며 업계에 파장을 일으켰다. Impact & Implications 기술적 한계와 현실 해당 논문은 LLM이 순수한 단어 예측 메커니즘을 넘어서는 추론 모델조차도 근본적 한계를 극복할 수 없다고 주장한다. 논문 공저자 시카는 "순수 LLM에는 본질적 한계가 있지만, LLM 주변에 이를 보완하는 구성요소를 구축할 수 있다"며 완전한 비관론을 경계했다. 이는 원자력 발전소 같은 고위험 인프라의 AI 자동화는 당분간 현실적이지 않음을 시사한다. 업계의 대응과 해법 모색 스타트업 Harmonic은 수학적 검증 기법을 통해 AI 출력물의 신뢰성을 보장하는 접근법을 제시했다. 특히 검증 기능으로 유명한 Lean 프로그래밍 언어로 출력을 인코딩하는 방식이 핵심이다. 구글의 AI 수장 데미스 하사비스(Demis Hassabis)도 다보스 포럼에서 환각 최소화 연구의 돌파구를 발표하는 등 대형 테크 기업들도 해결책 마련에 속도를 내고 있다. 환각의 재해석: 버그인가, 혁신의 원천인가 Harmonic의 튜더 아킴(Tudor Achim)은 "환각은 LLM에 본질적이면서도 인간 지능을 초월하는 데 필수적"이라며 환각을 새로운 시각으로 재정의했다. 그에 따르면 시스템이 학습하는 방식 자체가 환각을 통한 것이며, 대부분 틀리지만 때로는 인간이 한 번도 생각하지 못한 것을 만들어낸다는 것이다. Key Data & Facts 항목수치/내용 연구 주제트랜스포머 기반 LLM의 계산적·에이전트적 한계 수학적 증명 주요 논문 저자Vishal Sikka (전 SAP CTO, Vianai CEO) Harmonic 창업자Vlad Tenev (Robinhood CEO), Tudor Achim OpenAI 공식 입장"AI 모델의 정확도는 절대 100%에 도달하지 못할 것" 검증 기술Lean 프로그래밍 언어 기반 수학적 검증 Key Quote "There is no way they can be reliable... you might have to resign yourself to some mistakes." — Vishal Sikka, Vianai CEO 겸 전 SAP CTO "I think hallucinations are intrinsic to LLMs and also necessary for going beyond human intelligence." — Tudor Achim, Harmonic 공동창업자
26 조회
0 추천
01.25 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입