Loading...

AI 뉴스

AI는 인간의 글쓰기를 완전히 재현할 수 없다는 연구 결과

페이지 정보

작성자 이수
작성일 2025.12.21 17:33
417 조회
0 추천
0 비추천

본문

8f3d75518a616862e3ced4197e28b7c9_1766305953_2608.jpeg
 

이번 주에 발표된 획기적인 연구에 따르면, 기술이 빠르게 발전하고 있음에도 불구하고 ChatGPT와 같은 인공지능 시스템은 인간의 글쓰기를 완전히 모방할 수 없는 것으로 드러났다. 인지 능력에 대한 AI의 영향에 대한 우려가 커지는 가운데 발표된 이 연구는, AI가 생성한 산문이 인간 작가와 구별되는 고유한 “스타일 지문(stylistic fingerprint)”을 지니고 있음을 보여준다.

유니버시티 칼리지 코크의 제임스 오설리번(Dr. James O’Sullivan)이 이끄는 이번 연구는, 전통적으로 필자 식별에 사용되던 계산 기반 방법인 문체 통계 분석(literary stylometry)을 인간과 AI의 창작 글쓰기를 체계적으로 비교하는 데 처음으로 적용한 사례다. 수백 편의 단편소설을 분석한 결과, 연구진은 AI가 매끄럽고 유창한 문장을 생성하긴 하지만, 매우 좁고 균질한 패턴을 따른다는 사실을 발견했다. 이에 반해 인간 작가들은 개인적 목소리, 창작 의도, 개별적 경험에 의해 형성된 훨씬 더 넓은 문체적 스펙트럼을 보여준다.

오설리번은 “ChatGPT가 인간처럼 들리려고 할 때조차 그 글에는 여전히 탐지 가능한 지문이 남아 있으며, 이는 컴퓨터와 사람이 아직은 완전히 같은 스타일로 글을 쓰지 않는다는 점을 시사한다”고 말했다. 네이처(Nature)의 『Humanities and Social Sciences Communications』에 실린 이번 연구 결과에 따르면, GPT-3.5, GPT-4, Llama 70B를 포함한 AI 시스템이 생성한 텍스트는 균질한 패턴을 반영하는 촘촘한 군집으로 모이는 반면, 인간이 쓴 텍스트는 훨씬 더 큰 변이와 개성을 드러낸다.


인지 영향에 대한 우려 증가

스타일로메트리 연구 결과는 AI가 인간 인지에 미치는 영향에 대한 우려스러운 연구들과 함께 제시되고 있다. 매사추세츠 공과대학교(MIT)가 6월에 발표한 한 연구는 54명의 참가자를 대상으로, 에세이를 작성할 때 ChatGPT, 구글 검색, 혹은 어떠한 도움 없이 쓰도록 나누어 살펴보았다. 뇌 스캔 결과, ChatGPT를 사용한 참가자들은 신경 연결성이 가장 약하게 나타났고, 자신이 쓴 글을 기억하는 데 어려움을 겪었다. ChatGPT 사용자 중 83%가 자신의 에세이를 정확히 인용하지 못한 반면, 독립적으로 작성한 그룹에서는 그 비율이 11%에 불과했다.

MIT 연구진은 이 현상을 “인지 부채(cognitive debt)“라고 명명하며, 단기적인 편의를 위해 미래의 인지 능력을 선(先)차입하는 것이라고 설명했다. 뇌만 활용한(도구를 사용하지 않은) 그룹은 창의성, 기억력, 의미 처리와 연관된 주파수 대역에서 가장 강한 신경 네트워크를 보여주었다.

카네기멜론대학교와 마이크로소프트의 별도 연구에서는 319명의 지식 노동자를 대상으로 설문을 진행한 결과, AI 능력에 대한 신뢰도가 높을수록 비판적 사고 노력은 감소하는 경향이 있다는 사실을 밝혀냈다. 이 연구는 실제 AI 보조 과제 936건을 분석했으며, 생성형 AI가 효율성을 높여 주는 동시에 비판적 개입을 약화시키고 독립적인 문제 해결 능력을 떨어뜨릴 수 있다고 결론지었다.


학생들의 우려가 고조되다

옥스퍼드 대학 출판부(Oxford University Press)가 13-18세 영국 학생 2,000명을 대상으로 실시한 설문조사에 따르면, 80%가 학업에 AI를 정기적으로 사용하지만, 62%는 AI가 자신의 기술 개발에 부정적인 영향을 미친다고 생각하는 것으로 나타났다. 학생 4명 중 1명은 AI가 “스스로 과제를 수행하지 않고도 답을 찾는 것을 너무 쉽게 만든다”고 답했으며, 12%는 AI가 창의적 사고를 제한한다고 보고했다.

광범위한 도입에도 불구하고, 학생들은 지침을 요구하고 있다. 옥스퍼드 보고서의 공동 저자인 에리카 갈레아(Erika Galea)는 “오늘날의 학생들은 기계와 함께 사고하기 시작하고 있습니다. 아이디어를 처리하는 데 유창함과 속도를 얻고 있지만, 때때로 멈추고, 질문하고, 독립적으로 사고하는 것에서 오는 깊이를 잃고 있습니다”라고 말했다.

댓글 0
전체 1,366 / 77 페이지
블룸버그 통신은 21일(현지시간) 트럼프 행정부가 엔비디아의 H200 AI 칩의 중국 수출 허용을 검토 중이라고 보도했다. 이는 2022년부터 시행해온 첨단 반도체 수출 규제의 부분적 완화 가능성을 시사하는 것으로, 세계 최대 AI 칩 제조업체인 엔비디아에게는 주요 호재로 평가된다.익명을 요구한 소식통들에 따르면 트럼프 행정부는 최근 며칠간 H200 칩의 중국 수출에 대해 내부 논의를 진행했으나 아직 최종 결정은 내려지지 않았다. H200 칩은 최신 사양인 블랙웰(Blackwell) 아키텍처를 적용한 B200보다는 성능이 낮지만, 현재 중국 수출이 가능한 H20보다는 우수한 성능을 갖추고 있다. H200은 141GB의 HBM3e 메모리와 초당 4.8테라바이트의 메모리 대역폭을 제공해 H100 대비 약 76% 더 많은 메모리를 탑재했다.젠슨 황의 지속적 로비와 업계 반응엔비디아의 젠슨 황 최고경영자(CEO)는 미국의 AI 기술이 세계 표준이 되기 위해서는 중국 시장 접근이 필수적이라며 트럼프 행정부 관계자들을 지속적으로 설득해왔다. 황 CEO는 최근 인터뷰에서 중국이 연간 약 500억 달러 규모의 AI 칩 시장을 형성하고 있으며, 2030년까지 2,000억 달러로 성장할 것으로 전망했다.그러나 AI 거품 우려가 지속되면서 엔비디아 주가는 21일 0.97% 하락한 178.88달러를 기록했다. 이로써 시가총액도 4조 3,480억 달러로 줄었다. 같은 날 뉴욕 증시는 존 윌리엄스 뉴욕 연방준비은행 총재의 금리인하 시사 발언에 힘입어 다우지수가 1.1%, S&P500이 1%, 나스닥이 0.9% 상승 마감했다.AI 거품 우려 속 구글의 공격적 투자보스턴 소재 글로벌 자산운용사 GMO는 “AI는 지금 가격도 너무 높고 투기적 움직임도 뚜렷해 전형적인 거품처럼 보인다”며 인공지능 거품을 거듭 경고했다. 한편 구글 클라우드의 아민 바흐다트 부사장은 AI 수요에 대응하기 위해 AI 컴퓨팅 용량을 6개월마다 2배씩 늘려야 한다고 밝혔다. 순다 피차이 구글 CEO는 “이런 시기에는 투자 부족의 위험이 매우 크다”며 과잉 투자 우려를 일축했다.
769 조회
0 추천
2025.11.22 등록
오픈AI는 금요일 오후, 과거 ‘Stop AI’라는 활동가 단체와 연관됐던 개인으로부터 신뢰할 만한 협박을 받은 뒤 샌프란시스코 본사를 봉쇄 조치했으며, 이는 인공지능 기업들과 개발 속도의 감속을 요구하는 시위대 간 긴장이 고조되고 있음을 보여주는 사건이다.오전 11시경, 샌프란시스코 경찰은 범죄 추적 앱 시티즌(Citizen)의 데이터에 따르면, 오픈AI의 미션 베이 사무실 인근인 테리 프랑수아 대로 550번지에서 한 남성이 협박을 하고 있다는 911 전화를 접수했다. 경찰 무전기 녹음에서는 용의자의 이름이 언급되었고, 그가 추가적인 오픈AI 지점을 노릴 계획으로 무기를 구매했을 가능성이 제기됐다.보안 프로토콜 및 직원 경고OpenAI의 내부 커뮤니케이션 팀은 해당 인물이 “OpenAI 직원들에게 물리적 위해를 가하는 데 관심을 보였다”고 경고하는 긴급 Slack 메시지를 보냈으며, 그가 이전에 회사의 샌프란시스코 시설을 방문한 적이 있다고 밝혔다. 팀은 용의자로 지목된 인물의 사진 세 장을 직원들에게 배포했다.직원들은 건물 안에 머물고, 건물을 나갈 때는 신분증 배지를 제거하며, OpenAI 로고가 표시된 옷을 착용하지 말라는 지시를 받았다. 이후 글로벌 보안 팀의 한 고위 관계자는 “현재로서는 적극적인 위협 활동의 징후는 없으며, 상황은 계속 진행 중이고 평가가 이어지는 동안 우리는 신중한 예방 조치를 취하고 있다”고 밝혔다.사건이 발생하기 몇 시간 전, 그는 자신이 더 이상 Stop AI와 관련이 없다고 소셜 미디어에서 공개적으로 선언했다. 작년 Stop AI가 발표한 보도자료에 따르면, 그는 과거에 AI 기술이 과학적 발견과 고용에서 인간을 대체한다면 “삶이 살아갈 가치가 없을 것”이라고 말한 조직자로 묘사된 바 있다.고조되는 행동주의자 갈등이번 봉쇄 조치는 샌프란시스코에서 벌어지고 있는 AI 안전 활동가들의 점점 더 대담해지는 시위들에 뒤이어 이루어진 것이다. 2월에는 ‘Stop AI’ 시위대 3명이 OpenAI 정문을 신체적으로 가로막고 문을 쇠사슬로 잠갔다가 체포됐다. 이달 초에는 샌프란시스코 공공변호인실 소속 조사관이 한 공개 행사 도중 무대 위에서 CEO 샘 올트먼에게 소환장을 직접 전달하며, Stop AI의 다가오는 재판과 관련된 형사 사건의 증인으로 출석할 것을 요구했다.Stop AI와 Pause AI를 포함한 관련 단체들은 2025년 내내 OpenAI와 다른 인공지능 기업들의 사무실 앞에서 시위를 벌이며, 통제되지 않은 AI 개발이 인류에 실존적 위협을 초래할 수 있다는 우려를 표명해왔다. 이 단체들은 인공지능 일반지능(AGI)을 개발하는 기업들에 대해 정부 차원의 셧다운을 요구해 왔다.샌프란시스코 경찰과 OpenAI는 기사 마감 전까지 별도의 입장을 내지 않았다.
741 조회
0 추천
2025.11.22 등록
Meta Platforms는 Facebook 사용자를 위한 AI 기반 일일 브리핑 기능을 테스트하고 있으며, 이는 ChatGPT의 유사한 서비스에 대한 직접적인 도전으로, 소셜 미디어 거대 기업이 수십억 사용자들에게 인공지능을 일상적 습관으로 만들기 위한 노력을 강화하고 있습니다.내부적으로 Project Luna라고 불리는 이 프로젝트는 Facebook 콘텐츠와 외부 소스를 모두 분석하여 사용자에게 개인화된 아침 업데이트를 제공할 예정이라고 The Washington Post가 검토한 문서에 따르면 밝혀졌습니다. 회사는 뉴욕과 샌프란시스코를 포함한 미국 일부 도시의 소규모 Facebook 사용자 그룹을 대상으로 이 기능을 시범 운영할 계획입니다.이 기능은 OpenAI가 월 200달러 Pro 구독자를 위해 2025년 9월에 출시한 일일 연구 요약 도구인 ChatGPT의 Pulse와 경쟁하도록 설계되었습니다. Pulse는 채팅 상호작용, 사용자 피드백 및 캘린더 활동을 기반으로 개인화된 업데이트를 제공합니다. Meta의 버전은 OpenAI와 Alphabet Google의 주요 AI 챗봇에 맞서 회사를 포지셔닝하는 것을 목표로 합니다.AI 추진 과정에서의 리더십 혼란이번 개발은 Meta의 AI 부서가 대대적인 변화를 겪고 있는 시기에 이루어졌습니다. Meta의 수석 AI 과학자이자 딥러닝 분야의 선구자인 Yann LeCun은 이번 주 12년간의 재직 후 Meta를 떠나 자신의 AI 스타트업을 설립할 계획이라고 발표했습니다. 2019년 튜링상을 수상한 LeCun은 연말에 떠날 예정이지만, Meta는 그의 새로운 벤처와 파트너십을 맺을 계획입니다.그의 퇴사는 Meta가 2025년 10월 AI 부서 내에서 약 600개의 일자리를 감축한 이후에 이루어졌습니다. 이번 감축은 올해 초 Meta가 자신의 회사인 Scale AI에 143억 달러를 투자한 후 수석 AI 책임자로 합류한 Alexandr Wang이 발표했습니다. Wang은 직원들에게 이번 정리해고가 의사결정을 간소화하고 영향력을 높이는 데 도움이 될 것이라고 말했습니다.대규모 AI 투자 베팅메타는 투자자들의 우려에도 불구하고 AI에 막대한 투자를 하고 있습니다. 회사는 2025년 자본 지출을 640억 달러에서 720억 달러로 예상하고 있으며, 이는 주로 AI 인프라와 데이터 센터를 위한 것입니다. 이는 2024년의 380억 달러에서 400억 달러에 비해 상당한 증가입니다.CEO 마크 저커버그는 인간의 능력을 뛰어넘을 수 있는 AI인 “초지능” 구축에 대한 회사의 투자가 과잉 투자의 위험을 정당화한다고 말했습니다. 그러나 메타의 주가는 AI 지출과 수익성에 대한 우려가 커지면서 21일 동안 18.4% 하락하는 등 압박을 받고 있습니다.월간 활성 사용자 30억 명의 페이스북을 보유한 메타는 테스트가 성공적으로 진행되고 기능이 초기 시장을 넘어 확장될 경우 프로젝트 루나를 위한 광범위한 잠재 고객을 확보하고 있습니다.
757 조회
0 추천
2025.11.22 등록
AI 기반 영양 추적 앱들이 음식 기록을 간소화하겠다는 약속에도 불구하고 매우 부정확한 칼로리 및 다량 영양소 계산 결과를 제공하고 있다고 오늘 The Verge가 발표한 종합 리뷰에서 밝혔다.이번 조사는 Ladder, Oura Advisor, January, MyFitnessPal을 포함한 주요 피트니스 및 건강 플랫폼의 AI 기능을 테스트했으며, 음식 식별, 분량 추정, 재료 대체 인식에서 일관된 오류를 발견했다. 한 사례에서 Ladder의 AI는 신중하게 측정된 355칼로리 아침 식사를 780칼로리로 잘못 계산하여 실제 칼로리의 두 배 이상으로 추산했다. 이 앱은 4인치 프로틴 와플을 두 개의 7인치 일반 와플로 잘못 식별했으며, 블랙으로 마신 커피에 크림과 설탕을 추가했다.The Verge의 선임 리뷰어이자 Optimizer 뉴스레터의 저자인 Victoria Song은 “항목을 찾아 기록하는 데 절약한 시간은 AI 오류를 수정하고 검증하는 데 소비된다”고 썼다.AI가 부족한 부분테스트 결과 민족 음식과 혼합 요리가 AI 인식 시스템에 특히 어려운 과제임이 드러났습니다. Oura Advisor는 말차 프로틴 쉐이크를 그린 스무디로 반복적으로 혼동했으며, Ladder는 달 마카니 카레를 치킨 수프로, 고추장 소스를 곁들인 한국 떡을 토마토 소스를 곁들인 리가토니로 잘못 식별했습니다. January 앱은 닭고기는 정확히 식별했지만 바비큐 소스를 데리야키로 잘못 분류했고 요리에 들어있는 버섯을 감지하지 못했습니다.테스트된 앱 중 어느 것도 더 건강한 재료 대체물을 인식하지 못했습니다. Song이 에다마메, 퀴노아, 현미의 혼합물을 기록했을 때, Oura의 AI는 이를 으깬 감자와 백미로 표시했습니다.이러한 발견은 AI가 통합된 음식 앱이 쌀국수(beef pho)의 칼로리를 49% 과대평가하고 펄 밀크티 칼로리를 최대 76%까지 과소평가한다는 2024년 시드니 대학교 연구와 일치합니다. “AI가 통합된 영양 앱은 일반적으로 접시에 분리되어 있는 개별 서양 음식을 감지하는 데 더 뛰어납니다”라고 연구의 주 저자인 Dr. Juliana Chen은 말했습니다. “그러나 스파게티 볼로네제나 햄버거와 같은 혼합 요리에는 종종 어려움을 겪습니다.”진짜 문제The Verge의 분석은 AI 식품 추적이 식단 변화의 근본적인 과제를 놓치고 있다고 주장하는데, 그 과제는 지식 격차가 아니라 행동 수정에 있다는 것입니다. “우리 모두는 기본적인 것들을 이해하고 있습니다”라고 Song은 썼습니다. “진짜 어려움은 그 지식을 당신의 삶에 일관되게 적용하는 데 있습니다. 그것은 당신의 감정과 행동을 재조건화하는 것에 관한 것입니다”.연구는 식품 기록이 체중 관리와 근육 형성에서 더 큰 성공과 상관관계가 있음을 지속적으로 보여줍니다. 그러나 AI가 생성한 항목을 검증하고 수정해야 하는 끊임없는 필요성은 지루한 과정을 단순화한다는 기술의 핵심 약속을 약화시킵니다.Chen 박사의 연구는 앱 개발자들이 개발 과정에 영양사를 참여시키고, 다양한 음식 이미지—특히 혼합 요리와 문화적으로 다양한 요리—로 AI 모델을 훈련시키며, 식품 성분 데이터베이스를 확장할 것을 권장합니다.
766 조회
0 추천
2025.11.22 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입