Loading...

AI 뉴스

AI 도구가 학생들의 비판적 사고 능력 감소와 연관

페이지 정보

작성자 xtalfi
작성일 09.09 13:49
87 조회
0 추천
0 비추천

본문

57486da988afcf75bafd1fb473b5164dkD4z.jpg

(퍼플렉시티가 정리한 기사)

여러 기관의 교육자들과 연구자들은 인공지능이 학생 학습에 미치는 영향에 대해 경고음을 울리고 있으며, 새로운 연구 결과에 따르면 AI 도구에 크게 의존하는 학생들 사이에서 비판적 사고 능력과 독해력 저하가 우려스럽게 나타나고 있습니다.

칠레대학교와 교황청 가톨릭대학교의 전문가들은 ChatGPT와 같은 언어 모델이 교육적 기회를 제공하는 반면, 광범위한 사용이 깊이 있는 독서 훈련을 크게 감소시킬 수 있다고 경고했습니다. 그들은 이 능력을 이해, 비판적 사고, 글쓰기 능력 발전에 필수적인 것으로 간주합니다. 연구자들은 AI 도구가 교실에서 점점 더 널리 보급됨에 따라 학생들이 진정한 학습에 필요한 인지적 고투를 우회할 수 있다고 경고하고 있습니다.

 

연구 결과 인지 저하가 나타나다

MIT 미디어 랩의 최근 연구는 이러한 우려를 구체적으로 입증하고 있습니다. 18세부터 39세까지의 참가자 54명을 대상으로 한 연구에서, 연구진은 EEG 스캔을 사용해 참가자들이 SAT 스타일의 에세이를 작성할 때의 뇌 활동을 관찰했습니다. 이들은 ChatGPT, 구글 검색, 또는 디지털 도구 없이 세 가지 방법을 사용했습니다. 결과는 매우 뚜렷했습니다—ChatGPT를 사용한 참가자들은 가장 낮은 수준의 뇌 활동을 보였으며, "신경, 언어, 행동적 수준에서 일관되게 저조한 성과"를 나타냈습니다.

몇 달에 걸쳐 진행된 실험에서 ChatGPT 사용자는 점점 더 기술에 의존하게 되었으며, 결국 복사-붙여넣기를 활용하는 전략으로 치달았습니다. 논문의 주저자인 나탈리야 코스미나는 아직 발달 중인 뇌에 대한 심각한 우려를 표하며, "GPT 유치원"과 같은 기획에 대해 경고했습니다.

이와 유사하게, 타르투대학교 컴퓨터 과학 연구소의 연구진도 231명의 프로그래밍 학생을 대상으로 한 조사에서 우려스러운 연관성을 발견했습니다. 학생들은 주로 AI를 코드 디버깅이나 예제 이해에 활용했으나, 챗봇을 더 자주 사용하는 학생들이 오히려 학업 성취도가 낮은 것으로 드러났습니다. 마리나 렙 교수는 "AI는 학습을 지원해야지 대체해서는 안 된다"며, AI를 무분별하게 사용할 경우 중요한 역량 개발에 악영향을 미칠 수 있다고 강조했습니다.

 

독해 점수 지속적으로 역사적 하락세

이러한 결과는 읽기 능력에서 나타나는 전국적인 우려스러운 추세와 일치합니다. 2024년 국가 교육 성취도 평가(NAEP)는 4학년과 8학년 모두의 읽기 점수가 2019년 수준보다 5점 하락했음을 밝혔으며, 8학년 학생들은 지난 30년 중 가장 낮은 점수를 기록했습니다. 특히 가장 우려되는 점은 성취도가 가장 낮은 학생들에서 급격한 하락이 나타나 성취 격차가 더욱 벌어졌다는 점입니다.

일부 교육자들은 이러한 하락이 AI가 읽기 습관에 미치는 영향과 직접적으로 관련이 있다고 보고 있습니다. 교사들은 AI가 생성한 요약에 지나치게 의존하는 학생들이 실제 텍스트에 대한 참여도가 낮아져 이해력과 기억력 저하로 이어진다고 보고합니다. 이러한 “깊은 읽기 능력 저하”로 인해 학생들은 콘텐츠를 대충 훑어보는 데 그치며, 복잡한 자료를 이해하는 데 필요한 분석적 사고력을 제대로 기르지 못하고 있습니다.

 

광범위한 교육적 영향

그 영향은 개별 교실을 훨씬 넘어섭니다. RAND Corporation이 2024년에 실시한 설문조사에 따르면 미국 전역의 영어 교사의 약 40%가 AI 도구를 자신의 교육에 도입했다고 합니다. 이러한 도구들은 효율성과 접근성을 제공하지만, 교육자들은 학생들이 AI가 생성한 정보를 그대로 받아들이고 독립적인 추론 능력을 기르지 못하는 것에 대해 우려하고 있습니다.

다양한 저널에 발표된 연구들은 이러한 우려를 뒷받침합니다. National Science Teaching Association에서 강조한 연구에 따르면 AI 도구를 자주 사용하는 학생들은 비판적 사고 점수가 더 낮게 나타나며, 이는 분석적으로 사고하고 독립적으로 문제를 해결하는 능력이 약화될 수 있음을 시사합니다. 또 다른 조사에서는 글쓰기 과제에 AI를 완전히 의존할 경우 정확성이 25.1% 감소했고, AI 보조 읽기에서는 수행 능력이 12% 감소했습니다.

교육자들이 직면한 과제는 필수적인 인지 발달을 보존하면서 AI의 이점을 어떻게 활용할지 결정하는 것입니다. 한 연구자가 지적했듯이, 교육 시스템은 "글로벌 AI 실험의 주요 실험실 중 하나"가 되었으며 학생들의 지적 발달이 그 균형에 달려 있습니다.

댓글 0
전체 192 / 15 페이지
2025년 9월 3일, OpenAI의 ChatGPT가 전세계적으로 약 2시간 동안 서비스 장애를 겪었습니다. 이번 장애는 사용자들이 ChatGPT에 질문을 입력해도 응답이 표시되지 않는 문제로 시작되어, 수백만 명의 사용자가 접속 불가 상태에 빠졌습니다.OpenAI 공식 상태 페이지에 따르면 장애는 로그인, 웹, 모바일 앱, WhatsApp 연동, 음성 모드, 이미지 생성, 파일 업로드 등 총 23개 주요 구성 요소에 영향을 미쳤습니다. 회사는 "ChatGPT가 응답을 표시하지 않는 문제를 조사 중"이라고 발표하며, 근본 원인을 파악한 후 해결 작업에 착수했다고 밝혔습니다.이번 장애로 학업과 업무, 개인 프로젝트가 중단된 사용자들이 소셜미디어와 Downdetector에 대량의 불만을 제기했습니다. 일부 사용자들은 평소 ChatGPT에 의존하던 작업을 수동으로 처리해야 하는 상황에 직면했으며, "ChatGPT 없이는 일을 어떻게 해야 할지 모르겠다"는 반응을 보이기도 했습니다.흥미롭게도 이 같은 전세계적 AI 서비스 장애 사태는 한국 언론에서는 전혀 보도되지 않았습니다. 조선일보, 중앙일보, 한겨레 등 주요 언론사는 물론 네이버 뉴스에서도 관련 기사를 찾아볼 수 없었습니다. 이는 국내 언론이 해외 IT 서비스의 일시적 장애를 크게 다루지 않는 경향이나, 다른 국내 뉴스의 우선순위, 또는 한국 사용자들에게 미친 영향이 상대적으로 적었을 가능성을 시사합니다.장애 발생 당시 사용자들은 Google Gemini, Microsoft Copilot, Perplexity AI 등 대체 서비스로 이동했으며, OpenAI는 최근 몇 달간 반복되는 서비스 중단으로 인해 플랫폼 안정성에 대한 우려가 제기되고 있다고 보도되었습니다.
164 조회
0 추천
09.04 등록
SK AX는 4일 신한은행 생성형 인공지능(AI) 플랫폼 구축 사업에 착수했다고 밝혔다.SK AX가 생성형 AI를 기반으로 금융 조직에서 일하는 방식을 근본적으로 바꾸는 ‘금융 AX’혁신에 나선다. SK AX(사장 윤풍영, skax.co.kr)는 4일, ‘신한은행 생성형 AI플랫폼 구축 사업’에 착수했다고 밝혔다.이번 사업은 신한은행 전 직원이 손쉽게 AI를 활용할 수 있는 실질적인 업무 환경을 구현해,조직 전반에 걸쳐 일하는 방식을 AI중심으로 전환하는 데 목적이 있다. 단순히 일부 업무 자동화에 그치지 않고,금융 조직 전체 일하는 방식을 AI중심으로 재편하는 과정이다.예컨대 보고서 작성,고객 데이터 분석,내부 의사결정 지원 등 다양한 업무에서 생성형 AI가 실질적인 도구로 자리잡도록 지원한다.이번 사업 핵심은 SK텔레콤과 공동 개발한 기업용 AI플랫폼 ‘에이닷엑스(A.X)플랫폼’도입이다. 에이닷엑스 플랫폼은 다양한 사전 구축 AI모델을 업무 목적에 맞게 빠르게 최적화할 수 있는 ‘파인튜닝(Fine-tuning)’기능과,별도 개발 지식 없이 AI기능을 블록처럼 조립해 직접 서비스로 완성할 수 있는 ‘노코드 빌더’를 함께 제공한다. 이를 통해 신한은행 직원 누구나 본인 업무에 맞는 AI를 쉽게 만들고,직접 활용할 수 있는 실행 환경을 갖추게 된다.
145 조회
0 추천
09.04 등록
(챗GPT로 요약함)OpenAI가 최근 자사의 비영리→영리 전환을 반대하는 여러 단체들을 상대로 강경한 법적 대응에 나섰다는 기사입니다.지난달, 소규모 AI 거버넌스 비영리단체 Encode의 법률 고문 네이선 켈빈은 자택에서 보안관으로부터 두꺼운 소환장을 받았습니다. 이는 일론 머스크와 오픈AI 간 진행 중인 소송의 일환이었는데, 오픈AI는 Encode가 머스크와 자금적으로 연결되어 있을 수 있다는 의혹을 제기하며 관련 자료 제출을 요구했습니다. Encode 측은 해당 문서나 연관성은 전혀 없다고 일축했습니다.이 사례는 오픈AI가 최근 일련의 단체들—Encode, CANI, LASST 등—을 상대로 벌이는 법적 공세의 일부입니다. 회사 측은 이들이 사실상 머스크, 메타, 또는 앤트로픽 같은 경쟁사와 이해관계를 공유하며 오픈AI의 영리화 전환을 방해하고 있다고 의심합니다. 오픈AI 변호인 앤 오리어리는 “이 단체들의 자금 출처는 불투명하며, 경쟁사의 지분을 가진 후원자들이 숨어 있을 수 있다”고 주장했습니다.오픈AI는 이러한 의심을 단순히 법정에서만 펼치는 것이 아니라, 정치적 로비와 이미지 전쟁에서도 적극적으로 나서고 있습니다. 최근에는 **슈퍼 PAC ‘Leading the Future’**를 결성해 AI 규제를 강화하려는 입법 움직임에 맞서 1억 달러 이상을 모금했습니다. 그 과정에서 오픈AI는 “AI 진보를 막고 미국 일자리를 빼앗으려는 거대한 세력”이 존재한다고 강조하며, 효과적 이타주의(EA) 진영과 더스틴 모스코비츠·피에르 오미다이어 같은 억만장자 후원자들을 겨냥했습니다.하지만 공격 대상이 된 단체들은 오픈AI가 과도한 피해망상에 사로잡혀 있다고 반박합니다. Encode와 LASST 등은 실제로 머스크나 메타와도 비판적 입장을 취해왔으며, 그와의 금전적 연관성도 없다고 주장합니다. 이들은 자신들이 단순히 AI 안전성과 투명성을 우려하는 시민·전문가 네트워크일 뿐인데, 오픈AI가 거대 음모론의 일부로 몰아붙이고 있다는 입장입니다.정리하면, 오픈AI는 경쟁사와 억만장자들의 자금력이 자신들의 발전을 저지한다고 믿으며 법적·정치적 반격에 나섰고, 이에 소규모 시민단체와 비영리 조직들이 휘말리면서 AI 규제와 산업 권력을 둘러싼 갈등이 격화되고 있습니다.
138 조회
0 추천
09.03 등록
(챗GPT로 요약 번역)OpenAI는 올해 말까지 청소년과 정서적 위기 상황에 있는 사람들을 위한 안전 장치(guardrails)를 ChatGPT에 적용할 예정.배경: 최근 ChatGPT가 자살·살인 충동을 적절히 막지 못했다는 사례가 늘어나며, 피해자 가족들이 OpenAI를 비난하거나 소송 제기.- 16세 소년 자살 사건 → 부모가 소송.- 56세 남성, 망상 심화 후 모친 살해 및 자살.- 29세 여성 → ChatGPT에 유서 작성 도움 요청 (직접 자살 권유는 없었지만 위험 신호 보고는 안 함).현재 시스템: 자살 의도 표현 시 위기 상담 전화번호를 안내하지만, 법 집행기관에 알리진 않음(개인정보 우려 때문).향후 개선안:- 정서적 위기 상황을 GPT-5-thinking 모델로 라우팅 → 안전 가이드라인을 더 일관되게 적용.- 30개국 90명 이상의 의사들이 모델 검토와 피드백 제공.- 부모 계정 연동 기능 도입 예정 → 부모가 자녀 계정 활동을 모니터링하고, 위기 신호 시 알림 수신 가능.- 위기 상황에서 응급 서비스 연결을 쉽게 하고, 신뢰할 수 있는 연락처 추가 기능 제공.산업 동향: Character.AI도 비슷한 보호 장치 도입(3월). 그러나 10대들이 부모 계정 연동을 실제로 수용할지는 의문.큰 맥락: 인터넷 초창기부터 청소년은 어른용 플랫폼에 몰래 접근해 왔으며, 기업들은 관리 책임을 부모에게 떠넘기는 경향.전망: AI 챗봇이 사람처럼 상담가 역할을 하는 것 자체를 제한해야 한다는 주장도 제기됨.???? 핵심 메시지: OpenAI는 안전망 강화와 부모 참여 확대를 추진 중이지만, 실제 효과와 청소년 수용성에는 여전히 의문이 남음.
129 조회
0 추천
09.03 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입