Loading...

AI 뉴스

AI 도구가 학생들의 비판적 사고 능력 감소와 연관

페이지 정보

작성자 xtalfi
작성일 2025.09.09 13:49
1,659 조회
0 추천
0 비추천

본문

57486da988afcf75bafd1fb473b5164dkD4z.jpg

(퍼플렉시티가 정리한 기사)

여러 기관의 교육자들과 연구자들은 인공지능이 학생 학습에 미치는 영향에 대해 경고음을 울리고 있으며, 새로운 연구 결과에 따르면 AI 도구에 크게 의존하는 학생들 사이에서 비판적 사고 능력과 독해력 저하가 우려스럽게 나타나고 있습니다.

칠레대학교와 교황청 가톨릭대학교의 전문가들은 ChatGPT와 같은 언어 모델이 교육적 기회를 제공하는 반면, 광범위한 사용이 깊이 있는 독서 훈련을 크게 감소시킬 수 있다고 경고했습니다. 그들은 이 능력을 이해, 비판적 사고, 글쓰기 능력 발전에 필수적인 것으로 간주합니다. 연구자들은 AI 도구가 교실에서 점점 더 널리 보급됨에 따라 학생들이 진정한 학습에 필요한 인지적 고투를 우회할 수 있다고 경고하고 있습니다.

 

연구 결과 인지 저하가 나타나다

MIT 미디어 랩의 최근 연구는 이러한 우려를 구체적으로 입증하고 있습니다. 18세부터 39세까지의 참가자 54명을 대상으로 한 연구에서, 연구진은 EEG 스캔을 사용해 참가자들이 SAT 스타일의 에세이를 작성할 때의 뇌 활동을 관찰했습니다. 이들은 ChatGPT, 구글 검색, 또는 디지털 도구 없이 세 가지 방법을 사용했습니다. 결과는 매우 뚜렷했습니다—ChatGPT를 사용한 참가자들은 가장 낮은 수준의 뇌 활동을 보였으며, "신경, 언어, 행동적 수준에서 일관되게 저조한 성과"를 나타냈습니다.

몇 달에 걸쳐 진행된 실험에서 ChatGPT 사용자는 점점 더 기술에 의존하게 되었으며, 결국 복사-붙여넣기를 활용하는 전략으로 치달았습니다. 논문의 주저자인 나탈리야 코스미나는 아직 발달 중인 뇌에 대한 심각한 우려를 표하며, "GPT 유치원"과 같은 기획에 대해 경고했습니다.

이와 유사하게, 타르투대학교 컴퓨터 과학 연구소의 연구진도 231명의 프로그래밍 학생을 대상으로 한 조사에서 우려스러운 연관성을 발견했습니다. 학생들은 주로 AI를 코드 디버깅이나 예제 이해에 활용했으나, 챗봇을 더 자주 사용하는 학생들이 오히려 학업 성취도가 낮은 것으로 드러났습니다. 마리나 렙 교수는 "AI는 학습을 지원해야지 대체해서는 안 된다"며, AI를 무분별하게 사용할 경우 중요한 역량 개발에 악영향을 미칠 수 있다고 강조했습니다.

 

독해 점수 지속적으로 역사적 하락세

이러한 결과는 읽기 능력에서 나타나는 전국적인 우려스러운 추세와 일치합니다. 2024년 국가 교육 성취도 평가(NAEP)는 4학년과 8학년 모두의 읽기 점수가 2019년 수준보다 5점 하락했음을 밝혔으며, 8학년 학생들은 지난 30년 중 가장 낮은 점수를 기록했습니다. 특히 가장 우려되는 점은 성취도가 가장 낮은 학생들에서 급격한 하락이 나타나 성취 격차가 더욱 벌어졌다는 점입니다.

일부 교육자들은 이러한 하락이 AI가 읽기 습관에 미치는 영향과 직접적으로 관련이 있다고 보고 있습니다. 교사들은 AI가 생성한 요약에 지나치게 의존하는 학생들이 실제 텍스트에 대한 참여도가 낮아져 이해력과 기억력 저하로 이어진다고 보고합니다. 이러한 “깊은 읽기 능력 저하”로 인해 학생들은 콘텐츠를 대충 훑어보는 데 그치며, 복잡한 자료를 이해하는 데 필요한 분석적 사고력을 제대로 기르지 못하고 있습니다.

 

광범위한 교육적 영향

그 영향은 개별 교실을 훨씬 넘어섭니다. RAND Corporation이 2024년에 실시한 설문조사에 따르면 미국 전역의 영어 교사의 약 40%가 AI 도구를 자신의 교육에 도입했다고 합니다. 이러한 도구들은 효율성과 접근성을 제공하지만, 교육자들은 학생들이 AI가 생성한 정보를 그대로 받아들이고 독립적인 추론 능력을 기르지 못하는 것에 대해 우려하고 있습니다.

다양한 저널에 발표된 연구들은 이러한 우려를 뒷받침합니다. National Science Teaching Association에서 강조한 연구에 따르면 AI 도구를 자주 사용하는 학생들은 비판적 사고 점수가 더 낮게 나타나며, 이는 분석적으로 사고하고 독립적으로 문제를 해결하는 능력이 약화될 수 있음을 시사합니다. 또 다른 조사에서는 글쓰기 과제에 AI를 완전히 의존할 경우 정확성이 25.1% 감소했고, AI 보조 읽기에서는 수행 능력이 12% 감소했습니다.

교육자들이 직면한 과제는 필수적인 인지 발달을 보존하면서 AI의 이점을 어떻게 활용할지 결정하는 것입니다. 한 연구자가 지적했듯이, 교육 시스템은 "글로벌 AI 실험의 주요 실험실 중 하나"가 되었으며 학생들의 지적 발달이 그 균형에 달려 있습니다.

댓글 0
전체 1,203 / 273 페이지
구글은 기존 스피커 모델을 업그레이드한 Gemini for Home을 10월 중 출시할 예정이다.지난 주 Made in Google 행사를 통해 구글은 차세대 음성 어시스턴트로 'Gemini for Home'을 공개했다. 이 모델은 모든 가족 구성원과 방문객이 여러 기기를 제어하고 복잡한 집안 업무도 음성으로 간편하게 처리할 수 있도록 설계됐다그리고 최근 한 유튜브 미디어가 이 기기로 추정되는 기기의 모습을 유출했다.이 어시스턴트는 음악 검색 및 재생, 조명·온도 제어 등 스마트홈 관리, 가족 일정 조율, 할 일 생성, 맞춤 정보 질의 등 다양한 작업을 한 번에 지원한다. 예를 들어 복수명령이나 긴 문장으로 집안 기기를 동시 제어할 수 있다또한 ‘Gemini Live’를 통해 사용자는 자연스러운 대화 방식으로 요리법, 생활 팁, 일정 상담, 창작 협업 등 맞춤형 조언 및 창의적인 지원을 받을 수 있다. 대화 도중 추가 질문이나 방향 전환도 자유롭게 할 수 있다Gemini for Home은 앞으로 기존의 Google Assistant를 스마트 스피커와 디스플레이 기기에서 대체할 예정이다. 무료와 유료 버전으로 제공되며, 10월부터 초기 액세스가 시행될 예정이다
1719 조회
0 추천
2025.08.25 등록
애플 연구진은 기존보다 더 효율적으로 롱폼 비디오를 분석할 수 있는 대형 언어모델(LLM)인 SlowFast-LLaVA-1.5를 개발했다고 발표했다.애플은 'SlowFast' 구조(고해상도 소수 프레임+저해상도 다수 프레임)를 사용해 이미지와 영상 public 데이터셋을 모두 활용해 학습, 이미지만큼 영상 내 시간적 구조 이해도 가능하도록 했다. SF-LLaVA-1.5는 1B, 3B, 7B 파라미터 규모로 공개됐으며, LongVideoBench와 MLVU 같은 벤치마크에서 기존 더 큰 모델 대비 뛰어난 성능을 보였다. 특히 지식, 수학 추론, OCR 등 이미지 작업에서도 강점을 보였다.하지만 이 모델은 한 번에 최대 128프레임(빠름: 96, 느림: 32)만 입력받는다. 이 방식은 일부 중요한 프레임을 놓칠 수 있다는 한계가 있으며, 전체 매개변수와 비주얼 인코더까지 튜닝하려면 GPU 자원 소모가 크다. 연구진은 향후 메모리 절약, 성능 개선 기술의 적용 가능성을 언급했다.
1672 조회
0 추천
2025.08.25 등록
올해 1월 AI 업계에 충격을 안겨준 중국 AI 스타트업 DeepSeek 는 기존 V3 모델의 업그레이드 버전인 V3.1을 공개했다.V3.1은 OpenAI의 최신 모델 GPT-5와 여러 벤치마크에서 견줄 만한 성능을 보이며, 가격경쟁력까지 갖추었다.DeepSeek V3.1은 중국에서 자체 개발된 AI 칩에 맞춰 최적화된 것이 특징이다. 이는 미국의 Nvidia 등 외국 기술 의존도를 낮추고, 미국의 수출 규제에 대응하려는 전략의 일환이다.DeepSeek는 WeChat과 Hugging Face에 모델을 공개하며, 중국 정부의 AI 자립 정책에 부응하고 있다.V3.1은 6850억 파라미터의 초대형 모델로, '미시처-오브-엑스퍼트(mixture-of-experts)' 구조를 통해 쿼리마다 일부만 활성화되어 연산 효율성과 비용 절감을 동시에 잡았다. 또한, 기존 모델이 '즉답형'과 '추론형'으로 분리됐던 것과 달리, 두 가지를 결합해 신속성과 논리적 추론을 함께 제공한다는 점이 돋보인다.
1869 조회
0 추천
2025.08.22 등록
구글이 사진 앱에 수정사항을 텍스트로 바로 수정요청하는 기능을 적용.이 기능은 곧 런칭할 픽셀10에서부터 적용이 될 예정.또한 사진이 어떻게 편집되었는지 C2PA 인증 기술로 추적이 가능하다고.아래는 구글 블로그의 소개 내용.Google Photos에서는 이제 사진을 편집할 때 원하는 내용을 텍스트나 음성으로 직접 요청할 수 있습니다. 사용자는 어떤 편집 효과를 적용할지 직접 고르지 않아도 되고, 그저 "차를 배경에서 제거해줘"처럼 자연스럽게 말을 하면 AI가 알아서 반영해 줍니다. 이 기능은 미국의 Pixel 10 기기에서 우선 제공됩니다.새롭게 디자인된 사진 편집기는 직관적 UI와 AI 기반 제안으로 일반 사용자도 쉽게 다양한 효과를 활용할 수 있습니다. 이번에 도입된 대화형 편집 기능으로, 구체적인 요청뿐 아니라 "사진 복원해줘", "색감 보정해줘" 등 복합적인 요구도 한 번에 처리할 수 있습니다. 여러 번 연속해서 추가 요청을 하며 세부 조정도 가능합니다.밝기 조절, 배경 제거 같은 기본 편집뿐 아니라 배경 교체, 파티 모자 추가 등 창의적인 효과 요청도 대화로 손쉽게 처리할 수 있습니다. 사용자가 별도의 편집툴을 배우지 않아도 다양한 AI 편집을 자유롭게 즐길 수 있게 되었습니다.Pixel 10 기기에서는 C2PA(디지털 콘텐츠 인증) 기술이 적용되어, AI가 사진 수정에 개입한 흔적·정보를 확인할 수 있습니다. Google Photos에도 점진적으로 이 기능이 적용되며, 사진이 어떻게 만들어지고 어디에 AI 편집이 사용됐는지 투명하게 확인할 수 있습니다.
1750 조회
0 추천
2025.08.22 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입