Loading...

AI 뉴스

영국 학생 92% AI 사용, 윤리성 문제 대두

페이지 정보

작성자 xtalfi
작성일 2025.09.18 02:34
1,015 조회
0 추천
0 비추천

본문

2b9e9c9b00f34613783b3c4b8429046fP7Cm.png

(퍼플렉시티가 정리한 기사)

인공지능은 고등 교육을 빠르게 재편하고 있지만, 이러한 변화는 학생 학습, 비판적 사고, 그리고 학문적 진실성에 미치는 영향에 대한 심각한 우려를 불러일으키고 있습니다. 최근 연구와 교육자들의 증언은 기술 발전이 교육의 목적과 가치에 대한 근본적인 질문과 충돌하는 복잡한 환경을 보여줍니다.


대학생들은 전례 없는 속도로 AI 도구를 받아들이고 있습니다. 영국 고등교육정책연구소(UK Higher Education Policy Institute)에 따르면, 2025년 대학생의 92%가 AI를 적극적으로 사용하고 있었으며, 이는 2024년의 66%에서 드라마틱하게 증가한 수치입니다. 이들 중 88%는 과제 수행, 개념 설명, 기사 요약, 그리고 직접 글 생성에 생성형 AI를 활용했습니다.


우려는 단순한 부정행위 고발을 훨씬 넘어섭니다. 요크대학교(University of York)의 레오 맥캔(Leo McCann) 교수와 사이먼 스위니(Simon Sweeney) 교수는 최근 가디언(Guardian) 기고문에서 학생들 사이에 부적절한 AI 사용이 만연하며, 많은 평가가 “ChatGPT를 통한 필터링”을 거치고 있다고 지적합니다. 그들은 AI로 생성된 학술 과제 답변이 종종 “일반적이고, 영감을 주지 못하며, 사실과 다른 경우가 많다”고 관찰했다고 밝혔습니다. 한 예로, 1922년 헨리 포드(Henry Ford)의 기사를 분석한 학생들이 이 논란적인 산업가를 “정교한 HR 성과 기능을 만든 인물”로 묘사하고, 그를 “변혁적 리더”라고 특징지었습니다.


압박 속의 학문적 정직성


AI 사용의 급증은 연구자들이 “악성 문제(wicked problem)“라고 부르는, 명확한 해결책이 없는 문제를 대학에 야기했습니다. 최근 20명의 대학 교육자를 대상으로 한 연구에서는, 평가를 AI에 더 저항적으로 만들려는 시도가 종종 교육 목표를 희생시킨다는 사실이 밝혀졌습니다. 한 교육자는 “우리는 평가를 AI에 더 저항적으로 만들 수 있지만, 너무 경직시킨다면 창의성보다는 준수 여부만을 테스트하게 된다”고 언급했습니다.


이러한 문제로 인해 대학들은 급하게 새로운 정책과 탐지 도구를 도입하고 있습니다. 그러나 AI 탐지 소프트웨어는 신뢰도가 낮아, 높은 오류율로 인해 정직한 학생들에게도 잘못된 누명을 씌우는 경우가 많습니다. 실제로 상황이 너무 심각해져, 버팔로 대학의 AI 탐지 서비스를 중단하라는 청원에 1,000명 이상의 사람들이 서명한 바 있습니다. 이는 여러 대학원생이 잘못된 비행 혐의를 받게 된 사건이 발생한 뒤였습니다.


관련성 격차


일부 전문가들은 AI의 광범위한 사용이 더 깊은 문제를 반영한다고 주장합니다. 학생들은 자신들이 시대에 뒤떨어진 기술을 개발하도록 요구받고 있음을 인식한다는 것입니다. 세계경제포럼(World Economic Forum)의 2025 미래 직업 보고서에 따르면, AI가 점점 더 잘 다루는 일상적인 읽기, 쓰기, 수학적 연산 능력은 점차 덜 중요해지고 있습니다. 학생들이 AI를 사용하는 것은 게으름 때문이 아니라, 점점 가치가 줄어드는 기술을 연습하라는 요구를 받고 있기 때문일 수 있습니다.


변화를 위한 요구


교육자들은 다양한 전략으로 대응하고 있습니다. 일부는 인공지능 부정행위에 취약한 과제를 포기하고, 더 창의적이고 개인화된 과제로 대체하고 있습니다. 또 다른 이들은 인공지능을 위협이 아닌 학습 도구로 여기며, 투명한 인공지능 통합을 옹호합니다. MIT를 비롯한 여러 기관은 인공지능 탐지 소프트웨어에만 의존하지 말라는 지침을 발표했습니다.


이 논쟁은 인공지능이 지배하는 세상에서 교육의 역할에 대한 더 광범위한 질문을 반영합니다. 일부 교사는 인공지능이 학생과 교사의 ‘성장’을 저해할 것이라고 우려하는 반면, 다른 이들은 인공지능이 미래 직장의 불가피한 일부임을 받아들여야 한다고 주장합니다.


McCann과 Sweeney가 가디언에 보낸 서한에서 결론을 내리듯, 인공지능이 일, 교육, 일상생활에 미칠 영향을 이해하기 위해서는 ‘지나치게 축하하기보다 더 비판적인 관점’이 필요합니다. 고등교육의 과제는 인간만이 할 수 있는 깊이 있는 사고와 비판적 분석을 유지하면서도 인공지능의 이점을 활용할 수 있는 방안을 찾는 것입니다.

댓글 0
전체 873 / 165 페이지
조금 전 메타가 AI 기능이 있는 안경을 비롯하여 중요한 키노트를 진행하였습니다.CNET이 준비한 키노트 요약입니다.RAYBAN 과 새로 제작한 안경이 큰 화제입니다.
1118 조회
0 추천
2025.09.18 등록
마이크로소프트가 코파일럿 메모장과 그림판 연동기능을 제공하기 시작했으며이 기능은 오피스365를 사용하지 않아도 코파일럿을 이욯하면 이용할 수 있다.예를 들어 메모장은 다음과 같은 기능을 갖게 된다.-요약: 긴 텍스트를 간략하게 요점만 추려내고, 문서의 핵심을 빠르게 파악할 수 있습니다.- 쓰기: 프롬프트나 선택한 텍스트를 활용해 새로운 문장을 AI로 쉽고 빠르게 작성합니다.- 다시 쓰기: 선택한 내용을 AI가 어투, 길이, 명확성 등 다양한 스타일로 변환해 줍니다.또한 그림판은 다음과 같은 기능을 추가하게 된다.- 프로젝트 파일 저장 기능: 그림판에서 작업을 .paint 파일로 저장해 언제든 이어서 편집이 가능.- 불투명도(Opacity) 슬라이더: 연필 및 브러시 도구의 투명도를 원하는 대로 조절해 더 섬세한 혼합이나 레이어링 효과 주기.- 크기 및 불투명도 슬라이더 병행 사용: 두 슬라이더를 활용해 부드럽게 배합하고 다양한 질감의 그림 그리기.
1066 조회
0 추천
2025.09.18 등록
(퍼플렉시티가 정리한 기사)중국 AI 스타트업 DeepSeek은 획기적인 R1 모델 훈련 방식에 관한 새로운 세부 정보를 세계적인 권위지 네이처(Nature)의 동료검토 논문을 통해 발표했습니다. 이 논문에서는 기존 경쟁 모델 대비 극히 적은 비용으로 순수 강화학습만을 사용해 첨단 추론 능력을 달성한 방법을 공개했습니다.항저우에 본사를 둔 이 회사는 자사의 R1 추론 모델 훈련 비용이 단 29만 4천 달러에 불과하며, 기반 베이스 모델의 개발 비용은 약 600만 달러였음을 처음으로 공개했습니다. 총 630만 달러가 소요된 것으로, 이는 미국의 기술 기업들이 개발한 경쟁 모델이 수천만 달러에 달하는 것과는 극명한 대조를 이룹니다.순수 강화학습의 획기적인 발전DeepSeek의 주요 혁신은 연구자들이 “순수 강화 학습(pure reinforcement learning)“이라고 부르는 방식을 사용해 R1을 개발한 점에 있으며, 이는 인간이 만든 예시에 의존하는 기존의 감독 학습(supervised learning) 방식과는 다른 접근법입니다. 이 과정에서 모델은 인간이 선택한 추론 방식에 따르도록 학습시키는 대신, 올바른 답변에 도달할 때 보상을 받도록 설계되었습니다.네이처(Nature) 논문에 따르면, DeepSeek의 접근법은 모델이 인간이 제시한 전략을 따르지 않고도 자체적인 추론 전략을 개발하고 자신의 작업을 검증할 수 있는 능력을 갖추게 해주었습니다. 회사는 자체 시도에 대해 별도의 알고리즘을 사용하지 않고 추정치를 활용해 점수를 매길 수 있게 해주는 Group Relative Policy Optimization(GRPO)이라는 기법을 활용했습니다.“이 모델은 AI 연구자들 사이에서 매우 영향력이 컸습니다,“라고 오하이오 주립대(Ohio State University) 콜럼버스 소재 AI 연구원인 Huan Sun은 말했습니다. “2025년 현재까지 LLM에서 강화 학습을 수행하는 거의 모든 연구가 어떻게든 R1로부터 영감을 받았을지도 모릅니다”.5단계 훈련 과정완전한 R1 학습 과정은 감독 학습(fine-tuning)과 강화 학습을 번갈아가며 진행하는 여러 단계로 구성되었습니다. 이 과정은 딥시크(DeepSeek)의 V3-Base 모델을 수천 개의 ‘콜드 스타트’ 데이터 포인트로 파인튜닝하는 것으로 시작했고, 이후 순수 강화 학습을 통해 추론 능력을 향상시켰습니다.수렴에 가까워지면 시스템은 리젝션 샘플링(rejection sampling) 방식을 사용했습니다. 여기서 모델은 강화 학습 실행에서 성공적인 예시 중 최상의 예시를 선택해 자체 합성 훈련 데이터를 생성했습니다. 이 합성 데이터는 이후 글쓰기나 사실 기반 질문응답 등 다양한 영역에서 DeepSeek-V3-Base의 감독 학습 데이터와 통합되었습니다.동료 평가 중인 최초의 주요 LLMR1은 엄격한 동료 평가 과정을 거친 최초의 대형 언어 모델을 의미합니다. Nature 논문을 심사한 허깅페이스의 머신러닝 엔지니어 루이스 턴스톨은 이를 “매우 환영할 만한 선례”라고 평가하며, 훈련 과정이 공개되지 않으면 AI 시스템이 위험을 초래하는지 평가하기 어렵다고 언급했습니다.이 동료 평가 과정에서 DeepSeek는 훈련에 사용된 데이터 유형과 안전 조치를 포함한 기술적 세부 사항에 대한 설명을 추가하게 되었습니다. 이 모델은 오픈소스 특성을 유지하면서도 OpenAI의 o1 모델에 필적하는 추론 벤치마크 성능을 달성하였습니다.성능 및 접근성Hugging Face에서 1월에 출시된 이후, R1은 복잡한 문제 해결을 위한 플랫폼에서 가장 많이 다운로드된 모델이 되었으며, 다운로드 수는 1,090만 회를 넘어섰습니다. 이 모델은 AIME 2024 수학 벤치마크에서 pass@1 점수 79.8%를 기록하여 OpenAI o1의 79.2%를 소폭 앞섰습니다.DeepSeek의 혁신은 AI 개발 비용 및 성능 향상을 위해 모델 크기와 연산 능력을 늘려야 한다는 확장 법칙에 대한 기존의 통념에 도전장을 내밀었습니다. 회사는 비교적 덜 강력한 H800 칩을 사용해 성공을 거두었으며, 이 칩은 2023년 미국의 수출 통제로 중국 내 판매가 금지된 바 있습니다. 이러한 성과는 향후 AI 개발 방향에 대한 논의를 촉진하고 있습니다.
1032 조회
0 추천
2025.09.18 등록
(퍼플렉시티가 정리한 기사)주요 AI 기업들은 보다 능력 있는 AI 에이전트를 만들기 위해 강화학습 환경에 전례 없는 투자를 쏟아붓고 있으며, Anthropic은 내년에 이러한 정교한 훈련 플랫폼에 10억 달러 이상을 지출할 계획이라고 전해졌다. 이 대규모 자금 지원은 실리콘밸리에서 기존 AI 훈련 방식이 한계에 도달했으며, 진정으로 자율적인 AI 시스템을 개발하려면 새로운 접근이 필요하다는 인식이 커지고 있음을 보여준다.강화학습 환경은 AI 에이전트가 단순히 텍스트를 처리하는 것보다 실제로 행동하면서 학습할 수 있는 시뮬레이션 작업 공간 역할을 한다. 2025년 9월에 보고된 바에 따르면, 이러한 가상 훈련장은 AI 에이전트가 소프트웨어 애플리케이션을 탐색하거나 Salesforce를 통해 고객 관계를 관리하거나, 의료 시스템에서 의료 기록을 처리하는 등 복잡한 과업을 연습할 수 있게 해준다. 이전 세대 AI를 구동했던 고정된 데이터셋과 달리, 이러한 동적 환경은 실시간 피드백을 제공하고 예측할 수 없는 에이전트의 행동에 맞춰 적응한다.스타트업들이 수요에 부응하기 위해 서두르고 있다수요의 급증으로 인해 잘 자금이 지원된 신생 스타트업들이 RL(강화 학습) 환경 제공의 패권을 차지하기 위해 경쟁하는 새로운 카테고리가 탄생했습니다. 모든 직업의 자동화를 대담하게 목표로 지난해 6개월 전에 설립된 메카나이즈 워크(Mechanize Work)는 AI 코딩 에이전트를 위한 고도화된 훈련 환경을 구축하기 위해 소프트웨어 엔지니어에게 연봉 50만 달러를 제안하고 있습니다. 소식통에 따르면 이 스타트업은 이미 Anthropic과 RL 프로젝트를 진행 중이라고 합니다.저명한 AI 연구원 안드레이 카파시(Andrej Karpathy)와 파운더스 펀드(Founders Fund)가 지원하는 프라임 인텔렉트(Prime Intellect)는 “RL 환경을 위한 허깅페이스(Hugging Face)“를 자처하며, 2025년 8월에 출시된 오픈소스 플랫폼으로 소규모 개발자들을 겨냥하고 있습니다. 이 회사는 2025년 3월에 1,500만 달러의 자금을 조달하며 이러한 강력한 훈련 도구에 대한 접근을 민주화하는 것을 목표로 하고 있습니다.기존 데이터 라벨링 업체들도 이 기회를 포착하기 위해 전략을 수정하고 있습니다. 지난해 12억 달러의 매출을 올린 것으로 알려진 서지 AI(Surge AI)는 AI 연구소의 수요 증가에 대응해 RL 환경 구축을 위한 전담 내부 조직을 만들었습니다. 연간화 매출 4억 5천만 달러와 100억 달러 가치로 투자를 유치 중인 머커(Mercor)는 코딩, 헬스케어, 법률 등 분야별 환경을 개발하고 있습니다.시장 경쟁이 심화된다경쟁 구도는 기업들이 이 신흥 분야에서 우위를 차지하기 위해 치열한 경쟁을 벌이면서 점점 더 치열해지고 있습니다. 한때 AI 데이터 라벨링 분야의 독보적인 선도 업체였던 Scale AI는 Meta가 회사에 막대한 투자를 하고 CEO를 영입한 뒤, OpenAI와 Google가 Scale을 고객에서 제외하면서 상당한 도전에 직면했습니다. 이로 인해 Surge와 Mercor와 같은 경쟁 업체들이 시장 점유율을 확대할 기회를 얻게 되었습니다.업계 관계자들에 따르면, RL 환경에 대한 투자는 AI 시스템의 학습 방식에 근본적인 변화를 가져오고 있습니다. Surge의 CEO인 에드윈 첸(Edwin Chen)은 “OpenAI와 Anthropic이 자신들의 모델을 개선하는 방식은 실제로 인간의 학습 과정을 모방하고 있으며, 강화 학습 환경은 AI가 실제 세계에서 살아가는 것과 같다”고 설명했습니다.도전과 회의론막대한 투자에도 불구하고, 상당한 기술 및 사업적 과제들이 여전히 남아 있습니다. 비평가들은 AI 모델이 실제로 의도한 작업을 수행하지 않고 보상을 얻기 위한 허점을 찾아내는 “보상 해킹”과 같은 문제를 지적합니다. 환경 자체에는 긍정적 입장을 보이면서도, Andrej Karpathy는 강화 학습에 대해서는 신중한 태도를 보이며 “강화 학습에만 한정해선 부정적 시각을 갖고 있다”고 언급했습니다.업계의 공감대는 RL 환경이 차세대 AI 에이전트 개발에 핵심적이며, OpenAI의 o1 모델 및 Anthropic의 Claude 시스템 등 최근의 혁신을 가능하게 했다고 봅니다. 하지만 이러한 환경에서 지능을 추출하는 최적의 방법과 확장성에 관한 의문이 연구자와 투자자들 사이에서 끊임없이 논쟁을 불러일으키고 있습니다.
1034 조회
0 추천
2025.09.18 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입