AI 뉴스

영국 학생 92% AI 사용, 윤리성 문제 대두

페이지 정보

작성자 xtalfi
작성일 2025.09.18 02:34
1,261 조회
0 추천
0 비추천

본문

2b9e9c9b00f34613783b3c4b8429046fP7Cm.png

(퍼플렉시티가 정리한 기사)

인공지능은 고등 교육을 빠르게 재편하고 있지만, 이러한 변화는 학생 학습, 비판적 사고, 그리고 학문적 진실성에 미치는 영향에 대한 심각한 우려를 불러일으키고 있습니다. 최근 연구와 교육자들의 증언은 기술 발전이 교육의 목적과 가치에 대한 근본적인 질문과 충돌하는 복잡한 환경을 보여줍니다.


대학생들은 전례 없는 속도로 AI 도구를 받아들이고 있습니다. 영국 고등교육정책연구소(UK Higher Education Policy Institute)에 따르면, 2025년 대학생의 92%가 AI를 적극적으로 사용하고 있었으며, 이는 2024년의 66%에서 드라마틱하게 증가한 수치입니다. 이들 중 88%는 과제 수행, 개념 설명, 기사 요약, 그리고 직접 글 생성에 생성형 AI를 활용했습니다.


우려는 단순한 부정행위 고발을 훨씬 넘어섭니다. 요크대학교(University of York)의 레오 맥캔(Leo McCann) 교수와 사이먼 스위니(Simon Sweeney) 교수는 최근 가디언(Guardian) 기고문에서 학생들 사이에 부적절한 AI 사용이 만연하며, 많은 평가가 “ChatGPT를 통한 필터링”을 거치고 있다고 지적합니다. 그들은 AI로 생성된 학술 과제 답변이 종종 “일반적이고, 영감을 주지 못하며, 사실과 다른 경우가 많다”고 관찰했다고 밝혔습니다. 한 예로, 1922년 헨리 포드(Henry Ford)의 기사를 분석한 학생들이 이 논란적인 산업가를 “정교한 HR 성과 기능을 만든 인물”로 묘사하고, 그를 “변혁적 리더”라고 특징지었습니다.


압박 속의 학문적 정직성


AI 사용의 급증은 연구자들이 “악성 문제(wicked problem)“라고 부르는, 명확한 해결책이 없는 문제를 대학에 야기했습니다. 최근 20명의 대학 교육자를 대상으로 한 연구에서는, 평가를 AI에 더 저항적으로 만들려는 시도가 종종 교육 목표를 희생시킨다는 사실이 밝혀졌습니다. 한 교육자는 “우리는 평가를 AI에 더 저항적으로 만들 수 있지만, 너무 경직시킨다면 창의성보다는 준수 여부만을 테스트하게 된다”고 언급했습니다.


이러한 문제로 인해 대학들은 급하게 새로운 정책과 탐지 도구를 도입하고 있습니다. 그러나 AI 탐지 소프트웨어는 신뢰도가 낮아, 높은 오류율로 인해 정직한 학생들에게도 잘못된 누명을 씌우는 경우가 많습니다. 실제로 상황이 너무 심각해져, 버팔로 대학의 AI 탐지 서비스를 중단하라는 청원에 1,000명 이상의 사람들이 서명한 바 있습니다. 이는 여러 대학원생이 잘못된 비행 혐의를 받게 된 사건이 발생한 뒤였습니다.


관련성 격차


일부 전문가들은 AI의 광범위한 사용이 더 깊은 문제를 반영한다고 주장합니다. 학생들은 자신들이 시대에 뒤떨어진 기술을 개발하도록 요구받고 있음을 인식한다는 것입니다. 세계경제포럼(World Economic Forum)의 2025 미래 직업 보고서에 따르면, AI가 점점 더 잘 다루는 일상적인 읽기, 쓰기, 수학적 연산 능력은 점차 덜 중요해지고 있습니다. 학생들이 AI를 사용하는 것은 게으름 때문이 아니라, 점점 가치가 줄어드는 기술을 연습하라는 요구를 받고 있기 때문일 수 있습니다.


변화를 위한 요구


교육자들은 다양한 전략으로 대응하고 있습니다. 일부는 인공지능 부정행위에 취약한 과제를 포기하고, 더 창의적이고 개인화된 과제로 대체하고 있습니다. 또 다른 이들은 인공지능을 위협이 아닌 학습 도구로 여기며, 투명한 인공지능 통합을 옹호합니다. MIT를 비롯한 여러 기관은 인공지능 탐지 소프트웨어에만 의존하지 말라는 지침을 발표했습니다.


이 논쟁은 인공지능이 지배하는 세상에서 교육의 역할에 대한 더 광범위한 질문을 반영합니다. 일부 교사는 인공지능이 학생과 교사의 ‘성장’을 저해할 것이라고 우려하는 반면, 다른 이들은 인공지능이 미래 직장의 불가피한 일부임을 받아들여야 한다고 주장합니다.


McCann과 Sweeney가 가디언에 보낸 서한에서 결론을 내리듯, 인공지능이 일, 교육, 일상생활에 미칠 영향을 이해하기 위해서는 ‘지나치게 축하하기보다 더 비판적인 관점’이 필요합니다. 고등교육의 과제는 인간만이 할 수 있는 깊이 있는 사고와 비판적 분석을 유지하면서도 인공지능의 이점을 활용할 수 있는 방안을 찾는 것입니다.

댓글 0
전체 1,144 / 244 페이지
제목 AI 이미지 업스케일은 실제 사실을 보여주지 않는다최근 소셜미디어에서는 도널드 트럼프 대통령의 건강 악화설과 관련된 AI 이미지 업스케일 사진이 확산되었다. AI로 이미지를 '보정'하면 진짜 모습을 확인할 수 있을 것처럼 보이지만, 실제로는 원본에 없던 내용이 추가되어 잘못된 정보를 만들어 낸 것이다.예를 들어, 트럼프의 이마에 이상한 덩어리가 보인다는 의혹이 돌았으나, 이는 AI가 어두운 그림자나 주름을 임의로 해석해서 만들어낸 가짜 정보였다. 사람들은 이 이미지를 보고 '뇌수술 흔적'이라거나 구체적 진단을 내리기도 했지만, 모두 사실이 아니다이처럼 AI 이미지 보정이나 업스케일 도구는 실제 정보를 알려주기보다는, 픽셀의 패턴을 임의로 채워서 그럴듯하게 보이게 만들 뿐이다. 그래서 이미지를 검사하는 또 다른 AI(Grok 등)도 진위를 제대로 판별하지 못하는 사례가 많았다2022년 오스카 시상식에서 윌 스미스가 크리스 록을 뺨 때린 영상을 AI로 보정했더니, 록의 얼굴에 이상한 보호구가 있다고 오해하는 등 새로운 음모론을 낳았다. 이는 원본 이미지의 그림자나 주름을 AI가 과도하게 강조해 실제로 없는 내용을 덧입힌 결과였다.AI 업스케일 도구는 게임이나 픽션 장면 등을 선명하게 만드는 데는 활용 가치가 있지만, 역사적 영상이나 뉴스 이미지를 보정하여 '진실'을 밝히려는 시도에는 한계가 명확하다. 가짜 정보가 주로 퍼질 수 있으므로, 현실을 판단할 때 AI 보정 이미지를 신뢰해서는 안 된다.https://gizmodo.com/ai-zoom-enhance-does-not-work-2000651736
1376 조회
0 추천
2025.09.12 등록
컬리가 인공지능(AI) 식단 관리 앱 루션’(Roution)을 공식 출시했다. 루션은 음식 사진·이름 입력을 통한 식단 기록과 개인 맞춤형 식단 추천 기능을 제공하며, 컬리 최초로 구글 생성형 AI를 핵심 로직에 적용했다. 이용자의 나이, 성별, 체중, 활동량, 알레르기, 목표 칼로리 등을 반영해 하루 권장 섭취량과 영양 비율을 고려한 맞춤형 식단을 설계한다. 앱은 컬리 상품과 연동돼 추천 식단을 바로 구매할 수 있고, 식단 관리 미션 완료 시 포인트를 적립해 할인 쿠폰·교환권으로 활용할 수 있다. 현재는 주로 **다이어트 목적**으로 쓰이고 있으며, 컬리 계정을 통해서만 가입 가능하다. 컬리는 앞으로 루션을 체중, 체지방, 혈당, 수면 등 주요 건강 지표를 통합 모니터링하는 맞춤형 건강 관리 플랫폼으로 확장할 계획이다.
1380 조회
0 추천
2025.09.11 등록
(퍼플렉시티가 정리한 기사)Airbnb CEO 브라이언 체스키는 인공지능으로 인해 일자리를 잃은 근로자들에게 자사의 기업이 잠재적인 생명줄이 될 수 있다는 인상적인 비전을 제시하며, 플랫폼의 확장되는 서비스가 일자리 자동화에 대한 두려움이 커지는 시대의 피난처가 될 수 있다고 강조했습니다.화요일 샌프란시스코에서 열린 골드만삭스 Communacopia + Technology Conference에서 체스키는 환대 및 서비스 중심의 역할은 AI의 교란에 대해 탄력적으로 남을 것이라고 주장하며, 자신의 플랫폼이 자동화에 취약한 산업에서 근로자들을 흡수할 수 있음을 시사했습니다.인간적인 손길은 여전히 필수적입니다체스키의 낙관주의는 특정 경험에는 대체할 수 없는 인간적인 요소가 필요하다는 그의 신념에서 비롯된다. "저는 사람들이 보르도에 가서 와인 한 병을 마실 때, 그 경험이 AI로 이뤄지기를 원하지 않는다고 생각합니다,"라고 그는 설명했다. "그들이 코모 호수에 갈 때, 누군가가 문을 로봇이 열어주는 것을 원하지 않을 것이라고 생각해요".이러한 관점은 현재의 자동화 트렌드와는 크게 대조된다. 체스키는 자율주행 차량이 결국 인간 운전자를 없애게 될 것임을 인정하면서—"미래에는 인간이 운전하는 차량이 거의 없을 것 같아요"—향후 5~10년 동안은 환대 서비스(호스피탈리티)가 사람 중심으로 이루어질 것이라고 강조했다.최근 데이터는 라이드셰어 운전사들에 대한 그의 우려를 뒷받침한다. 2025년 9월 Gridwise의 보고서에 따르면, 로보택시가 활성화된 모든 시장에서 라이드셰어 운전자의 시간당 급여가 하락했으며, 샌프란시스코는 6.9%, 오스틴은 5.3%의 하락을 기록했다.에어비앤비의 확장하는 생태계이 회사는 단순한 임대 플랫폼에서 체스키가 말하는 '올인원 앱'으로 탈바꿈해왔으며, 개인 셰프, 마사지, 사진 촬영 등과 같은 서비스로 영역을 확장하고 있습니다. 이러한 다양화는 2025년 5월에 검증된 전문가들이 평균 10년 이상의 경력을 가진 Airbnb 서비스와 함께 시작되었습니다."만약 AI가 많은 일자리를 대체하게 된다면, 그 중 일부라도 우리 플랫폼에서 성장하고 확대될 수 있기를 바랍니다,"라고 체스키는 컨퍼런스에서 밝혔습니다.AI로 인한 일자리 대체 현실체스키의 비전은 인공지능(AI)으로 인한 일자리 상실 경고가 점점 커지는 상황에서 등장했다. Anthropic의 CEO 다리오 아모데이는 최근 AI가 향후 5년 내에 모든 초급 화이트칼라 일자리의 절반을 사라지게 할 수 있으며, 실업률이 10~20%에 이를 수 있다고 예측했다.'AI의 대부'로 불리는 제프리 힌턴 역시 "평범한 지적 노동"이 대체될 위험이 있다고 경고하면서, 배관과 같은 육체적 직업이 더 안전한 선택일 수 있음을 시사했다. 최근 자료에 따르면 2025년 첫 5개월 동안 미국 내에서 696,000건 이상의 일자리가 줄었는데, 이는 전년도 대비 80% 증가한 수치다.체스키의 비전에서의 과제는, 일자리를 잃은 지식 노동자들이 숙박 호스팅 역할에 필요한 창업 역량을 갖추었는지, 경제적 압박 상황에서 높은 실업률이 여행 수요에 영향을 끼칠 것인지에 있다. 그럼에도 그의 전략은 인간 중심의 서비스가 AI 중심의 직장 변화 물결 속에서 하나의 돌파구가 될 수 있음을 시사한다.
1456 조회
0 추천
2025.09.11 등록
(퍼플렉시티가 정리한 기사)전 오픈AI 최고기술책임자(CTO) 미라 무라티가 설립한 새로운 인공지능 회사인 Thinking Machines Lab은 화요일 첫 번째 연구 블로그 게시물을 공개하여, 올해 초 20억 달러의 시드 펀딩을 확보한 이후 구체적인 기술 작업으로 스타트업의 공식 데뷔를 알렸다.이번 연구는 Thinking Machines Lab 소속 과학자인 호레이스 허(Horace He)가 저술했으며, 회사가 새롭게 개설한 "Connectionism" 블로그에 게재되었다. 이 연구는 현대 인공지능 시스템에서 만연하게 나타나는 한 가지 문제, 즉 대형 언어 모델이 동일한 질문을 받을 때 일관된 답변을 내놓지 못하는 현상을 다루고 있다.AI 불일치의 근본 원인 파악하기"LLM 추론에서 비결정성을 극복하기"라는 제목의 글은 AI의 무작위성이 그래픽 처리 장치(GPU)에서의 동시 처리에서 비롯된다는 일반적인 믿음에 의문을 제기합니다. 그는 그 진짜 원인이 NVIDIA 칩 내에서 실행되는 작은 프로그램인 GPU 커널들이 AI 추론 처리 중에 어떻게 조율되는가에 있다고 주장합니다.그의 연구에 따르면, AI 시스템이 동일한 질문에 대해 다른 답변을 하는 주된 이유는 샘플링 선택이나 동시 스레드 때문이 아니라, 서로 다른 배치 크기에서 부동 소수점 연산이 서로 다르게 순서화되기 때문입니다. AI 추론 서버가 요청을 처리할 때, 동시에 처리되는 쿼리 수가 기본적인 수학 연산의 순서를 바꿔, 수치적으로는 다르지만 모두 유효한 결과가 나오게 됩니다.연구자는 Qwen의 235B 파라미터 모델을 사용해 이 현상을 시범적으로 보여 주었으며, 동일한 온도 설정으로 1,000개의 완성 결과를 생성한 뒤 80개의 고유 응답을 발견했는데, 103번째 토큰부터 결과가 달라지기 시작했습니다. 대부분의 완성 결과가 물리학자 리처드 파인만의 출생지를 "Queens, New York"으로 생성한 반면, 8개는 "New York City"로 작성했습니다.기업용 AI를 위한 제안된 솔루션He의 연구는 얼마나 많은 요청이 동시에 처리되는지에 상관없이 일관된 연산 순서를 유지함으로써 AI 커널을 "배치 불변(batch-invariant)"으로 만드는 것을 제안합니다. 이 접근 방식은 트랜스포머 모델의 세 가지 핵심 연산(즉, RMSNorm, 행렬 곱셈, 어텐션 메커니즘)에 대한 수정이 필요합니다.연구실은 vLLM(오픈소스 추론 프레임워크) 위에서 실행되는 결정적 추론의 데모 코드를 공개했습니다. 초기 성능 테스트 결과, 결정적 방식은 표준 구성에 비해 약 60% 느리게 실행되는 것으로 나타났으나, 연구진은 이 구현이 속도에 맞춰 최적화되어 있지 않다고 언급했습니다. 재현 가능한 응답이 필요한 엔터프라이즈 응용 분야를 넘어, He는 이 연구가 샘플링 및 훈련 단계 간의 수치적 차이를 제거함으로써 강화학습 훈련을 개선하고, AI 모델 훈련 효율성을 높일 수 있다고 제안합니다.실리콘밸리의 최신 인공지능 연구소Thinking Machines Lab는 7월에 Murati가 Andreessen Horowitz가 주도한 기록적인 20억 달러 시드 투자를 발표하며 은둔 상태에서 모습을 드러냈습니다. 회사의 가치가 120억 달러로 평가된 이번 투자 라운드에는 NVIDIA, AMD, Cisco, ServiceNow 등 주요 테크 기업들이 참여했습니다.회사의 팀은 주로 OpenAI 출신 연구원들로 구성되어 있으며, ChatGPT의 개발에 참여한 John Schulman과 OpenAI 전 연구 책임자 Barrett Zoph 등이 포함되어 있습니다. 초기 인력의 거의 3분의 2가 Murati의 전 직장 출신입니다.2023년 11월 OpenAI의 리더십 위기 동안 잠시 임시 CEO를 맡았고, 2024년 9월에 회사를 떠난 Murati는 Thinking Machines Lab을 “여러 방식으로 당신이 자연스럽게 세상과 상호작용하는 방식에 맞춘 멀티모달 AI 구축”으로 자리매김했습니다. 회사는 앞으로 몇 달 안에 연구자와 맞춤형 모델을 개발하는 스타트업을 대상으로 하는 오픈 소스 컴포넌트가 포함된 첫 번째 제품을 출시할 계획입니다.“우리는 과학이 공유될 때 더 발전한다고 믿습니다.”라고 회사는 공식 웹사이트를 통해 밝히며, 기술 블로그, 논문, 코드의 정기적인 공개를 약속합니다. 이는 회사가 규모가 커지고 상업적 성격이 강해지면서 점점 더 연구 공유에 폐쇄적이 되어가는 OpenAI와의 뚜렷한 대조를 이룹니다.
1563 조회
0 추천
2025.09.11 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입