AI 뉴스

AI 가상 환자가 의료 교육에 도입되다

페이지 정보

작성자 xtalfi
작성일 2025.11.14 17:58
1,520 조회
0 추천
0 비추천

본문

dc464186c0102c066bbcea98d40f6097_1763110668_1396.png
(퍼플렉시티가 정리한 기사)


2025년 11월 12일 The Lancet Digital Health에 발표된 한 연구는 인공지능이 가상 환자와 메타버스 교실을 통해 어떻게 의학 교육을 재편할 수 있는지 자세히 설명하며, 2030년까지 세계보건기구가 예상하는 1,000만 명의 의료 인력 부족에 대한 잠재적 해결책을 제시합니다.

듀크-NUS 의과대학, 싱가포르 종합병원, 칭화대학교의 연구진들은 AI 기반 대규모 언어 모델이 현실적인 가상 환자 시뮬레이션을 생성하고 몰입형 디지털 환경에서 팀 기반 학습을 가능하게 하여, 의대생들이 물리적·재정적 제약 없이 임상 기술을 연습할 수 있도록 한다는 것을 입증했습니다.

듀크-NUS AI + 의학 과학 이니셔티브의 공동 제1저자이자 싱가포르 종합병원의 수석 임상 약사인 재스민 옹(Jasmine Ong) 박사는 “AI는 임상 교육자와 멘토를 대체하기 위한 것이 아니라 그들에게 힘을 실어주기 위한 것입니다”라고 말했습니다. 연구에 따르면, AI 도구는 학습 경험을 개인화할 수 있으며, 가상 환자는 전통적인 방법보다 더 일관되게 복잡한 임상 시나리오를 시뮬레이션할 수 있습니다.


정확성 및 편향성 우려

이 연구는 AI 정확성과 관련된 지속적인 문제들, 특히 AI가 잘못되거나 오해의 소지가 있는 정보를 생성하는 “환각(hallucination)” 현상을 확인했습니다. 연구들에 따르면 의료 맥락에서 환각 비율이 25%를 초과하며, AI 시스템이 자신감 있는 표현으로 사실상 부정확한 콘텐츠를 생성하는 것으로 나타났습니다.

“AI가 의학 교육과 훈련에 더욱 깊이 통합됨에 따라, 우리는 적절한 사용 보장, 학습 무결성 유지, 의도하지 않은 피해 방지와 같이 AI가 제기하는 윤리적 우려를 다뤄야 합니다”라고 Duke-NUS 정량 의학 센터의 선임 연구원이자 공동 제1저자인 Ning Yilin 박사가 말했습니다.

이 연구는 대규모 언어 모델이 성별과 인종과 관련된 편향을 보여왔으며, 의학 문헌으로 훈련된 AI 모델이 시간이 지남에 따라 체계적 불균형을 영속화할 위험이 있다고 강조합니다. MIT의 연구는 의료 영상으로부터 정확한 인구통계학적 예측을 하는 AI 모델이 서로 다른 인종이나 성별에 걸쳐 질환을 진단할 때 가장 큰 공정성 격차를 보인다는 것을 보여주었습니다.


협력적 프레임워크에 대한 요청

연구자들은 지속 가능한 AI 도입을 위해서는 의과대학, 의료기관, 산업 파트너, 그리고 정부 규제 기관 간의 협력이 필요하며, 이를 통해 책임감 있고 증거 기반의 솔루션을 개발해야 한다고 강조합니다.

Duke-NUS의 정량의학센터 부교수이자 Duke-NUS AI + 의과학 이니셔티브 디렉터인 Liu Nan 부교수는 “포괄적이고 글로벌한 전략을 향해 노력하고 여러 분야에 걸쳐 협력함으로써, 우리는 생성형 AI를 책임감 있게 배치하여 더욱 상호작용적이고 접근 가능한 교육을 만들고, 이러한 성과를 환자를 위한 더 나은 치료로 전환할 수 있습니다”라고 말했습니다.

댓글 0
전체 1,366 / 5 페이지
Executive Summary • 미국 보건복지부(HHS)가 팔란티어(Palantir)와 크레달 AI(Credal AI)의 인공지능 도구를 활용해 DEI 및 '젠더 이념' 관련 지원금과 채용공고를 자동 심사 중 • 작년 3월부터 가동된 이 시스템은 트럼프 대통령의 행정명령 이행을 위해 도입되었으며, 지금까지 공식 발표된 적 없음 • 팔란티어는 2025년 HHS로부터 3,500만 달러 이상 수주, 크레달 AI는 약 75만 달러 계약 체결 • AI 심사 결과 플래그된 지원금과 채용공고는 최종적으로 담당 부서에서 검토 Background 트럼프 대통령은 2기 취임 첫날 DEI 프로그램 폐지(행정명령 14151)와 '젠더 이념' 금지(행정명령 14168)를 골자로 한 행정명령에 서명했다. 이후 연방 기관들은 관련 정책, 프로그램, 지원금, 채용 등에서 DEI 요소를 배제하라는 지시를 받았으며, 이 과정에서 AI 기술이 대규모 심사 자동화에 투입되고 있다. Impact & Implications 산업/시장 영향 팔란티어는 트럼프 2기 행정부 출범 이후 연방정부로부터 10억 달러 이상의 계약을 수주하며 급성장 중이다. 특히 HHS뿐 아니라 이민세관단속국(ICE)과의 계약도 전년 대비 4배 가까이 증가했다. 크레달 AI 역시 팔란티어 출신들이 설립한 스타트업으로, 정부 AI 시장에서 입지를 넓히고 있다. 정부의 정책 집행 자동화 수요가 AI 업계에 새로운 수익원을 제공하고 있으나, 이에 대한 윤리적 논란도 커지고 있다. 규제/정책 영향 AI를 통한 정책 집행 자동화는 효율성을 높이는 동시에 심각한 우려를 낳고 있다. 미국 국립과학재단(NSF)과 국립보건원(NIH)에서는 작년 말까지 약 30억 달러 규모의 지원금이 동결 또는 종료되었다. '여성', '포용', '체계적', '소수집단' 같은 일반적 용어까지 플래그 대상이 되면서 학술 연구의 위축이 우려된다. AI 기반 심사의 불투명성과 알고리즘 편향 가능성도 쟁점이다. 사용자 영향 FAFSA 지원자와 고용평등위원회(EEOC) 진정인은 더 이상 논바이너리(nonbinary)로 성별을 표기할 수 없게 되었다. 성폭력 피해 지원 단체들도 트랜스젠더 관련 언급을 웹사이트에서 삭제했다. 1,000개 이상의 비영리 단체들이 연방 지원금 상실을 우려해 미션 스테이트먼트를 수정한 것으로 알려졌다. Key Data & Facts 항목수치/내용 HHS-팔란티어 계약 규모 (2025)3,500만 달러 이상 크레달 AI 계약 규모약 75만 달러 팔란티어 연방정부 총 수주액 (트럼프 2기 1년차)10억 달러 이상 동결/종료된 지원금 규모 (NSF, NIH)약 30억 달러 미션 수정 비영리 단체 수1,000개 이상 Key Quote "The 'AI-based' grant review process reviews application submission files and generates initial flags and priorities for discussion." — HHS AI Use Case Inventory
409 조회
0 추천
02.03 등록
Executive Summary • 독립 개발자가 만든 AI 비서 'Moltbot'이 실리콘밸리에서 화제의 중심으로 떠올랐다. 로컬 환경에서 구동되며 다양한 AI 모델과 앱을 연동해 거의 무제한적인 자동화를 지원한다. • 사용자들은 일정 관리, 송장 처리, 주식 분석 등 고위험 업무까지 Moltbot에 맡기고 있으며, "ChatGPT 출시 이후 처음으로 미래에 살고 있다는 느낌"이라는 반응이 쏟아지고 있다. • 그러나 설치에 기술적 지식이 필요하고, 프롬프트 인젝션 등 보안 취약점이 존재해 개인정보 유출 위험도 함께 제기되고 있다. Background 2026년 초 AI 에이전트 열풍이 본격화하면서 개인용 AI 비서에 대한 관심이 급증하고 있다. 기존 Siri, Alexa 등 전통적 비서의 한계를 넘어 다양한 앱과 서비스를 직접 제어할 수 있는 '에이전틱 AI'가 주목받는 가운데, 독립 개발자 Peter Steinberger가 만든 Moltbot(구 Clawdbot)이 소셜미디어를 통해 급속히 확산됐다. Anthropic의 요청으로 Claude와의 혼동을 피하기 위해 최근 이름을 변경했다. Impact & Implications 에이전틱 AI의 대중화 가능성 Moltbot의 인기는 AI 에이전트가 더 이상 대형 기술기업의 전유물이 아님을 보여준다. 개인 개발자도 여러 AI 모델과 API를 조합해 강력한 자동화 시스템을 구축할 수 있다는 점이 입증됐다. "기존에 존재하는 것들을 그냥 연결한 것뿐"이라는 개발자의 설명처럼, 핵심은 기술적 복잡성이 아니라 사용자 경험에 있다. 데이터 주권과 프라이버시 논쟁 Moltbot이 주목받는 또 다른 이유는 로컬 구동 방식이다. 클라우드 기반 AI 비서와 달리 사용자 데이터가 외부로 전송되지 않아 프라이버시를 보장한다. 그러나 역설적으로 신용카드 정보나 계정 접근 권한을 AI에 넘기는 사용자들이 늘면서, 프롬프트 인젝션 등 새로운 보안 위협에 노출되고 있다. AI 비서 시장의 향방 개발자 Steinberger는 2026년 주요 AI 기업들이 모두 개인 비서 제품을 출시할 것으로 예상한다. Moltbot의 성공은 이 시장에서 '데이터 소유권'이 핵심 경쟁요소가 될 수 있음을 시사한다. 기업들이 편의성과 프라이버시 사이에서 어떤 균형점을 찾을지 주목된다. Key Data & Facts 항목내용 개발자Peter Steinberger (독립 개발자) 출시일2025년 11월 (Clawdbot으로 최초 공개) 개명 이유Anthropic 요청 (Claude와의 혼동 방지) 구동 방식로컬 Mac 환경 (Mac Mini 밈 유행) 지원 AIOpenAI, Claude 등 다중 모델 연동 커뮤니케이션WhatsApp, Telegram 등 채팅앱 연동 부작용Cloudflare 주가 상승 (실제 관련 없음) Key Quote "ChatGPT 출시 이후 처음으로 미래에 살고 있다는 느낌이 들었다." — Dave Morin, Moltbot 사용자 "모델들은 권한을 주면 정말 창의적으로 행동한다. 그 순간 '젠장, 이거 대단하다'고 느꼈다." — Peter Steinberger, Moltbot 개발자
423 조회
0 추천
02.02 등록
Executive Summary • Science 학술지 연구: AI 에이전트가 수천 개 소셜 계정을 조종해 허위정보 캠페인 전개 가능 • 2016년 러시아 트롤팜 수백 명 → 이제 1명이 AI로 수천 봇 통제 가능한 시대 • 22명 국제 전문가 경고: AI 군집이 2028 미국 대선에 실제 투입될 가능성 높아 • 대응책으로 'AI 영향력 관측소' 설립 제안했으나 정치적 의지 부족이 걸림돌 Background 2016년 러시아 인터넷연구소(IRA) 사태 이후 허위정보 캠페인은 딥페이크, 가짜 웹사이트 등으로 진화해왔다. AI 에이전트 기술이 급속히 발전하면서 이를 대규모 정보전에 활용할 수 있다는 우려가 과학계에서 본격 제기됐다. Impact & Implications 탐지 회피 능력 AI 군집의 가장 위협적인 특성은 기존 봇과 달리 인간 사용자와 구분이 거의 불가능하다는 점이다. 지속적 정체성과 기억력을 보유해 실제 SNS 사용자처럼 행동할 수 있다. 연구진은 "인간을 모방하는 교묘한 특성 때문에 탐지가 극히 어렵고 현존 여부조차 파악하기 힘들다"고 경고했다. 자가 개선 메커니즘 이 시스템은 게시물에 대한 반응을 피드백으로 삼아 스스로 개선할 수 있다. 연구진은 "충분한 신호가 있으면 수백만 건의 마이크로 A/B 테스트를 수행하고, 효과적인 변형을 기계 속도로 전파하며, 인간보다 훨씬 빠르게 반복 학습한다"고 설명했다. 정치적 무관심 소셜미디어 플랫폼은 참여도를 우선시하므로 AI 군집을 적발할 유인이 없다. 정부 역시 온라인 대화를 감시하는 '관측소' 개념에 우호적이지 않은 지정학적 환경이다. 전 바이든 행정부 허위정보 책임자 니나 얀코비츠는 "가장 무서운 건 AI가 초래하는 피해를 해결할 정치적 의지가 거의 없다는 것"이라고 지적했다. Key Data & Facts 항목수치/내용 연구 참여 전문가22명 (AI, 사이버보안, 심리학, 저널리즘, 정책 분야) 발표 학술지Science 예상 실전 투입 시기2028년 미국 대선 2026 중간선거 영향제한적 (아직 개발 단계) 제안된 대응책AI 영향력 관측소(Observatory) 설립 Key Quote "인공지능의 발전은 인구 전체 수준에서 신념과 행동을 조작할 가능성을 제시한다. 인간의 사회적 역학을 적응적으로 모방함으로써 민주주의를 위협한다." — Science 연구 보고서
423 조회
0 추천
02.01 등록
Executive Summary • 구글, 크롬 브라우저에 'Auto Browse' AI 에이전트 기능 출시 - Gemini 3 기반 자동 웹 브라우징 가능 • 티켓 예매, 쇼핑, 여행 계획 등 웹 작업 자동화 지원하나 정확도 문제 여전 • AI 에이전트가 지시를 '너무 문자 그대로' 해석하는 한계 드러나 - 콘서트 좌석 예매 시 연석 아닌 별도 열 선택 • 보안 취약점 우려: 악성 웹사이트의 프롬프트 인젝션 공격에 노출 가능성 Background 구글이 AI 프로 및 울트라 요금제 사용자를 대상으로 크롬 브라우저에 'Auto Browse' 기능을 출시했다. 이는 AI 에이전트가 사용자를 대신해 웹을 탐색하고 클릭하는 기능으로, 구글의 최신 Gemini 3 모델을 기반으로 한다. 이번 출시는 OpenAI, Anthropic 등 경쟁사들도 AI 에이전트 개발에 박차를 가하는 가운데 이루어져, 자동화된 웹 브라우징 시대의 본격적인 개막을 알린다. Impact & Implications 기술적 의미 Auto Browse는 다단계 웹 작업을 사람의 개입 없이 수행할 수 있다는 점에서 기존 AI 어시스턴트와 차별화된다. Gemini 3 모델이 먼저 작업 목표를 정의하고 전략을 수립한 뒤, 실제 클릭 동작을 수행하는 방식이다. 그러나 테스트 결과 '상식적 판단'이 필요한 상황에서는 여전히 한계를 보였다. 예를 들어 "통로 옆 두 좌석"을 예매해달라는 요청에 같은 열이 아닌 다른 열의 좌석을 선택하는 실수를 범했다. 사용자 영향 일반 사용자 입장에서 Auto Browse는 단순 반복 작업의 자동화라는 편의를 제공하지만, 결과물에 대한 검증 없이 신뢰하기에는 이르다. 쇼핑 테스트에서는 검색 결과 상위 3개를 그대로 장바구니에 담는 등 '큐레이션'이라기보다는 단순 자동화에 그쳤다. 구글은 결제나 SNS 게시 등 민감한 작업에는 사용자 승인을 요구하는 안전장치를 마련했다. 보안/정책 영향 보안 전문가들은 AI 에이전트가 악성 웹사이트의 프롬프트 인젝션 공격에 취약할 수 있다고 경고한다. 사용자가 AI에게 결제 정보를 맡기는 경우 금전적 피해로 이어질 수 있어, 신중한 사용이 권장된다. 크롬이 전 세계 브라우저 시장의 압도적 점유율을 차지하는 만큼, 이 기능의 확대 적용은 웹 생태계 전반에 영향을 미칠 전망이다. Key Data & Facts 항목수치/내용 서비스명Google Auto Browse 기반 모델Gemini 3 대상 사용자AI Pro/Ultra 요금제 가입자 (월 $20~) 출시 지역미국 우선 주요 기능티켓 예매, 쇼핑, 여행 계획 자동화 Key Quote "Auto Browse currently lacks the accuracy I need to rely fully on a tool like this as part of my daily life." "Auto Browse는 일상에서 전적으로 의존하기에는 아직 정확도가 부족하다." — Reece Rogers, WIRED 기자
416 조회
0 추천
2026.01.31 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입