AI 뉴스

AI 영양 조언, 부정확한 것으로 드러나 전문가들 경고

페이지 정보

작성자 xtalfi
작성일 2025.11.20 14:48
895 조회
0 추천
0 비추천

본문

f43ee9a7735c9322763d602776200742_1763617718_0311.jpg
 

(퍼플렉시티가 정리한 기사)


식이 지침에 대한 인공지능 의존도가 높아지면서 영양 전문가들뿐만 아니라 챗봇들 자체에서도 경고가 나오고 있습니다. 새로운 연구는 만성 건강 상태를 관리하는 사람들을 위해 AI가 생성한 식단 계획의 한계를 드러냅니다.

소비자 권익 단체인 위치(Which?)는 11월 18일, ChatGPT와 Google Gemini를 포함한 인기 AI 도구들이 일반적인 소비자 질문에 대해 부정확하고 잠재적으로 위험한 건강 조언을 제공했다는 연구 결과를 발표했습니다. 여섯 개의 AI 플랫폼을 평가한 이번 연구에서 전문가들은 응답의 정확성과 윤리적 책임성을 기준으로 ChatGPT가 전체적으로 64%의 점수를 받았다고 밝혔습니다. 특히 우려되는 점은, 조사 대상자 중 5명 중 1명이 의료 조언을 받을 때 항상 또는 자주 AI에 의존한다고 답했다는 점입니다.​


AI가 부족할 때

영양 전문가들은 AI 기반 앱이 일반적인 식단 계획 및 추적을 간소화할 수 있지만, 개인 맞춤형 식이 요법 관리를 위해 필요한 중요한 역량이 부족하다고 강조합니다. 영양 컨설턴트 루팔리 두타는 특히 건강 문제를 가진 사람들의 경우, AI가 임상적 판단을 대체할 수 없다고 말합니다. 두타는 “AI가 정보를 단순화하게 하고, 영양사가 그 정보를 개인에게 맞추도록 해야 한다”라며 진정한 식이 관리에는 기술과 임상 전문성 모두가 필요하다고 설명합니다.​

영양학 박사 니체타 바티아는 더욱 근본적인 문제를 지적합니다. AI가 내놓는 조언은 대부분 일반적이며, 개개인의 생물학적 특성과 행동을 반영하지 못한다는 것입니다. 당뇨병, 심장 질환, PCOD, 갑상선 기능 저하증, 암 등과 같은 질환을 가진 사람들은 스트레스 수치와 감정적 요인까지 고려하는 맞춤형 평가가 필요한데, 이는 AI가 해결할 수 없는 부분입니다.​

2023년 학술지 「Nutrition」에 게재된 연구에서는 ChatGPT가 실험된 56건 중 4건에서 견과류가 들어가지 않은 식단에 아몬드 우유를 포함시켜, 견과류 알레르기가 있는 사람들에게 잠재적으로 위험한 오류를 범했습니다. 또 다른 연구에서는 올해 ChatGPT가 활동적인 사람에게 실질적으로 약 1,950칼로리가 필요한데도 하루 1,200칼로리만 제공하는 식단을 제안하며, 단백질·식이섬유·채소가 불충분하다는 점이 밝혀졌습니다.​


잠재적인 건강 위험

전문가의 지도 없이 일반적인 AI 식단 제안을 따르는 것은 근육 약화, 칼슘 결핍, 산성화, 편두통, 피로, 수면 장애, 과민성 대장 증상을 유발할 수 있다고 Bhatia 박사는 말한다. 최근의 체계적 문헌고찰에 따르면 AI 생성 식이 중재가 일부 맥락에서 가능성을 보이지만, 영양학적 정확성, 일관성 및 안전성에 대한 우려는 여전히 남아있다.​

ChatGPT조차도 자신의 한계를 인정한다. 영양 조언 제공에 대해 직접 질문했을 때, 챗봇은 건강 상태 진단, 섭식 장애 해결, 안전한 보충제 조언 제공, 그리고 음식의 문화적·정서적 측면 이해에 있어 부족함을 인정한다. "저는 여러분이 탐색하도록 돕고, 정보를 제공하며, 건강에 해로운 것이 있을 때 경고해야 합니다"라고 ChatGPT는 말하며, "최종 선택은 항상 여러분으로부터 나와야 합니다"라고 덧붙인다.​

등록 영양사인 Staci Gulbin은 AI를 시작점으로만 사용할 것을 권장하며, 만성 질환, 섭식 장애 이력, 또는 복잡한 영양 문제를 가진 개인은 인간 전문가의 도움이 필요하다고 강조한다.

댓글 0
전체 1,366 / 132 페이지
(퍼플렉시티가정리한기사)AI안전회사Anthropic은화요일,자사의ClaudeAI모델이비전문가연구원들이사족보행로봇을프로그래밍하는데걸리는시간을인간만으로작업한경우의약절반으로단축하는데도움을주었다고밝혔으며,이는디지털세계와물리적세계를연결할수있는AI시스템을향한중요한진전을의미한다.​11월12일에발표된ProjectFetch라는실험에서,Anthropic은로봇공학전문지식이없는자사연구원8명을두팀으로나누어UnitreeGo2로봇개에게비치볼을자율적으로가져오도록프로그래밍하는과제를부여했다.Claude에접근할수있었던팀은AI지원없이작업한팀보다약절반의시간에과제를완료했다.​디지털과물리적세계의연결이연구는하드웨어연결과온보드센서접근이라는복잡한프로세스를간소화하는Claude의능력을입증했으며,AI지원팀이가장두드러진이점을보인영역이었다.Anthropic의레드팀소속LoganGraham은WIRED에"우리는AI모델의다음단계가세상으로뻗어나가더광범위하게세상에영향을미치기시작할것이라고의심하고있습니다"라고말했다."이를위해서는모델이로봇과더욱인터페이스해야할것입니다".​TeamClaude는$16,900짜리UnitreeGo2로봇을프로그래밍하여비치볼을자율적으로찾아탐색하는데성공했지만,하루동안의실험내에서최종회수작업을완료하지는못했다.반면TeamClaude-less는로봇과의기본적인연결조차구축하는데어려움을겪었으며자율볼회수를향한실질적인진전을전혀이루지못했다.​실험은또한흥미로운팀역학을드러냈다.Claude없이작업한연구원들은훨씬더많은부정적감정과혼란을표현한반면,AI지원팀은각구성원이자신의Claude인스턴스와협력하며대체로병렬적으로작업했다.그러나AI기반접근방식은때때로핵심목표에서주의를분산시키는탐색적"사이드퀘스트"로이어지기도했다.​안전우려증가이연구는AI제어로봇에대한우려가커지는가운데나왔다.이번주InternationalJournalofSocialRobots에게재된연구에따르면,OpenAI,Google,Meta의인기챗봇을구동하는AI모델들이로봇시나리오에서테스트했을때심각한피해를일으킬수있는명령을승인한것으로나타났다.​Anthropic은현재모델들이로봇을완전히자율적으로제어할만한지능은부족하지만,향후버전은그러한능력을갖출수있다고강조했다.회사의연구결과는모델이개선됨에따라"이전에알려지지않은하드웨어와상호작용하여물리적세계에영향을미치는능력이급격히발전할수있다"고시사한다.
1165 조회
0 추천
2025.11.14 등록
(퍼플렉시티가정리한기사)MicrosoftCEO사티아나델라는회사가2030년까지반도체개발에OpenAI의맞춤형AI칩설계를통합할것이라고밝혔으며,이는두기술대기업간파트너십의전략적확장을의미합니다.이번주에공개된팟캐스트에서나델라는Microsoft가이제OpenAI의칩및하드웨어연구에접근할수있게되었으며,회사는이를대규모사용을위해"산업화"하고자체지적재산권하에확장할것이라고말했습니다.​나델라는"그들이시스템수준에서도혁신함에따라우리는그모든것에접근할수있습니다"라고말하며,Microsoft가먼저OpenAI의설계를구현한후이를더욱확장할것이라고설명했습니다.이협약은Microsoft에게2030년까지OpenAI의칩아키텍처,시스템설계및네트워킹하드웨어혁신에대한접근권한을부여하며,두회사의광범위한파트너십은2032년까지OpenAI의AI모델에대한Microsoft의권리를확장합니다.​OpenAI의칩개발추진OpenAI는Broadcom과맞춤형AI프로세서및네트워킹하드웨어를공동개발해왔으며,2026년하반기부터10기가와트의맞춤형칩을배포할계획입니다.OpenAI는자체칩을설계함으로써최첨단모델개발에서얻은통찰력을하드웨어에직접반영하여새로운기능을구현하는동시에NVIDIA와같은제3자공급업체에대한의존도를줄이는것을목표로하고있습니다.​Microsoft-OpenAI칩협력은두회사가10월에파트너십을재구성한후이루어졌으며,Microsoft는약1,350억달러가치로평가되는OpenAI의27%지분을확보했습니다.개정된계약에따라OpenAI는Azure서비스를추가로2,500억달러구매하기로약속했습니다.​페어워터데이터센터,AI야망에동력제공Microsoft의새로운Fairwater데이터센터는이러한칩혁신을배포하기위한기반역할을할것입니다.회사는10월에운영을시작한애틀랜타의두번째Fairwater시설을공개했으며,이는전용고속광섬유네트워크를통해위스콘신사이트와연결됩니다.이러한시설은"AI슈퍼팩토리"로기능하여여러사이트가함께작동하여몇달이아닌몇주만에모델을훈련할수있습니다.​각Fairwater데이터센터는수십만개의BlackwellGPU로확장할수있는NVIDIAGB200NVL72랙스케일시스템과거의제로에가까운물을소비하는고급액체냉각시스템을갖추고있습니다.Microsoft의클라우드및AI담당부사장인ScottGuthrie는"AI에서선도한다는것은단순히더많은GPU를추가하는것이아니라이들이하나의시스템으로함께작동하도록만드는인프라를구축하는것입니다"라고말했습니다.​
1245 조회
0 추천
2025.11.14 등록
(퍼플렉시티가정리한기사)MicrosoftCEO사티아나델라는OpenAI가개발한모든타사제품과API가회사의Azure클라우드플랫폼에서만독점적으로운영되어야한다고확인했으며,이는최근구조조정에도불구하고인공지능스타트업의상업적인프라에대한Microsoft의통제권을확고히하는것입니다.이번주공개된DwarkeshPatel과의팟캐스트인터뷰에서나델라는OpenAI가다른클라우드인프라제공업체와파트너십을맺어AI모델을개발하더라도,해당파트너들은기술에접근하기위해"Azure로와야한다"고명확히했습니다.이계약에는미국정부의국가안보고객에대한제한적인예외가포함되어있지만,그외에는OpenAI의API생태계에대한Azure의독점적지배력을유지합니다.​마이크로소프트,장기지배력확보Azure독점권은OpenAI를공익법인으로재편하면서Microsoft에상당한보호조치를부여한10월의광범위한합의의일부입니다.이계약에따라Microsoft는인공일반지능달성이후개발되는기술을포함하여OpenAI가2032년까지개발하는모델과제품모두에대한지적재산권을보유합니다.​나델라는팟캐스트에서"이것은'우리가파트너십의일부로가치를두는것이무엇인가'라는정신으로이루어진것입니다"라고말했습니다."동시에우리는OpenAI에필요한모든유연성을제공하면서좋은파트너가되도록했습니다."​Microsoft는현재재편된OpenAI의27%지분을보유하고있으며,이는AI기업의5,000억달러가치평가를기준으로약1,350억달러에해당합니다.이스타트업이외부파트너와특정제품을개발할수있는새로운자유를얻었음에도불구하고,이합의는Microsoft를OpenAI의최대투자자로만들었습니다.​전략적트레이드오프OpenAI는2019년Microsoft파트너십이시작된이후처음으로제3자와공동으로제품을개발할수있게되었지만,Azure요구사항은이러한협력을크게제한합니다.Microsoft의공식성명에따르면,API가아닌제품만다른클라우드제공업체에서제공될수있습니다.​OpenAI는추가로2,500억달러규모의Azure서비스를구매하기로약속했으며,Microsoft는OpenAI의독점컴퓨팅제공업체로서의우선거부권을포기했습니다.이타협안은OpenAI가인프라공급업체를다양화할수있도록하면서도2032년까지Microsoft를상업운영의중심에유지할수있게합니다.
1246 조회
0 추천
2025.11.14 등록
(퍼플렉시티가 정리한 기사)OpenAI CEO 샘 알트먼은 스탠퍼드 대학교 인터뷰에서 AI 보안을 다음 개발 단계의 결정적 과제로 지목하며, 점점 더 개인화되는 AI 모델이 민감한 사용자 정보를 의도치 않게 노출할 수 있다고 경고했다.[digitalinformationworld +2]이번 주 공개된 스탠퍼드 교수 댄 보네와의 인터뷰에서 알트먼은 업계의 초점이 추상적인 안전성 논쟁에서 데이터 보호 및 조작 방지와 관련된 실질적인 보안 문제로 전환되고 있다고 설명했다. 그는 언어 모델이 더욱 강력해지고 개인화됨에 따라 공공 사용을 위한 보안이 점점 더 어려워질 것이라고 말했다.[searchenginejournal +1]개인화는 취약점을 만든다Altman은 현대 AI 개발의 핵심에 있는 긴장 관계를 강조했습니다: 사용자들은 ChatGPT와 같은 도구가 자신의 의사소통 스타일에 적응하고 이전 상호작용의 세부 사항을 기억하는 것을 높이 평가하지만, 바로 이러한 기능들이 AI 시스템을 사생활 기록의 잠재적 저장소로 변모시킵니다. 사용자들이 이러한 시스템을 이메일이나 쇼핑 플랫폼과 같은 외부 서비스에 연결할 때 위험은 더욱 증가합니다.[digitalinformationworld +1]그는 보안 문제에 대한 구체적인 예를 제시했습니다: 온라인 구매를 돕는 AI 비서가 이전 대화에서 수집한 개인 의료 정보를 의도치 않게 노출할 수 있다는 것입니다. “모델들은 아직 이것을 잘 처리하지 못합니다”라고 Altman은 말하며, 인간은 일반적으로 맥락의 경계를 이해할 수 있지만 AI 시스템은 유용한 맥락과 사적인 세부 사항을 구별하는 데 어려움을 겪는다고 언급했습니다.[searchenginejournal +2]“당신이 정말로 원하지 않는 것은 누군가가 당신에 대한 모든 것을 알고 있는 개인 모델에서 데이터를 빼내갈 수 있는 것입니다”라고 Altman은 Stanford 인터뷰에서 설명했습니다. 그는 이 문제를 완전한 신뢰성으로 해결하는 것을 “AI 보안에서 가장 어려운 목표 중 하나”라고 묘사했습니다.[youtube +2]성장하는 분야는 전문성을 요구한다Altman은 적대적 강건성—AI 시스템이 의도하지 않은 결과를 생성하도록 속는 것을 방지하는 능력—을 이 분야가 직면한 가장 어려운 문제 중 하나로 설명했다. 프롬프트나 데이터셋의 작은 변화가 사용자가 의도하지 않은 방식으로 결과를 바꿀 수 있다고 그는 말했다.[digitalinformationworld +1]OpenAI 최고경영자는 학생들에게 AI 보안을 공부할 것을 권장하며, 이를 “공부하기에 가장 좋은 분야 중 하나”라고 말했다. 전통적인 기술 기업들은 오랫동안 대규모 보안 팀을 유지해 왔으며, Altman은 AI 조직들도 곧 같은 수준의 관심과 전문성이 필요할 것이라고 말했다.[searchenginejournal +2]Altman은 또한 AI가 자신이 만드는 위험에 대한 방어를 강화할 수 있다고 강조했다. OpenAI와 다른 개발자들은 이미 AI 모델을 사용하여 소프트웨어 취약점을 탐지하고 코드를 테스트하고 있다. “그런데, 이것은 양방향으로 작동합니다”라고 그는 말하며, AI가 사이버 공격과 방어 모두에서 중요한 역할을 할 것이라고 언급했다.[youtube +2]
1282 조회
0 추천
2025.11.13 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입