Loading...

AI 뉴스

오픈AI, 휴머노이드 중심으로 로보틱스 팀 재구성

페이지 정보

작성자 xtalfi
작성일 2025.09.16 14:52
647 조회
0 추천
0 비추천

본문

1dc70e5a6a2e8a9676f3a2fecb2bddacunS0.jpg

(퍼플렉시티가 정리한 기사)

OpenAI는 인공일반지능(AGI)을 추구하는 전략의 일환으로 휴머노이드 시스템에 중점을 두면서 조용히 로보틱스 역량을 재구축하고 있습니다. 이는 5년 전 로보틱스 부서를 폐쇄한 이후 이 분야로의 의미 있는 복귀를 의미합니다. ChatGPT의 개발사인 OpenAI는 전문화된 팀을 구성하고 로보틱스 분야의 최고 인재를 적극적으로 영입하는 등, 물리적 세계에서 작동할 수 있는 AI 개발에 대한 새로운 의지를 보여주고 있습니다.

최근 보도에 따르면 회사는 특히 휴머노이드 로보틱스를 목표로 하고 있으며, 인간과 유사한 로봇 형태를 제어할 수 있는 알고리즘 개발에 전문성을 가진 연구원을 찾고 있습니다. OpenAI는 원격조종과 시뮬레이션을 통해 로봇을 훈련시키는 직무를 위한 여러 채용 공고를 게시했고, 그 중 한 역할은 부분적 및 완전한 휴머노이드 시스템 모두에 대한 경험을 명시적으로 요구하고 있습니다.

 

전략적 인재 확보

 

채용 열풍에는 OpenAI의 로보틱스 팀에 몇몇 주목할 만한 인재들이 추가된 것이 포함되어 있습니다. 특히 2025년 6월에 스탠퍼드 대학교에서 영입된 Chengshu Li가 주목받고 있는데, 그는 인간형 가정용 로봇이 다양한 가사 업무를 수행할 수 있도록 하는 벤치마크를 중심으로 박사 연구를 진행한 연구원입니다. Li가 가사 업무를 수행하는 인간형 로봇 평가 시스템을 만든 배경은 OpenAI가 소비자용 로봇 개발에 관심이 있음을 시사합니다.

또한 OpenAI는 링크드인 프로필에 따르면 다른 로보틱스 연구소 출신 연구자들을 영입했으며, 인간형 로봇 연구 센터의 교수들은 자신들의 학생들이 회사에 스카우트되었다고 전하고 있습니다. 이러한 전략적 인재 영입은 OpenAI가 인간형 로보틱스 개발의 전 분야에 걸쳐 전문성을 구축하고 있음을 보여줍니다.

 

휴머노이드 분야의 경쟁

 

이 확장은 OpenAI를 빠르게 성장하고 있는 휴머노이드 로보틱스 시장에서 여러 기존 강자들과 직접적으로 경쟁하게 만듭니다. 해당 시장은 2025년까지 29억 2천만 달러에 이를 것으로 예상됩니다. 테슬라(Tesla, Inc.) CEO 일론 머스크(Elon Musk)는 자사의 미래 가치의 80%가 옵티머스(Optimus) 휴머노이드 로봇에서 나올 것이라고 주장하며, 테슬라를 OpenAI의 노력에 대한 주요 경쟁자로 자리매김하고 있습니다. 한편, 보스턴 다이내믹스(Boston Dynamics)는 아틀라스(Atlas) 플랫폼의 뛰어난 이동성 시연으로 계속 발전을 이어가고 있고, Figure AI는 주요 테크 투자자들로부터 6억 7,500만 달러의 자금을 확보했습니다.

특히, Figure AI는 2025년 2월 OpenAI와의 파트너십을 종료했습니다. CEO 브렛 애드콕(Brett Adcock)은 "수직적으로 통합된 로봇 AI"의 필요성을 언급하며, 자사가 엔드-투-엔드(robotics 전 과정)에서 "주요 돌파구"를 달성했다고 밝혔습니다. 이 분리는 양사가 휴머노이드 개발에서 독립적인 길을 추구하고 있음을 시사하며, 경쟁이 더욱 심화될 가능성을 내포하고 있습니다.

 

기술적 집중 및 채용 공고

 

OpenAI의 현재 채용 공고는 로봇 공학 이니셔티브에 대한 구체적인 기술적 우선순위를 드러냅니다. 회사는 센싱 기술, 촉각 시스템, 그리고 힘 센서에 대한 전문 지식을 가진 기계 엔지니어를 모집하고 있는데, 이는 로봇이 물리적 환경과 안전하게 상호작용하기 위해 필수적인 요소들입니다. 한 공고에서는 "대량 생산을 위한 시스템 설계"를 명시하고 있어, OpenAI가 대규모 제조 응용 분야를 고려하고 있을 가능성을 시사합니다.

공고들은 "범용 로봇 공학의 잠재력을 열고, 실제 동적 환경에서 AGI 수준의 지능을 향해 나아간다"는 팀의 미션을 강조하며, OpenAI가 로봇 공학을 더 넓은 AGI 목표 달성에 필수적인 요소로 보고 있음을 나타냅니다. 이는 진정한 인공지능이 단순히 디지털 정보를 처리하는 것뿐 아니라 물리적 세계를 이해하고 다룰 수 있는 AI 시스템이 필요하다는 업계 시각과도 일치합니다.

OpenAI는 과거 창립 이후 2021년까지 로봇 공학 부서를 운영했으나, AI 시스템 발전에 필요한 충분한 훈련 데이터가 부족해 부서가 폐쇄되었습니다. 이제 다시 로봇 공학에 뛰어드는 것은 향상된 AI 역량과 더 나은 훈련 방법론의 이용 가능성을 반영하는데, 시뮬레이션 환경과 원격 조작 시스템이 현대 머신러닝 접근법에 필요한 대규모 데이터셋을 생성할 수 있도록 돕고 있습니다.

댓글 0
전체 533 / 75 페이지
(퍼플렉시티가 정리한 기사)Apple는 2025년 9월 19일 금요일에 출시된 Apple Watch Series 11 모델에 혁신적인 인공지능 기반 혈압 감지 기능을 선보였습니다. 이 발명은 소비자 건강 기술에서 중요한 발전을 의미하며, 기존 혈압 측정 커프 없이 기계 학습 알고리즘을 이용해 잠재적 고혈압을 식별합니다.이 기능은 2025년 9월 14일 미국 식품의약국(FDA)의 승인을 받았으며, 전 세계 150개 이상의 국가에서 제공될 예정입니다. 기존의 혈압 측정 장치와 달리, Apple Watch는 자체 광학 심장 센서를 사용하여 30일간 혈관이 심장 박동에 어떻게 반응하는지를 분석하고, 만성 고혈압과 일치하는 패턴이 감지될 경우 사용자에게 알림을 제공합니다.AI 기반 개발 프로세스애플의 부사장인 숨불 아흐마드 데사이에 따르면, 애플은 2019년에 시작한 심장 및 움직임 연구의 기존 센서 데이터를 인공지능 모델에 적용하여 이 기능을 개발했습니다. 인공지능은 10만 명이 넘는 연구 참여자들의 데이터를 분석하여, 심장 센서 신호 패턴이 기존의 혈압 측정값과 상관관계가 있을 수 있음을 밝혀냈습니다.데사이는 로이터와의 인터뷰에서 "애플은 수년간 고혈압을 식별하고자 관심을 가져왔다"고 말했습니다. 다층적 머신러닝 과정을 거쳐, 애플은 알고리즘을 개발했고 이를 2,000명 이상의 참여자가 포함된 임상 연구를 통해 검증했습니다.머신러닝 모델은 92% 이상의 특이도율을 달성하여, 거짓 양성의 비율을 최소화했으며, 특히 더 심각한 형태인 2기 고혈압을 식별하는 데 강점을 보였습니다. 애플은 이 기능을 통해 첫 해에 미진단 고혈압을 가진 100만 명이 넘는 사람들에게 알림을 제공할 수 있을 것으로 기대하고 있습니다.세계적인 건강 위기에 대응하기고혈압은 전 세계적으로 약 13억 명의 성인에게 영향을 미치며, 이 중 약 절반은 진단조차 받지 못하고 있습니다. 이는 혈압 측정기가 일반적으로 의료 환경에서만 접할 수 있기 때문이기도 합니다. 이 질환은 종종 "조용한 살인자"로 불리는데, 증상이 거의 없지만 심장마비, 뇌졸중, 신장 질환의 주요 위험 요인으로 작용하기 때문입니다.“고혈압은 심장마비와 뇌졸중의 주요 예방 가능 원인이지만, 수백만 명이 여전히 진단받지 못하고 있습니다.”라고 예일대학교 및 예일 뉴헤이븐 병원의 심장 전문의이자 과학자인 할란 크럼홀츠 박사는 말했습니다. “정확한 감지를 쉽게 하고 일상 생활의 일부로 만들면 사람들이 더 빨리 치료를 받고 피할 수 있는 피해를 예방할 수 있습니다.”해당 기능은 애플워치 시리즈 9 및 이후 모델, 그리고 애플워치 울트라 2 및 이후 버전에서 작동합니다. 사용자가 고혈압 알림을 받으면, 애플은 전통적인 혈압 측정기로 7일간 혈압을 측정하고 의료 전문가와 상담할 것을 권장하고 있습니다.전문가의 관점과 한계보건 전문가들은 이 혁신의 잠재력을 칭찬하는 한편, 중요한 한계점들도 강조했다. 미국심장학회(ACC) 최고 혁신 책임자 아미 바트(Ami Bhatt)는 애플이 거짓 양성 반응을 피하기 위해 신중을 기한 것으로 보이지만, 해당 기능이 전문적인 의료 진단을 대체해서는 안 된다고 경고했다.바트는 “알림을 받지 못한 사람은 자신이 고혈압이 없다고 오해할 수 있는 잘못된 안도감의 위험도 있다”고 주의했다. 이 기능은 혈압을 직접 측정하는 것이 아니라, 사용자가 적절한 의료 평가를 받아야 한다는 신호를 시사하는 패턴을 식별한다.애플의 개인정보 보호 조치로 인해 개발 과정에는 제약이 따랐으며, 데사이(Desai)는 “여기서 한 가지 아이러니는 대규모 연구 외에는 많은 데이터를 얻지 못한다”라고 말했다. 그러나 그녀는 이 연구들이 추가로 조사할 가치가 있는 건강 신호를 식별하는 데 중요한 과학적 통찰을 제공한다고 강조했다.
562 조회
0 추천
2025.09.20 등록
(퍼플렉시티가 정리한 기사)중국 기술 대기업 화웨이는 저장대학교와 협력하여 DeepSeek-R1-Safe를 개발했습니다. 이는 인기 있는 DeepSeek AI 모델을 수정한 버전으로, 정치적으로 민감한 콘텐츠를 차단하는 데 “거의 100% 성공적”이라고 합니다. 이번 협업은 중국이 자국 AI 시스템이 “사회주의 가치관”을 구현하도록 정부 요구사항을 준수하게 하려는 최신 노력을 보여줍니다.화웨이는 목요일 늦게 공식 웨이신(WeChat) 계정을 통해 발표한 내용에서, 이 대형 언어 모델을 훈련시키기 위해 자사의 Ascend AI 칩 1,000개를 사용했다고 밝혔습니다. 해당 모델은 DeepSeek의 오픈 소스 R1 버전을 기반으로 했습니다. 이번 개발 프로젝트는 DeepSeek 창립자 량원펑의 모교인 저장대학교와 협력하여 진행됐지만, DeepSeek와 량원펑은 안전성이 강화된 이 변형 모델의 개발에 직접 참여하지는 않았습니다.강화된 검열 기능테스트 결과, DeepSeek-R1-Safe는 화웨이가 "일반적인 유해 문제"라고 명명한 독성 발언, 정치적으로 민감한 콘텐츠, 불법 행위 조장 등을 방어하는 데 있어 "거의 100% 성공률"을 달성한 것으로 나타났습니다. 그러나 사용자가 시나리오 기반 도전, 역할극, 암호화된 코딩 등을 통해 제한을 우회하려고 시도할 경우, 모델의 효과성은 40%로 크게 떨어졌습니다.화웨이는 "포괄적인 보안 방어 능력이 83%에 도달해 동일한 테스트 조건에서 Qwen-235B 및 DeepSeek-R1-671B와 같은 여러 동시 모델들을 8%에서 15%까지 능가했다"고 보고했으며, 이는 알리바바가 개발한 모델을 참조한 것입니다. 향상된 검열 기능에도 불구하고, 회사는 DeepSeek-R1-Safe가 원래 DeepSeek-R1 모델과 비교했을 때 성능 저하가 1% 미만임을 강조했습니다.규제 준수 및 전략적 맥락이 개발은 중국 내 AI 모델과 애플리케이션이 대중에 공개되기 전에 국가의 "사회주의 가치관"을 반영하도록 요구하는 중국 규정과 일치하며, 엄격한 언론 통제를 준수합니다. 바이두의 어니봇(Ernie Bot)을 포함한 중국의 AI 챗봇들은 오픈AI의 ChatGPT에 대한 중국의 초기 대응책으로, 국내 정치나 집권 공산당이 민감하다고 판단한 주제에 대한 질문에는 일상적으로 응답을 거부합니다.이 발표는 화웨이가 상하이에서 열린 연례 커넥트(Connect) 콘퍼런스와 시기를 맞췄으며, 이 자리에서 화웨이는 그동안 비밀에 부쳤던 반도체 개발 노력과 칩 및 컴퓨팅 파워 로드맵에 대한 상세한 내용을 공개했습니다. 이러한 시점은 중국의 광범위한 기술 전략에서 AI 개발과 기술적 자립의 전략적 중요성을 부각합니다.산업 채택과 기술적 도전 과제DeepSeek 모델 시리즈는 1월 출시 이후 중국 산업 전반에서 널리 채택되어, 첨단 기술력으로 실리콘밸리를 놀라게 하고 서방 AI 주식의 매도세를 촉발시켰습니다. 200개가 넘는 기업들이 통신, 클라우드 컴퓨팅, 반도체, 금융, 자동차, 모바일 기술 분야에서 DeepSeek 모델 통합을 발표했습니다.하지만 DeepSeek는 화웨이와의 협력 과정에서 기술적 난관에 부딪혔습니다. 앞선 보도에 따르면, DeepSeek는 화웨이 Ascend 칩에서의 지속적인 기술 문제로 R2 모델 출시를 연기했으며, 이후 훈련에는 Nvidia 프로세서를 사용하고, 추론 능력에서는 여전히 화웨이와의 협업을 이어가고 있습니다.DeepSeek-R1-Safe의 개발은 중국이 기술적 진보와 정치적 준수를 균형 있게 이루는 AI 시스템을 만들기 위한 중요한 이정표로 평가되며, 국내 테크 기업들이 규제 요구를 충족하면서 경쟁력 있는 AI 성능을 유지하는 방식으로 첨단 AI 모델을 적응시키는 사례를 보여줍니다.
538 조회
0 추천
2025.09.20 등록
(퍼플렉시티가 정리한 기사)메타 CEO 마크 저커버그는 인공 초지능 경쟁에서 뒤처지느니 "수백억 달러를 잘못 써버리는 편이 낫다"고 선언하며, AI 버블이 "충분히 있을 수 있다"는 점을 인정하면서도 더 큰 위험은 공격적으로 나서지 않는 데 있다고 강조했다. 저커버그는 목요일에 공개된 액세스 팟캐스트에서 회사가 2028년까지 미국 데이터 센터와 인프라에 최소 6,000억 달러를 투자하기로 한 결정을 옹호하며, 이러한 대규모 지출을 역사상 가장 혁신적인 기술을 놓칠 위험에 대비하기 위한 필수 보험으로 설명했다.인공지능 지배를 위한 10억 달러 규모의 도박그가 기술 팟캐스트에 출연했을 때, 주커버그는 잠재적인 AI 인프라 과잉 구축과 철도 붐, 닷컴 붕괴와 같은 역사적 거품 사이의 유사점을 언급했다. "과거 인프라 구축과 그로 인한 거품을 보면, 여기서도 그런 일이 분명히 일어날 가능성이 있다고 생각합니다,"라고 그는 말했다. 그러나 메타의 수장은 슈퍼인텔리전스의 순간을 놓치는 것이 치명적일 것이라고 주장했다."만약 구축 속도가 너무 느리면, 슈퍼인텔리전스가 3년 안에 가능해지는데 5년 뒤에나 실현될 것으로 예상하고 구축했다면, 역사상 가장 많은 신제품과 혁신, 가치 창출을 이끄는 가장 중요한 기술에 잘못된 위치에 있게 되는 것입니다,"라고 주커버그는 설명했다.이번 달 초 트럼프 대통령과 다른 기술 업계 경영진들과의 백악관 저녁 만찬에서 발표된 메타의 6,000억 달러 투자 약정은 2028년까지 메타의 미국 내 모든 데이터 센터 구축과 지원 비즈니스 운영을 포괄한다. 메타의 CFO 수전 리는 이 수치가 인프라와 인력을 포함한 회사의 국내 투자 계획의 "총 한도"를 의미한다고 명확히 했다.초지능 연구실 구조저커버그는 최근 설립된 슈퍼인텔리전스 연구소를 통해 인공 일반 지능(AGI)을 달성하기 위한 메타의 접근 방식에 대한 새로운 세부 정보를 공개했다. 이 엘리트 팀은 약 50~100명의 연구원으로 구성되어 있으며, 저커버그가 "매우 평평한" 조직 구조라고 설명한, 상명하달식 마감 기한이 없는 방식으로 운영된다."이건 연구예요 — 얼마나 걸릴지 알 수 없습니다,"라고 저커버그는 말하며 이 벤처를 "집단 과학 프로젝트"에 비유했다. 이 연구소는 수백만 달러에 달하는 보상 패키지를 통해 OpenAI, 구글 DeepMind, Anthropic 출신 연구원들을 스카우트하며 최고의 인재를 모았다.메타의 공격적인 인재 확보 전략에는 Scale AI의 지분 약 50%를 인수하는 143억 달러 규모의 거래도 포함되어 있었으며, 이로 인해 CEO 알렉산더 왕이 슈퍼인텔리전스 프로젝트를 이끌게 됐다. 메타는 지난달 AI 부문의 채용을 일시적으로 동결했으며, 계약금이 1억 달러에 달하는 사례도 있었던 것으로 알려졌다.업계 전반의 거품 우려저커버그의 발언은 인공지능(AI) 투자 거품에 대한 우려가 커지고 있는 것과 맥을 같이 한다. MIT가 8월에 발표한 연구에 따르면, AI 분야에 400억 달러 이상이 투자되었음에도 불구하고 AI 파일럿 프로그램의 95%가 기대한 수익을 내지 못하고 있다. 오픈AI(OpenAI) CEO 샘 알트먼(Sam Altman)도 AI 스타트업을 둘러싼 과대평가와 "비이성적 열광"에 대해 경고한 바 있다.제롬 파월(Jerome Powell) 연방준비제도(Federal Reserve) 의장은 AI 역량 구축 분야에서 "유난히 큰 규모의 경제 활동"이 이루어지고 있다고 언급했다. 2025년 한 해에만 미국 주요 테크 기업들이 AI 개발에 1,550억 달러 이상을 지출할 것으로 예상되며, 현재 AI 시장의 가치는 Statista에 따르면 약 2,442억 달러에 달한다.저커버그는 막대한 컴퓨팅 비용을 계속 모금해야 하는 민간 AI 연구소 대비, 메타(Meta)가 더 유리한 입장에 있다고 밝혔다. 그는 "우리는 사업이 망할 위험이 없다"고 말하며, 경쟁사들이 경기 침체 상황에서 자금을 조달하지 못하면 존립 자체가 위태로워지는 데 반해, 자신의 회사는 안정적인 광고 수익을 올리고 있다는 점을 강조했다.
578 조회
0 추천
2025.09.20 등록
(퍼플렉시티가 정리한 기사)최근 연구에 따르면, 의료 분야에서 사용되는 인공지능 도구들이 여성과 소수 인종에 대한 상당한 편향을 보인다는 우려스러운 증거가 드러났으며, 이러한 시스템들이 점점 더 의료 현장에 통합됨에 따라 알고리즘적 차별에 대한 우려가 커지고 있습니다.MIT, 런던정경대(LSE), 에모리 대학교 등 명문 기관들의 여러 연구 결과에 따르면, 대형 언어 모델과 AI 진단 도구들은 여성에게는 지속적으로 낮은 수준의 치료를 권고하고, 흑인 및 아시아 환자들에게는 공감이 줄어드는 경향을 보였습니다. 이러한 발견은 전 세계 기술 기업들이 의사를 지원하고 의료 업무를 줄이기 위해 고안된 AI 시스템 개발을 더욱 가속화하는 가운데 나온 것입니다.AI 차별의 광범위한 패턴MIT의 자밀 클리닉(Jameel Clinic)이 실시한 종합 분석에 따르면, 오픈AI의 GPT-4, 메타의 Llama 3, 그리고 Palmyra-Med와 같은 의료 특화 시스템을 포함한 인기 있는 AI 모델들이 지속적으로 편향 패턴을 보인 것으로 나타났습니다. 연구 결과, 이들 시스템은 COVID-19나 암처럼 남녀 모두에게 동등하게 유병한 질환에 대해 남성에게 진단을 내릴 가능성이 더 높았고, 흑인 환자에 대해서는 MRI나 초음파와 같은 진단 검사를 백인 환자보다 더 적게 권장하는 경향이 있었습니다.특히 한 인상적인 사례에서 연구진은 84세 남성의 경우 "복합적인 의료 이력"과 "운동성 저하"로 묘사된 반면, 동일한 사례 기록을 여성으로 적용할 경우 그녀는 "독립적이며 스스로 개인 위생을 관리할 수 있음"으로 특성화되었다는 사실을 발견했습니다. 런던정경대학(London School of Economics)이 29,616쌍의 AI 생성 요약문을 분석한 연구에서는 영국 지방자치단체 중 절반 이상이 사용하는 구글의 Gemma 모델 역시 남성에 비해 여성의 신체적·정신적 건강 문제를 일관되게 축소해 표현하는 경향이 확인됐습니다.별도의 연구로 네이처 디지털 메디슨(Nature Digital Medicine)에 발표된 논문에서는 4개의 주요 AI 플랫폼에서 정신건강 치료 권고사항에 나타난 인종적 편향을 조사했습니다. 연구 결과, NewMes-15가 인종적 편향 수준이 가장 높았으며, 이 시스템들은 흑인 우울증 환자에게 후견인 지정 권고를 더 자주 하고, 불안 장애가 있는 아프리카계 미국인 환자에게는 음주 절제를 특별히 권장하는 경향이 있음이 드러났습니다.AI 성능 주장에 대한 면밀한 검토이러한 편향에 대한 폭로는 마이크로소프트가 2025년 7월에 자사의 AI 진단 도구가 의사보다 네 배 더 정확하게 복잡한 의료 사례를 진단했다고 주장한 시점에 나왔다. 해당 AI 진단 도구는 실제 사례 300건 이상에서 85%의 정확도를 달성했다고 한다. 하지만 이러한 성능 주장에 대해 의료 전문가들은 AI 도구가 다양한 환자 집단에서 공정성과 형평성 문제를 충분히 해결할 수 있는지 의문을 제기하며 회의적인 시각을 드러냈다.MIT의 조교수 Marzyeh Ghassemi는 헬스케어 분야의 AI 편향을 폭넓게 문서화한 자신의 연구 결과를 바탕으로 파이낸셜 타임즈에 "몇몇 환자들은 모델이 인식한 인종만을 근거로 훨씬 덜 충분한 지원을 받게 될 수 있다"고 밝혔다. 그녀의 연구팀은 AI 모델이 의료 이미지를 통해 환자의 인종을 정확하게 예측할 수 있다는 사실을 보여주었고, 이러한 능력이 진단 결정에 어떤 영향을 미칠지에 대한 우려를 제기하고 있다.규제 대응 및 업계 책임미국 보건복지부 산하 시민권국은 2024년 5월, 의료기관이 AI 도구로 인한 차별 위험을 관리할 법적 책임이 있음을 명시한 최종 규정을 오바마케어(ACA) 하에 발표했습니다. 이 규정은 의료기관에게 의사결정 지원 도구가 보호된 특성을 사용하는지 "합리적인 노력"으로 식별하고, 차별 위험을 완화하도록 요구합니다.여러 주에서는 AI 기반 의료 결정에 대한 의사 감독을 요구하는 법률을 제정했습니다. 현재 여섯 개 주에서는 자격이 있는 의료 전문인이 AI 시스템이 보험 청구를 거부하기 전에 반드시 이를 검토해야 하며, 2025년에는 20여 개 주에서 유사한 법안이 도입될 예정입니다.기술 기업들은 이러한 과제들을 인정하면서도, 자사의 시스템을 옹호하고 있습니다. OpenAI는 많은 연구가 구 버전의 GPT-4를 평가했다며 출시 이후 정확도가 향상되었다고 주장했습니다. Google은 모델 편향 문제를 "매우 심각하게" 받아들이고 있으며, 차별을 최소화하기 위한 기술을 개발 중이라고 밝혔습니다.업계가 편향 문제 해결에 나서고 있음에도 불구하고, 연구자들은 AI 시스템이 근본적인 학습 데이터 및 개발 관행의 변화 없이는 수십 년간 의료계를 괴롭혀온 건강 격차를 계속 악화시킬 위험이 있다고 경고합니다. MIT 연구에 따르면, 이러한 편향은 AI 모델이 이미 편견과 불평등이 내재된 과거의 의료 데이터를 학습함으로써 발생한다고 합니다.
588 조회
0 추천
2025.09.20 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입