AI 뉴스

서울대, 역전파에 필적하는 AI 훈련 방법 공개

페이지 정보

작성자 xtalfi
작성일 2025.10.17 15:54
2,257 조회
0 추천
0 비추천

본문

2219855926_gm9fgb.jpg

(퍼플렉시티가 정리한 기사)

서울과학기술대학교 연구진은 오늘 수십 년간 딥러닝을 이끌어온 지배적인 역전파 방법에 대한 보다 효율적인 대안을 제공하여 인공지능 모델 훈련 방식을 변화시킨 획기적인 알고리즘을 발표했다.​

전기정보공학과 박사과정 이길하 연구원과 김현 부교수가 이끄는 연구팀이 개발한 시각 순방향-순방향 네트워크(VFF-Net)는 기존 훈련 방법의 중요한 한계를 해결하는 동시에 더 빠르고 지속 가능한 AI 개발을 약속한다.

 

역전파의 한계 극복하기

 

전통적인 심층 신경망 훈련은 역전파에 크게 의존하는데, 이는 계층을 통해 오류를 역방향으로 전파하여 네트워크 가중치를 반복적으로 조정하는 방법입니다. 성공적이기는 하지만, 이 접근 방식은 느린 수렴, 과적합 경향, 높은 계산 요구량, 그리고 해석하기 어렵게 만드는 "블랙박스" 특성으로 인해 어려움을 겪고 있습니다.​

"합성곱 신경망 훈련에 순전파-순전파 네트워크를 직접 적용하면 입력 이미지의 정보 손실이 발생하여 정확도가 감소할 수 있습니다"라고 Lee는 설명했습니다. "또한, 수많은 합성곱 계층을 가진 범용 CNN의 경우, 각 계층을 개별적으로 훈련하면 성능 문제가 발생할 수 있습니다. 우리의 VFF-Net은 이러한 문제들을 효과적으로 해결합니다."​

연구팀의 솔루션은 세 가지 혁신적인 방법론을 도입합니다: 레이블별 노이즈 라벨링(LWNL), 코사인 유사도 기반 대조 손실(CSCL), 그리고 계층 그룹화(LG). 이러한 기술들은 계층별 훈련의 효율성 이점을 유지하면서 이미지 분류에 중요한 공간 정보를 보존하기 위해 함께 작동합니다.

 

성능 및 지속가능성 이점

 

VFF-Net은 벤치마크 테스트에서 기존의 순방향-순방향 네트워크에 비해 상당한 개선을 보여주었습니다. 4개의 합성곱 계층을 가진 CNN 모델의 경우, 이 알고리즘은 CIFAR-10 데이터셋에서 테스트 오류를 8.31%, CIFAR-100에서 3.80% 감소시켰습니다. 또한 VFF-Net은 MNIST 손글씨 숫자 데이터셋에서 단 1.70%의 테스트 오류를 달성했습니다.​

"역전파에서 벗어남으로써 VFF-Net은 광범위한 컴퓨팅 리소스가 필요하지 않은 더 가볍고 뇌와 유사한 학습 방법으로 가는 길을 열어줍니다"라고 Kim 박사는 말했습니다. "이는 강력한 AI 모델이 개인 기기, 의료 기기, 가전제품에서 직접 실행될 수 있음을 의미하며, 에너지 집약적인 데이터 센터에 대한 의존도를 줄이고 AI를 더욱 지속 가능하게 만듭니다."​

2025년 10월 1일 Neural Networks 저널 190권에 게재된 이 연구는 엣지 디바이스에서 강력한 AI 모델의 광범위한 배포를 가능하게 할 수 있는 생물학적으로 더 그럴듯한 AI 학습 방법을 향한 중요한 진전을 나타냅니다.

댓글 0
전체 1,366 / 267 페이지
(퍼플렉시티가 정리한 기사)마이크로소프트(Microsoft Corporation)는 MAI-Image-1을 발표하며, 자체 개발한 최초의 텍스트-이미지 AI 모델을 선보였습니다. 이는 오픈AI(OpenAI)와의 파트너십에 대한 의존도를 줄이려는 회사 전략의 중요한 진전입니다. 이 모델은 이미 LMArena의 경쟁적인 텍스트-이미지 리더보드에서 9위를 차지하며, 마이크로소프트가 독립적인 AI 개발 능력을 점점 더 강화하고 있음을 보여주고 있습니다.이번 발표는 MAI-Voice-1과 MAI-1-preview(8월 공개)에 이어 마이크로소프트가 자체적으로 만든 세 번째 AI 모델입니다. MAI-Image-1은 자연광 효과와 정교한 풍경이 포함된 사진처럼 사실적인 이미지를 생성하는 데 특화되어 있으며, 많은 대형 시스템보다 더 빠르게 요청을 처리할 수 있습니다.경쟁력 있는 성과 및 기술 중심MAI-Image-1의 LMArena에서의 상위 10위 랭킹은 이미지 생성 모델이 많은 경쟁 속에서도 뛰어난 경쟁력을 보여줍니다. 사용자들이 2가지 이미지를 비교하여 투표하는 방식인 이 플랫폼에서, 현재 이 모델은 4,000표 이상을 기록하며 9위에 공동으로 올라 있습니다. Microsoft는 이 모델이 많은 AI 이미지 생성기에서 보이는 “반복적이거나 일반화된 스타일의 결과물”을 피하기 위해 크리에이티브 전문가들의 의견을 반영해 개발되었다고 강조했습니다.이 모델의 빠른 처리 속도는 소비자 수준의 인터랙티브 사용 환경에 적합할 뿐만 아니라, 신속한 반복과 창작 워크플로와의 원활한 통합을 가능하게 합니다. Microsoft는 모델의 아키텍처나 파라미터 수는 공개하지 않았지만, 뛰어난 조명 표현력을 갖춘 사진 실사 합성에 중점을 두었다고 밝혔습니다.OpenAI로부터의 전략적 독립성이번 출시는 마이크로소프트가 오픈AI 파트너십을 유지하면서도 독립적인 AI 역량을 구축하려는 더 넓은 전략을 강조합니다. 양사는 최근 9월에 개정된 양해각서(MOU)를 체결하여 오픈AI가 인프라 파트너십 측면에서 더 많은 유연성을 확보하는 동시에, 마이크로소프트는 2030년까지 오픈AI 기술에 대한 접근 권한을 유지하게 되었습니다.마이크로소프트 AI 부문 리더인 무스타파 술레이만은 회사가 “거대한 5년간의 로드맵”을 갖고 모델 개발에 임하고 있다고 밝힌 바 있으며, 이는 앞으로 더 많은 출시가 있을 것임을 시사합니다. 마이크로소프트가 최근 Anthropic의 모델을 일부 Microsoft 365 기능에 통합하면서, 과거 오픈AI에 대한 의존도에서 벗어나 AI 포트폴리오를 다각화하고 있습니다.MAI-Image-1은 곧 Microsoft Copilot 및 Bing 이미지 크리에이터의 이미지 생성 기능에 적용되어, 회사의 자체 개발 AI 모델 생태계에 합류할 예정입니다. 현재 이 모델은 LMArena에서 테스트용으로 제공되며, 마이크로소프트는 더 넓은 배포에 앞서 사용자 피드백을 수집하고 있습니다. 이는 마이크로소프트가 AI 인프라 제공업체에서 생성형 AI 분야의 직접적인 경쟁자로 진화하는 중대한 전환점을 의미합니다.
2758 조회
0 추천
2025.10.14 등록
(퍼플렉시티가 정리한 기사)엘론 머스크는 마이크로소프트에 대한 직접적인 도전으로 xAI의 “매크로하드(Macrohard)” 프로젝트에 대한 야심찬 계획을 발표했으며, 이 계획을 전례 없는 규모로 소프트웨어 개발을 자동화할 수 있는 포괄적인 플랫폼으로 자리매김했습니다. 소셜 미디어 게시물과 상표 출원을 통해 공개된 이 프로젝트는 머스크가 “물리적 객체를 직접 제조하는 것을 제외하고는 무엇이든 할 수 있는” 회사를 만드는 동시에 인공지능을 활용하여 전체 소프트웨어 기업을 시뮬레이션하는 것을 목표로 합니다.매크로하드 이니셔티브는 테네시주 멤피스에 있는 회사의 대규모 콜로서스(Colossus) 슈퍼컴퓨터 인프라를 기반으로 구축된 xAI의 소프트웨어 플랫폼 분야로의 가장 공격적인 확장을 나타냅니다. 최근 업데이트에 따르면, 콜로서스는 200,000개 이상의 GPU로 성장했으며 100만 개의 처리 장치에 도달할 계획으로, 세계 최대의 AI 훈련 클러스터가 되었습니다. 이 프로젝트는 xAI가 2025년 8월 1일 미국 특허청에 다운로드 가능한 컴퓨터 프로그램과 AI 소프트웨어를 포함하는 “매크로하드” 상표 출원을 제출하면서 공식적으로 법적 기반을 확보했습니다.마이크로소프트의 기업 지배력 타겟팅머스크는 매크로하드가 애플 의 비즈니스 모델을 따른다고 명시적으로 밝혔는데, 이는 회사가 소프트웨어와 운영 체제를 개발하면서 물리적 제조는 제3자에게 아웃소싱하는 방식이다. “우리의 목표는 물리적 객체를 직접 제조하는 것을 제외한 모든 것을 할 수 있는 회사를 만드는 것이지만, 애플이 다른 회사들로 하여금 자사의 휴대폰을 제조하게 하는 것처럼 간접적으로는 가능할 것입니다”라고 머스크는 10월 12일 발표에서 밝혔다.이 이니셔티브는 코딩, 디자인, 테스팅, 워크플로우 관리를 포함한 복잡한 소프트웨어 개발 작업을 인간의 감독 없이 처리할 수 있는 AI 에이전트를 배포하는 것을 목표로 한다. 업계 분석가들은 이것이 마이크로소프트의 수십 년간의 엔터프라이즈 소프트웨어 지배력에 대한 근본적인 도전을 의미한다고 지적하는데, 특히 레드먼드의 거대 기업이 OpenAI와의 파트너십을 통해 자체 AI 역량에 막대한 투자를 해왔기 때문이다.인프라 및 일정 목표이 프로젝트는 xAI의 확장되는 컴퓨팅 자원을 활용하며, Colossus 2는 550,000개 이상의 GPU를 갖추고 수백억 달러의 건설 비용이 소요될 것으로 예상됩니다. 머스크가 공유한 이미지들은 멤피스 슈퍼컴퓨터 시설 옥상에 “Macrohard” 로고가 그려지는 모습을 보여주며, 이는 프로젝트의 물리적 존재를 상징적으로 표시합니다.야심찬 규모에도 불구하고, xAI는 Macrohard 개발과 구체적으로 관련된 채용 공고를 단 4개만 게시했으며, 이는 대부분의 작업이 기존 xAI 인프라와 AI 에이전트 워크플로우 내에서 진행됨을 시사합니다. 회사는 또한 소프트웨어 개발 시연의 일환으로 2025년 말 이전에 AI 생성 게임을 출시할 계획을 발표했습니다.머스크는 이 프로젝트를 단순히 도발적인 브랜딩이 아닌 “매우 실질적인” 것으로 특징짓지만, 업계 전문가들은 여전히 인간의 감독이 필요한 기존 기업 관계 및 규제 준수 요구사항과 경쟁하는 완전 자동화된 소프트웨어 개발의 실현 가능성에 대해 의견이 분분합니다.
2741 조회
0 추천
2025.10.14 등록
(퍼플렉시티가 정리한 기사)Nvidia는 오늘 2.6파운드의 컴팩트한 폼 팩터로 페타플롭 규모의 성능을 제공하는 데스크톱 AI 슈퍼컴퓨터 DGX Spark의 출시를 발표했습니다. TIME 매거진이 2025년 최고의 발명품 중 하나로 선정한 이 시스템은 10월 15일 수요일부터 $3,999에 구매 가능합니다.회사의 역사를 되새기는 상징적인 제스처로, Nvidia CEO 젠슨 황은 오늘 텍사스의 SpaceX Starbase 시설에서 일론 머스크에게 첫 번째 DGX Spark 유닛을 직접 전달했습니다. 이 전달은 2016년 황이 머스크의 당시 스타트업이었던 OpenAI에 최초의 DGX-1 슈퍼컴퓨터를 전달했던 순간을 반영하며, 이는 나중에 ChatGPT 개발에 기여했습니다.데스크톱급 AI 컴퓨팅 성능DGX Spark는 Nvidia의 새로운 GB10 Grace Blackwell Superchip으로 구동되며, 데스크톱 친화적인 패키지에서 최대 1 페타플롭의 AI 성능과 128GB의 통합 메모리를 제공합니다. 컴팩트한 크기에도 불구하고, 이 시스템은 최대 2,000억 개의 매개변수를 가진 AI 모델에서 추론을 실행하고 최대 700억 개의 매개변수를 가진 모델을 로컬에서 미세 조정할 수 있습니다.황 젠슨은 “2016년에 우리는 AI 연구자들에게 그들만의 슈퍼컴퓨터를 제공하기 위해 DGX-1을 만들었습니다”라고 말했습니다. “DGX Spark를 통해 우리는 그 사명으로 돌아갑니다 — 모든 개발자의 손에 AI 컴퓨터를 배치하여 차세대 혁신의 물결을 점화하는 것입니다”.이 시스템은 전통적인 PC, 워크스테이션, 노트북이 현대 AI 워크로드에 충분하지 않다는 것을 발견하고 비용이 많이 드는 클라우드 컴퓨팅이나 데이터 센터 리소스에 의존할 수밖에 없는 AI 개발자들의 증가하는 수요를 해결합니다.광범위한 산업 채택주요 기술 기업들은 이미 DGX Spark 플랫폼을 테스트하고 검증하고 있습니다. 초기 수령 기업에는 Google , Meta , Microsoft , Hugging Face, Docker, 그리고 NYU의 Global Frontier Lab과 같은 연구 기관들이 포함됩니다.이 시스템은 Nvidia.com과 Acer, ASUS, Dell Technologies , GIGABYTE, HP , Lenovo, MSI의 파트너 시스템을 포함한 여러 채널을 통해 이용 가능합니다. 또한 사용자는 두 개의 Spark 시스템을 함께 연결하여 최대 4,050억 개의 매개변수를 가진 더 큰 AI 모델을 처리할 수 있습니다.DGX Spark는 AI 개발에 최적화된 Linux 기반 운영 체제인 Nvidia의 독점 DGX OS에서 실행되며, 회사의 포괄적인 AI 소프트웨어 스택이 즉시 사용할 수 있도록 사전 설치되어 있습니다. 이는 이 장치를 로컬 AI 개발과 엔터프라이즈 규모 배포 사이의 가교로 자리매김하게 하여, 개발자들이 Nvidia의 DGX Cloud 또는 다른 가속 인프라로 확장하기 전에 로컬에서 모델 프로토타입을 만들 수 있게 합니다.
2721 조회
0 추천
2025.10.14 등록
(퍼플렉시티가 정리한 기사)삼성파운드리는 인공지능 칩 시장 진출을 강화하고 있으며, 고성능 AI 컴퓨팅에 대한 글로벌 수요가 계속 급증함에 따라 첨단 2nm 및 3nm 반도체 생산을 확대하고 있습니다. 한국의 기술 대기업인 삼성의 공격적인 확장은 수익성 높은 파운드리 사업에서 TSMC의 지배력에 도전하는 동시에 AI 애플리케이션의 폭발적인 성장을 활용하려는 시도입니다.주요 고객 확보는 시장 신뢰도를 나타냅니다삼성은 첨단 제조 역량에 대한 신뢰를 보여주는 여러 주요 파트너십을 확보했습니다. 가장 중요한 돌파구는 7월에 전기차 제조업체의 차세대 AI6 칩 생산을 위해 2033년까지 진행되는 테슬라와의 165억 달러 규모의 획기적인 파운드리 계약이었습니다. 이 프로세서들은 텍사스 테일러에 위치한 삼성의 새로운 제조 시설에서 테슬라의 완전 자율주행 기술, 로봇 사업, 그리고 데이터 센터에 전력을 공급할 것입니다.또한 이 파운드리는 퀄컴의 호감을 되찾았으며, 퀄컴은 갤럭시 기기용 스냅드래곤 8 엘리트 Gen 5 칩셋의 특화 버전을 제조하기 위해 삼성의 최첨단 2nm Gate-All-Around 공정을 사용할 것으로 알려졌습니다. 이는 퀄컴이 이전 삼성 공정의 수율 문제로 인해 생산을 TSMC로 이전했던 것을 고려하면 상당한 반전입니다.또한 삼성은 일본 AI 기업 Preferred Networks 및 3nm 공정 대비 12% 향상된 성능과 25% 개선된 전력 효율성을 약속하는 첨단 2nm 기술에 대한 접근을 원하는 기타 고객들과 계약을 체결했습니다.고대역폭 메모리의 혁신삼성은 10월에 Nvidia CEO 젠슨 황이 GB300 AI 가속기에 사용할 회사의 12단 HBM3E 메모리 칩을 공식 승인하면서 중요한 이정표를 달성했습니다. 이번 승인은 삼성이 19개월간의 좌절과 이전에 자격 인증을 방해했던 열 관련 문제를 극복하기 위한 여러 차례의 재설계를 거쳐 Nvidia의 공급망에 복귀했음을 의미합니다.이번 승인은 추가적인 전략적 의미를 가지는데, 삼성이 내부 AI 전환 이니셔티브를 지원하고 잠재적으로 한국에서 OpenAI와의 공동 AI 데이터 센터 프로젝트를 위해 Nvidia로부터 50,000개의 GPU를 구매할 계획이기 때문입니다.TSMC 대비 경쟁적 포지셔닝TSMC가 2025년 2분기 기록적인 70.2%의 점유율로 파운드리 시장을 계속 지배하고 있는 가운데, 삼성의 7.3% 시장 점유율은 업계 선두 기업에 도전하는 데 있어 꾸준한 진전을 반영하고 있습니다. 삼성은 3nm 노드에서 Gate-All-Around 트랜지스터 기술을 조기에 채택하여 기술적 차별화 요소를 확보했으며, TSMC는 2nm에서만 유사한 기술을 도입할 계획입니다.그러나 삼성은 제조 수율과 관련하여 지속적인 과제에 직면해 있습니다. 보고서에 따르면 삼성은 2nm 공정에서 약 30-40%의 수율을 달성한 반면, TSMC는 60%의 수율을 보고했습니다. 업계 분석가들은 삼성이 주요 고객 확보와 2nm 세대에서 효과적으로 경쟁하기 위해서는 6개월 내에 60-70%의 수율에 도달하는 것이 중요하다고 강조합니다.인텔이 최근 1.8nm 칩 생산을 발표하면서 경쟁 구도가 더욱 심화되었지만, 수율과 상업적 실행 가능성에 대한 의문은 여전히 남아 있습니다. 파운드리 경쟁이 가속화됨에 따라, 삼성이 안정적이고 고수율 생산을 제공할 수 있는 능력이 첨단 반도체에 대한 전례 없는 수요를 주도하고 있는 AI 칩 제조 시장에서 더 큰 점유율을 확보하는 데 성공할 수 있을지를 결정할 것입니다.
2715 조회
0 추천
2025.10.14 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입