AI 뉴스

과학자들이 더 빠른 AI 처리를 위한 광학 컴퓨팅 방법 개발

페이지 정보

작성자 xtalfi
작성일 2025.11.25 16:02
525 조회
0 추천
0 비추천

본문

f43ee9a7735c9322763d602776200742_1764054173_9101.png
 

Aalto 대학교의 연구진들은 전기 대신 빛을 사용하여 인공지능 계산을 처리하는 새로운 방법을 시연했으며, 이는 AI 시스템의 확장을 제한해온 주요 병목 현상을 잠재적으로 제거할 수 있다.​

POMMM(Parallel Optical Matrix-Matrix Multiplication)이라 불리는 이 기술은 신경망의 수학적 기초인 복잡한 텐서 연산을 단일 통과의 가간섭 빛으로 완료하며, 이는 11월 14일 Nature Photonics에 게재된 연구에 따른 것이다. 여러 번의 빛 전파를 필요로 하는 기존의 광학 컴퓨팅 방법과 달리, POMMM은 전체 행렬 곱셈을 동시에 수행하여 에너지 소비를 극적으로 줄이면서 더 빠른 처리 속도로 가는 길을 제공한다.​

"여러 다른 기능을 가진 여러 기계를 통해 모든 소포를 검사한 다음 올바른 보관함으로 분류해야 하는 세관 직원을 상상해 보세요"라고 Aalto 대학교 전자 및 나노공학과의 제1 저자인 Dr. Yufeng Zhang이 말했다. "우리의 광학 컴퓨팅 방법은 모든 소포와 모든 기계를 함께 병합합니다 — 우리는 각 입력을 올바른 출력에 연결하는 여러 개의 '광학 고리'를 만듭니다. 단 한 번의 작업, 한 번의 빛 통과로 모든 검사와 분류가 즉시 그리고 병렬로 일어납니다."​


GPU 병목 현상 해결

현재 AI 시스템은 텐서 처리 속도에 한계를 겪고 있으며, 이러한 제약으로 인해 OpenAI, Anthropic, Google, xAI와 같은 기업들은 대규모 모델을 훈련하고 운영하기 위해 수천 개의 그래픽 처리 장치를 병렬로 실행하고 있습니다. GPU는 병렬 처리에 뛰어나지만, 상당한 전력을 소비하고 메모리 대역폭 제약에 직면해 있습니다.​

POMMM 프로토타입은 이미지 인식 작업을 위한 합성곱 신경망을 실행할 때 94% 이상의 정확도를 달성했으며, 손글씨 숫자 분류에서 94.44%, 의류 아이템 인식에서 84.11%의 정확도를 기록했습니다. 이 시스템은 최대 50x50 크기의 행렬에 대해 0.15 미만의 평균 절대 오차를 보였으며, 줄당 20억 회 이상의 연산 효율성을 나타냈습니다.​


상업적 통합으로 가는 길

Aalto University의 Photonics Group을 이끄는 Zhipei Sun 교수는 이 접근법이 "거의 모든 광학 플랫폼에 구현될 수 있다"고 말했다. Zhang은 이 기술이 3~5년 내에 주요 AI 플랫폼에 통합될 수 있을 것으로 추정한다.​

이 혁신적 발견은 AI 인프라를 위한 광학 인터커넥트에 대한 업계의 증가하는 관심을 바탕으로 한다. Ayar Labs와 Lightmatter를 포함한 기업들은 데이터 센터 병목 현상을 위한 광학 솔루션 개발에 수억 달러의 벤처 캐피털을 유치했다. Nvidia CEO Jensen Huang은 2025년 3월에 공동 패키징된 광학 기술이 네트워킹 스위치에 대해 가능성을 보여주지만, 직접 GPU 연결에는 전통적인 구리 연결이 "몇 배나" 더 신뢰할 수 있다고 밝혔다.​

연구진은 POMMM을 포토닉 칩에 직접 통합하여 광 기반 프로세서가 더 낮은 전력 소비로 복잡한 AI 작업을 수행할 수 있도록 할 계획이다.

댓글 0
전체 1,366 / 65 페이지
조지타운 대학교의 컴퓨터 과학자 칼 뉴포트는 2025년 11월 24일자 팟캐스트에서, 생물학자 브렛 와인스타인이 조 로건 팟캐스트에서 언급한 것과 같은 AI 의식에 대한 대중적 주장들이 대형 언어 모델의 작동 방식을 근본적으로 오해하고 있으며, 인상적인 언어 처리 능력을 의식, 의도, 조작과 같은 이 시스템들이 가질 수 없는 특성과 혼동하고 있다고 주장합니다.뉴포트는 대형 언어 모델(LLM)이 훈련이 끝나면 분산된 GPU에서 순차적인 행렬 곱셈을 통해 처리되는 고정된 숫자표로 작동한다고 설명합니다. 이들은 학습하거나, 의도를 형성하거나, 실험을 수행하거나, 이해를 갱신하지 못하며, 인간의 의식에 필요한 역동적이고 다중 시스템적 구조와는 다르다고 말합니다.“AI의 대부”로 불리는 제프리 힌턴도 와인스타인과 비슷하게 들리는 경고를 한 적이 있지만, 뉴포트는 힌턴이 아직 개발되지 않은 가상의 미래 AI 시스템에 대해 우려하고 있는 반면, 2025년이 “AI 에이전트의 해”가 될 것이라는 예상이 실패한 주요 원인은 언어 모델이 신뢰할 만한 자율적 운영에 필요한 세계 모델링, 계획, 추론 능력이 부족하기 때문이라고 명확하게 설명합니다.
546 조회
0 추천
2025.11.24 등록
일본은 최소 120억 달러를 스타트업 **라피더스(Rapidus)**에 투자하여 우유 농장과 스키 리조트로 유명한 섬 홋카이도를 최첨단 반도체 제조 허브인 “홋카이도 밸리“로 탈바꿈시키려 하고 있습니다. 이를 통해 국가의 반도체 산업을 부흥시키고, 전 세계 6천억 달러 규모의 시장에서 경쟁력을 갖추고자 하는 목표를 가지고 있습니다.라피더스는 IBM과의 협력을 통해 2나노미터 트랜지스터 시제품 생산에 성공하여, 이 능력을 가진 TSMC와 삼성과 어깨를 나란히 하게 되었습니다. 하지만, 분석가들은 라피더스가 제조 경험 부족과 318억 달러에 이르는 자금 격차를 고려할 때 2027년까지 양산에 성공할 수 있을지에 대해 의문을 제기하고 있습니다.일본의 반도체 시장 점유율은 1980년대 50% 이상에서 오늘날 약 **10%**로 급감했는데, 이는 미일 무역 갈등의 영향이 컸습니다. 이제 일본은 2025년까지 전 세계 7천억 달러 매출이 예상되는 반도체 산업에서 입지를 되찾기 위해 4만 명에 달하는 반도체 엔지니어 부족 사태에 직면해 있습니다.[
528 조회
0 추천
2025.11.24 등록
중국의 선도적인 메모리 칩 제조업체인 ChangXin Memory Technologies(CXMT)는 일요일 베이징에서 열린 중국 국제 반도체 박람회에서 새로운 세대의 DDR5 DRAM 제품을 공개하며, 고성능 AI 메모리 시장에서 삼성전자, SK하이닉스, 마이크론 테크놀로지에 직접적인 도전장을 내밀었다.새로운 DDR5 제품은 초당 최대 8,000메가비트의 속도와 최대 24기가비트의 다이 용량을 달성하여, 글로벌 경쟁업체들의 고급 제품 사양과 동등한 수준을 보인다. CXMT의 제품 라인업은 데스크톱용 UDIMM, 노트북용 SODIMM, 데이터 센터용 MRDIMM 등 7가지 주요 모듈 유형을 포함하며, AI 컴퓨팅 서버 및 고성능 애플리케이션을 목표로 한다.공급 부족 속 시장 타이밍TrendForce에 따르면 9월 초 이후 글로벌 DDR5 가격이 307% 급등한 가운데 이번 발표가 나왔다. 삼성은 32기가바이트 DDR5 모듈의 계약 가격을 9월 149달러에서 11월 239달러로 인상했는데, 이는 주요 생산업체들이 AI 애플리케이션용 고대역폭 메모리로 생산능력을 전환하면서 공급이 부족해진 것을 반영한다. 메모리 부족으로 인해 기존 소비자 전자제품 제조업체들은 AI 데이터센터 운영업체들이 프리미엄 가격을 지불하는 가운데 제한된 재고를 확보하기 위해 경쟁해야 하는 상황이다.CXMT는 또한 8,533Mbps에서 10,667Mbps에 이르는 속도의 LPDDR5X 모바일 메모리 시리즈를 선보였다. 이 회사는 5월에 8,533Mbps 및 9,600Mbps 제품의 양산을 시작했으며, 가장 빠른 10,667Mbps 버전은 여전히 고객 샘플링 단계에 있다. 이러한 제품들은 LPDDR5 대비 66%의 속도 향상을 나타내면서 전력 소비는 30% 감소시켰다.중국의 자급자족 추진이번 제품 출시는 미국의 첨단 칩 기술에 대한 수출 규제가 지속되는 가운데 반도체 자립을 달성하기 위한 중국의 강화된 노력을 보여줍니다. Counterpoint Research에 따르면, CXMT의 글로벌 DRAM 시장 점유율은 2025년 7%에서 2027년까지 10%로 증가할 것으로 예상됩니다. 현재 SK하이닉스가 38.7%의 매출 점유율로 DRAM 시장을 선도하고 있으며, 삼성이 32.7%, 마이크론이 22%로 그 뒤를 따르고 있습니다.업계 분석가들은 2026년 글로벌 DRAM 생산량이 20% 이상 증가할 것으로 예상하며, 중국의 국가 지원 반도체 이니셔티브가 계속됨에 따라 CXMT가 예상을 초과할 가능성이 있습니다. 로이터는 CXMT가 빠르면 2026년 1분기에 상하이에서 기업공개를 준비하고 있으며, 최대 3,000억 위안(420억 달러)의 기업가치를 목표로 하고 있다고 보도했습니다.
547 조회
0 추천
2025.11.24 등록
정부가 중앙·지방정부 내부망에서 민간 AI 기술을 안전하게 활용할 수 있는 ‘범정부 AI 공통기반’ 서비스를 24일 공식 개시했다. 과학기술정보통신부와 행정안전부는 이날 정부서울청사에서 기념행사를 열고 서비스 시연과 향후 운영계획을 발표했다.그동안 국내외 민간 AI 서비스는 내부 행정 데이터 유출 위험 등 보안 우려로 인터넷망에서만 사용 가능했고, 정부 업무 전반에 활용하는 데 제약이 있었다. 민간을 중심으로 빠르게 발전하는 AI를 행정에서 적극 활용하지 못해 업무 효율성이 저하된다는 지적이 제기돼 왔다.삼성·네이버 AI 챗봇 내부망에 도입범정부 AI 공통기반은 민간의 다양한 AI 모델, 학습데이터, 그래픽처리장치(GPU) 등을 중앙·지방정부가 공동 활용할 수 있는 서비스다. 공통기반은 공개된 행정문서와 데이터를 AI 모델과 연계해 내부망에서도 활용 가능한 AI 챗서비스 2종을 제공한다. 삼성SDS와 네이버클라우드가 개발한 AI 챗봇 서비스가 부처 내부망에 제공되며, 이를 통해 중앙·지방정부는 중복 개발이나 투자 없이 내부 행정업무부터 공공서비스까지 다양한 AI 기술을 업무 전반에 적용할 수 있게 됐다.12월에는 복잡한 용어와 절차를 몰라도 필요한 서비스와 혜택을 찾아주는 ‘정부24+ 지능검색’ 서비스가 도입될 예정이다. 2026년에는 정부가 추진 중인 ‘독자 AI 파운데이션 모델 프로젝트’를 통해 선정되는 AI 모델도 범정부 AI 공통기반에서 활용할 수 있도록 추가 도입할 계획이다.지능형 업무관리 플랫폼 시범 운영정부는 범정부 AI 공통기반을 활용한 ‘지능형 업무관리 플랫폼’ 시범서비스도 개시한다. 과기정통부, 행안부, 식품의약품안전처를 대상으로 하는 이 플랫폼은 AI를 중심으로 메일, 메신저, 영상회의 등 소통·협업 도구를 유기적으로 연계해 단순·반복적인 업무를 생략하고 업무에 집중할 수 있는 환경을 제공한다. 범정부 AI 공통기반이 활용하는 공통 데이터뿐 아니라 개인·기관이 보유한 내부 행정 문서와 데이터까지 활용해 보다 정확하고 맥락 있는 AI 답변 생성이 가능하다.정부는 서비스 운영과 확산에 앞서 실제 사용자의 의견 수렴, AI 서비스 기능 검증 및 품질 개선을 위해 이달 말부터 2026년 2월 말까지 시범 운영을 진행한다. 시범 운영 이후 2026년 3월부터는 전체 중앙·지방정부가 서비스를 이용할 수 있도록 단계적으로 서비스 대상을 확대할 계획이다.배경훈 과기정통부 장관은 “공공부문에 AI를 적극 활용해 정책 결정을 고도화하고 과학화함으로써 최고의 성과를 낼 수 있기를 기대한다”며 “이번 서비스 개시를 계기로 AI 3대 강국 실현에도 한 걸음 더 나아갈 수 있도록 박차를 가하겠다”고 밝혔다. 윤호중 행안부 장관은 “민간의 최신 AI 기술을 공공부문에 적극 도입·활용해 국민에게 더 좋은 서비스를 제공하는 ‘AI 민주정부’로 도약하겠다”고 말했다.
590 조회
0 추천
2025.11.24 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입