Loading...

AI 뉴스

엔지니어들이 자석을 사용하여 뇌와 유사한 컴퓨터 개발

페이지 정보

작성자 xtalfi
작성일 2025.11.02 14:50
1,733 조회
0 추천
0 비추천

본문

Untitled-1200-x-600-px-1.jpg

(퍼플렉시티가 정리한 기사)


텍사스 대학교 댈러스 캠퍼스의 엔지니어들이 인간 두뇌 학습을 모방하는 뉴로모픽 컴퓨터 프로토타입을 개발했으며, 자기 부품을 사용하여 기존 인공지능 시스템에 비해 에너지 효율성을 극적으로 개선했습니다. 8월 Nature Communications Engineering에 발표된 이 획기적인 성과는 AI 처리를 스마트폰 및 기타 모바일 기기에 직접 적용하는 데 있어 중요한 진전을 의미합니다.


혁명적인 자기 뇌 기술

UT Dallas의 Joseph S. Friedman 박사와 그의 팀은 자기 터널 접합(MTJ)을 사용하여 프로토타입을 개발했습니다. MTJ는 활동 패턴에 따라 연결을 강화하거나 약화시켜 생물학적 시냅스처럼 작동하는 나노스케일 장치입니다. 메모리와 처리를 분리하는 기존 컴퓨터와 달리, 이 뉴로모픽 시스템은 인간의 뇌가 작동하는 방식을 모방하여 두 기능을 통합합니다.​

전기 및 컴퓨터 공학 부교수인 Friedman은 "우리의 연구는 스스로 학습할 수 있는 뇌 기반 컴퓨터를 구축하기 위한 잠재적인 새로운 경로를 보여줍니다"라고 말했습니다. "뉴로모픽 컴퓨터는 대규모 학습 연산이 필요하지 않기 때문에 막대한 에너지 비용 없이 스마트 기기에 전력을 공급할 수 있습니다."​

프로토타입은 테스트에서 놀라운 효율성을 보여주었으며, 와트당 초당 600조 회 이상의 연산을 달성했습니다. 이는 기존 멤리스터 시스템보다 6배 이상 효율적이며 표준 그래픽 프로세서보다 수천 배 더 효율적입니다. MNIST 데이터셋을 사용한 손글씨 숫자 인식 테스트에서 이 시스템은 기존 AI 하드웨어보다 훨씬 적은 전력을 소비하면서 90%의 정확도를 달성했습니다.


산업 협력 및 연방 지원

이 연구는 산업 파트너인 에버스핀 테크놀로지스(Everspin Technologies)와 텍사스 인스트루먼트(Texas Instruments)와의 협업을 통해 탄생했으며, 이 기술을 잠재적인 상업적 활용을 위해 포지셔닝하고 있습니다. 에버스핀 테크놀로지스의 사장이자 CEO인 산지브 아가왈(Sanjeev Aggarwal) 박사는 프리드먼(Friedman)과 함께 이 연구를 공동 집필했습니다.​

2025년 9월, 미국 에너지부가 프리드먼에게 신경형 컴퓨팅 연구를 진전시키기 위해 2년간 498,730달러의 보조금을 수여하면서 프로젝트는 추가적인 동력을 얻게 되었습니다. 이러한 연방 자금 지원은 AI 시스템이 점점 더 막대한 전력을 소비함에 따라 에너지 효율적인 컴퓨팅 대안에 대한 정부의 관심이 커지고 있음을 보여줍니다.​

이 연구는 종종 "함께 발화하는 뉴런은 함께 연결된다"로 요약되는 헤브 학습 원리에 기반하여, 인공 시스템이 방대한 사전 학습 없이도 경험을 통해 스스로 적응하고 학습할 수 있도록 합니다. MTJ 소자의 이진 스위칭 기능은 안정성 문제로 어려움을 겪었던 이전의 신경형 방식들과 비교해 신뢰성을 크게 향상시킵니다.​

최근 분석에 따르면, 대규모 언어 모델 학습에는 300가구가 1년 동안 소비하는 전력만큼의 전기가 소모될 수 있는 반면, 인간의 두뇌는 20와트 전구 정도의 전력으로 복잡한 정보를 처리합니다. 신경형 칩은 기존 AI 시스템 대비 최대 80%까지 에너지 소비를 줄일 수 있어, 전력 효율성이 중요한 에지 컴퓨팅 분야에서 특히 높은 가치를 가질 수 있습니다.​

댓글 0
전체 1,366 / 38 페이지
앨런 AI 연구소(Ai2)는 훈련 데이터와 가중치까지 완전히 공개하는 대표적인 대형언어모델(LLM)인 '올모(OLMo) 3'의 업데이트 버전 '올모 3.1'을 공개했습니다. 새로 출시된 '올모 3.1 싱크 32B'와 '올모 3.1 인스트럭트 32B'는 강화 학습(RL)을 추가 적용하여 추론, 수학, 지시 이행 능력 등 여러 벤치마크에서 성능이 크게 향상되었습니다.특히, '싱크 32B'는 고급 추론과 연구 목적에 최적화되었으며, '인스트럭트 32B'는 대화형 AI와 툴 기반 워크플로에 맞춰 현재까지 공개된 완전 오픈 소스 32B급 지시형 모델 중 가장 강력한 성능을 자랑합니다. Ai2는 이를 새로운 모델 출시가 아닌 '체크포인트 추가' 개념으로 소개하며, 개발자들이 모델의 학습 과정을 완벽하게 통제하고 자체 데이터를 추가해 재학습할 수 있도록 지원합니다.Ai2는 올모 시리즈가 개방성과 성능을 동시에 발전시킬 수 있음을 보여주며, 학습 데이터, 코드, 결정에 대한 엔드투엔드 투명성을 유지하면서 기능을 지속적으로 개선했다고 강조했습니다. 이 새로운 '체크포인트' 모델들은 Ai2 플레이그라운드와 허깅페이스를 통해 제공되어 개발자 및 연구기관의 활용을 넓힐 예정입니다.* 앨런 인공지능 연구소(Ai2)는 마이크로소프트 공동 창립자였던 고(故) 폴 앨런이 공익을 위해 고도(하이-임팩트) AI 연구 및 엔지니어링을 수행할 목적으로 2014년에 설립한 비영리 연구소입니다. 이 연구소는 텍스트를 읽고 추론하여 지식을 입증하는 AI 시스템 개발을 목표로 시작했으며, 현재도 개방성과 투명성을 중시하며 AI 분야의 발전을 주도하고 있습니다.
905 조회
0 추천
2025.12.14 등록
오픈AI의 최신 AI 모델인 'GPT-5.2'는 초기 테스트에서 전문가와 기업용 업무 처리, 복잡한 문제 해결 능력 등 전문 작업 분야에서 역대 최고라는 평가를 받았습니다. 하이퍼라이트AI CEO 등 전문가들은 이 모델이 상당한 사고 시간을 요구하는 어려운 작업을 완벽하게 수행하며 '세계 최고의 모델'이라고 극찬했습니다.이 모델은 사고력과 문제 해결 능력이 눈에 띄게 향상되어 복잡한 코드 구조를 한 번에 생성하고, 몇 시간 동안 작업을 지속하는 등 개발자와 기업에 매우 중요한 의미를 갖습니다. 박스(Box) CEO 등은 GPT-5.2가 금융 및 생명 과학 분야의 실제 업무 지식을 테스트하는 확장 추론에서 기존 모델보다 훨씬 빠르게 작업을 수행했다고 밝혔습니다.반면, 일반 사용자들은 일상적인 글쓰기나 순수 채팅 기능에서 체감할 만한 개선점을 느끼기 어렵다는 엇갈린 평가가 나왔고, 일부는 딱딱한 어조나 속도 저하를 단점으로 지적했습니다. 코드명 '갈릭'으로 알려진 이 모델은 코딩과 B2B에 최적화된 도구로 보이며, 일반 사용자가 느낄 만한 성능 향상은 내년 1월 출시 모델을 기다려야 할 것으로 분석됩니다.
908 조회
0 추천
2025.12.14 등록
저작권 소송에서 Meta를 고소한 작가들은 목요일 연방 판사에게 회사가 Llama AI 모델을 훈련시키기 위해 BitTorrent를 통해 불법 복제된 책을 다운로드하고 파일 공유를 통해 저작권이 있는 자료를 다른 사람들에게 적극적으로 재배포했다는 새로운 혐의로 소장을 수정해 줄 것을 요청했습니다.코미디언 Sarah Silverman과 작가 Richard Kadrey 및 Christopher Golden을 포함한 원고들은 Meta가 저작권이 있는 저작물을 어떻게 입수했는지에 대해 처음에는 “알 수 없었다”고 말했지만, 회사가 최근 증거 개시 과정에서 토렌트 활동에 대한 “결정적인 증거”를 제출했으며, 여기에는 Meta가 토렌트 사이트에서 그들의 저작물이 포함된 불법 복제 파일을 “시딩”했다는 증언이 포함되어 있습니다.새로운 주장은 Vince Chhabria 판사가 6월에 AI 모델을 훈련시키기 위해 저작권이 있는 책을 사용하는 것은 공정 이용에 해당한다고 판결했지만 배포에 대한 문제는 여지를 남긴 이후, BitTorrent 시딩을 통한 Meta의 불법 복제 자료 재배포가 훈련을 넘어선 저작권 침해에 해당하는지 여부를 중심으로 합니다.
913 조회
0 추천
2025.12.14 등록
전 OpenAI CTO Mira Murati가 설립한 Thinking Machines Lab은 12월 12일 Tinker AI 파인튜닝 서비스를 정식 출시하여 대기자 명단을 제거하고, 1조 파라미터 규모의 Kimi K2 Thinking 추론 모델과 Qwen3-VL 모델을 통한 비전 기능 지원을 추가했습니다.샌프란시스코 기반 스타트업은 6월에 Nvidia, AMD, ServiceNow를 포함한 투자자들로부터 100억 달러 기업가치로 20억 달러를 유치했으며, 11월에는 Meta에서 PyTorch 공동 창시자 Soumith Chintala를 영입했습니다.Tinker는 Low-Rank Adaptation을 사용하여 기존 컴퓨팅 리소스의 일부만으로 대규모 언어 모델을 파인튜닝하며, 현재 개발자 통합을 용이하게 하기 위해 OpenAI API 호환성을 제공하고 있습니다. 회사는 500억 달러 기업가치로 50억 달러의 신규 자금 조달을 모색하고 있는 것으로 알려졌습니다.
927 조회
0 추천
2025.12.14 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입