Loading...

AI 뉴스

메타 AI 팀들이 내부 도구를 버리고 Vercel과 GitHub 사용

페이지 정보

작성자 xtalfi
작성일 10.04 05:49
522 조회
0 추천
0 비추천

본문

b80d21384bb3d0d09b9f5ff9b3b577ecd1g0.png

(퍼플렉시티가 정리한 기사)

Meta  슈퍼인텔리전스 랩은 회사의 느린 내부 시스템을 포기하고, 인공지능 팀이 Vercel과 GitHub  같은 외부 플랫폼을 사용하도록 지시하고 있다고 이번 주에 입수된 내부 메모를 통해 CEO 마크 저커버그의 AI에 대한 야망의 긴박함이 드러났습니다.


이 변화는 이미 외부 플랫폼으로 이전된 최소 10개의 활동 중인 AI 프로젝트에 영향을 주었으며, 배포 시간이 기존의 99분에서 2분 이하로 대폭 단축되었습니다. 이러한 극적인 변화는 OpenAI와 Google  등 경쟁사와의 경쟁에서 기술 대기업조차도 레거시 인프라로 인해 어려움을 겪을 수 있음을 보여줍니다.

 

내부 시스템이 AI 팀을 실패하게 한다


Meta Superintelligence Labs의 인프라 책임자인 아파르나 라마니(Aparna Ramani)는 9월 말 솔직한 메모에서 회사의 내부 시스템이 변경 사항을 배포하는 데 “너무 오래” 걸리며 엔지니어들이 AI를 실시간으로 활용해 코드를 생성하고 개선하는 “바이브 코딩(vibe coding)“에 “적합하지 않다”고 인정했다.


라마니는 비즈니스 인사이더의 보도에 따르면 “변경 사항을 배포하는 데 너무 오래 걸린다(분 단위가 아니라 시간 단위)며, 전체 기술 스택이 바이브 코딩에 적합하지 않다”고 썼다. 해당 메모는 배포 시간을 99분에서 2분 이내로 단축하는 계획을 제시했다.


전 GitHub CEO인 냇 프리드먼(Nat Friedman)이 이끄는 Meta의 제품·응용 연구(Product and Applied Research) 부서는 엔지니어들이 Vercel 및 마이크로소프트의 코드 호스팅 플랫폼인 GitHub 등 널리 사용되는 개발자 플랫폼을 활용하도록 유도해왔다. 9월 중순까지 팀들은 외부 도구를 사용해 배포가 시간 단위가 아니라 몇 분 만에 이루어질 수 있었다.

 

AI 경쟁을 위한 외부 생명선


이번 조치는 메타가 새롭게 설립한 메타 슈퍼인텔리전스 랩스(Meta Superintelligence Labs)에 수억 달러를 투자하며 최고 수준의 AI 연구원들을 보상 패키지로, 이전 보도에 따르면 최대 1억 달러에 달하는 조건으로 영입하고 있는 가운데 이뤄진 것이다. 저커버그는 2025년 6월, 회사의 최고 AI 책임자이자 스케일 AI의 전 CEO인 프리드먼과 알렉산드르 왕의 공동 리더십 아래 MSL을 설립했다.


메타는 베르셀(Vercel)과 깃허브(GitHub)를 연계해 AI 팀들이 애플리케이션을 더 빠르게 구축하고 테스트할 수 있도록 워크플로우를 개선했다. 클라우드 기반 웹 및 AI 앱 개발 전문기업인 베르셀은 2025년 9월, 93억 달러의 평가로 3억 달러를 신규 투자받았다. 베르셀의 주요 고객에는 넷플릭스 , 어도비 , 스트라이프(Stripe) 등이 있다.


특이한 점은 프리드먼과 왕 모두 베르셀의 투자자라는 사실이다. 그러나 문서에 따르면 기술적 장점이 도입 결정을 이끌었다고 명시되어 있다. “베르셀은 널리 사용되고 MSL의 즉각적인 업무 진행을 지원할 수 있다”고 라마니는 자신의 메모에 적었다.

 

내부 대안 구축


즉각적인 필요를 위해 외부 도구에 의존하는 동시에, Meta는 TypeScript로 구축된 애플리케이션을 위해 특별히 설계된 내부 플랫폼 “Nest”를 개발하고 있습니다. 메모에 따르면, 작동하는 프로토타입이 수주 내로 기대되었으며, Nest는 결국 기본 시스템이 되고 Vercel은 “능력 격차가 있을 때 탈출구” 역할을 하게 됩니다.


이러한 인프라 문제는 수십억 명의 사용자와 대규모 엔지니어링 팀을 위해 구축된 Meta의 시스템이 현대적인 AI 개발을 정의하는 더 작고 빠르게 움직이는 AI 팀에는 잘 작동하지 않는다는 점을 보여줍니다. 회사는 자체 도구가 부족할 때 점점 더 외부 기술을 활용하고 있으며, 올해 초에는 내부 코딩 지원을 위해 Anthropic의 Claude를, “Vibes” 기능의 이미지 생성에는 Midjourney를 사용했습니다.

댓글 0
전체 565 / 10 페이지
(퍼플렉시티가 정리한 기사)과학기술정보통신부와 오픈AI가 23일 서울에서 만나 한국의 AI 산업 경쟁력 강화를 위한 데이터센터 구축과 글로벌 협력 방안을 구체화했다. 이번 논의는 지난 1일 양측이 체결한 양해각서 후속 조치의 일환으로, 한국이 아시아태평양 지역 AI 허브로 도약하기 위한 실질적 협력 방향을 모색했다.“한국 데이터센터 프로젝트 최우선 반영 요청”류제명 과기정통부 제2차관은 23일 서울 웨스틴조선호텔에서 크리스 리헤인 오픈AI 글로벌 대외협력 최고책임자와 회동하고 AI 데이터센터 구축 추진 현황을 점검했다. 류 차관은 “한국 데이터센터 프로젝트를 오픈AI의 글로벌 인프라 전략에서 최우선순위로 반영해달라”며 “SK, 삼성 등 국내 주요 기업과의 협의를 조속히 진전시켜달라”고 요청했다.리헤인 최고책임자는 “한국은 인재·기술 수준, 전력 수급, 정책 의지, 산업 수요 등 여러 측면에서 아시아태평양 지역의 핵심 AI 허브가 될 충분한 조건을 갖췄다”고 평가했다. 이번 방한은 오픈AI가 발표한 ‘AI in South Korea: OpenAI’s Economic Blueprint’ 보고서 공개와 연계해 이뤄졌다.스타게이트 프로젝트로 전남·포항에 데이터센터 구축양측 협력의 핵심은 오픈AI의 초거대 AI 인프라 프로젝트인 ‘스타게이트’에 한국이 아시아태평양 지역 최초로 참여하게 된 것이다. 삼성전자와 SK는 지난 1일 샘 올트먼 오픈AI CEO와 투자의향서를 체결하고 각각 전남과 포항에 AI 전용 데이터센터를 구축하기로 합의했다.오픈AI는 보고서를 통해 “한국이 글로벌 협력을 통해 오픈AI가 이끄는 대규모 AI 생태계의 핵심 참여국으로 자리매김할 수 있다”며 “소버린 AI 생태계 발전과 글로벌 경쟁력 강화를 동시에 견인할 것”이라고 전망했다. 특히 포항 AI 데이터센터는 올해 말 착공해 내년까지 구축을 완료할 예정으로 초고속 추진된다.오픈AI는 이번 협력이 산업, 중소기업, 의료, 교육 등 단기 파급효과가 큰 분야부터 단계적으로 확산되어 궁극적으로 ‘K-AI 생태계’로 발전할 것이라고 제시했다. 류 차관은 “기술이 곧 경제이자 안보가 되는 시대에 우방국 및 핵심 기업과의 전략적 협력이 국가 경쟁력을 좌우한다”며 “한국이 동북아 AI 중심국으로 도약할 수 있도록 노력하겠다”고 밝혔다.
75 조회
0 추천
10.23 등록
(퍼플렉시티가 정리한 기사)국내 게임업계 매출 2위 크래프톤이 23일 'AI 퍼스트' 기업으로의 전환을 공식 선언하고 1000억원 이상의 대규모 투자를 단행한다고 발표했다. 김창한 크래프톤 대표는 사내 소통 프로그램인 '크래프톤 라이브 토크'에서 "오늘을 기점으로 크래프톤은 에이전틱 AI를 중심으로 업무를 자동화하고, 구성원은 창의적 활동과 복잡한 문제 해결에 집중하는 AI 중심 경영 체계를 본격화할 것"이라고 밝혔다.GPU 클러스터 구축과 대규모 투자 계획크래프톤은 약 1000억원을 투자해 GPU 클러스터를 구축할 방침이다. 이 인프라는 정교한 추론과 반복 계획이 필요한 다단계 과제를 지원하며, 에이전틱 AI 구현을 가속하는 기반이 될 예정이다. 회사는 해당 인프라를 통해 AI 워크플로우 자동화뿐 아니라 AI 연구개발, 인게임 AI 서비스 강화를 추진한다.​특히 엔비디아 B300 기반 GPU 클러스터 구축에 투자하며, 2026년 하반기까지 AI 플랫폼과 데이터 통합·자동화 기반을 완성해 전사 AI 운영 인프라를 확립할 계획이다. 또한 2026년부터 매년 약 300억원의 예산을 편성해 구성원들이 다양한 AI 툴을 직접 활용하고 업무에 적용할 수 있도록 지원한다. 이는 기존 AI 서비스 지원 규모의 10배 이상 증가한 수준이다.전사적 조직 혁신과 문화 변화크래프톤은 'AI 퍼스트'의 전사 내재화를 위해 인사 제도와 조직 운영 체계를 전면 개편한다. 실행 전략은 ▲AI 퍼스트 문화 정착 ▲업무 방식·조직 혁신 ▲새로운 도전·성장 기회 제공의 세 가지 축으로 구성된다.​회사는 사내 플랫폼 'AI 러닝 허브'를 중심으로 AI 학습과 업무 도구 활용을 지원하고, 'AI 라운드테이블'과 'AI 해커톤'을 운영해 직군과 조직을 넘나드는 AI 활용 문화를 확산시킬 예정이다. 조직 관리 범위를 확장해 구성원이 더 큰 단위의 목표와 성과를 주도적으로 이끌 수 있도록 지원하며, AI 전문 인력으로 구성된 연구개발 조직에는 별도의 인력 운영 체계를 도입한다.​김창한 대표는 "AI 퍼스트 전략을 통해 구성원 개개인의 성장 기회를 넓혀 플레이어 경험 중심의 창의적 시도를 확대하고, 게임 산업 전반의 AI 혁신을 선도하겠다"며 "AI 중심으로 일하는 운영 기준을 정립해 글로벌 게임 산업에서 참고할 수 있는 모범사례를 제시하겠다"고 강조했다.
78 조회
0 추천
10.23 등록
(퍼플렉시티가 정리한 기사)지멘스 디지털 인더스트리 소프트웨어는 오늘 인공지능 기능을 도입한 Designcenter Solid Edge 2026을 출시했다고 발표했습니다. 이번 소프트웨어 신제품에는 2D 도면 뷰의 최대 80%를 자동으로 생성하고, 지능형 제약 조건 적용을 통해 조립 프로세스를 간소화하는 AI 기반 도구들이 포함되어 있습니다.​AI 통합이 생산성 향상을 이끕니다2026년 업데이트의 핵심은 세 가지 주요 AI 기반 기능의 통합입니다. Magnetic Snap Assembly는 머신러닝을 활용하여 조립 설계 중에 부품을 배치할 때 여러 제약 조건을 자동으로 감지하고 적용함으로써, 이 과정을 몇 배나 빠르게 진행할 수 있도록 합니다. 자동 도면 작성 기능은 AI를 이용해 직교, 파손, 등각 투시도를 치수와 함께 자동 생성하며, 사용자 입력을 최소화합니다.​또한 이 소프트웨어는 설계 환경 내에 직접 내장된 대화형 AI 챗봇인 Design Copilot을 도입하여 자연어 입력을 활용한 실시간, 상황 인식 지원을 제공합니다. Siemens Digital Industries Software의 Mainstream Engineering 수석 부사장 John Miller는 “Designcenter Solid Edge 2026과 Designcenter X Solid Edge를 통해 진화하는 현대 엔지니어링 팀의 요구에 부응하는 더욱 스마트하고 연결된 설계 경험을 제공하고 있다”고 밝혔습니다.클라우드 우선 접근 방식이 협업을 강화합니다이번 출시에는 데스크톱과 클라우드 환경 전반에서 하이브리드 워크플로우를 가능하게 하는 클라우드 기반 동반자, Designcenter X Solid Edge가 포함되어 있습니다. 이 플랫폼은 실시간 협업, 디바이스 동기화, 그리고 분산 엔지니어링 팀을 위해 설계된 유연한 라이선스 모델을 지원합니다. 브라질의 장비 제조업체 Siltomac Group은 초기 도입 기업으로서 상당한 생산성 향상을 보고했습니다. Siltomac의 COO인 Mariana Rodrigues는 “새로운 AI 기반 Magnetic Snap 기능 덕분에 조립 설계 속도가 몇 배나 빨라질 수 있습니다”라고 말했습니다.​이 소프트웨어는 사용자 경험을 향상시키는 다양한 요소들도 갖추고 있으며, 눈의 피로를 줄이는 다크 테마, 확장 가능한 SVG 아이콘, 새롭게 디자인한 명령 바 등이 포함되어 있습니다. 클라우드 기반 설정 동기화 기능은 모든 디바이스에서 일관된 환경을 제공하며, 가치 기반 라이선스는 실제 사용 패턴에 맞춰 토큰 기반 접근을 지원합니다. 이 업데이트는 Siemens Xcelerator 포트폴리오의 일부로 즉시 제공되며, 회사는 2035년까지 227억 달러에 이를 것으로 예상되는 성장하는 CAD 소프트웨어 시장에서 경쟁력을 갖추게 됩니다.
69 조회
0 추천
10.23 등록
(퍼플렉시티가 정리한 기사)Tesla는 수요일 2025년 3분기 실적 발표에서 차세대 AI5 칩이 이전 제품보다 최대 40배 향상된 성능을 제공할 것이라고 발표하며, 반도체 독립성을 향한 회사의 노력에서 중요한 도약을 이뤘습니다. CEO 일론 머스크는 삼성과 TSMC 모두가 미국 내 시설에서 이 칩을 제조할 것이며, Tesla는 차량, 로봇 및 데이터 센터 전반에 배치하기 위해 "초과 공급"을 목표로 하고 있다고 밝혔습니다.맞춤형 설계를 통한 혁신적인 성능 향상AI5 칩은 테슬라의 2024년 주주총회에서 처음 공개되었으며, 머스크는 실적 발표에서 이를 "놀라운 설계"라고 부르며, 성능 향상이 하드웨어와 소프트웨어 요구사항 모두에 대한 테슬라의 깊은 이해에서 비롯된 것임을 강조했습니다. "일부 지표에 따르면, AI5 칩은 AI4 칩보다 40배 더 우수할 것입니다"라고 머스크는 투자자들에게 말하며, 이러한 극적인 개선이 테슬라의 특정 사용 사례에 맞춘 칩의 맞춤 최적화 덕분이라고 설명했습니다.​아키텍처 발전 사항으로는 AI4 대비 8배 더 많은 원시 컴퓨팅 성능, 9배 더 많은 메모리, 그리고 5배 향상된 메모리 대역폭이 포함됩니다. 테슬라는 AI4 칩의 병목 현상을 제거하여 40배의 성능 향상을 달성했으며, 특히 현재 40단계의 에뮬레이션이 필요한 SoftMax 연산이 AI5에서는 단 몇 단계로 네이티브로 실행될 수 있게 되었습니다. 이 칩은 또한 실제 AI 워크로드에 최적화된 혼합 정밀도 모델과 희소 텐서 연산에 대한 네이티브 지원을 제공합니다.전략적 제조 파트너십 및 시장 포지셔닝테슬라가 AI5 생산을 삼성과 TSMC로 분산하기로 한 결정은 이전에 AI5 제조를 TSMC에만 맡기고 삼성은 차세대 AI6 칩을 담당하도록 했던 초기 계획에서 전환된 것입니다. 이러한 이중 파운드리 접근 방식은 공급망 회복력을 보장하고 테슬라가 칩 과잉 공급 목표를 달성할 수 있도록 합니다. 머스크는 "우리의 명확한 목표는 AI5 칩의 과잉 공급을 확보하는 것입니다"라고 말하며, 차량이나 테슬라의 옵티머스 로봇에 사용되지 않는 여분의 칩은 회사의 확장되는 데이터 센터 운영에 활용될 것이라고 설명했습니다.​이 전략은 엔비디아와의 파트너십을 유지하면서 테슬라의 광범위한 반도체 독립 노력을 반영합니다. 머스크는 테슬라가 엔비디아를 데이터 센터 하드웨어 공급업체로 대체할 계획이 없으며, 대신 AI5 칩을 엔비디아 시스템과 "함께" 사용할 것이라고 명확히 했습니다. 테슬라는 현재 엔비디아 H100 칩 81,000개에 해당하는 컴퓨팅 성능을 갖춘 데이터 센터를 운영하고 있습니다.​​AI5 칩은 전통적인 GPU와 이미지 신호 프로세서를 포함한 레거시 구성 요소를 제거하여, 머스크의 말에 따르면 본질적으로 "GPU 자체"가 됩니다. 이 간소화된 아키텍처는 머스크가 예측하는 "와트당 최고의 성능, 아마도 2배 또는 3배 그리고 AI에 대한 달러당 최고의 성능, 아마도 10배"를 가능하게 합니다.
74 조회
0 추천
10.23 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입