AI 뉴스

스위스, 오픈소스 AI 모델 아페르투스 출시

페이지 정보

작성자 xtalfi
작성일 2025.09.05 13:27
1,613 조회
0 추천
0 비추천

본문

5885ea7d3675c0fdbf8035d29633a2fdFj6I.jpeg

(퍼플렉시티가 정리한 기사)

스위스는 자국 최초의 완전 오픈소스 다국어 대형 언어 모델인 Apertus를 공개하며, 프라이버시를 중시하고 투명성과 규제 준수를 위해 구축된 대안을 통해 알프스 국가가 미국과 중국의 AI 지배에 도전하는 입지를 다졌습니다. 9월 2일 발표는 전 세계 AI 경쟁에서 중요한 이정표로, 스위스가 독립적인 AI 인프라를 추구하는 세계적 움직임에 동참했음을 의미합니다.

Apertus는 스위스 로잔연방공과대학교(EPFL), 취리히연방공과대학교(ETH Zurich), 그리고 스위스국립슈퍼컴퓨팅센터(CSCS) 간의 협력을 통해 개발되었으며, 자체 개발 과정 전체를 대중에게 공개함으로써 ChatGPT나 Claude와 같은 독점 시스템과 차별화됩니다. 모델의 이름은 라틴어 '오픈(open)'에서 유래했으며, 구조, 학습 데이터, 모델 가중치, 그리고 중간 체크포인트까지 투명성을 강조하는 의지를 반영합니다.

 

기술 사양 및 다국어 중심

Apertus는 두 가지 버전—80억 매개변수와 700억 매개변수—로 제공되며, 1,000개 이상의 언어에서 15조 개의 토큰으로 학습되었습니다. 특히, 학습 데이터의 40%는 비영어권 언어로, 소외된 언어인 스위스 독일어와 스위스의 4대 공용어 중 하나인 로만슈어 등이 포함되어 있습니다. 이러한 다국어 접근 방식은 보통 영어 콘텐츠에 우선순위를 두는 주요 상업용 모델과 Apertus를 차별화시키는 요소입니다.

이 모델은 루가노에 위치한 알프스 슈퍼컴퓨터에서 1천만 시간 이상의 GPU를 사용하여, 탄소 중립 전기로 학습되었습니다. 독점 대안들과 달리 Apertus는 연구자와 기관이 자체 서버로 모델을 다운로드하여 데이터에 대한 통제권을 유지할 수 있게 해주며, 이는 개인정보 보호를 중시하는 기관에 중요한 고려 사항입니다.

 

프라이버시 우선 설계 및 규제 준수

스위스 연구진은 Apertus가 스위스 데이터 보호법과 유럽연합 AI 법의 요구사항을 충족하도록 처음부터 설계되었다고 강조했다. 학습 데이터는 공개적으로 이용 가능한 데이터만 사용하며, 웹사이트의 기계 판독 opt-out 요청을 존중하고 개인정보를 제거할 수 있도록 필터링된다. 이러한 접근 방식은 다른 AI 시스템에서 문제가 되었던 저작권 침해와 무단 데이터 스크래핑에 대한 우려를 해소한다.

"신뢰할 수 있고 자주적이며 포용적인 AI 모델이 어떻게 개발될 수 있는지에 대한 청사진을 제공하는 것이 우리의 목표입니다."라고 EPFL의 머신 러닝 교수이자 Swiss AI Initiative의 운영위원회 위원인 Martin Jaggi가 말했다. 투명성에 대한 강조는 대중의 신뢰를 고취하고 AI 기술의 잠재적 위험에 대한 우려를 해소하려는 목적이다.

 

업계 반응 및 경쟁

스위스 은행업계는 아페르투스(Apertus)에 대해 신중한 낙관론을 나타냈으며, 스위스 은행가 협회는 특히 엄격한 데이터 보호 및 은행 비밀 준수 요건을 감안할 때 금융 산업에 "장기적으로 큰 잠재력"이 있다고 평가했습니다. 하지만 UBS와 같은 주요 스위스 금융기관들은 이미 다른 플랫폼을 활용하여 AI 솔루션을 도입하고 있습니다. 예를 들어, UBS는 최근 마이크로소프트와 협력하여 자사 자산관리 업무에 Azure AI 서비스와 OpenAI 기술을 도입했습니다.

AI 플랫폼 허깅페이스(Hugging Face) 연구 책임자인 레안드로 폰 베라(Leandro von Werra)는 아페르투스를 "지금까지 가장 야심찬 오픈소스 모델 중 하나"라고 평했으며, 그 규모와 연산 요구사항으로 볼 때 "오픈 모델에서 확실히 새로운 이정표"라고 평가했습니다. 이 모델은 허깅페이스와 스위스콤(Swisscom)의 독립적인 스위스 AI 플랫폼 등 다양한 채널을 통해 제공됩니다.

기술적 성취에도 불구하고 아페르투스는 상당한 상업적 도전에 직면해 있습니다. 스위스 산업 그룹 스위스멤(Swissmem)은 자국 내 LLM이 유럽 데이터 규제 준수를 통해 현지 기업에 더 적합할 수 있지만, "경험상 모든 요구에 부합하는 단일 솔루션은 없다"고 인정했으며, 일부 기업들은 국제 대안을 계속 사용할 가능성이 높다고 덧붙였습니다.

이 출시는 개발자들이 모델의 기능을 테스트하고 향후 개선을 위한 피드백을 제공하는 스위스 AI 위크 해커톤(Swiss AI Weeks hackathons)과 시기적으로 맞물려 진행되고 있습니다. 연구진은 프로젝트의 핵심 원칙인 투명성과 공공 접근성을 유지하면서, 의료, 법률, 기후 과학, 교육 등 특화 분야별 버전을 개발할 계획입니다.

댓글 0
전체 1,179 / 267 페이지
구글은 기존 스피커 모델을 업그레이드한 Gemini for Home을 10월 중 출시할 예정이다.지난 주 Made in Google 행사를 통해 구글은 차세대 음성 어시스턴트로 'Gemini for Home'을 공개했다. 이 모델은 모든 가족 구성원과 방문객이 여러 기기를 제어하고 복잡한 집안 업무도 음성으로 간편하게 처리할 수 있도록 설계됐다그리고 최근 한 유튜브 미디어가 이 기기로 추정되는 기기의 모습을 유출했다.이 어시스턴트는 음악 검색 및 재생, 조명·온도 제어 등 스마트홈 관리, 가족 일정 조율, 할 일 생성, 맞춤 정보 질의 등 다양한 작업을 한 번에 지원한다. 예를 들어 복수명령이나 긴 문장으로 집안 기기를 동시 제어할 수 있다또한 ‘Gemini Live’를 통해 사용자는 자연스러운 대화 방식으로 요리법, 생활 팁, 일정 상담, 창작 협업 등 맞춤형 조언 및 창의적인 지원을 받을 수 있다. 대화 도중 추가 질문이나 방향 전환도 자유롭게 할 수 있다Gemini for Home은 앞으로 기존의 Google Assistant를 스마트 스피커와 디스플레이 기기에서 대체할 예정이다. 무료와 유료 버전으로 제공되며, 10월부터 초기 액세스가 시행될 예정이다
1671 조회
0 추천
2025.08.25 등록
애플 연구진은 기존보다 더 효율적으로 롱폼 비디오를 분석할 수 있는 대형 언어모델(LLM)인 SlowFast-LLaVA-1.5를 개발했다고 발표했다.애플은 'SlowFast' 구조(고해상도 소수 프레임+저해상도 다수 프레임)를 사용해 이미지와 영상 public 데이터셋을 모두 활용해 학습, 이미지만큼 영상 내 시간적 구조 이해도 가능하도록 했다. SF-LLaVA-1.5는 1B, 3B, 7B 파라미터 규모로 공개됐으며, LongVideoBench와 MLVU 같은 벤치마크에서 기존 더 큰 모델 대비 뛰어난 성능을 보였다. 특히 지식, 수학 추론, OCR 등 이미지 작업에서도 강점을 보였다.하지만 이 모델은 한 번에 최대 128프레임(빠름: 96, 느림: 32)만 입력받는다. 이 방식은 일부 중요한 프레임을 놓칠 수 있다는 한계가 있으며, 전체 매개변수와 비주얼 인코더까지 튜닝하려면 GPU 자원 소모가 크다. 연구진은 향후 메모리 절약, 성능 개선 기술의 적용 가능성을 언급했다.
1628 조회
0 추천
2025.08.25 등록
올해 1월 AI 업계에 충격을 안겨준 중국 AI 스타트업 DeepSeek 는 기존 V3 모델의 업그레이드 버전인 V3.1을 공개했다.V3.1은 OpenAI의 최신 모델 GPT-5와 여러 벤치마크에서 견줄 만한 성능을 보이며, 가격경쟁력까지 갖추었다.DeepSeek V3.1은 중국에서 자체 개발된 AI 칩에 맞춰 최적화된 것이 특징이다. 이는 미국의 Nvidia 등 외국 기술 의존도를 낮추고, 미국의 수출 규제에 대응하려는 전략의 일환이다.DeepSeek는 WeChat과 Hugging Face에 모델을 공개하며, 중국 정부의 AI 자립 정책에 부응하고 있다.V3.1은 6850억 파라미터의 초대형 모델로, '미시처-오브-엑스퍼트(mixture-of-experts)' 구조를 통해 쿼리마다 일부만 활성화되어 연산 효율성과 비용 절감을 동시에 잡았다. 또한, 기존 모델이 '즉답형'과 '추론형'으로 분리됐던 것과 달리, 두 가지를 결합해 신속성과 논리적 추론을 함께 제공한다는 점이 돋보인다.
1820 조회
0 추천
2025.08.22 등록
구글이 사진 앱에 수정사항을 텍스트로 바로 수정요청하는 기능을 적용.이 기능은 곧 런칭할 픽셀10에서부터 적용이 될 예정.또한 사진이 어떻게 편집되었는지 C2PA 인증 기술로 추적이 가능하다고.아래는 구글 블로그의 소개 내용.Google Photos에서는 이제 사진을 편집할 때 원하는 내용을 텍스트나 음성으로 직접 요청할 수 있습니다. 사용자는 어떤 편집 효과를 적용할지 직접 고르지 않아도 되고, 그저 "차를 배경에서 제거해줘"처럼 자연스럽게 말을 하면 AI가 알아서 반영해 줍니다. 이 기능은 미국의 Pixel 10 기기에서 우선 제공됩니다.새롭게 디자인된 사진 편집기는 직관적 UI와 AI 기반 제안으로 일반 사용자도 쉽게 다양한 효과를 활용할 수 있습니다. 이번에 도입된 대화형 편집 기능으로, 구체적인 요청뿐 아니라 "사진 복원해줘", "색감 보정해줘" 등 복합적인 요구도 한 번에 처리할 수 있습니다. 여러 번 연속해서 추가 요청을 하며 세부 조정도 가능합니다.밝기 조절, 배경 제거 같은 기본 편집뿐 아니라 배경 교체, 파티 모자 추가 등 창의적인 효과 요청도 대화로 손쉽게 처리할 수 있습니다. 사용자가 별도의 편집툴을 배우지 않아도 다양한 AI 편집을 자유롭게 즐길 수 있게 되었습니다.Pixel 10 기기에서는 C2PA(디지털 콘텐츠 인증) 기술이 적용되어, AI가 사진 수정에 개입한 흔적·정보를 확인할 수 있습니다. Google Photos에도 점진적으로 이 기능이 적용되며, 사진이 어떻게 만들어지고 어디에 AI 편집이 사용됐는지 투명하게 확인할 수 있습니다.
1706 조회
0 추천
2025.08.22 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입