Loading...

AI 뉴스

SKT 에이닷 엑스 4.0 오픈소스 공개 (보도자료)

페이지 정보

작성자 JeromePark
작성일 2025.07.07 13:16
1,004 조회
0 추천
0 비추천

본문

SK텔레콤, 에이닷 엑스 4.0 지식형 모델 오픈소스로 공개

SK텔레콤(대표이사 CEO 유영상, www.sktelecom.com)은 세계 최고 수준의 한국어 처리 능력을 가진 한국어 특화 LLM인 A.X(에이닷 엑스) 4.0을 오픈소스로 공개했다고 3일 밝혔다.

SKT는 이날 오전 세계적인 오픈소스 커뮤니티 허깅페이스(Hugging Face)를 통해 A.X 4.0의 표준 모델과 경량 모델 2종을 공개했다.

83ee0fb08007b1aa040baf70c4d47ca1baa7c5c7q4b8.jpg

이번에 공개한 A.X 4.0은 현존 대규모 언어 모델(LLM) 중에서도 최상급의 한국어 처리 효율성은 물론 데이터 보안을 고려한 설계, 그리고 로컬 환경에서의 운영 가능성 등이 강점이다. 오픈소스 모델인 Qwen2.5에 방대한 한국어 데이터를 추가로 학습시켜 국내 비즈니스 환경에 최적화된 성능을 발휘한다.

SKT는 A.X 4.0의 토크나이저1)를 자체 설계, 적용해 높은 수준의 한국어 처리 역량을 구현했다. 자체 테스트 결과 같은 한국어 문장을 입력했을 때 GPT-4o보다 A.X 4.0이 약 33%가량 높은 토큰 효율을 기록하며, 다른 LLM 대비 높은 정보 처리용량에 비용 절감까지 가능한 경제성을 갖췄다.
1) 토크나이저(Tokenizer): 문장의 구조를 분석해 토큰으로 분할하는 작업 도구

또한 A.X 4.0은 대표적인 한국어 능력 평가 벤치마크인 KMMLU2)에서 78.3점을 기록하여, GPT-4o(72.5점)보다 우수한 성능을 보였으며, 한국어 및 한국 문화 벤치마크인 CLIcK3)에서도 83.5점을 획득해, GPT-4o(80.2점)보다 더 높은 한국 문화 이해도를 입증했다.
2) KMMLU(Measuring Massive Multitask Language Understanding in Korean): 한국어 대규모 다중과제 언어 이해 평가
3) CLIcK(Cultural and Linguistic Intelligence in Korea): 한국어 특유의 문화적 맥락과 언어적 요소를 반영하여, 기존 영어 기반 번역 데이터셋으로는 부족했던 한국 문화·언어 이해 능력을 평가

이와 함께 SKT는 A.X 4.0를 기업 내부 서버에 직접 설치해 사용할 수 있는 온프레미스4) 방식으로 제공해 기업들이 데이터 보안에 대한 걱정을 덜 수 있도록 서비스할 계획이다. 특히 A.X 4.0 개발 과정에서도 대규모 학습(CPT, Continual Pre-Training)의 전 과정을 외부와 연동없이 자체 데이터로 학습해 데이터의 주권도 확보한 바 있다.
4) 온프레미스(On-premises): 클라우드가 아닌 자체 전산 서버에 직접 설치하고 운영하는 방식

또한 표준 모델은 720억 개(72B), 경량 모델은 70억 개(7B)의 매개변수를 갖추고 있어, 이용자들이 목적에 맞춰 선택적으로 이용할 수 있도록 했다.

SKT는 이미 A.X4.0을 지난 5월 에이닷 통화 요약에 적용, 성공적으로 활용하고 있으며, 추후 자사는 물론 SK그룹 내 다양한 서비스에 적용할 계획이다.

SKT가 이번에 선보인 모델로 기업들은 파생형 모델을 개발할 수 있고, 연구 분야에서도 활용할 수 있다. 이를 통해 국내 기업들이 자체 환경에서 AI 기술을 보다 쉽게 활용할 수 있는 새로운 선택지를 제공해 나갈 예정이다.

SKT는 이번 A.X 4.0 지식형 모델의 오픈소스 공개와 동시에 추론형 모델의 발표도 앞두고 있다. SKT는 이달 중으로 수학 문제 해결과 코드 개발 능력이 강화된 추론(Reasoning)형 모델을 공개하고, 이미지와 텍스트를 동시에 이해하고 처리할 수 있는 수준까지 모델을 업데이트할 계획이다.

또한 소버린 AI 관점에서 A.X 3.0에 적용한 프롬 스크래치(From Scratch)5) 방식도 병행하여 개발을 진행하고 있으며, 후속 모델도 순차적으로 공개할 예정이다.
5) 프롬 스크래치(From Scratch): 모델의 맨 처음 단계부터 모두 직접 구축

김지원 SK텔레콤 AI Model Lab장은 “SK텔레콤의 다양한 서비스를 고도화하고, 기업 시장에서 한국어 특화 LLM으로 국내 비즈니스 환경에 최적화된 모델이 될 수 있도록 지속적인 기술 개발을 추진할 계획”이라고 밝혔다.

댓글 0
전체 351 / 60 페이지
구글은 기존 스피커 모델을 업그레이드한 Gemini for Home을 10월 중 출시할 예정이다.지난 주 Made in Google 행사를 통해 구글은 차세대 음성 어시스턴트로 'Gemini for Home'을 공개했다. 이 모델은 모든 가족 구성원과 방문객이 여러 기기를 제어하고 복잡한 집안 업무도 음성으로 간편하게 처리할 수 있도록 설계됐다그리고 최근 한 유튜브 미디어가 이 기기로 추정되는 기기의 모습을 유출했다.이 어시스턴트는 음악 검색 및 재생, 조명·온도 제어 등 스마트홈 관리, 가족 일정 조율, 할 일 생성, 맞춤 정보 질의 등 다양한 작업을 한 번에 지원한다. 예를 들어 복수명령이나 긴 문장으로 집안 기기를 동시 제어할 수 있다또한 ‘Gemini Live’를 통해 사용자는 자연스러운 대화 방식으로 요리법, 생활 팁, 일정 상담, 창작 협업 등 맞춤형 조언 및 창의적인 지원을 받을 수 있다. 대화 도중 추가 질문이나 방향 전환도 자유롭게 할 수 있다Gemini for Home은 앞으로 기존의 Google Assistant를 스마트 스피커와 디스플레이 기기에서 대체할 예정이다. 무료와 유료 버전으로 제공되며, 10월부터 초기 액세스가 시행될 예정이다
529 조회
0 추천
2025.08.25 등록
애플 연구진은 기존보다 더 효율적으로 롱폼 비디오를 분석할 수 있는 대형 언어모델(LLM)인 SlowFast-LLaVA-1.5를 개발했다고 발표했다.애플은 'SlowFast' 구조(고해상도 소수 프레임+저해상도 다수 프레임)를 사용해 이미지와 영상 public 데이터셋을 모두 활용해 학습, 이미지만큼 영상 내 시간적 구조 이해도 가능하도록 했다. SF-LLaVA-1.5는 1B, 3B, 7B 파라미터 규모로 공개됐으며, LongVideoBench와 MLVU 같은 벤치마크에서 기존 더 큰 모델 대비 뛰어난 성능을 보였다. 특히 지식, 수학 추론, OCR 등 이미지 작업에서도 강점을 보였다.하지만 이 모델은 한 번에 최대 128프레임(빠름: 96, 느림: 32)만 입력받는다. 이 방식은 일부 중요한 프레임을 놓칠 수 있다는 한계가 있으며, 전체 매개변수와 비주얼 인코더까지 튜닝하려면 GPU 자원 소모가 크다. 연구진은 향후 메모리 절약, 성능 개선 기술의 적용 가능성을 언급했다.
493 조회
0 추천
2025.08.25 등록
올해 1월 AI 업계에 충격을 안겨준 중국 AI 스타트업 DeepSeek 는 기존 V3 모델의 업그레이드 버전인 V3.1을 공개했다.V3.1은 OpenAI의 최신 모델 GPT-5와 여러 벤치마크에서 견줄 만한 성능을 보이며, 가격경쟁력까지 갖추었다.DeepSeek V3.1은 중국에서 자체 개발된 AI 칩에 맞춰 최적화된 것이 특징이다. 이는 미국의 Nvidia 등 외국 기술 의존도를 낮추고, 미국의 수출 규제에 대응하려는 전략의 일환이다.DeepSeek는 WeChat과 Hugging Face에 모델을 공개하며, 중국 정부의 AI 자립 정책에 부응하고 있다.V3.1은 6850억 파라미터의 초대형 모델로, '미시처-오브-엑스퍼트(mixture-of-experts)' 구조를 통해 쿼리마다 일부만 활성화되어 연산 효율성과 비용 절감을 동시에 잡았다. 또한, 기존 모델이 '즉답형'과 '추론형'으로 분리됐던 것과 달리, 두 가지를 결합해 신속성과 논리적 추론을 함께 제공한다는 점이 돋보인다.
641 조회
0 추천
2025.08.22 등록
구글이 사진 앱에 수정사항을 텍스트로 바로 수정요청하는 기능을 적용.이 기능은 곧 런칭할 픽셀10에서부터 적용이 될 예정.또한 사진이 어떻게 편집되었는지 C2PA 인증 기술로 추적이 가능하다고.아래는 구글 블로그의 소개 내용.Google Photos에서는 이제 사진을 편집할 때 원하는 내용을 텍스트나 음성으로 직접 요청할 수 있습니다. 사용자는 어떤 편집 효과를 적용할지 직접 고르지 않아도 되고, 그저 "차를 배경에서 제거해줘"처럼 자연스럽게 말을 하면 AI가 알아서 반영해 줍니다. 이 기능은 미국의 Pixel 10 기기에서 우선 제공됩니다.새롭게 디자인된 사진 편집기는 직관적 UI와 AI 기반 제안으로 일반 사용자도 쉽게 다양한 효과를 활용할 수 있습니다. 이번에 도입된 대화형 편집 기능으로, 구체적인 요청뿐 아니라 "사진 복원해줘", "색감 보정해줘" 등 복합적인 요구도 한 번에 처리할 수 있습니다. 여러 번 연속해서 추가 요청을 하며 세부 조정도 가능합니다.밝기 조절, 배경 제거 같은 기본 편집뿐 아니라 배경 교체, 파티 모자 추가 등 창의적인 효과 요청도 대화로 손쉽게 처리할 수 있습니다. 사용자가 별도의 편집툴을 배우지 않아도 다양한 AI 편집을 자유롭게 즐길 수 있게 되었습니다.Pixel 10 기기에서는 C2PA(디지털 콘텐츠 인증) 기술이 적용되어, AI가 사진 수정에 개입한 흔적·정보를 확인할 수 있습니다. Google Photos에도 점진적으로 이 기능이 적용되며, 사진이 어떻게 만들어지고 어디에 AI 편집이 사용됐는지 투명하게 확인할 수 있습니다.
569 조회
0 추천
2025.08.22 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입