SK텔레콤이 자사의 대규모 언어 모델(LLM) A.X(에이닷 엑스)를 기반으로 한 시각-언어모델(VLM)과 LLM 학습을 위한 범용 문서 해석 기술을 공개한다고 29일 밝혔다.
SK텔레콤은 A.X 모델에 필요한 데이터의 전 과정 처리 프로세스에 적용하기 위해 'A.X 인코더'를 개발했다. 'A.X인코더'는 긴 문서도 빠르고 효율적으로 처리 가능해 대규모 LLM 학습에 적합하다.
A.X 인코더는 1억 4900만개(149M)의 매개변수를 바탕으로 작동하며, 자연어 이해 성능지표 평균 85.47점을 달성해 글로벌 최고수준(SOTA)급 성능을 확인했다. 기존 글로벌 오픈소스 모델을 기반으로 KLUE3) 팀에서 공개한 'RoBerTa-base'의 성능지표(80.19점)를 상회하는 수준이다.
'A.X 4.0 VL Light'는 대규모 멀티모달 한국어 데이터셋이 학습된 시각-언어모델(VLM)이다. 한국어와 관련된 시각정보 및 언어 이해뿐만 아니라, 표·그래프 이해, 제조 도면 이해와 같은 기업용 애플리케이션에서 탁월한 성능을 제공한다. 70억 개(7B) 매개변수의 A.X 4.0 Light 모델을 기반으로 개발되어 사용자 시스템에 쉽게 적용 가능하면서도 중형 모델 수준의 강력한 성능을 자랑한다.
'A.X 4.0 VL Light'는 한국어 시각 벤치마크에서 평균 79.4점을 기록하며, Qwen2.5-VL32B(73.4점)보다 훨씬 작은 모델 크기에도 불구하고 더 우수한 성능을 보였다. 한국어 문화 및 맥락적 이해를 평가하기 위해 설계된 멀티모달 벤치마크인 K-Viscuit에서 80.2점을 기록했고, 복잡한 문서 구조와 차트·표를 이해하는데 중점을 둔 KoBizDoc 벤치마크에서는 89.8점을 달성했다. 각각 Qwen2.5-VL32B 모델보다 뛰어나거나(72.3점) 비슷한(88.8점) 수준이다.
김태윤 SK텔레콤 파운데이션 모델 담당은 "독자적인 기술력 확보가 소버린 AI의 핵심인 만큼, 자체 역량을 높이고 컨소시엄 기업들과 협업에도 박차를 가해 글로벌 최고 수준의 AI 경쟁력을 확보할 것"이라고 말했다.
김세형 기자 fax123@sportschosun.com