인공지능(AI) 기술 기업 업스테이지가 자체 개발한 거대언어모델(LLM) '솔라 오픈 100B(이하 솔라 오픈)'를 오픈소스로 공개했다고 6일 밝혔다.
솔라 오픈은 업스테이지가 주관사로 참여 중인 과학기술정보통신부(과기정통부)의 '독자 AI 파운데이션 모델(독파모) 프로젝트'의 첫 번째 결과물이다. 데이터 구축부터 학습에 이르는 과정 전반을 독자적으로 수행하는 '프롬 스크래치' 방식으로 개발했다. 업스테이지는 해당 모델을 글로벌 오픈소스 플랫폼 '허깅페이스'에 공개하는 한편, 개발 과정과 기술적 세부 내용을 담은 테크 리포트도 함께 발표했다.
1020억 매개변수 모델인 솔라 오픈은 성능 면에서 글로벌 프런티어급 모델들과 어깨를 나란히 했다. 중국의 대표 AI 모델인 '딥시크 R1(DeepSeek R1-0528-671B)' 대비 사이즈는 15%에 불과하지만, 한국어(110%), 영어(103%), 일본어(106%) 등 3개 국어 주요 벤치마크 평가에서 이를 상회하는 성과를 거뒀다.
특히, 한국어 능력은 단연 압도적이다. 한국 문화 이해도(Hae-Rae v1.1), 한국어 지식(CLIcK) 등 주요 한국어 벤치마크 결과 딥시크 R1 대비 2배 이상의 성능 격차를 보였다. 오픈AI의 유사 규모 모델인 'GPT-OSS-120B-Medium'과 비교해도 100% 앞선 성능을 기록했다.
수학, 복합 지시 수행, 에이전트 등 고차원적 지식 영역에서도 딥시크 R1과 대등한 성능을 확보했다. 오픈AI GPT-OSS-120B-Medium과 비교해서도 종합 지식과 코드 작성 능력 등에서 대등한 경쟁력을 보였다.
업스테이지는 이같은 성능 배경으로 약 20조 토큰 규모 사전학습 데이터셋을 꼽았다. 업스테이지는 한국어 데이터 부족을 극복하고자 다양한 합성 데이터와 금융·법률·의학 등 분야별 특화 데이터 등을 학습에 활용했다. 다양한 데이터 학습 및 필터링 방법론도 고도화했다.
향후 업스테이지는 해당 데이터셋의 일부를 한국지능정보사회진흥원(NIA)의 ‘AI 허브’를 통해 개방해, 국내 AI 연구 생태계 활성화를 위한 공공재로 환원할 계획이다.
김성훈 업스테이지 대표는 "솔라 오픈은 업스테이지가 처음부터 독자적으로 학습해낸 모델로, 한국의 정서와 언어적 맥락을 깊이 이해하는 '가장 한국적이면서도 세계적인 AI'"라며 "이번 솔라 오픈 공개가 한국형 프런티어 AI 시대를 여는 중요한 전환점이 될 것"이라고 말했다.
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지



![[르포] 중력 6배에 짓눌려 기절 직전…전투기 조종사 비행환경 적응훈련(영상)](https://image.ajunews.com/content/image/2024/02/29/20240229181518601151_258_161.jpg)



