트릴리온랩스, '트리-21B' 개방형 공개…복잡한 문제 동시 해결

사진트릴리온랩스
[사진=트릴리온랩스]
트릴리온랩스는 차세대 대규모 언어모델(LLM) '트리(Tri)-21B'를 개방형으로 공개했다고 23일 밝혔다.
 
트리-21B는 단순 문서 생성 능력을 넘어 고차원적 언어 이해와 복잡한 문제 해결을 동시에 수행할 수 있도록 설계됐다. 파라미터(매개변수)는 약 210억개 규모로 전작보다 3배 이상 늘려 성능을 대폭 끌어올렸다. 1대의 그래픽처리장치(GPU)에서도 원활하게 작동할 수 있는 경량성과 효율성을 동시에 갖췄다.
 
이번 모델은 특히 고정밀 추론이 필요한 작업서 강력한 성능을 발휘하도록 설계됐다. 수학, 코딩 등 단계적 사고가 요구되는 문제에 구조화된 답변을 생성하는 생각사슬(CoT) 구조를 채택했다. 자사 특화 기술력인 언어 간 상호학습 시스템(XLDA)도 적용했다.
 
XLDA는 영어 기반 지식을 한국‧일본어 등 저자원 언어로 효과적으로 전이한다. 회사 측은 “기존 대비 12분의 1 수준까지 학습 비용을 절감하는 혁신을 이뤄냈다”고 설명했다.
 
트리-21B는 종합지식(MMLU), 한국어 언어 이해(KMMLU), 수학(MATH), 코딩(MBPP Plus) 등 고난도 추론 중심 평가서 알리바바 ‘큐원 3’, 메타 ‘라마 3’, 구글 ‘젬마 3’ 등 글로벌 대표 중형 모델과 견줄만한 성능을 보였다.
 
신재민 트릴리온랩스 대표는 “트리-21B는 모델 크기와 비용, 성능 간 균형에서 현존하는 가장 이상적인 구조를 구현했다”고 설명했다.

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

컴패션_PC
댓글0
0 / 300

댓글을 삭제 하시겠습니까?

닫기

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기