김성훈 업스테이지 대표, 프롬 스크래치 논란 정면 반박 "허위 사실엔 강력 조치"

  • 사이오닉AI CEO SNS 문제 제기로 촉발…중국 지푸AI 모델 파생 여부 놓고 공방

  • 김성훈 업스테이지 대표 "하나의 레이어만 비교한 분석으로는 파생 모델 여부를 판단할 수 없어"

김성훈 업스테이지 대표가 2일 강남구 오피스에서 자사 LLM인 솔라와 관련해 검증을 하고 있다 사진업스테이지
김성훈 업스테이지 대표가 2일 강남구 오피스에서 자사 LLM인 솔라와 관련해 검증을 하고 있다. [사진=업스테이지]

김성훈 업스테이지 대표가 최근 AI 커뮤니티 일각에서 제기된 대형언어모델(LLM) ‘솔라(SOLA)’ 파생 모델 의혹과 관련해 “문제 제기가 된 수치 자체에는 핵심적인 오류가 있다”며 “하나의 레이어만 가지고 비교를 했기 때문”이라고 정면 반박했다.

김성훈 업스테이지 대표는 2일 강남 오피스에서 업계 및 정부 관계자 70여명을 대상으로 고석현 사이오닉AI 대표가 제시한 의혹의 근거가 된 데이터 분석 방식에 결정적인 문제가 있다고 정면 반박했다. 김 대표는 솔라는 프롬 스크래치(From Scratch) 단계부터 설계된 독자 모델이라고 강조하며 모델 학습 로그와 체크포인트 등 개발 관련 주요 데이터를 모두 공개했다.

논란의 핵심은 특정 모델과 솔라의 내부 레이어 코사인 유사도를 비교한 그래프다. 의혹 제기 측은 일부 레이어에서 유사도가 지나치게 높게 나타난 점을 근거로 파생 모델 가능성을 주장했지만, 김 대표는 이는 딥러닝 모델 구조에 대한 이해가 부족한 분석이라고 선을 그었다.

김 대표에 따르면 문제의 분석은 모델의 가장 앞단에 위치한 ‘0번 레이어’만을 기준으로 이뤄졌다. 딥러닝 모델에서 0번 레이어는 학습 초기 값이 1.0으로 설정된 상태에서 시작되며, 학습이 진행되는 과정에서 벡터의 방향과 값이 가장 크게 변하는 구간이다. 이 구간만을 비교할 경우 모델 간 유사도가 높게 나타나는 것은 구조적으로 자연스러운 현상이라는 설명이다.

반면 내부 레이어인 10번, 20번, 30번 등 동일한 깊이의 레이어끼리 비교하면 솔라와 의혹이 제기된 모델 간 유사도는 현저히 낮아진다고 김 대표는 밝혔다. 그는 “0번 레이어와 다른 레이어를 비교하면 벡터 방향이 다르게 보일 수밖에 없다”며 “내부 레이어끼리 비교했을 때 솔라는 해당 모델들과 전혀 다른 구조와 특성을 보인다”고 설명했다.

김 대표는 또 커뮤니티 내 다른 연구자들 역시 동일한 실험을 통해 0번 레이어의 변동성이 크다는 점을 확인했다며, 이번 의혹의 분석 근거가 기술적으로 성립하기 어렵다는 점에 힘을 실었다. 그는 “처음 해당 그래프를 보고 눈을 의심할 정도로 놀랐지만, 분석의 허점을 확인하고 오히려 안도했다”고 말했다.

이어 “솔라 오픈비(SOLA Open-B)는 결코 파생 모델이 아니며, 처음부터 새롭게 설계하고 학습한 모델이라는 점을 더욱 확신 있게 말할 수 있다”고 강조했다.

김 대표는 이번 해명을 계기로 솔라 모델의 기술적 정당성을 분명히 하고, 글로벌 시장에서의 경쟁력도 다시 입증하겠다는 입장이다. 그는 “기술적 오해를 바로잡는 것이 사용자와 개발자 모두가 솔라를 신뢰하는 출발점이 될 것”이라고 밝혔다.

해당 논란은 지난 1일 고석현 사이오닉AI 대표가 깃허브(GitHub)를 통해 업스테이지의 ‘솔라 오픈 100B’ 모델에 대한 기술 분석 보고서를 공개하며 시작됐다. 

고석현 사이오닉AI 최고경영자(CEO)는 지난 1일 소셜미디어(SNS)를 통해 업스테이지의 AI 모델 ‘솔라 오픈’이 중국 지푸AI의 ‘GLM-4.5-에어’에서 파생됐다는 취지의 글을 게시했다.

고 대표는 해당 게시글에서 국민 세금이 투입된 프로젝트에 중국 모델을 복사해 미세 조정한 것으로 추정되는 결과물이 제출된 점에 대해 강한 유감을 표명했다. 그는 솔라 오픈과 GLM-4.5-에어의 가중치 구조를 분석한 보고서를 함께 공개하며 문제를 제기했다.

해당 리포트는 두 모델을 구성하는 매개변수, 즉 파라미터 간 유사도를 측정한 결과 일부 레이어에서 유의미한 수준의 유사도가 확인됐다고 짚었다. 이를 근거로 솔라 오픈이 독자 모델이 아닐 가능성을 제기한 것이다. 

고 대표는 이후 추가 게시글을 통해 두 모델의 토큰 임베딩 분포가 사실상 동일하다는 점도 확인됐다고 설명했다. 그는 이러한 결과가 GLM-4.5-에어와 솔라 오픈의 모델 구조와 학습 코드가 거의 동일하기 때문에 나타난 현상이라고 주장했다. 

아울러 솔라 오픈이 GLM-4.5-에어 모델의 학습 코드 상당 부분을 그대로 사용했을 가능성이 높다고 주장하며, AI 연구 과정에서 이러한 접근이 드문 사례는 아니지만 이 경우라면 초기 단계부터 출처를 명확히 공개하는 것이 일반적이라고 지적했다. 
 

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

컴패션_PC
댓글0
0 / 300

댓글을 삭제 하시겠습니까?

닫기

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기