SK하이닉스가 엔비디아 차세대 인공지능(AI) 플랫폼에 최적화된 고성능 메모리 양산에 돌입하며 AI 인프라 경쟁에서 주도권 강화에 나섰다.
SK하이닉스는 20일 엔비디아 '베라 루빈(Vera Rubin)' 플랫폼에 맞춰 설계된 소캠(SOCAMM)2 192GB 제품을 본격 양산한다고 밝혔다. 초거대 AI 모델에서 발생하는 메모리 병목을 해소하고 시스템 처리 속도를 끌어올리는 데 초점을 맞춘 제품이다.
이번에 양산되는 SOCAMM2는 10나노급 6세대(1c) LPDDR5X 기반 저전력 D램을 적용한 차세대 AI 서버용 메모리 모듈이다. 기존 모바일용 저전력 메모리를 서버 환경에 맞게 재구성한 형태로, 고대역폭·저전력·모듈 교체 가능성을 동시에 확보한 것이 특징이다.
특히 해당 제품은 엔비디아 베라 루빈 플랫폼에 최적화돼 설계됐다. SK하이닉스는 이를 통해 수천억 개 파라미터를 처리하는 초거대 AI 모델의 학습과 추론 과정에서 발생하는 메모리 병목 현상을 근본적으로 완화하고, GPU 연산 성능을 극대화할 수 있을 것으로 기대하고 있다.
성능 측면에서도 기존 서버용 RDIMM 대비 2배 이상의 대역폭과 75% 이상 개선된 에너지 효율을 구현했다. 이는 GPU 패키지에 탑재되는 HBM과 시스템 메모리인 DDR5 RDIMM 사이의 '중간 계층' 역할을 수행하며, AI 데이터 처리 효율을 높이는 핵심 요소로 작용한다.
SOCAMM2는 LPDDR 기반 구조를 채택해 전력 소모를 크게 낮추는 동시에 데이터센터 운영에서 중요한 전력·냉각 비용 부담을 줄일 수 있는 점도 강점이다. 특히 AI 인프라 확산으로 데이터센터 전력 수요가 급증하는 상황에서, 와트당 성능과 총소유비용(TCO) 개선 측면에서 의미 있는 대안으로 평가된다.
이와 함께 압착식 커넥터 기반 모듈 구조를 적용해 신호 무결성을 높이고, 기존 온보드 방식 LPDDR 대비 교체와 확장이 용이하도록 설계됐다. 이를 통해 서버 운영 효율성과 유지보수 편의성도 강화했다.
업계에서는 SOCAMM2를 HBM과 DDR5 사이의 공백을 메우는 차세대 메모리로 보고 있다. HBM이 초고대역폭을 담당하고 DDR5가 대용량을 책임지는 구조에서, SOCAMM2는 고대역폭·저전력 특성을 바탕으로 '핫 데이터' 처리와 중간 데이터 버퍼 역할을 수행하며 AI 메모리 계층 구조를 완성하는 핵심 축으로 자리잡고 있다.
SK하이닉스는 AI 시장이 학습 중심에서 추론 중심으로 전환되면서 저전력 기반 메모리 수요가 빠르게 확대되고 있다고 설명했다. 이에 글로벌 CSP 고객 수요에 대응해 SOCAMM2 양산 체제를 조기에 안정화했다는 것이다.
김주선 SK하이닉스 AI 인프라 사장은 "엔비디아와의 긴밀한 협력을 통해 AI 인프라의 병목 현상을 해결하고 최적의 성능을 제공할 것"이라며 "SOCAMM2 192GB 공급으로 AI 메모리 성능의 새로운 기준을 세웠다"고 말했다.
한편 SK하이닉스는 HBM, DDR5, LPDDR, CXL 메모리, SOCAMM 등으로 이어지는 '풀 스택 AI 메모리' 포트폴리오를 기반으로 글로벌 AI 시장 공략을 강화하고 있다. SOCAMM2는 이 가운데 HBM을 보완하는 저전력·고대역폭 솔루션으로, 향후 AI 메모리 슈퍼사이클에서 핵심 역할을 맡을 것으로 전망된다.
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지



![[르포] 중력 6배에 짓눌려 기절 직전…전투기 조종사 비행환경 적응훈련(영상)](https://image.ajunews.com/content/image/2024/02/29/20240229181518601151_258_161.jpg)



