엔비디아와 AMD가 나란히 차세대 AI 슈퍼컴퓨팅 시스템을 공개하며 AI 데이터센터 시장을 둘러싼 경쟁이 본격됐음을 알렸다. GPU를 중심으로 성장해온 두 회사는 이번 CES 2026을 계기로 단일 칩을 넘어 데이터센터 전체를 아우르는 플랫폼 경쟁에 들어갔다.
젠슨 황 엔비디아 CEO(최고경영자)는 CES 2026를 앞두고 열린 프레스 콘퍼런스에서 차세대 AI 슈퍼컴퓨터 플랫폼 ‘베라 루빈’을 공개하며 “훈련과 추론, 배포까지 하나의 컴퓨팅 스택에서 처리할 수 있어야 한다”고 강조했다.
베라 루빈은 GPU, CPU, 네트워크, 데이터 처리 장치를 하나의 시스템으로 통합한 랙 스케일 AI 슈퍼컴퓨팅 플랫폼이다. 엔비디아는 베라 루빈 NVL72 시스템을 통해 기존 블랙웰 대비 추론 토큰 비용을 최대 10분의 1로 낮추고 대규모 MoE 모델 학습에 필요한 GPU 수를 4분의 1 수준으로 줄일 수 있다고 설명했다.
황 CEO는 “AI 컴퓨팅 수요가 훈련과 추론 모두에서 폭발적으로 증가하는 시점에 루빈이 등장했다”며 “연간 세대 교체와 극단적인 코드사인으로 AI의 다음 단계로 도약할 것”이라고 말했다.
AMD 역시 같은 무대에서 AI 데이터센터를 겨냥한 슈퍼컴퓨팅 플랫폼 ‘헬리오스’를 공개하며 맞불을 놨다. 리사 수 CEO는 베네치안 호텔에서 진행된 콘퍼런스에서 “AI는 이제 디지털 세계를 넘어 공장, 병원, 우주까지 확장되고 있다”며 “물리적 AI를 구현하기 위해서는 고성능 연산과 결정적(deterministic) 컴퓨팅이 필수적”이라고 말했다. AMD는 헬리오스를 통해 대규모 AI 학습과 추론을 동시에 처리할 수 있는 개방형 시스템을 제시했다.
헬리오스는 AMD Instinct MI455X 시리즈 GPU를 기반으로 한 랙 단위 시스템으로, 대용량 HBM 메모리와 개방형 인터커넥트를 강조한다. AMD는 특히 메모리 용량과 개방형 표준을 강점으로 내세우며 초대규모 모델 학습과 데이터 이동 병목을 줄이는 데 초점을 맞췄다. 리사 수 CEO는 “하드웨어와 소프트웨어, 그리고 개방형 생태계가 함께 가야 한다”며 “고객이 특정 벤더에 종속되지 않고 AI 인프라를 확장할 수 있어야 한다”고 말했다.
두 플랫폼 모두 GPU가 대규모 연산을 담당하고 CPU는 제어와 조정을 맡으며 네트워크와 전용 가속기는 데이터 이동과 지연 최소화를 담당하는 구조를 채택했다. 복잡한 AI 연산을 여러 장비에 나눠 처리하는 데이터센터 환경에서 개별 성능뿐 아니라 시스템 전반의 균형과 안정성이 중요해지고 있다는 점을 반영한 설계다.
엔비디아는 베라 루빈 기반 제품을 2026년 하반기부터 파트너를 통해 공급할 예정이며 AMD 역시 헬리오스를 중심으로 데이터센터 고객과 협력을 확대할 계획이다. AI 데이터센터를 둘러싼 경쟁이 칩 성능을 넘어 플랫폼과 시스템 설계로 이동하고 있다는 점이 이번 CES에서 분명해졌다.
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지


![[르포] 중력 6배에 짓눌려 기절 직전…전투기 조종사 비행환경 적응훈련(영상)](https://image.ajunews.com/content/image/2024/02/29/20240229181518601151_258_161.jpg)



