CES | 베라(Vera) CPU와 루빈(Rubin) GPU 등 신규 칩 6종으로 AI 슈퍼컴퓨터 구현, 엔비디아 차세대 AI 루빈 플랫폼 공개
엔비디아(www.nvidia.co.kr, CEO 젠슨 황) CEO 젠슨 황(Jensen Huang)은 미국 라스베이거스에서 열린 세계 최대 IT·가전 전시회 CES 2026 기조 연설에서 차세대 AI를 위한 엔비디아 루빈(NVIDIA Rubin) 플랫폼을 공개했다.
루빈 플랫폼은 첨단 AI 슈퍼컴퓨터를 구현하도록 설계된 신규 칩 6종으로 구성된다. 엔비디아 루빈은 세계 최대 규모의 최첨단 AI 시스템을 구축, 배포하고 보안을 강화하는 새로운 기준을 제시하며, 이를 최저 비용으로 구현해 AI의 대중화를 가속한다.
![]()
![]()
루빈 플랫폼은 6개 칩 전반에 걸쳐 고도의 공동 설계를 적용해 훈련 시간과 추론 토큰 비용을 절감한다. 6개 칩에는 엔비디아 베라(Vera) CPU, 엔비디아 루빈 GPU, 엔비디아 NV링크 6 스위치(NVLink™ 6 Switch), 엔비디아 커넥트X-9 슈퍼NIC(ConnectX®-9 SuperNIC), 엔비디아 블루필드-4(BlueField®-4) DPU, 엔비디아 스펙트럼-6 이더넷 스위치(Spectrum™-6 Ethernet Switch)가 포함된다.
엔비디아 창립자 겸 CEO 젠슨 황(Jensen Huang)은 "AI 훈련과 추론을 위한 컴퓨팅 수요가 어느 때보다도 급증하고 있는 가운데, 루빈의 등장은 매우 시의적절하다. 엔비디아는 매년 차세대 AI 슈퍼컴퓨터를 선보이고 있다. 이러한 가운데, 6개 칩에 고도의 공동 설계를 적용한 루빈은 AI의 새로운 지평을 향해 비약적인 발전을 이룰 것”이라고 말했다.
![]()
루빈 플랫폼은 6개 칩 고도의 공동 설계 적용해 훈련 시간과 추론 토큰 비용 절감
루빈 플랫폼은 우주에 대한 인류의 이해를 변화시킨 선구적인 미국 천문학자 베라 플로렌스 쿠퍼 루빈(Vera Florence Cooper Rubin)의 이름을 따서 지었다. 이 플랫폼은 엔비디아 베라 루빈 NVL72 랙 스케일 솔루션과 엔비디아 HGX 루빈 NVL8 시스템으로 구성된다.
루빈 플랫폼은 최신 엔비디아 NV링크 인터커넥트 기술, 트랜스포머 엔진(Transformer Engine), 컨피덴셜 컴퓨팅(Confidential Computing), RAS 엔진(RAS Engine), 엔비디아 베라 CPU를 포함한 5개의 혁신 기술을 도입한다. 이는 에이전틱 AI, 고급 추론, 대규모 전문가 혼합 방식(mixture-of-experts, MoE) 모델 추론을 가속화해 토큰당 비용을 엔비디아 블랙웰(Blackwell) 플랫폼 대비 10배 절감시킨다. 또한 엔비디아 루빈 플랫폼은 MoE 모델 훈련에 필요한 GPU 개수를 이전 대비 4배 절감해 AI 도입을 가속할 전망이다.
![]()
AI 연구소와 클라우드 서비스, 컴퓨터 제조업체, 스타트업 등 광범위한 생태계 지원
루빈 플랫폼은 전 세계의 선도적인 AI 연구소, 클라우드 서비스 제공업체, 컴퓨터 제조업체, 스타트업으로부터 광범위하게 채택될 것으로 예상된다.
여기에는 아마존 웹 서비스(Amazon Web Services, AWS), 앤트로픽(Anthropic), 블랙 포레스트 랩스(Black Forest Labs), 시스코(Cisco), 코히어(Cohere), 코어위브(CoreWeave), 커서(Cursor), 델 테크놀로지스(Dell Technologies), 구글(Google), 하비(Harvey), 휴렛팩커드 엔터프라이즈(Hewlett Packard Enterprise, HPE), 람다(Lambda), 레노버(Lenovo), 메타(Meta), 마이크로소프트(Microsoft), 미스트랄 AI(Mistral AI), 네비우스(Nebius), 엔스케일(Nscale), 오픈AI(OpenAI), 오픈에비던스(OpenEvidence), 오라클 클라우드 인프라스트럭처(Oracle Cloud Infrastructure, OCI), 퍼플렉시티(Perplexity), 런웨이(Runway), 슈퍼마이크로(Supermicro), 싱킹 머신즈 랩(Thinking Machines Lab), xAI 등이 있다.
인텔리전스 확장을 위한 설계, 루빈 플랫폼 5가지 혁신 기술 포함
에이전틱 AI, 추론 모델, 최첨단 비디오 생성 워크로드는 컴퓨팅의 한계를 재정의하고 있다. 다단계 문제 해결을 위해서는 모델이 긴 시퀀스의 토큰을 처리하고 추론하며 그에 따라 행동할 수 있어야 한다. 이러한 까다로운 AI 워크로드의 수요를 충족시키도록 설계된 루빈 플랫폼에는 다음과 같은 5가지 혁신 기술이 포함된다.
![]()
l 6세대 엔비디아 NV링크: 오늘날 방대한 MoE 모델에 필수적인 빠르고 원활한 GPU 간 통신을 제공한다. 각 GPU는 3.6 TB/s의 대역폭을 지원하는데, 베라 루빈 NVL72 랙은 전체 인터넷보다 큰 260 TB/s의 대역폭을 제공한다. NV링크 6 스위치는 집합 연산을 위한 내장형 인-네트워크 컴퓨팅(in-network compute) 기능을 탑재했으며, 서비스 용이성과 탄력성을 향상시키는 신규 기능을 갖췄다. 이는 대규모 AI 훈련과 추론 작업을 더 빠르고 효율적으로 실행하도록 지원한다.
![]()
l 엔비디아 베라 CPU: 에이전틱 추론을 위해 설계된 엔비디아 베라는 대규모 AI 팩토리를 위한 가장 전력 효율적인 CPU이다. 엔비디아 베라 CPU는 엔비디아 맞춤형 올림푸스(Olympus) 코어 88개와 완벽한 Armv9.2 호환성, 초고속 NV링크-C2C 연결성을 갖췄다. 베라는 뛰어난 성능, 대역폭, 업계 최고의 효율성을 제공해 다양한 최신 데이터센터 워크로드를 지원한다.
![]()
l 엔비디아 루빈 GPU: 하드웨어 가속 적응형 압축(adaptive compression) 기술을 지원하는 3세대 트랜스포머 엔진을 탑재해 AI 추론을 위한 50 페타플롭의 NVFP4 컴퓨팅을 제공한다.
l 3세대 엔비디아 컨피덴셜 컴퓨팅: 베라 루빈 NVL72는 엔비디아 컨피덴셜 컴퓨팅을 제공하는 최초의 랙 스케일 플랫폼이다. CPU, GPU, NV링크 도메인 전반에 걸쳐 데이터 보안을 유지함과 동시에, 세계 최대 규모의 독점 모델, 훈련, 추론 워크로드를 철저히 보호한다.
l 2세대 RAS 엔진: GPU, CPU, NV링크를 아우르는 루빈 플랫폼은 실시간 상태 점검, 장애 대응, 선제적 유지보수 기능을 통해 시스템 생산성을 극대화한다. 랙의 케이블 없는 모듈식 트레이 설계는 블랙웰 대비 최대 18배 빠른 조립과 서비스 속도를 구현한다.
![]()
AI 네이티브 스토리지와 안전한 소프트웨어 정의 인프라
엔비디아 루빈은 기가스케일 규모의 추론 컨텍스트 확장을 위해 설계된 새로운 종류의 AI 네이티브 스토리지 인프라인 ‘엔비디아 추론 컨텍스트 메모리 스토리지 플랫폼(Inference Context Memory Storage Platform)’을 도입했다.
엔비디아 블루필드-4로 구동되는 이 플랫폼은 AI 인프라 전반에 걸쳐 키-밸류(key-value, KV) 캐시 데이터를 효율적으로 공유하고 재사용하도록 지원함으로써 반응성과 처리량을 크게 향상시킨다. 동시에 에이전틱 AI의 예측 가능하며 전력 효율적인 확장을 가능하게 한다.
점차 많은 AI 팩토리가 베어 메탈(bare-metal), 멀티 테넌트(multi-tenant) 배포 모델을 채택함에 따라 강력한 인프라 제어 유지와 격리가 필수적인 요소로 부각되고 있다.
블루필드-4는 ‘고급 보안 신뢰 자원 아키텍처(Advanced Secure Trusted Resource Architecture, ASTRA)’를 도입했다. 이는 AI 인프라 빌더가 성능 저하 없이 대규모 AI 환경을 안전하게 프로비저닝, 격리, 운영할 수 있도록 신뢰 가능한 단일 제어점(control point)을 제공하는 시스템 수준의 신뢰 아키텍처다.
AI 애플리케이션이 멀티턴(multi-turn) 에이전틱 추론으로 발전함에 따라, AI 네이티브 조직은 훨씬 더 많은 양의 추론 컨텍스트를 다양한 사용자, 세션, 서비스 간에 걸쳐 효율적으로 관리하고 공유해야 한다.
엔비디아 베라 루빈 플랫폼, 다양한 워크로드에 적용 가능한 다양한 구성
엔비디아 베라 루빈 NVL72는 엔비디아 루빈 GPU 72개, 엔비디아 베라 CPU 36개, 엔비디아 NV링크 6, 엔비디아 커넥트X-9 슈퍼NIC, 엔비디아 블루필드-4 DPU를 결합해 안전한 통합 시스템을 제공한다.
또한 엔비디아는 HGX 루빈 NVL8 플랫폼을 제공할 예정이다. 이는 루빈 GPU 8개를 NV링크로 연결해 x86 기반 생성형 AI 플랫폼을 지원하는 서버 보드이다. HGX 루빈 NVL8 플랫폼은 AI와 고성능 컴퓨팅 워크로드를 위한 훈련, 추론, 과학 컴퓨팅 워크로드를 가속화할 것이다.
엔비디아 DGX SuperPOD™는 루빈 기반 시스템을 대규모로 배포하기 위한 레퍼런스 역할을 수행한다. 이는 엔비디아 DGX 베라 루빈 NVL72 또는 DGX 루빈 NVL8 시스템을 엔비디아 블루필드-4 DPU, 엔비디아 커넥트X-9 슈퍼NIC, 엔비디아 인피니밴드 네트워킹, 엔비디아 미션 컨트롤™ 소프트웨어와 통합한다.
![]()
차세대 이더넷 네트워킹, 엔비디아 스펙트럼-6 이더넷
고급 이더넷 네트워킹과 스토리지는 AI 인프라의 구성 요소로, 데이터센터의 속도를 최고로 유지하고 성능과 효율성을 개선하며 비용을 절감하는 데 핵심적이다.
엔비디아 스펙트럼-6 이더넷은 AI 네트워킹을 위한 차세대 이더넷으로, 높은 효율성과 탁월한 복원력을 기반으로 루빈 기반 AI 팩토리의 확장을 위해 설계됐다. 이는 200G 서데스(SerDes) 통신 회로, 공동 패키징 옵틱(co-packaged optics), AI 최적화 패브릭 기술을 통해 구현된다.
스펙트럼-6 아키텍처를 기반으로 구축된 스펙트럼-X 이더넷 포토닉스 공동 패키징 옵티컬 스위치 시스템(Photonics co-packaged optical switch systems)은 AI 애플리케이션에 대해 10배 향상된 신뢰성과 5배 더 긴 가동 시간을 제공한다. 동시에 5배 향상된 전력 효율성을 달성하며 기존 방식 대비 와트당 성능을 극대화한다. 스펙트럼-X 이더넷 플랫폼의 일부인 스펙트럼-XGS(Spectrum-XGS) 이더넷 기술은 수백 킬로미터 이상 떨어져 있는 시설에서도 단일 AI 환경처럼 기능할 수 있도록 지원한다.
이러한 기술은 엔비디아 스펙트럼-X 이더넷 플랫폼의 차세대 혁신을 제시한다. 루빈을 위해 고도로 공동 설계된 이 플랫폼은 대규모 AI 팩토리 구현을 가능하게 하며, 향후 수백만 GPU 규모 환경으로의 확장을 위한 토대를 마련한다.
![]()
엔비디아 루빈 GPU(좌)와 베라 CPU(우)
루빈 기반 제품, 2026년 하반기 파트너사를 통해 출시
엔비디아 루빈은 현재 본격 양산 단계에 있으며, 루빈 기반 제품은 2026년 하반기에 파트너사를 통해 출시될 예정이다.
2026년 베라 루빈 기반 인스턴스를 가장 먼저 배포할 클라우드 제공업체로는 AWS, 구글 클라우드, 마이크로소프트, OCI를 비롯해 엔비디아 클라우드 파트너(Cloud Partner)인 코어위브, 람다, 네비우스, 엔스케일 등이 있다.
마이크로소프트는 향후 페어워터(Fairwater) AI 슈퍼팩토리를 포함한 차세대 AI 데이터센터에 엔비디아 베라 루빈 NVL72 랙 스케일 시스템을 배포할 예정이다.
훈련과 추론 워크로드에 전례 없는 효율성과 성능을 제공하도록 설계된 루빈 플랫폼은 마이크로소프트의 차세대 클라우드 AI 기능의 기반을 제공할 예정이다. 마이크로소프트 애저(Azure)는 고객이 기업, 연구, 소비자 애플리케이션 전반에서 혁신을 가속화할 수 있도록 고도로 최적화된 플랫폼을 제공할 전망이다.
코어위브는 2026년 하반기부터 엔비디아 루빈 기반 시스템을 AI 클라우드 플랫폼에 통합할 예정이다. 코어위브는 여러 아키텍처의 동시 운영이 가능하도록 하며, 이를 통해 고객이 루빈 시스템을 자신의 환경에 도입해 훈련, 추론, 에이전틱 워크로드 전반에 걸쳐 최고의 효과를 얻을 수 있도록 지원한다.
코어위브는 엔비디아와 협력해 AI 혁신가들이 루빈의 첨단 추론, MoE 모델을 활용할 수 있도록 지원할 예정이다. 동시에 코어위브 미션 컨트롤을 통해 프로덕션 AI의 생명 주기에 걸쳐 필요한 성능, 운영 안전성, 확장성을 지속적으로 제공할 방침이다.
아울러 시스코, 델, HPE, 레노버, 슈퍼마이크로는 향후 루빈 제품을 기반으로 다양한 서버를 선보일 계획이다.
AI 연구소들 역시 이전 세대 GPU 대비 더 낮은 레이턴시와 비용으로 더욱 크고 고도화된 모델을 훈련하고, 장문 컨텍스트 기반의 멀티모달 시스템을 제공하기 위해 엔비디아 루빈 플랫폼에 주목하고 있다. 여기에는 앤트로픽, 블랙 포레스트, 코히어, 커서, 하비, 메타, 미스트랄 AI, 오픈AI, 오픈에비던스, 퍼플렉시티, 런웨이, 싱킹 머신즈 랩, xAI 등이 포함된다.
AIC, 캐노니컬(Canonical), 클라우디안(Cloudian), DDN, 델, HPE, 히타치 반타라(Hitachi Vantara), IBM, 넷앱(NetApp), 뉴타닉스(Nutanix), 퓨어스토리지(Pure Storage), 슈퍼마이크로, 수세(SUSE), 바스트 데이터(VAST Data), 웨카(WEKA)를 비롯한 인프라 소프트웨어, 스토리지 파트너사들은 엔비디아와 협력해 루빈 인프라를 위한 차세대 플랫폼을 설계하고 있다.
루빈 플랫폼은 80곳 이상의 엔비디아 MGX™ 생태계 파트너와 함께하는 엔비디아의 3세대 랙 스케일 아키텍처를 선보인다.
이러한 고밀도 컴퓨팅을 실현하기 위해, 레드햇(Red Hat)은 엔비디아와의 협력을 확대해 엔비디아 루빈 플랫폼에 최적화된 레드햇 하이브리드 클라우드 포트폴리오 기반 전체 AI 스택을 제공한다고 발표했다. 여기에는 레드햇 엔터프라이즈 리눅스(Enterprise Linux), 레드햇 오픈시프트(OpenShift), 레드햇 AI가 포함되며, 이러한 솔루션은 포춘 글로벌 500(Fortune Global 500) 기업의 대다수에서 사용되고 있다.
자세한 내용은 CES에서 진행된 엔비디아 라이브(NVIDIA Live at CES) 다시보기와 ‘인사이드 베라 루빈(Inside Vera Rubin)’ 기술 블로그를 통해 확인할 수 있다.
엔비디아, NVIDIA, CES, CES 2026l베라, Vera, CPU, 와, 루빈, Rubin, GPU, 등, 신규 칩, 6종으로, AI 슈퍼컴퓨터, 구현, 차세대, AI 루빈, 플랫폼, 공개








