CES | 신규 칩 6종으로 첨단 AI 슈퍼컴퓨터 구현, 엔비디아 차세대 AI 위한 ‘루빈’ 플랫폼 출시
엔비디아(www.nvidia.co.kr, CEO 젠슨 황)가 미국 라스베이거스에서 열린 세계 최대 IT·가전 전시회 CES 2026에서 차세대 AI를 위한 엔비디아 루빈(NVIDIA Rubin) 플랫폼을 출시한다고 밝혔다.
루빈 플랫폼은 첨단 AI 슈퍼컴퓨터를 구현하도록 설계된 신규 칩 6종으로 구성된다. 엔비디아 루빈은 세계 최대 규모의 최첨단 AI 시스템을 구축, 배포하고 보안을 강화하는 새로운 기준을 제시하며, 이를 최저 비용으로 구현해 AI의 대중화를 가속한다.
루빈 플랫폼은 6개 칩 전반에 걸쳐 고도의 공동 설계를 적용해 훈련 시간과 추론 토큰 비용을 절감한다. 6개 칩에는 엔비디아 베라(Vera) CPU, 엔비디아 루빈 GPU, 엔비디아 NV링크 6 스위치(NVLink™ 6 Switch), 엔비디아 커넥트X-9 슈퍼NIC(ConnectX®-9 SuperNIC), 엔비디아 블루필드-4(BlueField®-4) DPU, 엔비디아 스펙트럼-6 이더넷 스위치(Spectrum™-6 Ethernet Switch)가 포함된다.
엔비디아 창립자 겸 CEO 젠슨 황(Jensen Huang)은 "AI 훈련과 추론을 위한 컴퓨팅 수요가 어느 때보다도 급증하고 있는 가운데, 루빈의 등장은 매우 시의적절하다. 엔비디아는 매년 차세대 AI 슈퍼컴퓨터를 선보이고 있다. 이러한 가운데, 6개 칩에 고도의 공동 설계를 적용한 루빈은 AI의 새로운 지평을 향해 비약적인 발전을 이룰 것”이라고 말했다.
루빈 플랫폼은 우주에 대한 인류의 이해를 변화시킨 선구적인 미국 천문학자 베라 플로렌스 쿠퍼 루빈(Vera Florence Cooper Rubin)의 이름을 따서 지었다. 이 플랫폼은 엔비디아 베라 루빈 NVL72 랙 스케일 솔루션과 엔비디아 HGX 루빈 NVL8 시스템으로 구성된다.
루빈 플랫폼은 최신 엔비디아 NV링크 인터커넥트 기술, 트랜스포머 엔진(Transformer Engine), 컨피덴셜 컴퓨팅(Confidential Computing), RAS 엔진(RAS Engine), 엔비디아 베라 CPU를 포함한 5개의 혁신 기술을 도입한다. 이는 에이전틱 AI, 고급 추론, 대규모 전문가 혼합 방식(mixture-of-experts, MoE) 모델 추론을 가속화해 토큰당 비용을 엔비디아 블랙웰(Blackwell) 플랫폼 대비 10배 절감시킨다. 또한 엔비디아 루빈 플랫폼은 MoE 모델 훈련에 필요한 GPU 개수를 이전 대비 4배 절감해 AI 도입을 가속할 전망이다.
광범위한 생태계 지원
루빈 플랫폼은 전 세계의 선도적인 AI 연구소, 클라우드 서비스 제공업체, 컴퓨터 제조업체, 스타트업으로부터 광범위하게 채택될 것으로 예상된다. 여기에는 아마존 웹 서비스(Amazon Web Services, AWS), 앤트로픽(Anthropic), 블랙 포레스트 랩스(Black Forest Labs), 시스코(Cisco), 코히어(Cohere), 코어위브(CoreWeave), 커서(Cursor), 델 테크놀로지스(Dell Technologies), 구글(Google), 하비(Harvey), 휴렛팩커드 엔터프라이즈(Hewlett Packard Enterprise, HPE), 람다(Lambda), 레노버(Lenovo), 메타(Meta), 마이크로소프트(Microsoft), 미스트랄 AI(Mistral AI), 네비우스(Nebius), 엔스케일(Nscale), 오픈AI(OpenAI), 오픈에비던스(OpenEvidence), 오라클 클라우드 인프라스트럭처(Oracle Cloud Infrastructure, OCI), 퍼플렉시티(Perplexity), 런웨이(Runway), 슈퍼마이크로(Supermicro), 싱킹 머신즈 랩(Thinking Machines Lab), xAI 등이 있다.
오픈AI CEO 샘 올트먼(Sam Altman)은 "인텔리전스는 컴퓨팅 능력에 비례해 확장된다. 더 많은 컴퓨팅 능력을 투입할수록 모델은 더욱 강력해지고, 더 어려운 난제를 해결하며, 인류에게 더 큰 영향을 미친다. 엔비디아 루빈 플랫폼은 이러한 발전을 지속적으로 확장해 첨단 인텔리전스의 혜택이 모두에게 돌아갈 수 있도록 돕는다"고 말했다.
앤트로픽 공동 창립자 겸 CEO 다리오 아모데이(Dario Amodei)는 "엔비디아 루빈 플랫폼의 효율성 증대는 메모리 향상과 추론 능력 개선, 보다 신뢰할 수 있는 결과물을 만드는 인프라 발전을 상징한다. 엔비디아와의 협력은 앤트로픽의 안전 연구와 최첨단 모델에 큰 힘이 되고 있다"고 말했다.
메타 창립자 겸 CEO 마크 저커버그(Mark Zuckerberg)는 “엔비디아 루빈 플랫폼은 전 세계 수십억 명에게 최첨단 모델을 배포하는 데 필요한 성능과 효율성의 획기적인 향상을 제공할 것으로 기대된다”고 말했다.
xAI 창립자 겸 CEO 일론 머스크(Elon Musk)는 "엔비디아 루빈은 AI를 위한 로켓 엔진이 될 것이다. 루빈은 최첨단 모델의 대규모 훈련과 배포에 알맞은 인프라다. 이는 엔비디아가 확고한 기준이라는 것을 전 세계에 다시 한번 일깨워줄 것"이라고 말했다.
마이크로소프트 회장 겸 CEO 사티아 나델라(Satya Nadella)는 "마이크로소프트는 세계에서 가장 강력한 AI 슈퍼팩토리를 구축하고 있다. 이 슈퍼팩토리에서는 모든 종류의 워크로드를 어디에서나 최고의 성능과 효율성으로 처리하게 된다. 여기에 엔비디아 베라 루빈 GPU를 더해, 우리는 개발자와 조직이 완전히 새로운 방식으로 창조하고, 추론하며, 확장할 수 있도록 지원할 것"이라고 말했다.
코어위브 공동 창립자 겸 CEO 마이크 인트레이터(Mike Intrator)는 “코어위브는 진화하는 워크로드에 맞춰 최적의 기술을 적용한 목적형 AI 플랫폼의 압도적인 성능을 통해, 선도 기업들의 혁신 가속을 지원하기 위해 설립됐다. 엔비디아 루빈 플랫폼은 추론, 에이전틱, 대규모 추론 워크로드를 위한 중요한 진전을 의미하며, 이를 코어위브의 플랫폼에 추가하게 돼 기쁘다. 코어위브는 엔비디아와의 긴밀한 협력을 통해 미션 컨트롤(Mission Control)을 표준 운영 체제로 삼아 새로운 기능을 신속하게 통합하고, 이를 대규모 프로덕션 환경에서 안정적으로 운용할 수 있다”고 말했다.
AWS CEO 맷 가먼(Matt Garman)은 "AWS와 엔비디아는 15년 이상 클라우드 AI 혁신을 함께 이끌어 왔다. AWS에서 엔비디아 루빈 플랫폼을 지원하는 것은 고객에게 독보적인 선택권과 유연성을 선사하는 최첨단 AI 인프라를 제공하겠다는 우리의 지속적인 약속을 보여준다. 엔비디아의 발전된 AI 기술과 AWS의 검증된 확장성, 보안, 포괄적인 AI 서비스를 결합함으로써, 고객들은 가장 복잡한 AI 애플리케이션을 더 빠르고 비용 효율적으로 구축, 훈련, 배포할 수 있다. 이로써 규모에 관계없이 실험 단계부터 실제 상용화에 이르는 AI 개발 과정이 가속화될 것"이라고 말했다.
구글, 알파벳(Alphabet) CEO 순다르 피차이(Sundar Pichai)는 "우리는 엔비디아와의 깊고 오랜 관계를 자랑스럽게 생각한다. 엔비디아 GPU에 대한 상당한 고객 수요를 충족하기 위해, 우리는 구글 클라우드(Google Cloud)에서 엔비디아 하드웨어에 최적의 환경을 제공하는 데 집중하고 있다. 양사는 앞으로도 루빈 플랫폼의 놀라운 역량을 고객에게 제공하며 협력을 지속해 나갈 것이다. 이를 통해 AI의 한계를 확장하는 데 필요한 규모와 성능을 제공할 것"이라고 말했다.
오라클 CEO 클레이 마고요크(Clay Magouyrk)는 "OCI는 최고 성능을 위해 구축된 하이퍼스케일 클라우드다. 우리는 엔비디아와 함께 고객들이 AI로 구축하고 확장할 수 있는 역량의 한계를 더욱 넓히고 있다. 엔비디아 베라 루빈 아키텍처로 구동되는 기가스케일 AI 팩토리를 통해, OCI는 고객들이 모델 훈련, 추론, 실제 AI 영향력 측면에서 한계를 뛰어넘는 데 필요한 인프라 기반을 제공하고 있다"고 말했다.
델 테크놀로지스 회장 겸 CEO 마이클 델(Michael Dell)은 "엔비디아 루빈 플랫폼은 AI 인프라 분야에서 중대한 도약을 상징한다. 엔비디아와 함께 루빈을 델 AI 팩토리(Dell AI Factory)에 통합함으로써, 우리는 방대한 양의 토큰과 다단계 추론을 처리할 수 있는 인프라를 구축하고 있다. 동시에 기업과 네오클라우드(neocloud)가 대규모 AI를 배포하는 데 필요한 성능과 복원력을 제공하고 있다"고 말했다.
HPE 사장 겸 CEO 안토니오 네리(Antonio Neri)는 "AI는 단순 워크로드를 넘어 IT의 근간을 재편하고 있다. 이에 네트워크부터 컴퓨팅에 이르기까지 인프라 전반을 새롭게 구상할 것을 요구하고 있다. 우리는 엔비디아 베라 루빈 플랫폼을 통해 안전한 차세대 AI 네이티브 인프라를 구축하고 있다. 이를 통해 데이터를 인텔리전스로 전환해 기업이 진정한 AI 팩토리로 거듭나도록 지원하고 있다"고 말했다.
레노버 회장 겸 CEO 양 위안칭(Yuanqing Yang)은 "레노버는 차세대 엔비디아 루빈 플랫폼을 채택해 자사 넵튠(Neptune) 수랭식 솔루션과 전 세계에 걸친 제조 효율성, 서비스 역량을 총동원하고 있다. 이를 통해 기업이 인사이트와 혁신을 위한 지능적, 가속 엔진 역할을 하는 AI 팩토리를 구축할 수 있도록 돕는다. 레노버는 엔비디아와 함께 모든 조직에서 효율적이고 안전한 AI가 기본이 되는 미래를 만들어가고 있다"고 말했다.
인텔리전스 확장을 위한 설계
에이전틱 AI, 추론 모델, 최첨단 비디오 생성 워크로드는 컴퓨팅의 한계를 재정의하고 있다. 다단계 문제 해결을 위해서는 모델이 긴 시퀀스의 토큰을 처리하고 추론하며 그에 따라 행동할 수 있어야 한다. 이러한 까다로운 AI 워크로드의 수요를 충족시키도록 설계된 루빈 플랫폼에는 다음과 같은 5가지 혁신 기술이 포함된다.
l 6세대 엔비디아 NV링크: 오늘날 방대한 MoE 모델에 필수적인 빠르고 원활한 GPU 간 통신을 제공한다. 각 GPU는 3.6 TB/s의 대역폭을 지원하는데, 베라 루빈 NVL72 랙은 전체 인터넷보다 큰 260 TB/s의 대역폭을 제공한다. NV링크 6 스위치는 집합 연산을 위한 내장형 인-네트워크 컴퓨팅(in-network compute) 기능을 탑재했으며, 서비스 용이성과 탄력성을 향상시키는 신규 기능을 갖췄다. 이는 대규모 AI 훈련과 추론 작업을 더 빠르고 효율적으로 실행하도록 지원한다.
l 엔비디아 베라 CPU: 에이전틱 추론을 위해 설계된 엔비디아 베라는 대규모 AI 팩토리를 위한 가장 전력 효율적인 CPU이다. 엔비디아 베라 CPU는 엔비디아 맞춤형 올림푸스(Olympus) 코어 88개와 완벽한 Armv9.2 호환성, 초고속 NV링크-C2C 연결성을 갖췄다. 베라는 뛰어난 성능, 대역폭, 업계 최고의 효율성을 제공해 다양한 최신 데이터센터 워크로드를 지원한다.
l 엔비디아 루빈 GPU: 하드웨어 가속 적응형 압축(adaptive compression) 기술을 지원하는 3세대 트랜스포머 엔진을 탑재해 AI 추론을 위한 50 페타플롭의 NVFP4 컴퓨팅을 제공한다.
l 3세대 엔비디아 컨피덴셜 컴퓨팅: 베라 루빈 NVL72는 엔비디아 컨피덴셜 컴퓨팅을 제공하는 최초의 랙 스케일 플랫폼이다. CPU, GPU, NV링크 도메인 전반에 걸쳐 데이터 보안을 유지함과 동시에, 세계 최대 규모의 독점 모델, 훈련, 추론 워크로드를 철저히 보호한다.
l 2세대 RAS 엔진: GPU, CPU, NV링크를 아우르는 루빈 플랫폼은 실시간 상태 점검, 장애 대응, 선제적 유지보수 기능을 통해 시스템 생산성을 극대화한다. 랙의 케이블 없는 모듈식 트레이 설계는 블랙웰 대비 최대 18배 빠른 조립과 서비스 속도를 구현한다.
AI 네이티브 스토리지와 안전한 소프트웨어 정의 인프라
엔비디아 루빈은 기가스케일 규모의 추론 컨텍스트 확장을 위해 설계된 새로운 종류의 AI 네이티브 스토리지 인프라인 ‘엔비디아 추론 컨텍스트 메모리 스토리지 플랫폼(Inference Context Memory Storage Platform)’을 도입했다.
엔비디아 블루필드-4로 구동되는 이 플랫폼은 AI 인프라 전반에 걸쳐 키-밸류(key-value, KV) 캐시 데이터를 효율적으로 공유하고 재사용하도록 지원함으로써 반응성과 처리량을 크게 향상시킨다. 동시에 에이전틱 AI의 예측 가능하며 전력 효율적인 확장을 가능하게 한다.
점차 많은 AI 팩토리가 베어 메탈(bare-metal), 멀티 테넌트(multi-tenant) 배포 모델을 채택함에 따라 강력한 인프라 제어 유지와 격리가 필수적인 요소로 부각되고 있다.
블루필드-4는 ‘고급 보안 신뢰 자원 아키텍처(Advanced Secure Trusted Resource Architecture, ASTRA)’를 도입했다. 이는 AI 인프라 빌더가 성능 저하 없이 대규모 AI 환경을 안전하게 프로비저닝, 격리, 운영할 수 있도록 신뢰 가능한 단일 제어점(control point)을 제공하는 시스템 수준의 신뢰 아키텍처다.
AI 애플리케이션이 멀티턴(multi-turn) 에이전틱 추론으로 발전함에 따라, AI 네이티브 조직은 훨씬 더 많은 양의 추론 컨텍스트를 다양한 사용자, 세션, 서비스 간에 걸쳐 효율적으로 관리하고 공유해야 한다.
다양한 워크로드에 적용 가능한 다양한 구성
엔비디아 베라 루빈 NVL72는 엔비디아 루빈 GPU 72개, 엔비디아 베라 CPU 36개, 엔비디아 NV링크 6, 엔비디아 커넥트X-9 슈퍼NIC, 엔비디아 블루필드-4 DPU를 결합해 안전한 통합 시스템을 제공한다.
또한 엔비디아는 HGX 루빈 NVL8 플랫폼을 제공할 예정이다. 이는 루빈 GPU 8개를 NV링크로 연결해 x86 기반 생성형 AI 플랫폼을 지원하는 서버 보드이다. HGX 루빈 NVL8 플랫폼은 AI와 고성능 컴퓨팅 워크로드를 위한 훈련, 추론, 과학 컴퓨팅 워크로드를 가속화할 것이다.
엔비디아 DGX SuperPOD™는 루빈 기반 시스템을 대규모로 배포하기 위한 레퍼런스 역할을 수행한다. 이는 엔비디아 DGX 베라 루빈 NVL72 또는 DGX 루빈 NVL8 시스템을 엔비디아 블루필드-4 DPU, 엔비디아 커넥트X-9 슈퍼NIC, 엔비디아 인피니밴드 네트워킹, 엔비디아 미션 컨트롤™ 소프트웨어와 통합한다.
차세대 이더넷 네트워킹
고급 이더넷 네트워킹과 스토리지는 AI 인프라의 구성 요소로, 데이터센터의 속도를 최고로 유지하고 성능과 효율성을 개선하며 비용을 절감하는 데 핵심적이다.
엔비디아 스펙트럼-6 이더넷은 AI 네트워킹을 위한 차세대 이더넷으로, 높은 효율성과 탁월한 복원력을 기반으로 루빈 기반 AI 팩토리의 확장을 위해 설계됐다. 이는 200G 서데스(SerDes) 통신 회로, 공동 패키징 옵틱(co-packaged optics), AI 최적화 패브릭 기술을 통해 구현된다.
스펙트럼-6 아키텍처를 기반으로 구축된 스펙트럼-X 이더넷 포토닉스 공동 패키징 옵티컬 스위치 시스템(Photonics co-packaged optical switch systems)은 AI 애플리케이션에 대해 10배 향상된 신뢰성과 5배 더 긴 가동 시간을 제공한다. 동시에 5배 향상된 전력 효율성을 달성하며 기존 방식 대비 와트당 성능을 극대화한다. 스펙트럼-X 이더넷 플랫폼의 일부인 스펙트럼-XGS(Spectrum-XGS) 이더넷 기술은 수백 킬로미터 이상 떨어져 있는 시설에서도 단일 AI 환경처럼 기능할 수 있도록 지원한다.
이러한 기술은 엔비디아 스펙트럼-X 이더넷 플랫폼의 차세대 혁신을 제시한다. 루빈을 위해 고도로 공동 설계된 이 플랫폼은 대규모 AI 팩토리 구현을 가능하게 하며, 향후 수백만 GPU 규모 환경으로의 확장을 위한 토대를 마련한다.
루빈 출시 정보
엔비디아 루빈은 현재 본격 양산 단계에 있으며, 루빈 기반 제품은 2026년 하반기에 파트너사를 통해 출시될 예정이다.
2026년 베라 루빈 기반 인스턴스를 가장 먼저 배포할 클라우드 제공업체로는 AWS, 구글 클라우드, 마이크로소프트, OCI를 비롯해 엔비디아 클라우드 파트너(Cloud Partner)인 코어위브, 람다, 네비우스, 엔스케일 등이 있다.
마이크로소프트는 향후 페어워터(Fairwater) AI 슈퍼팩토리를 포함한 차세대 AI 데이터센터에 엔비디아 베라 루빈 NVL72 랙 스케일 시스템을 배포할 예정이다.
훈련과 추론 워크로드에 전례 없는 효율성과 성능을 제공하도록 설계된 루빈 플랫폼은 마이크로소프트의 차세대 클라우드 AI 기능의 기반을 제공할 예정이다. 마이크로소프트 애저(Azure)는 고객이 기업, 연구, 소비자 애플리케이션 전반에서 혁신을 가속화할 수 있도록 고도로 최적화된 플랫폼을 제공할 전망이다.
코어위브는 2026년 하반기부터 엔비디아 루빈 기반 시스템을 AI 클라우드 플랫폼에 통합할 예정이다. 코어위브는 여러 아키텍처의 동시 운영이 가능하도록 하며, 이를 통해 고객이 루빈 시스템을 자신의 환경에 도입해 훈련, 추론, 에이전틱 워크로드 전반에 걸쳐 최고의 효과를 얻을 수 있도록 지원한다.
코어위브는 엔비디아와 협력해 AI 혁신가들이 루빈의 첨단 추론, MoE 모델을 활용할 수 있도록 지원할 예정이다. 동시에 코어위브 미션 컨트롤을 통해 프로덕션 AI의 생명 주기에 걸쳐 필요한 성능, 운영 안전성, 확장성을 지속적으로 제공할 방침이다.
아울러 시스코, 델, HPE, 레노버, 슈퍼마이크로는 향후 루빈 제품을 기반으로 다양한 서버를 선보일 계획이다.
AI 연구소들 역시 이전 세대 GPU 대비 더 낮은 레이턴시와 비용으로 더욱 크고 고도화된 모델을 훈련하고, 장문 컨텍스트 기반의 멀티모달 시스템을 제공하기 위해 엔비디아 루빈 플랫폼에 주목하고 있다. 여기에는 앤트로픽, 블랙 포레스트, 코히어, 커서, 하비, 메타, 미스트랄 AI, 오픈AI, 오픈에비던스, 퍼플렉시티, 런웨이, 싱킹 머신즈 랩, xAI 등이 포함된다.
AIC, 캐노니컬(Canonical), 클라우디안(Cloudian), DDN, 델, HPE, 히타치 반타라(Hitachi Vantara), IBM, 넷앱(NetApp), 뉴타닉스(Nutanix), 퓨어스토리지(Pure Storage), 슈퍼마이크로, 수세(SUSE), 바스트 데이터(VAST Data), 웨카(WEKA)를 비롯한 인프라 소프트웨어, 스토리지 파트너사들은 엔비디아와 협력해 루빈 인프라를 위한 차세대 플랫폼을 설계하고 있다.
루빈 플랫폼은 80곳 이상의 엔비디아 MGX™ 생태계 파트너와 함께하는 엔비디아의 3세대 랙 스케일 아키텍처를 선보인다.
이러한 고밀도 컴퓨팅을 실현하기 위해, 레드햇(Red Hat)은 엔비디아와의 협력을 확대해 엔비디아 루빈 플랫폼에 최적화된 레드햇 하이브리드 클라우드 포트폴리오 기반 전체 AI 스택을 제공한다고 발표했다. 여기에는 레드햇 엔터프라이즈 리눅스(Enterprise Linux), 레드햇 오픈시프트(OpenShift), 레드햇 AI가 포함되며, 이러한 솔루션은 포춘 글로벌 500(Fortune Global 500) 기업의 대다수에서 사용되고 있다.
자세한 내용은 CES에서 진행된 엔비디아 라이브(NVIDIA Live at CES) 다시보기와 ‘인사이드 베라 루빈(Inside Vera Rubin)’ 기술 블로그를 통해 확인할 수 있다.
엔비디아, NVIDIA, 신규, 칩, 6종, 으로, 첨단, AI 슈퍼컴퓨터, 구현, 차세대, AI 위한, 루빈, NVIDIA Rubin, Rubin, 플랫폼, 출시








