
기술 기업 엔비디아(NVIDIA)는 CES 2026에서 루빈(Rubin) 플랫폼을 공개했습니다. 이 플랫폼은 블랙웰(Blackwell) 시리즈보다 5배 뛰어난 학습 연산 능력을 제공하는 6개의 새로운 칩으로 구성된 통합 AI 슈퍼컴퓨터입니다. 루빈 플랫폼은 대규모 AI 시스템 구축, 배포 및 보안을 위한 새로운 기준을 제시하는 동시에 비용을 최소화하여 AI 기술의 광범위한 도입을 지원하도록 설계되었습니다.
Rubin 플랫폼은 NVIDIA Vera CPU, NVIDIA Rubin GPU, NVIDIA NVLink 6 스위치, NVIDIA ConnectX-9 SuperNIC, NVIDIA BlueField-4 DPU 및 NVIDIA Spectrum-6 이더넷 스위치 등 6개 구성 요소 전반에 걸친 긴밀한 공동 설계를 통해 뛰어난 성능을 구현합니다. 이러한 통합 접근 방식은 학습 시간을 단축하고 추론 토큰 비용을 낮춥니다.
루빈은 차세대 NVLink 인터커넥트, 트랜스포머 엔진, 기밀 컴퓨팅, RAS 엔진, NVIDIA Vera CPU를 포함한 5가지 핵심 혁신 기술을 소개합니다. 이러한 기술 발전으로 에이전트형 AI, 고급 추론, 대규모 혼합 전문가(MoE) 모델 추론이 블랙웰 플랫폼 대비 토큰당 최대 10배 낮은 비용으로 구현 가능해졌습니다. 또한, 이 시스템은 4배 적은 GPU로 MoE 모델을 학습시킬 수 있어 AI 도입을 더욱 가속화합니다.
이 플랫폼은 Amazon Web Services(AWS), Anthropic, Black Forest Labs, Cisco, Cohere, CoreWeave, Cursor, Dell Technologies, Google, Harvey, HPE, Lambda, Lenovo, Meta, Microsoft, Mistral AI, Nebius, Nscale, OpenAI, OpenEvidence, Oracle Cloud Infrastructure(OCI), Perplexity, Runway, Supermicro, Thinking Machines Lab, xAI를 포함한 주요 AI 연구소, 클라우드 서비스 제공업체, 하드웨어 제조업체 및 스타트업에서 배포될 것으로 예상됩니다.
AI 팩토리를 위한 AI 네이티브 스토리지 및 소프트웨어 정의 인프라 공개
NVIDIA Rubin은 대규모 AI 워크로드를 효율적으로 지원하도록 설계된 AI 네이티브 스토리지 및 보안 소프트웨어 정의 인프라를 소개합니다. BlueField-4 기반의 NVIDIA 추론 컨텍스트 메모리 스토리지 플랫폼은 키-값 캐시 데이터의 빠른 공유 및 재사용을 지원하여 다중 턴 에이전트 AI 애플리케이션의 처리량과 에너지 효율성을 향상시킵니다. 또한 BlueField-4에는 ASTRA(Advanced Secure Trusted Resource Architecture)가 포함되어 있어 베어메탈 및 멀티테넌트 AI 환경에서 안전한 프로비저닝 및 격리를 위한 단일하고 신뢰할 수 있는 제어 지점을 제공합니다.
이 플랫폼은 72개의 Rubin GPU, 36개의 Vera CPU, NVLink 6, ConnectX-9 SuperNIC 및 BlueField-4 DPU를 통합한 Vera Rubin NVL72와 x86 기반 생성형 AI 플랫폼을 지원하기 위해 8개의 Rubin GPU를 연결하는 HGX Rubin NVL8을 포함한 다양한 구성으로 제공됩니다. NVIDIA DGX SuperPOD는 컴퓨팅, 네트워킹 및 관리 소프트웨어를 결합하여 Rubin 시스템을 대규모로 배포하기 위한 참조 아키텍처 역할을 합니다.
차세대 네트워킹 및 스토리지는 코패키징 광학 장치, AI 최적화 패브릭, 고속 200G SerDes 통신을 특징으로 하는 Spectrum-6 및 Spectrum-X 이더넷 플랫폼에서 제공됩니다. 이러한 혁신은 향상된 신뢰성, 에너지 효율성 및 확장성을 제공하여 Rubin 기반 AI 팩토리가 여러 사이트에서 통합 환경으로 운영될 수 있도록 지원하고 미래의 수백만 개의 GPU 인프라를 지원합니다.
NVIDIA Rubin, 본격적인 프로덕션 단계 진입 및 클라우드와 AI 연구소 전반에 배포 준비 완료
새로운 플랫폼이 본격적인 상용화 단계에 접어들었으며, Rubin 기반 시스템은 2026년 하반기부터 파트너사를 통해 이용 가능할 것으로 예상됩니다. AWS, Google Cloud, Microsoft, OCI 등 주요 클라우드 제공업체와 CoreWeave, Lambda, Nebius, Nscale과 같은 NVIDIA 클라우드 파트너사들이 Rubin 기반 인스턴스를 가장 먼저 배포할 예정입니다. Microsoft는 NVIDIA Vera Rubin NVL72 랙 스케일 시스템을 차세대 AI 데이터 센터, 특히 향후 구축될 Fairwater AI 슈퍼팩토리 사이트에 통합하여 기업, 연구 및 소비자 애플리케이션 전반에 걸쳐 고급 학습 및 추론 워크로드를 위한 기반을 마련할 계획입니다.
CoreWeave는 Rubin 시스템을 자사의 AI 클라우드 플랫폼에 통합하여 다양한 아키텍처를 지원하고 학습, 추론 및 에이전트 기반 AI 워크로드에 최적화된 성능을 제공할 예정입니다. Cisco, Dell, HPE, Lenovo 및 Supermicro 또한 Rubin 제품 기반 서버를 출시할 것으로 예상됩니다. Anthropic, Cohere, OpenAI, Meta 등 주요 AI 연구소들은 Rubin을 도입하여 이전 세대 GPU에 비해 지연 시간과 비용을 절감하면서 더 크고 강력한 모델을 학습하고 장기 컨텍스트 기반의 멀티모달 시스템을 지원하고 있습니다.
IBM, NetApp, Nutanix, Pure Storage, SUSE, VAST Data 등의 인프라 및 스토리지 파트너들이 NVIDIA 와 협력하여 차세대 Rubin 플랫폼을 설계하고 있습니다. Rubin은 NVIDIA의 3세대 랙 스케일 아키텍처로, 80개 이상의 MGX 에코시스템 파트너의 지원을 받고 있습니다. Red Hat은 Red Hat Enterprise Linux, OpenShift, Red Hat AI 등 Fortune Global 500 기업에서 널리 사용되는 하이브리드 클라우드 포트폴리오를 활용하여 Rubin에 최적화된 완벽한 AI 스택을 제공하기 위한 협력 확대를 발표했습니다.
NVIDIA가 차세대 AI 슈퍼컴퓨터를 구동하는 6개의 새로운 칩을 공개했다는 소식이 Metaverse Post 에 처음으로 게시되었습니다.



