NVIDIA ra mắt Rubin: Sáu chip mới cung cấp sức mạnh cho siêu máy tính AI thế hệ tiếp theo

Bài viết này được dịch máy
Xem bản gốc
NVIDIA ra mắt Rubin: Sáu chip mới cung cấp sức mạnh cho siêu máy tính AI thế hệ tiếp theo

Công ty công nghệ NVIDIA đã ra mắt nền tảng Rubin tại CES 2026, giới thiệu một siêu máy tính AI thống nhất được xây dựng từ sáu chip mới, cung cấp khả năng tính toán huấn luyện gấp năm lần so với dòng chip Blackwell. Nền tảng này được thiết kế để thiết lập một chuẩn mực mới cho việc xây dựng, triển khai và bảo mật các hệ thống AI quy mô lớn, đồng thời giảm thiểu chi phí để hỗ trợ việc ứng dụng rộng rãi hơn công nghệ AI.

Nền tảng Rubin đạt được hiệu năng cao nhờ thiết kế đồng bộ chặt chẽ giữa sáu thành phần: CPU NVIDIA Vera, GPU NVIDIA Rubin, bộ chuyển mạch NVIDIA NVLink 6, card mạng NVIDIA ConnectX-9 SuperNIC, bộ xử lý dữ liệu NVIDIA BlueField-4 DPU và bộ chuyển mạch Ethernet NVIDIA Spectrum-6. Cách tiếp cận tích hợp này giúp giảm thời gian huấn luyện và chi phí Token suy luận.

Rubin giới thiệu năm cải tiến quan trọng, bao gồm các kết nối NVLink thế hệ tiếp theo, Transformer Engine, Confidential Computing, RAS Engine và CPU NVIDIA Vera. Những tiến bộ này cho phép trí tuệ nhân tạo tác nhân (agentic AI), suy luận nâng cao và suy luận mô hình hỗn hợp chuyên gia (MoE) quy mô lớn với chi phí trên mỗi Token thấp hơn tới mười lần so với nền tảng Blackwell. Hệ thống có thể huấn luyện các mô hình MoE với số lượng GPU ít hơn bốn lần, giúp đẩy nhanh hơn nữa việc ứng dụng AI.

Nền tảng này dự kiến ​​sẽ được triển khai bởi các phòng thí nghiệm AI hàng đầu, nhà cung cấp dịch vụ đám mây, nhà sản xuất phần cứng và các công ty khởi nghiệp, bao gồm Amazon Web Services (AWS), Anthropic, Black Forest Labs, Cisco, Cohere, CoreWeave, Cursor, Dell Technologies, Google, Harvey, HPE, Lambda, Lenovo, Meta, Microsoft, Mistral AI, Nebius, Nscale, OpenAI, OpenEvidence, Oracle Cloud Infrastructure (OCI), Perplexity, Runway, Supermicro, Thinking Machines Lab và xAI.

Ra mắt giải pháp lưu trữ gốc AI và cơ sở hạ tầng định nghĩa bằng phần mềm cho các nhà máy AI.

NVIDIA Rubin giới thiệu giải pháp lưu trữ gốc AI và cơ sở hạ tầng bảo mật, được định nghĩa bằng phần mềm, được thiết kế để hỗ trợ hiệu quả các khối lượng công việc AI quy mô lớn. Nền tảng lưu trữ bộ nhớ ngữ cảnh suy luận NVIDIA, được hỗ trợ bởi BlueField-4, cho phép chia sẻ và tái sử dụng nhanh chóng dữ liệu bộ nhớ đệm khóa-giá trị, cải thiện Xuất lượng và hiệu quả năng lượng cho các ứng dụng AI tác nhân đa lượt. BlueField-4 cũng bao gồm Kiến trúc tài nguyên tin cậy bảo mật nâng cao (ASTRA), cung cấp một điểm kiểm soát đáng tin cậy duy nhất để cung cấp và cách ly an toàn trong môi trường AI bare-metal và đa người dùng.

Nền tảng này được cung cấp với nhiều cấu hình khác nhau, bao gồm Vera Rubin NVL72, tích hợp 72 GPU Rubin, 36 CPU Vera, NVLink 6, ConnectX-9 SuperNIC và BlueField-4 DPU, và HGX Rubin NVL8, liên kết tám GPU Rubin để hỗ trợ các nền tảng AI tạo sinh dựa trên x86. NVIDIA DGX SuperPOD đóng vai trò là kiến ​​trúc tham chiếu để triển khai các hệ thống Rubin ở quy mô lớn, kết hợp phần mềm tính toán, mạng và quản lý.

Nền tảng Ethernet Spectrum-6 và Spectrum-X cung cấp khả năng kết nối và lưu trữ thế hệ tiếp theo, với các thành phần quang học tích hợp, kiến ​​trúc mạng tối ưu hóa cho AI và khả năng giao tiếp SerDes tốc độ cao 200G. Những cải tiến này mang lại độ tin cậy, hiệu quả năng lượng và khả năng mở rộng được nâng cao, cho phép các nhà máy AI dựa trên kiến ​​trúc Rubin hoạt động trên nhiều địa điểm như những môi trường thống nhất và hỗ trợ cơ sở hạ tầng hàng triệu GPU trong tương lai.

NVIDIA Rubin đã được đưa vào sản xuất hàng loạt, sẵn sàng triển khai trên các nền tảng đám mây và phòng thí nghiệm AI.

Nền tảng mới đã đi vào sản xuất toàn diện, với các hệ thống dựa trên Rubin dự kiến ​​sẽ được cung cấp thông qua các đối tác vào nửa cuối năm 2026. Các nhà cung cấp dịch vụ đám mây lớn, bao gồm AWS, Google Cloud, Microsoft và OCI, cũng như các đối tác đám mây của NVIDIA như CoreWeave, Lambda, Nebius và Nscale, nằm trong số những đơn vị đầu tiên triển khai các phiên bản được hỗ trợ bởi Rubin. Microsoft có kế hoạch tích hợp các hệ thống NVIDIA Vera Rubin NVL72 quy mô rack vào các trung tâm dữ liệu AI thế hệ tiếp theo, bao gồm cả các địa điểm siêu nhà máy AI Fairwater trong tương lai, tạo nền tảng cho các khối lượng công việc đào tạo và suy luận nâng cao trên các ứng dụng doanh nghiệp, nghiên cứu và người tiêu dùng.

CoreWeave sẽ tích hợp các hệ thống Rubin vào nền tảng đám mây AI của mình, hỗ trợ nhiều kiến ​​trúc và cho phép tối ưu hóa hiệu suất cho các tác vụ huấn luyện, suy luận và AI dựa trên tác nhân. Cisco, Dell, HPE, Lenovo và Supermicro cũng dự kiến ​​sẽ cung cấp các máy chủ được xây dựng trên sản phẩm Rubin. Các phòng thí nghiệm AI hàng đầu, bao gồm Anthropic, Cohere, OpenAI, Meta và nhiều phòng khác, đang áp dụng Rubin để huấn luyện các mô hình lớn hơn, mạnh mẽ hơn và hỗ trợ các hệ thống đa phương thức, ngữ cảnh dài với độ trễ và chi phí giảm so với các thế hệ GPU trước đây.

Các đối tác về cơ sở hạ tầng và lưu trữ, như IBM, NetApp, Nutanix, Pure Storage, SUSE và VAST Data, đang hợp tác với NVIDIA để thiết kế nền tảng Rubin thế hệ tiếp theo. Rubin đại diện cho kiến ​​trúc quy mô rack thế hệ thứ ba của NVIDIA, được hỗ trợ bởi hơn 80 đối tác trong hệ sinh thái MGX. Red Hat đã công bố mở rộng hợp tác để cung cấp một bộ giải pháp AI hoàn chỉnh được tối ưu hóa cho Rubin, tận dụng danh mục điện toán đám mây lai của mình bao gồm Red Hat Enterprise Linux, OpenShift và Red Hat AI, được sử dụng rộng rãi trong các công ty thuộc Fortune Global 500.

Bài đăng "NVIDIA ra mắt Rubin: Sáu chip mới cung cấp sức mạnh cho siêu máy tính AI thế hệ tiếp theo" xuất hiện lần đầu trên Metaverse Post .

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận