Hội nghị GTC 2026 của NVIDIA đã khai mạc hôm nay tại San Jose, California và sẽ diễn ra từ ngày 16 đến 19 tháng 3. Hơn 30.000 nhà phát triển, nhà nghiên cứu và đại diện doanh nghiệp từ 190 quốc gia sẽ tham dự hội nghị, với hơn 1.000 phiên thảo luận.
Hội nghị trước đó đã công bố một số tín hiệu quan trọng: Nvidia đang tích hợp công nghệ Groq mà hãng đã mua lại trước đó vào dòng sản phẩm của mình; Samsung sẽ lần đầu tiên sản xuất chip AI cho Nvidia; và OpenAI dự kiến sẽ trở thành một trong những khách hàng đầu tiên của chip suy luận thế hệ tiếp theo của Nvidia. Những động thái sê-ri cho thấy Nvidia đang mở rộng hơn nữa từ vị thế dẫn đầu trong lĩnh vực chip huấn luyện AI sang thị trường chip suy luận, và đang giảm sự phụ thuộc vào TSMC thông qua đa dạng hóa Chuỗi cung ứng.
Hội nghị năm nay cũng có một khu vực trải nghiệm OpenClaw chuyên dụng mang tên "Build-a-Claw". Người tham dự có thể tùy chỉnh và triển khai một tác nhân AI hoạt động bền vững ngay tại chỗ dưới sự hướng dẫn của các kỹ sư NVIDIA.
Là một trong những nền tảng ra mắt công nghệ thường niên quan trọng nhất trong ngành AI, CEO của NVIDIA, Jensen Huang, đã có bài phát biểu quan trọng vào lúc 2:00 sáng giờ Bắc Kinh ngày 17 tháng 3 tại hội nghị GTC. Đội ngũ theo dõi AI của BlockBeats, 1M AI News, sẽ cung cấp các cập nhật theo thời gian thực về điểm nóng của hội nghị. Sau đây là tiến triển mới nhất:
Bài phát biểu mới nhất của Jensen Huang thuộc Nvidia: Bảy chip của Vera Rubin đang được sản xuất hàng loạt, dự kiến sẽ đạt doanh thu 1 nghìn tỷ đô la tỷ lệ băm.
Theo 1M AI News , người sáng lập kiêm CEO của NVIDIA, Jensen Huang, đã chính thức thông báo tại GTC 2026 rằng nền tảng Vera Rubin đang được sản xuất hàng loạt, tích hợp bảy chip mới, bao gồm năm loại hệ thống rack và được thiết kế như một siêu máy tính dành riêng cho các tác nhân AI thông minh.
Khung máy chủ lõi, Vera Rubin NVL72, tích hợp 72 GPU Rubin và 36 CPU Vera được kết nối với nhau thông qua NVLink 6. So với nền tảng Blackwell thế hệ trước, nó giảm số lượng GPU cần thiết để huấn luyện các mô hình chuyên gia lai lớn xuống còn một phần tư, đạt được thông lượng suy luận trên mỗi watt cao gấp 10 lần so với Blackwell và giảm chi phí trên mỗi token xuống còn một phần mười.
Năm loại hệ thống giá đỡ tạo nên cơ sở hạ tầng hoàn chỉnh của nhà máy AI:
- Giá đỡ GPU Vera Rubin NVL72
- Khung CPU Vera (256 CPU Vera, hiệu suất gấp đôi và nhanh hơn 50% so với CPU truyền thống)
- Giá đỡ tăng tốc suy luận Groq 3 LPX
- Khung lưu trữ BlueField-4 STX (được thiết kế đặc biệt cho bộ nhớ đệm cặp khóa-giá trị của AI Agent, mang lại tốc độ suy luận nhanh hơn tới 5 lần)
- Tủ rack ETH Spectrum-6 SPX
Về quản lý năng lượng, NVIDIA cũng đã ra mắt nền tảng DSX: DSX Max-Q có thể triển khai nhiều hơn tới 30% cơ sở hạ tầng AI trong giới hạn công suất cố định, và DSX Flex có thể kích hoạt 100 gigawatt công suất lưới điện chưa được sử dụng trước đó.
AWS, Google Cloud, Microsoft Azure, Oracle Cloud, CoreWeave, Lambda, Nebius và các nhà cung cấp dịch vụ đám mây khác, cũng như các nhà cung cấp hệ thống như Cisco, Dell Technologies, HP Enterprise, Lenovo và Supermicro, đều đã thông báo rằng họ sẽ ra mắt các sản phẩm Vera Rubin trong nửa cuối năm nay. Anthropic, Meta, Mistral AI và OpenAI đã tuyên bố rõ ràng rằng họ sẽ sử dụng nền tảng này để huấn luyện các mô hình quy mô lớn hơn.
Jensen Huang tuyên bố rằng ông dự đoán các hệ thống của Blackwell và Vera Rubin sẽ nhận được ít nhất 1 nghìn tỷ đô la đơn đặt hàng kết hợp từ năm 2025 đến năm 2027, gấp hơn hai lần so với dự báo 500 tỷ đô la mà GTC đưa ra năm ngoái.
Tổng quan về NVIDIA GTC Robotics: Mô hình thế giới hợp nhất Cosmos 3 được công bố, GR00T N2 dẫn đầu bảng xếp hạng chiến lược robot, Olaf của Disney xuất hiện
Theo 1M AI News , NVIDIA đã ra mắt sê-ri sản phẩm AI vật lý mới tại hội nghị GTC và hợp tác với các tập đoàn công nghiệp lớn, những người tiên phong trong lĩnh vực robot hình người và các nhà sản xuất robot phẫu thuật trong hệ sinh thái robot toàn cầu. Jensen Huang tuyên bố: "AI vật lý đã xuất hiện, và mọi công ty công nghiệp sẽ trở thành một công ty robot."
Ra mắt sản phẩm cốt lõi:
1. Cosmos 3: Mô hình nền tảng thế giới thống nhất đầu tiên dành cho việc tạo ra thế giới tổng hợp, suy luận trực quan và mô phỏng chuyển động, được thiết kế để đẩy nhanh sự phát triển của trí tuệ robot đa năng trong hoàn cảnh phức tạp.
2. Isaac Lab 3.0: Phiên bản truy cập sớm hỗ trợ học máy robot quy mô lớn trên cơ sở hạ tầng cấp DGX. Được xây dựng trên nền tảng Newton Physics Engine 1.0 và PhysX SDK mới, nó bổ sung hỗ trợ mô phỏng đa vật lý và thao tác khéo léo phức tạp.
3. GR00T N1.7: Phiên bản truy cập sớm với giấy phép thương mại, cung cấp các kỹ năng tổng quát như điều khiển khéo léo nâng cao để triển khai robot sản xuất hàng loạt.
4. GR00T N2 (Bản xem trước): Một mô hình nền tảng robot thế hệ tiếp theo dựa trên nghiên cứu của DreamZero, sử dụng kiến trúc mô hình chuyển động thế giới mới. Tỷ lệ thành công của nó trong nhiệm vụ và hoàn cảnh mới cao hơn gấp đôi so với các mô hình chuyển động ngôn ngữ hình ảnh thông thường. Hiện đang đứng đầu bảng xếp hạng MolmoSpaces và RoboArena, dự kiến sẽ được phát hành trước cuối năm nay.
Trong lĩnh vực robot công nghiệp, FANUC, ABB Robotics, YASKAWA và KUKA, với hơn 2 triệu thiết bị được lắp đặt trên toàn cầu, đang tích hợp thư viện Omniverse và khung mô phỏng Isaac vào các giải pháp vận hành ảo của họ, đồng thời tích hợp mô-đun Jetson vào bộ điều khiển để suy luận AI tại biên. Trong lĩnh vực robot hình người, các công ty như 1X, AGIBOT, Agility, Boston Động lực và Figure đang sử dụng Cosmos, Isaac Sim và Isaac Lab để đẩy nhanh quá trình phát triển. Trong lĩnh vực robot y tế, CMR Surgical sử dụng mô phỏng Cosmos-H để huấn luyện hệ thống phẫu thuật Versius, Johnson & Johnson Medical sử dụng Isaac Sim và quy trình làm việc sau huấn luyện Cosmos để huấn luyện nền tảng tiết niệu Monarch, và Medtronic đang nghiên cứu IGX Thor để cung cấp tính an toàn chức năng cho hệ thống robot phẫu thuật của mình.
Một trong những điểm nổi bật của hội nghị đến từ Disney: Disney đã sử dụng Kamino, một trình mô phỏng vật lý tăng tốc GPU dựa trên khung NVIDIA Warp và tích hợp vào công cụ vật lý Newton, để huấn luyện các chiến lược chuyển động của Olaf và nhân vật robot BDX, cho phép Olaf tự quản lý nhiệt độ và giảm tiếng ồn khi va chạm. Jensen Huang đã xuất hiện trên sân khấu cùng robot Olaf trong bài phát biểu quan trọng của mình. Olaf sẽ chính thức ra mắt tại Disneyland Paris vào ngày 29 tháng 3.
NVIDIA GTC công bố ba mẫu Nemotron 3 mới: Ultra tập trung vào khả năng suy luận tiên tiến, trong khi VoiceChat tích hợp nhận dạng giọng nói, mô hình lớn và tổng hợp giọng nói.
Theo 1M AI News , NVIDIA đã công bố tại hội nghị GTC mở rộng dòng mô hình mở Nemotron 3, bổ sung thêm ba mô hình đa phương thức mới dành cho các tác nhân AI:
1. Nemotron 3 Ultra: Được định vị là bộ xử lý thông minh tiên tiến, nó đạt được hiệu suất xử lý gấp 5 lần trên nền tảng Blackwell bằng định dạng NVFP4, hướng đến các trợ lý lập trình, tìm kiếm và các kịch bản tự động hóa quy trình làm việc phức tạp.
2. Nemotron 3 Omni: Tích hợp khả năng hiểu âm thanh, hình ảnh và ngôn ngữ để rút thông tin chi tiết từ video và tài liệu một cách hiệu quả.
3. Nemotron 3 VoiceChat: Hỗ trợ hội thoại thời gian thực, với trí tuệ nhân tạo (AI) có khả năng đồng thời lắng nghe và phản hồi, tích hợp nhận dạng giọng nói tự động (ASR), xử lý mô hình ngôn ngữ lớn và chuyển văn bản thành giọng nói (TTS) vào một hệ thống duy nhất.
NVIDIA cũng đồng thời phát hành mô hình bảo mật Nemotron và quy trình truy xuất Agent. Mô hình đầu tiên phát hiện nội dung không an toàn trong văn bản và hình ảnh, trong khi mô hình thứ hai cải thiện tính phù hợp và độ chính xác của đầu ra Agent. Ngoài ra, NVIDIA đã phát hành Nemotron 3 Super vào ngày 11 tháng này, một mô hình MoE lai giữa Mamba và Transformer với 120 tỷ tham số (12 tỷ tham số hoạt động), hỗ trợ natively cửa sổ ngữ cảnh 1 triệu token và đạt hiệu suất gấp hơn 5 lần so với phiên bản tiền nhiệm. Nó đạt được số điểm 85,6% trên benchmark PinchBench của OpenClaw Agent, trở thành mô hình mã nguồn mở tốt nhất trong cùng loại.
Các công ty như CodeRabbit, CrowdStrike, các công cụ lập trình AI như Cursor và Factory, ServiceNow và công cụ tìm kiếm AI Perplexity đã triển khai mô hình Nemotron cho các ứng dụng tác nhân. Edison Scientific, một nền tảng nghiên cứu AI, đã tích hợp Nemotron vào hệ thống khoa học AI nội bộ Kosmos của mình, phục vụ hơn 50.000 nhà nghiên cứu và cho phép thực hiện song song hàng trăm nhiệm vụ nghiên cứu; theo tuyên bố chính thức của họ, hệ thống này có thể rút ngắn thời gian nghiên cứu hàng tháng xuống chỉ còn một ngày.
Nvidia lấn sân sang lĩnh vực điện toán vũ trụ: Ra mắt mô-đun Vera Rubin Space-1, tự hào sở hữu tỷ lệ băm AI gấp 25 lần so với H100.
Theo 1M AI News , NVIDIA đã công bố việc gia nhập lĩnh vực điện toán vũ trụ tại hội nghị GTC, ra mắt mô-đun Space-1 Vera Rubin, được thiết kế đặc biệt cho các trung tâm dữ liệu trên quỹ đạo. Tích hợp hai GPU Rubin và một CPU Vera, với tỷ lệ băm suy luận AI gấp 25 lần so với H100, cho phép chạy các mô hình ngôn ngữ lớn và các mô hình cơ bản trực tiếp trên quỹ đạo.
Jensen Huang tuyên bố: "Điện toán vũ trụ, biên giới cuối cùng, đã đến. Với việc triển khai các chòm sao vệ tinh và sự tiến bộ của thám hiểm không gian sâu, trí tuệ phải nằm ở nơi dữ liệu được tạo ra." Ông cũng thẳng thắn thừa nhận rằng làm mát trong không gian là một thách thức kỹ thuật chưa được giải quyết: "Trong không gian không có dẫn nhiệt, không có đối lưu, chỉ có bức xạ. Chúng ta phải tìm ra cách làm mát các hệ thống này trong không gian."
mô-đun Space-1 được thiết kế cho hoàn cảnh bị hạn chế về kích thước, trọng lượng và năng lượng, hỗ trợ phân tích tự động trên quỹ đạo, xử lý dữ liệu thời gian thực và khám phá khoa học. Các đối tác ban đầu bao gồm công ty năng lượng mặt trời trong không gian Aetherflux, nhà phát triển trạm vũ trụ tư nhân Axiom Space, công ty truyền thông vệ tinh Kepler Communications, các công ty quan sát Trái đất Planet Labs và Sophia Space, và công ty vệ tinh điện toán đám mây Starcloud. Ngày phát hành cụ thể vẫn chưa được công bố.
Jensen Huang tuyên bố rằng "Claude Code và OpenClaw đã tạo ra bước ngoặt cho các tác nhân": Nvidia đã phát hành môi trường chạy bảo mật OpenShell, và 17 doanh nghiệp lớn đã tích hợp nó.
Theo 1M AI News , NVIDIA đã ra mắt nền tảng mở Agent Toolkit tại hội nghị GTC. Thành phần cốt lõi của nó là mã nguồn mở OpenShell, cung cấp các biện pháp bảo vệ an ninh, mạng và quyền riêng tư dựa trên chính sách cho các tác nhân AI tự động. Jensen Huang phát biểu tại sự kiện ra mắt: "Claude Code và OpenClaw đã tạo ra bước ngoặt cho các tác nhân, mở rộng AI từ việc tạo ra và suy luận sang hành động. Nhân viên sẽ được trao quyền bởi đội ngũ bao gồm các tác nhân tiên tiến, chuyên nghiệp và được tùy chỉnh, ngành công nghiệp phần mềm doanh nghiệp sẽ phát triển thành một nền tảng tác nhân chuyên biệt, và ngành CNTT đang ở điểm bùng phát của sự mở rộng lớn tiếp theo."
Bộ công cụ Agent Toolkit cũng bao gồm mã nguồn mở AI-Q Blueprint, được đồng phát triển với LangChain. Bản thiết kế này sử dụng kiến trúc lai, trong đó các mô hình tiên tiến xử lý việc điều phối và các mô hình mã nguồn mở của Nemotron xử lý việc nghiên cứu, giảm chi phí truy vấn hơn 50%. Các tác nhân của NVIDIA được phát triển bằng AI-Q Blueprint hiện đang đứng đầu cả bảng xếp hạng DeepResearch Bench và DeepResearch Bench II.
Về mặt bảo mật, NVIDIA đang hợp tác với Cisco, CrowdStrike, Google, Microsoft Security và TrendAI để làm cho OpenShell tương thích với các công cụ an ninh mạng và bảo mật AI của họ. CrowdStrike cũng đã phát hành "Bản thiết kế AI bảo mật theo thiết kế" (Secure-by-Design AI Blueprint), tích hợp trực tiếp các khả năng bảo vệ của nền tảng Falcon vào kiến trúc AI Agent của NVIDIA.
Mười bảy nhà cung cấp nền tảng phần mềm đã tích hợp Agent Toolkit: Adobe, Amdocs, Atlassian, Box, Cadence, Cisco, Cohesity, CrowdStrike, Dassault Systèmes, IQVIA, Palantir, Red Hat, SAP, Salesforce, Siemens, ServiceNow và Synopsys. Salesforce sẽ sử dụng Slack làm giao diện chính và lớp điều phối để chạy Agentforce Agent, trong đó Siemens đã ra mắt Fuse EDA AI Agent dựa trên Nemotron để tự động hóa toàn bộ quy trình thiết kế chip và PCB.
Nvidia ra mắt chip Groq đầu tiên của mình, LPX: khi kết hợp với Vera Rubin, nó mang lại hiệu suất suy luận cao hơn tới 35 lần trên mỗi megawatt, đồng thời giới thiệu nguyên mẫu Kyber thế hệ tiếp theo.
Theo 1M AI News , Groq 3 LPU (Bộ xử lý ngôn ngữ) là chip đầu tiên được NVIDIA ra mắt sau khi mua lại công ty khởi nghiệp chip suy luận AI Groq với giá khoảng 20 tỷ đô la vào tháng 12 năm ngoái, và dự kiến sẽ bắt đầu được bán ra vào quý 3 năm nay. Khung Groq 3 LPX có thể chứa 256 LPU, được trang bị 128GB SRAM tích hợp và băng thông kết nối mở rộng 640TB mỗi giây. CHÍNH THỨC tuyên bố rằng khi được triển khai cùng với Vera Rubin NVL72, LPX có thể tăng thông lượng suy luận lên đến 35 lần trên mỗi megawatt, mở khóa tiềm năng doanh thu cho các kịch bản với hàng nghìn tỷ tham số và hàng triệu token cho suy luận theo ngữ cảnh. Jensen Huang mô tả hai bộ xử lý này là "cực kỳ khác biệt nhưng thống nhất: một theo đuổi thông lượng cao, một theo đuổi độ trễ thấp, trong khi bộ nhớ tích hợp của LPX mở rộng đáng kể tổng dung lượng bộ nhớ có sẵn cho mô hình." Khung LPX dự kiến sẽ ra mắt vào nửa cuối năm nay cùng với nền tảng Vera Rubin.
Tại hội nghị, Jensen Huang cũng giới thiệu nguyên mẫu kiến trúc giá đỡ thế hệ tiếp theo có tên mã là Kyber. Kyber thay đổi cách bố trí các khay xử lý của 144 GPU thành dạng thẳng đứng để tăng mật độ vật lý và giảm độ trễ. Nó sẽ được sử dụng trong Vera Rubin Ultra, nền tảng kế nhiệm của Vera Rubin, và dự kiến sẽ ra mắt vào năm 2027.
NVIDIA ra mắt DLSS 5: sự kết hợp giữa đồ họa 3D truyền thống và trí tuệ nhân tạo tạo sinh; Jensen Huang khẳng định phương pháp này sẽ lan rộng sang nhiều ngành công nghiệp khác nhau.
Theo 1M AI News , NVIDIA đã ra mắt DLSS 5 tại hội nghị GTC. Bằng cách kết hợp dữ liệu có cấu trúc từ đồ họa 3D truyền thống với các mô hình AI tạo sinh, DLSS cho phép GPU GeForce đạt được khả năng hiển thị ảnh 4K chân thực theo thời gian thực ngay tại chỗ, mà không cần phải raster hóa từng pixel của mỗi yếu tố trong cảnh. Trong bài thuyết trình của mình, Jensen Huang đã mô tả phương pháp này là "sự kết hợp giữa đồ họa 3D có thể điều khiển và AI tạo sinh dựa trên xác suất", cho rằng đồ họa 3D "hoàn toàn có thể dự đoán được" và AI tạo sinh "rất chân thực", cho phép các nhà phát triển tạo ra nội dung vừa "đẹp mắt vừa có thể điều khiển được".
Jensen Huang coi lộ trình công nghệ của DLSS 5 là điểm khởi đầu cho một sự thay đổi mô hình rộng lớn hơn, khẳng định rằng "việc tích hợp thông tin có cấu trúc với trí tuệ nhân tạo tạo sinh sẽ được nhân rộng trong nhiều ngành công nghiệp khác nhau". Ông dẫn chứng các nền tảng dữ liệu doanh nghiệp như Snowflake, Databricks và BigQuery làm ví dụ, dự đoán rằng các tác nhân AI trong tương lai sẽ đồng thời sử dụng cả cơ sở dữ liệu có cấu trúc và tạo sinh để xử lý nhiệm vụ.
NVIDIA ra mắt NemoClaw để đơn giản hóa việc nuôi tôm.
Gần đây, OpenClaw, tác nhân AI mã nguồn mở thường được gọi là "Tôm Hùm", đã trở nên vô cùng phổ biến, và NVIDIA (NVDA.O) đã công bố một phiên bản đơn giản hóa để giúp người dùng "nuôi tôm hùm". Giám đốc điều hành của NVIDIA, Jensen Huang, đã công bố NemoClaw dành cho nền tảng tác nhân OpenClaw tại sự kiện GTC hôm thứ Hai. Người dùng có thể cài đặt một Chuỗi triển khai được tối ưu hóa độ sâu cho OpenClaw chỉ với một lệnh duy nhất. NemoClaw sử dụng phần mềm NVIDIA Agent Toolkit, tối ưu hóa OpenClaw chỉ với một lệnh. Nó cài đặt OpenShell, cung cấp một mô hình mở và một môi trường biệt lập, tăng cường quyền riêng tư dữ liệu và bảo mật cho các tác nhân tự động.
Nhấn để tìm hiểu BlockBeats các vị trí tuyển dụng tại BlockBeats.
Chào mừng bạn đến với cộng đồng BlockBeats chính thức :
Nhóm đăng ký Telegram: https://t.me/theblockbeats
Nhóm Telegram: https://t.me/BlockBeats_App
Tài khoản Twitter chính thức: https://twitter.com/BlockBeatsAsia






