
Intel và Microsoft đã tạo ra Wintel, công ty thống trị kỷ nguyên máy tính trong nhiều năm.
Ở một khía cạnh nào đó, CUDA của NVIDIA tương đương với Windows trong kỷ nguyên CPU, gánh vác nhiệm vụ quan trọng là xây dựng hệ sinh thái ứng dụng. Rào cản sinh thái là rào cản cạnh tranh sâu sắc hơn hiệu suất của chip. Vì vậy, CUDA là con át chủ bài lớn nhất của NVIDIA.
Trong kỷ nguyên CPU, chúng ta đã bị Wintel đàn áp trong nhiều năm. Trong thời đại AI, NVIDIA tích hợp GPU và CUDA Liệu đây có phải là một Wintel khác khó đột phá? Cho đến nay, vâng.
Do Hoa Kỳ đàn áp ngành công nghiệp AI của Trung Quốc, thẻ chip ngày càng được sử dụng thường xuyên hơn. Không chỉ chính phủ Mỹ, mà bản thân Nvidia cũng ngày càng có xu hướng “chơi bài” vì cân nhắc cạnh tranh thương mại. Và CUDA là con át chủ bài lớn nhất của NVIDIA. Nếu Trung Quốc muốn vượt qua sự phong tỏa trong lĩnh vực điện toán AI, nước này không chỉ phải có GPU riêng mà còn phải có CUDA riêng. Để thực hiện được điều này, hiện tại, có vẻ như cách duy nhất để làm được điều này là phải dựa vào Huawei.
CUDA là hệ thống bảo vệ sâu nhất của NVIDIA
Trong thế giới kết xuất đồ họa, NVIDIA đã giành được sự ưu ái của thị trường với công nghệ GPU tuyệt vời của mình. Tuy nhiên, NVIDIA vẫn chưa dừng lại ở đó. Tầm nhìn của họ đã vượt qua ranh giới về kết xuất đồ họa và đầu tư vào lĩnh vực điện toán rộng hơn. Năm 2006, NVIDIA ra mắt CUDA (Compute Unified Device Architecture), một động thái đánh dấu sự chuyển mình của NVIDIA từ một gã khổng lồ về đồ họa thành một gã khổng lồ về điện toán.

Có một số nút chính trong quá trình phát triển CUDA:
2007: Việc phát hành CUDA 1.0 đã mở ra khả năng tính toán chung của GPU và cung cấp cho các nhà phát triển chìa khóa để bước vào thế giới lập trình GPU.
2008: CUDA 2.0 bổ sung hỗ trợ cho số học dấu phẩy động có độ chính xác kép, rất quan trọng đối với các lĩnh vực như tính toán khoa học và mô phỏng kỹ thuật.
2010: CUDA 3.0 tiếp tục mở rộng khả năng xử lý song song của GPU và cung cấp hỗ trợ cho nhiệm vụ tính toán phức tạp hơn.
2012: CUDA 5.0 giới thiệu tính năng song song động, cho phép lõi GPU tự sao chép, cải thiện đáng kể tính linh hoạt và hiệu quả của chương trình.
Các phiên bản này không chỉ thúc đẩy sự tiến bộ của công nghệ CUDA mà còn trở thành cột mốc quan trọng trong lịch sử phát triển điện toán song song GPU.

Cốt lõi của CUDA nằm ở mô hình điện toán song song cải tiến bằng cách phân tách nhiệm vụ điện toán thành hàng nghìn luồng, CUDA có thể đạt được khả năng xử lý song song chưa từng có trên GPU. Mô hình này không chỉ cải thiện đáng kể hiệu quả tính toán mà còn biến GPU trở thành nền tảng lý tưởng để giải quyết các vấn đề tính toán phức tạp. Từ học độ sâu đến mô phỏng khoa học, CUDA xác định kỷ nguyên mới của điện toán song song và mở ra một chương mới về điện toán hiệu năng cao.
Với sự phát triển của AI và dữ liệu lớn, tầm ảnh hưởng trên thị trường của CUDA tiếp tục mở rộng. Các nhà phát triển đang chuyển sang CUDA để tận dụng sức mạnh tính toán mạnh mẽ của GPU nhằm tăng tốc ứng dụng của họ. Các doanh nghiệp cũng đã nhận ra giá trị của CUDA và coi đây là công nghệ chủ chốt để nâng cao hiệu suất và khả năng cạnh tranh của sản phẩm. Theo dữ liệu, CUDA đã được tải về hơn 33 triệu lần.
Đối với NVIDIA, CUDA đã trở thành hệ thống bảo vệ sâu nhất của NVIDIA. Nó không chỉ củng cố địa vị dẫn đầu của NVIDIA trên thị trường GPU mà còn mở ra cơ hội cho NVIDIA thâm nhập vào nhiều lĩnh vực tiên tiến như điện toán hiệu năng cao, học độ sâu và lái xe tự động. Khi công nghệ tiếp tục phát triển và thị trường tiếp tục mở rộng, CUDA chắc chắn sẽ tiếp tục đóng nhân vật là hệ thống bảo vệ sâu nhất của NVIDIA, dẫn đầu tương lai của công nghệ điện toán.
Liệu kiến trúc DaVinci, muộn hơn CUDA 12 năm, có hỗ trợ được tham vọng AI của Huawei không?
Kiến trúc Da Vinci, là kiến trúc điện toán AI do Huawei tự phát triển, nguồn gốc của nó có liên quan chặt chẽ đến những hiểu biết sâu sắc của Huawei về các ứng dụng AI trong tương lai. Vài năm trước, Huawei dự đoán đến năm 2025, số lượng thiết bị đầu cuối thông minh trên toàn thế giới sẽ đạt 40 tỷ, tỷ lệ thâm nhập của trợ lý thông minh sẽ đạt 90% và tỷ lệ sử dụng dữ liệu doanh nghiệp sẽ đạt 86%. Dựa trên những dự đoán như vậy, Huawei đã đề xuất chiến lược AI toàn diện, cho mọi kịch bản tại Hội nghị Kết nối Toàn diện 2018 và thiết kế kiến trúc điện toán DaVinci để cung cấp tỷ lệ băm AI mạnh mẽ trong các điều kiện tiêu thụ điện năng và khối lượng khác nhau.
Sự phát triển của kiến trúc Da Vinci có thể bắt nguồn từ năm 2018, khi chip AI Ascend 310 do Huawei ra mắt ra mắt, đánh dấu sự ứng dụng chính thức của kiến trúc Da Vinci. Ngay sau đó, Huawei đã phát hành chip SoC dành cho điện thoại di động 8 sê-ri mới, chip SoC Kirti 810 vào tháng 6 năm 2019, lần đầu tiên sử dụng NPU kiến trúc DaVinci để đạt được tỷ lệ băm AI đầu cuối hàng đầu trong ngành. Hiệu năng vượt trội của Redmi 810 trong danh sách AI Benchmark chứng tỏ sức mạnh của kiến trúc DaVinci.
Kiến trúc DaVinci là kiến trúc điện toán mới được thiết kế dành riêng cho các đặc tính điện toán AI. Nó có các đặc điểm về tỷ lệ băm cao, hiệu suất năng lượng cao, tính linh hoạt và khả năng tùy chỉnh. Ưu điểm cốt lõi của nó nằm ở việc sử dụng 3D Cube để tăng tốc các hoạt động ma trận. Mỗi lõi AI có thể thực hiện 4096 hoạt động MAC trong một chu kỳ xung nhịp, đây là mức cải thiện đáng kể so với CPU và GPU truyền thống. Ngoài ra, kiến trúc DaVinci còn tích hợp nhiều đơn vị tính toán như vectơ, vô hướng và accelerator phần cứng, đồng thời hỗ trợ nhiều phép tính chính xác để hỗ trợ các yêu cầu về độ chính xác của dữ liệu trong cả kịch bản huấn luyện và suy luận.
Kiến trúc DaVinci có nhiều lĩnh vực ứng dụng, bao gồm các ứng dụng AI cho mọi kịch bản từ thiết bị đầu cuối đến đám mây. Về mặt thiết bị, tỷ lệ băm AI của chip Kiri 810 đã được ứng dụng trên điện thoại thông minh, mang đến cho người tiêu dùng trải nghiệm ứng dụng AI phong phú. Ở rìa và trên đám mây, sê-ri bộ xử lý AI Ascend có thể đáp ứng các kịch bản đào tạo từ hàng chục miliwatt đến hàng trăm watt, cung cấp tỷ lệ băm AI tối ưu. Tính linh hoạt và hiệu quả của kiến trúc DaVinci cho phép nó đóng một vai trò quan trọng trong thành phố thông minh, xe tự lái, sản xuất công nghiệp và các lĩnh vực khác.
Đúng là kiến trúc DaVinci chiếm vị trí cốt lõi trong cách bố trí thị trường AI của Huawei. Nó không chỉ là nền tảng kỹ thuật cho chip AI của Huawei mà còn là sự hỗ trợ quan trọng cho chiến lược AI toàn diện, cho mọi kịch bản của Huawei. Thông qua kiến trúc DaVinci, Huawei có thể cung cấp các giải pháp AI toàn diện từ phần cứng đến phần mềm, đẩy nhanh quá trình công nghiệp hóa và ứng dụng công nghệ AI. Ngoài ra, sự thống nhất của kiến trúc DaVinci còn mang lại sự thuận tiện cho các nhà phát triển, giảm chi phí phát triển và di chuyển, đồng thời thúc đẩy sự đổi mới và phát triển các ứng dụng AI.
Da Vinci VS CUDA, cơ hội chiến thắng là bao nhiêu?
So với CUDA ra mắt năm 2006, Huawei DaVinci muộn hơn 12 năm. Trong 12 năm qua, Leonardo da Vinci đã bắt kịp. Ngoài khoảng cách về thời gian, DaVinci và CUDA còn có những khác biệt đáng kể về nhiều mặt như triết lý thiết kế kiến trúc, hiệu suất, Chuỗi công cụ và hệ sinh thái nhà phát triển.
Về mặt triết lý thiết kế, CUDA là một nền tảng điện toán song song và mô hình API được phát triển bởi NVIDIA, cho phép các nhà phát triển sử dụng GPU NVIDIA để tính toán song song hiệu quả. Kiến trúc DaVinci là kiến trúc điện toán mới được Huawei phát triển cho các tính năng điện toán AI. Nó sử dụng 3D Cube để tăng tốc các hoạt động ma trận, cải thiện đáng kể tỷ lệ băm AI trên mỗi đơn vị điện năng tiêu thụ. Thiết kế của CUDA tập trung nhiều hơn vào tính linh hoạt, trong khi DaVinci tập trung vào hiệu quả của điện toán AI.
Xét về hiệu suất tính toán AI, CUDA và DaVinci đều có những ưu điểm riêng. CUDA dựa vào nhiều năm tích lũy công nghệ để hỗ trợ khả năng xử lý song song quy mô lớn và phù hợp để xử lý nhiều nhiệm vụ điện toán phức tạp khác nhau. Kiến trúc Da Vinci tối ưu hóa các hoạt động ma trận thông qua công cụ tính toán Khối 3D, giúp tăng đáng kể tỷ lệ băm AI trên một đơn vị diện tích. Trong các kịch bản ứng dụng AI như học độ sâu, kiến trúc DaVinci đã thể hiện hiệu suất tuyệt vời.
Kiến trúc CUDA và DaVinci có khả năng ứng dụng khác nhau trong các lĩnh vực khác nhau. Do tính linh hoạt của nó, CUDA được sử dụng rộng rãi trong nghiên cứu khoa học, y học, tài chính và các lĩnh vực khác. Kiến trúc DaVinci chủ yếu nhắm đến điện toán AI, đặc biệt là trong các kịch bản ứng dụng AI ở phía thiết bị, phía biên và đám mây, chẳng hạn như điện thoại thông minh, xe tự lái, việc kinh doanh đám mây, v.v.
Từ quan điểm của nhà phát triển, kiến trúc CUDA và DaVinci khác nhau ở mức độ dễ sử dụng của các mô hình lập trình và Chuỗi công cụ của chúng. CUDA cung cấp Chuỗi công cụ phát triển hoàn chỉnh, bao gồm trình biên dịch CUDA, trình gỡ lỗi, công cụ phân tích hiệu suất, v.v., đồng thời hỗ trợ nhiều ngôn ngữ lập trình và khung học độ sâu. Mặc dù kiến trúc DaVinci bắt đầu muộn nhưng Huawei cũng đang tích cực xây dựng Chuỗi công cụ và hệ sinh thái dành cho nhà phát triển, cung cấp hỗ trợ cần thiết để thúc đẩy việc sử dụng và đổi mới của nhà phát triển. Nhưng xét về độ đầy đủ và phong phú của Chuỗi công cụ, Da Vinci vẫn thua xa CUDA.
CUDA đã thiết lập một cộng đồng nhà phát triển và hệ sinh thái lớn thông qua nhiều ứng dụng và công nghệ hoàn thiện. Xây dựng sinh thái khó hơn việc chỉ đơn giản là cải thiện hiệu suất GPU. Đây là thử nghiệm thực sự đối với Huawei.
GPU Huawei gần như đã sẵn sàng nhưng vẫn còn lâu mới xây dựng được CUDA của riêng mình
Hiện tại, xu hướng phát triển GPU của Huawei tương đối tốt.
Theo thông tin công khai, bán ra GPU tỷ lệ băm của Huawei vào năm 2023 sẽ có khoảng 100.000 chiếc. Với sự gia tăng năng lực sản xuất, dự kiến con số này sẽ tăng gấp nhiều lần để đạt hàng trăm nghìn chiếc vào năm 2024. Dù năng lực sản xuất tăng nhưng nhu cầu đặt hàng trên thị trường vẫn rất lớn, chỉ riêng đặt lệnh trong tháng 1/2024 đã lên tới hàng trăm nghìn chiếc. Hiện tại, nhu cầu đặt lệnh đã lên tới hàng triệu chiếc, vượt xa khả năng cung cấp hiện tại của Huawei.
Về mặt mua hàng trong nước, GPU tỷ lệ băm của Huawei đã được thị trường săn đón nhiệt tình. Khách hàng sử dụng GPU tỷ lệ băm của Huawei chủ yếu được chia thành ba cấp: loại thứ nhất là ba nhà khai thác lớn và khách hàng chính phủ, loại thứ hai là khách hàng Internet và loại thứ ba là các công ty khác. Do thiếu GPU tỷ lệ băm, khách hàng đang phấn đấu trở thành khách hàng hạng nhất để có được sản phẩm càng sớm càng tốt và thậm chí thực hiện các biện pháp như hợp tác với chính quyền địa phương để đảm bảo nguồn cung ưu tiên.
Về giá cả, GPU tỷ lệ băm của Huawei đã trải qua ít nhất lần tăng giá kể từ khi ra mắt vào tháng 8 năm 2023. Giá niêm yết ban đầu là khoảng 70.000 nhân dân tệ, và giá thị trường hiện tại đã tăng lên khoảng 120.000 nhân dân tệ.
Nhìn chung, xu hướng phát triển của GPU Huawei là tốt và nhu cầu thị trường mạnh mẽ. Mặc dù nguồn cung khan hiếm nhưng điều này cũng phản ánh những lợi thế của GPU Huawei về hiệu suất và khả năng nội địa hóa, khiến nó trở thành lựa chọn phổ biến trên thị trường. Với sự tiến bộ không ngừng của công nghệ và nâng cao hơn nữa năng lực sản xuất, GPU Huawei dự kiến sẽ chiếm một vị trí quan trọng hơn trên thị trường tương lai.
Trong một cuộc phỏng vấn độc quyền, Huang Renxun nói: "Huawei là một công ty tốt". Ngoài ra, Nvidia liệt kê Huawei là đối thủ cạnh tranh chính trong báo cáo tài chính của mình, điều này phản ánh khả năng cạnh tranh của Huawei trong lĩnh vực GPU và các công nghệ liên quan ngày càng tăng.
Mặc dù xu hướng phát triển GPU của Huawei là tốt, nhưng CUDA, với tư cách là framework vị trí chủ đạo trong lĩnh vực GPU, đã có sự trưởng thành và được chấp nhận rộng rãi đối với hệ sinh thái của mình, vượt xa các framework khác, bao gồm cả những framework do AMD phát triển. Khung điện toán AI của Huawei vẫn còn một chặng đường dài về mặt xây dựng sinh thái. Nó đòi hỏi phải liên tục đổi mới công nghệ và thúc đẩy thị trường để dần dần xây dựng một hệ sinh thái có thể so sánh được với CUDA.
Tuy nhiên, Nvidia không muốn cho Huawei thời gian để trưởng thành.
Gần đây, NVIDIA đã điều chỉnh chính sách tương thích với nền tảng CUDA của mình, hạn chế hành vi chạy của phần mềm CUDA trên nền tảng phần cứng không phải của NVIDIA. Quyết định này bắt đầu từ năm 2021 và sẽ dần dần được củng cố trong những năm tiếp theo. Cụ thể, Nvidia đã cập nhật Thỏa thuận cấp phép người dùng cuối (EULA) để cấm rõ ràng việc sử dụng các lớp dịch hoặc lớp mô phỏng để chạy mã CUDA trên GPU không phải của Nvidia.
Thay đổi chính sách này chủ yếu ảnh hưởng đến các dự án của bên thứ ba cố gắng đạt được khả năng tương thích CUDA thông qua công nghệ dịch thuật, chẳng hạn như ZLUDA. ZLUDA là một thư viện dịch cho phép chạy các chương trình CUDA trên phần cứng không phải NVIDIA. Nó cung cấp một cách tương đối đơn giản để các nhà phát triển chạy các chương trình CUDA mà hiệu suất bị giảm một chút.
Động thái của Nvidia được nhiều người cho rằng là một động thái chiến lược nhằm bảo vệ thị thị phần và duy trì quyền kiểm soát công nghệ của mình. Bằng cách giới hạn cách sử dụng phần mềm CUDA trên các chip khác, Nvidia đảm bảo rằng GPU của họ vẫn là lựa chọn hàng đầu cho các nhà phát triển và doanh nghiệp dựa vào nền tảng điện toán song song của họ.
Tuy nhiên, quyết định này đã gây ra cú sốc khá lớn trong ngành và gây ra nhiều cuộc thảo luận rộng rãi. Nhiều người cáo buộc Nvidia lợi dụng chính sách phong tỏa để độc chiếm thị trường, kìm hãm cơ hội phát triển của đối thủ.
Đối diện chính sách hạn chế của NVIDIA, một số công ty GPU trong nước như Moore Threads đã chọn tuân thủ các quy định của EULA và tuyên bố rằng họ sẽ biên dịch lại mã để phù hợp với EULA nhằm tránh vi phạm các điều khoản hạn chế của NVIDIA.
Ngoài ra, các thế lực khác trong ngành, bao gồm AMD, Intel và các nhà sản xuất khác, vẫn chưa dừng lại trước những hạn chế của NVIDIA. Họ đang tích cực thúc đẩy việc xây dựng một hệ sinh thái mở và di động nhằm phá vỡ thế độc quyền thị trường của NVIDIA.
Đối diện động thái của Nvidia, Huawei cần dựa nhiều hơn vào các công cụ phần mềm và hoàn cảnh phát triển tự phát triển khi phát triển công nghệ GPU của riêng mình, thay vì dựa vào các nền tảng trưởng thành như CUDA. Điều này có nghĩa là Huawei cần đầu tư nhiều nguồn lực hơn vào việc xây dựng hệ sinh thái phần mềm của riêng mình, bao gồm phát triển các công cụ lập trình, thư viện và API cạnh tranh với hiệu suất CUDA.
Có thể thấy trước rằng trong một thời gian dài trong tương lai, do việc sử dụng CUDA rộng rãi và tác động sâu sắc của nó đến điện toán hiệu năng cao, AI và các lĩnh vực khác, chính sách này của Nvidia có thể hạn chế sự chấp nhận của thị trường đối với GPU Huawei, đặc biệt là ở những người đã có Miền độ sâu dựa vào CUDA.
Điều này càng củng cố tính cấp thiết để Huawei xây dựng kiến trúc điện toán AI và hệ sinh thái AI của riêng mình. Cũng giống như việc cắt nguồn cung Android đã giúp Hongmeng thành công, liệu thắt chặt CUDA có trở thành trợ thủ đắc lực cho kiến trúc DaVinci của Huawei hay không? Bây giờ không dễ để phán xét, hãy để đạn bay một lúc.




