Khi các doanh nghiệp chuyển đổi công nghệ AI từ giai đoạn thử nghiệm ban đầu sang ứng dụng thực tế, thách thức cốt lõi chuyển từ "thiết kế mô hình" sang "thực thi". Khả năng vận hành thực tiễn, chẳng hạn như chuẩn bị cơ sở hạ tầng, quản trị dữ liệu và năng lực tổ chức, đang trở nên quan trọng trong việc quyết định thành công hay thất bại. Trong giai đoạn chuyển đổi này, HPE đang tìm kiếm sự phát triển khác biệt thông qua chiến lược tập trung vào điện toán đám mây lai và cơ sở hạ tầng AI, nhằm thu hẹp khoảng cách thực thi trong các ứng dụng AI doanh nghiệp.
Để chuyển đổi các thí nghiệm AI thành kết quả có thể lặp lại, HPE đang tích cực quảng bá khái niệm "Nhà máy AI". Khái niệm này nhằm mục đích tái cấu trúc các trung tâm dữ liệu truyền thống thành các cấu trúc giống như nhà máy, tối ưu hóa khả năng tính toán tốc độ cực cao, hiệu quả năng lượng và các hoạt động dựa trên dữ liệu, hỗ trợ toàn bộ vòng đời AI từ đào tạo đến suy luận, triển khai và giám sát thông qua các quy trình tự động. Thị trường Nhà máy AI, tập trung vào các công nghệ điện toán tăng tốc và kiến trúc mạng hiệu suất cao, dự kiến sẽ vượt quá 1 nghìn tỷ đô la (khoảng 1440 nghìn tỷ won Hàn Quốc) vào năm 2031, với tăng trưởng hàng năm ước tính là 38%.
Một nền tảng khác cho việc thực thi AI là điện toán đám mây lai. Do các yếu tố như vị trí dữ liệu, độ trễ, quy định của quốc gia và chi phí, ngày càng có nhiều áp lực buộc phải triển khai linh hoạt các mô hình AI trên nhiều hoàn cảnh— tại chỗ, biên và đám mây công cộng — thay vì chỉ trong một hoàn cảnh duy nhất. Để giải quyết vấn đề này, HPE đã tích hợp khả năng đo lường từ xa, điều phối và kiểm soát mạng tập trung vào cơ sở hạ tầng GreenLake của mình để cung cấp một nền tảng quản lý thống nhất, và gần đây đã phát hành ba giải pháp chính cho việc tối ưu hóa GPU và vận hành đa người dùng.
Quan hệ đối tác với NVIDIA cũng là một trụ cột quan trọng trong việc tăng cường khả năng thực thi. Danh mục sản phẩm "NVIDIA AI Computing by HPE", được hình thành thông qua sự hợp tác chiến lược của hai bên, bao gồm các giải pháp AI đám mây sở hữu tư nhân, cơ sở hạ tầng quy mô lớn mở rộng và các nền tảng an ninh cấp quốc gia và chủ quyền dữ liệu. Đặc biệt đáng chú ý là HPE AI Factory, sử dụng kiến trúc liên kết để đạt được hoạt động thống nhất trên các thế hệ GPU, chuẩn bị cho mở rộng trong tương lai.
Những ví dụ thực tế đã bắt đầu xuất hiện. Để giải quyết các thách thức về an toàn công cộng và giao thông do sự gia tăng dân số, thị trấn nhỏ Weil ở Colorado đã giới thiệu giải pháp thành phố thông minh của HPE. Các công chức ảo được hỗ trợ bởi trí tuệ nhân tạo (AI) xử lý các yêu cầu của công dân và xác minh tài liệu, trong khi hệ thống cảm biến cung cấp cảnh báo sớm về rủi ro cháy rừng. Đây được coi là một ví dụ điển hình về hệ thống thực thi linh hoạt dựa trên điện toán đám mây lai, đạt được các ứng dụng AI cấp cao ngay cả trong hoàn cảnh hạn chế tài nguyên.
Tầm quan trọng của bảo mật và quản trị dữ liệu ngày càng trở nên rõ ràng cùng với sự phát triển nhanh chóng của trí tuệ nhân tạo (AI). Một khảo sát của HPE cho thấy 74% các nhà lãnh đạo CNTT cho rằng rằng bảo vệ dữ liệu do AI tạo ra là rất quan trọng, đặc biệt là vì các mô hình AI lưu trữ dữ liệu nhạy cảm trong quá trình huấn luyện, tiềm ẩn rủi ro thông tin độc hại bị sao chép nhiều lần. Để giải quyết vấn đề này, HPE bảo vệ các mô hình và dữ liệu trong các tường lửa độc lập và hợp tác với các công ty như NVIDIA, Intel và AMD để tăng cường khả năng điện toán bảo mật.
Các lĩnh vực mạng và lưu trữ, những trụ cột của cơ sở hạ tầng AI, cũng đang trải qua nâng cấp đáng kể. HPE đang giảm độ trễ mạng thông qua các bộ chuyển mạch chuyên dụng cho AI và chuyển đổi lưu trữ từ bộ nhớ đơn giản thành "lớp thông minh dữ liệu" hỗ trợ xử lý và phân loại theo thời gian thực. Điều này sẽ trở thành yếu tố cốt lõi của tự động hóa công việc dựa trên tác nhân AI.
Mở rộng các chiến lược công nghệ này đang thúc đẩy sự phát triển của một hệ sinh thái hợp tác. Thông qua Chương trình Đối tác Unleash AI, HPE hợp tác với các nhà cung cấp phần mềm độc lập trong lĩnh vực an ninh mạng, tuân thủ quy định và điều phối, cho phép khách hàng dễ dàng áp dụng các khung xác thực của họ vào hoàn cảnh AI phức tạp. Ví dụ, trong trường hợp của Weill, tác nhân và nền tảng tùy chỉnh được cung cấp bởi Kamiwaza và SHI International, trong khi HPE cung cấp hỗ trợ tích hợp vận hành.
Tóm lại, AI đang trải qua quá trình chuyển đổi từ giai đoạn thử nghiệm sang giai đoạn thương mại hóa mở rộng. Điều này đòi hỏi vượt qua các trung tâm dữ liệu đa năng truyền thống và xây dựng một mô hình cơ sở hạ tầng mới: nhà máy AI. HPE đang dẫn đầu sự chuyển đổi này bằng cách hợp tác với NVIDIA trong thiết kế, xây dựng hệ sinh thái đối tác tiên tiến và cung cấp một nền tảng thống nhất dựa trên điện toán đám mây lai. Những trường hợp này chứng minh rõ ràng rằng khi các doanh nghiệp cố gắng áp dụng AI một cách đáng kể vào các tình huống việc kinh doanh thực tế, điều họ thực sự cần không phải là công nghệ phức tạp, mà là cơ sở hạ tầng và chiến lược để biến ý tưởng của họ thành "thực thi".





