Một thử nghiệm trí tuệ nhân tạo phi tập trung, từng chỉ giới hạn trong giới tiền điện tử, vừa nhận được sự tán thành công khai từ CEO của Nvidia, Jensen Huang, báo hiệu rằng việc huấn luyện mô hình phân tán có thể đang tiến gần hơn đến xu hướng chính thống.
Đà phát triển của trí tuệ nhân tạo mã nguồn mở ngày càng mạnh mẽ với sự ủng hộ từ CEO của Nvidia.
Trong một tập của chương trình podcast All-In, Chamath Palihapitiya đã nêu bật Covenant-72B của Bittensor, coi nó như một ví dụ cụ thể về trí tuệ nhân tạo (AI) phi tập trung đang vượt ra khỏi lý thuyết. Bittensor hoạt động như một mạng lưới phi tập trung, dựa trên công nghệ blockchain, thiết lập một thị trường ngang hàng (peer-to-peer) nơi các mô hình học máy và năng lực tính toán AI được trao đổi và khuyến khích.
Palihapitiya mô tả nỗ lực này một cách đơn giản: một mô hình ngôn ngữ quy mô lớn (LLM) được huấn luyện mà không cần cơ sở hạ tầng tập trung, thay vào đó được hỗ trợ bởi một mạng lưới các cộng tác viên độc lập. Ông nói: “Họ đã huấn luyện được một mô hình LLaMA với 4 tỷ tham số, hoàn toàn phân tán, với sự đóng góp sức mạnh tính toán dư thừa của nhiều người”, và gọi đó là “một thành tựu kỹ thuật khá đáng kinh ngạc”.
Sự so sánh này được đưa ra bằng một phép ẩn dụ quen thuộc. “Có những người ngẫu nhiên, và mỗi người nhận được một phần nhỏ,” Palihapitiya nói thêm, đề cập đến dự án điện toán phân tán ban đầu đã tận dụng phần cứng nhàn rỗi trên toàn thế giới.
Huang không bác bỏ ý tưởng đó. Thay vào đó, ông nghiêng về một cách nhìn rộng hơn về thị trường AI, cho rằng các phương pháp phi tập trung và độc quyền không loại trừ lẫn nhau. “Hai điều này không phải là A hoặc B; mà là A và B,” Huang nói. “Không có gì phải bàn cãi về điều đó.”
Tầm nhìn hai hướng đó phản ánh sự phân chia – và chồng chéo – ngày càng tăng trong lĩnh vực Trí tuệ Nhân tạo (AI). Một mặt là các hệ thống khép kín, được hoàn thiện cao như ChatGPT, Claude và Gemini. Mặt khác là các mô hình mở và phi tập trung cho phép các nhà phát triển và tổ chức tùy chỉnh hệ thống cho các nhu cầu cụ thể.
Huang khẳng định ông coi cả hai hướng đi đều thiết yếu. “Các mô hình là công nghệ, không phải là sản phẩm,” ông nói, lưu ý rằng hầu hết người dùng sẽ tiếp tục dựa vào các hệ thống đa năng, hoàn thiện thay vì tự xây dựng hệ thống của riêng mình từ đầu.
Đồng thời, ông cũng chỉ ra những ngành công nghiệp mà việc tùy chỉnh là bắt buộc. “Có rất nhiều ngành công nghiệp mà chuyên môn của họ… phải được nắm bắt theo cách mà họ có thể kiểm soát,” Huang giải thích, và nói thêm rằng “điều đó chỉ có thể đến từ các mô hình mở.”
Tuyên bố đó hoàn toàn phù hợp với thế mạnh của Bittensor. Covenant-72B, được phát triển thông qua Subnet 3 (Templar) của họ, đại diện cho một trong những đợt huấn luyện phi tập trung lớn nhất cho đến nay, điều phối hơn 70 người đóng góp trên các kết nối internet tiêu chuẩn mà không cần một cơ quan trung ương.
Về mặt kỹ thuật, mô hình này đã vượt qua mọi giới hạn. Được xây dựng với 72 tỷ tham số và huấn luyện trên khoảng 1,1 nghìn tỷ token, nó tận dụng những cải tiến như giao thức truyền thông nén và song song hóa dữ liệu phân tán để giúp việc huấn luyện khả thi bên ngoài các trung tâm dữ liệu truyền thống.
Các chỉ số hiệu năng cho thấy đây không chỉ đơn thuần là một thử nghiệm. Kết quả kiểm định cho thấy nó có thể cạnh tranh với các mô hình tập trung đã được thiết lập, một chi tiết giúp giải thích tại sao dự án này lại thu hút sự chú ý không chỉ trong giới chuyên gia tiền điện tử.
Thị trường cũng đã chú ý. Sau thông báo, Token TAO của dự án đã tăng 24% kể từ khi video của Palihapitiya và Huang lan truyền trên mạng xã hội.
Tuy nhiên, những bình luận của Huang cho thấy câu chuyện thực sự không phải là sự gián đoạn, mà là sự cùng tồn tại giữa hai hình thức này. Các hệ thống AI độc quyền có thể sẽ vẫn chiếm ưu thế đối với người dùng phổ thông, trong khi các mô hình mở và phi tập trung sẽ tạo ra vai trò trong các ứng dụng chuyên biệt, nhạy cảm về chi phí hoặc liên quan đến chủ quyền quốc gia.
Đối với các công ty khởi nghiệp, CEO của Nvidia đã vạch ra một chiến lược thực tế: bắt đầu với mã nguồn mở, sau đó mới bổ sung các lợi thế độc quyền. Ông nói: “Mọi công ty khởi nghiệp mà chúng tôi đang đầu tư hiện nay đều bắt đầu với mã nguồn mở, rồi mới chuyển sang mô hình độc quyền”.
Nói cách khác, tương lai của trí tuệ nhân tạo có thể không thuộc về một kiến trúc hay triết lý duy nhất. Nó có thể thuộc về những người có thể điều hướng cả hai – và biết khi nào nên sử dụng từng loại.
Câu hỏi thường gặp 🔎
- Bittensor Covenant-72B là gì?
Một mô hình ngôn ngữ với 72 tỷ tham số được huấn luyện thông qua mạng lưới cộng tác viên phi tập trung mà không cần cơ sở hạ tầng tập trung. - Jensen Huang đã nói gì về trí tuệ nhân tạo phi tập trung?
Ông cho rằng các mô hình AI mã nguồn mở và độc quyền sẽ cùng tồn tại, mô tả mối quan hệ này như "A và B", chứ không phải là sự lựa chọn giữa chúng. - Tại sao sự phát triển này lại quan trọng?
Điều này cho thấy các mô hình AI quy mô lớn có thể được đào tạo bên ngoài các trung tâm dữ liệu truyền thống, thách thức những giả định về nhu cầu cơ sở hạ tầng. - Điều này ảnh hưởng đến ngành công nghiệp trí tuệ nhân tạo như thế nào?
Nó ủng hộ một tương lai kết hợp, nơi các nền tảng tập trung và các mô hình phi tập trung đóng các vai trò khác nhau trong các ngành công nghiệp.


