Giám đốc Render Network cho biết DePIN có thể giúp giảm bớt các nút thắt cổ chai trong lĩnh vực AI.

Bài viết này được dịch máy
Xem bản gốc

Theo Trevor Harries-Jones, giám đốc của Render Network Foundation, khi trí tuệ nhân tạo (AI) ngày càng mạnh mẽ, cơ sở hạ tầng cần thiết để vận hành nó sẽ đạt đến giới hạn và những giới hạn đó có thể mở ra cơ hội cho các mạng lưới cơ sở hạ tầng vật lý phi tập trung (DePIN).

Trong cuộc trò chuyện với người dẫn chương trình TheStreet Roundtable, Jackson Hinkle, Harries-Jones cho biết các mạng GPU phi tập trung không nhằm mục đích thay thế các trung tâm dữ liệu truyền thống, mà là để bổ sung cho chúng bằng cách giải quyết một số thách thức cấp bách nhất về khả năng mở rộng của AI.

Harries-Jones nói rằng DePIN không phải là dự án thay thế các cơ sở hạ tầng tập trung.

Nói một cách đơn giản, DePIN cho phép mọi người trên toàn thế giới chia sẻ cơ sở hạ tầng mạng thực tế để đổi lấy phần thưởng, nhờ đó không có sự phụ thuộc hay kiểm soát nào từ một công ty tập trung.

Một trong những dự án đó là Render Network. Thực chất, đây là một nền tảng kết xuất GPU phi tập trung được thiết kế để dân chủ hóa quá trình sáng tạo kỹ thuật số và giải phóng người sáng tạo khỏi sự kiểm soát của các thực thể tập trung.

Hinkle đã chỉ ra những ví dụ gần đây từ thế giới AI tập trung, bao gồm việc OpenAI phát hành ứng dụng tạo video có tên Sora, trong đó việc sử dụng phải bị giới hạn do những hạn chế về GPU.

Ông đặt câu hỏi liệu các mô hình phi tập trung cuối cùng có thể thay thế các trung tâm dữ liệu tập trung hay không.

Harries-Jones đã phản đối ý tưởng về việc thay thế hoàn toàn.

“Tôi không nghĩ đây là vấn đề thay thế,” ông nói. “Tôi thực sự nghĩ đây là vấn đề sử dụng cả hai.”

Các cụm GPU tập trung vẫn đóng vai trò quan trọng trong việc huấn luyện các mô hình AI quy mô lớn, vốn được hưởng lợi từ các nguồn bộ nhớ khổng lồ và phần cứng tích hợp chặt chẽ. Tuy nhiên, ông lưu ý rằng việc huấn luyện chỉ chiếm một phần nhỏ trong tổng khối lượng công việc tính toán trong AI.

Harries-Jones giải thích rằng quá trình suy luận — việc chạy các mô hình AI — chiếm gần 80% công việc của GPU.

Sự khác biệt đó là nơi mà các mạng lưới phi tập trung như Render phát huy tác dụng. Mặc dù các phiên bản đầu tiên của mô hình AI tiêu tốn nhiều tài nguyên, Harries-Jones cho biết chúng nhanh chóng trở nên hiệu quả hơn khi các kỹ sư tối ưu hóa và nén chúng.

Ông cho biết thêm, theo thời gian, các mô hình từng đòi hỏi cơ sở hạ tầng khổng lồ giờ đây có thể hoạt động trên các thiết bị đơn giản hơn nhiều như điện thoại thông minh.

"Vì vậy, chúng ta thường thấy điều này ở tất cả các mẫu máy mới ra mắt," ông nói. "Ban đầu chúng rất nặng nề và thô sơ, nhưng chỉ trong một thời gian Short , chúng được cải tiến để có thể hoạt động trên các thiết bị đơn giản, phân tán."

Theo Harries-Jones, xét từ góc độ chi phí, sự thay đổi đó khiến các mạng GPU phi tập trung ngày càng trở nên hấp dẫn hơn.

Thay vì chỉ dựa vào các trung tâm dữ liệu cao cấp, đắt tiền, khối lượng công việc suy luận có thể được phân bổ trên các GPU nhàn rỗi trên khắp thế giới, ông đề xuất.

"Việc vận hành chúng trên các nút tiêu thụ nhàn rỗi phân tán sẽ rẻ hơn so với trên các nút tập trung."

Thêm tin tức:

  • Tỷ phú Bill Ackman đề xuất công cụ 'hữu ích' để giải quyết vấn đề Iran bị chặn internet.
  • Tỷ phú cảnh báo vụ việc ở Greenland đã phá vỡ huyền thoại về Bitcoin.
  • Quỹ hưu trí Mỹ bất ngờ mua cổ phần của Michael Saylor's Strategy.

Harries-Jones lạc quan về lĩnh vực DePIN.

Harries-Jones đã mô tả DePIN như một cách để giải quyết các nút thắt cổ chai ngày càng gia tăng trong lĩnh vực trí tuệ nhân tạo, cả về cơ sở hạ tầng điện toán và năng lượng.

Ông giải thích rằng, khi các hệ thống điện tập trung gặp khó khăn, điện toán phi tập trung cung cấp một giải pháp song song bằng cách khai thác các nguồn tài nguyên chưa được sử dụng hết trên toàn cầu.

“Vì vậy, tôi rất lạc quan về toàn bộ lĩnh vực này.”

Harries-Jones nhấn mạnh rằng nhu cầu GPU toàn cầu vượt xa nguồn cung. Ông nói: "Hiện nay trên thế giới không có đủ GPU."

Vì vậy, chìa khóa là tận dụng tất cả các GPU đang nh闲 rỗi, chứ không phải tranh giành những GPU cao cấp đang khan hiếm, ông đề xuất.

Theo Harries-Jones, tương lai của cơ sở hạ tầng AI không phải là các mạng lưới tập trung hay DePIN. Thay vào đó, đó là việc sử dụng linh hoạt cả hai để đáp ứng nhu cầu bùng nổ về AI.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận