Sự suy giảm liên tục của AI Agent có phải là do giao thức MCP phổ biến gần đây không?

Bài viết này được dịch máy
Xem bản gốc

Tác giả: Haotian

Một số bạn bè nói rằng, sự sụt giá liên tục của các mục tiêu Token web3 AI Agent như #ai16z, $arc là do sự bùng nổ gần đây của giao thức MCP? Nghe thì có vẻ hơi lạ, WTF có liên quan gì không? Nhưng suy nghĩ kỹ hơn, thì thấy cũng có một số logic nhất định: định giá và logic định giá của các Token web3 AI Agent đã thay đổi, cần phải điều chỉnh hướng kể chuyện và lộ trình triển khai sản phẩm! Dưới đây, tôi xin chia sẻ quan điểm cá nhân:

1) MCP (Model Context Protocol) là một giao thức chuẩn hóa mã nguồn mở nhằm cho phép các AI LLM/Agent kết nối không gián đoạn với các nguồn dữ liệu và công cụ khác nhau, như một "giao diện USB phổ dụng", thay thế cho cách tiếp cận "đặc định" từng trường hợp cụ thể như trước đây.

Nói một cách đơn giản, trước đây các ứng dụng AI đều có những "hòn đảo dữ liệu" rõ ràng, để các Agent/LLM có thể trao đổi thông tin với nhau thì cần phải tự phát triển các API gọi tương ứng, quy trình vận hành phức tạp, thậm chí còn thiếu tính tương tác hai chiều, thường chỉ có khả năng truy cập và quyền hạn giới hạn đối với các mô hình.

Sự xuất hiện của MCP đã cung cấp một khuôn khổ thống nhất, giúp các ứng dụng AI có thể thoát khỏi tình trạng "hòn đảo dữ liệu" trước đây, thực hiện khả năng "động" truy cập dữ liệu và công cụ bên ngoài, có thể giảng đáng kể độ phức tạp trong phát triển và hiệu quả tích hợp, đặc biệt là trong các lĩnh vực như thực hiện tự động hóa nhiệm vụ, truy vấn dữ liệu thời gian thực và hợp tác liên nền tảng.

Nói đến đây, nhiều người lập tức nghĩ rằng, nếu sử dụng khung làm việc hợp tác đa Agent sáng tạo như Manus kết hợp với MCP, một framework mã nguồn mở thúc đẩy hợp tác đa Agent, thì sẽ trở nên vô địch phải không?

Đúng vậy, Manus + MCP chính là điểm then chốt khiến web3 AI Agent gặp phải những tác động này.

2) Tuy nhiên, điều khó hiểu là, dù Manus hay MCP đều là các khuôn khổ và tiêu chuẩn giao thức hướng đến web2 LLM/Agent, những vấn đề mà chúng giải quyết là trao đổi dữ liệu và hợp tác giữa các máy chủ tập trung, quyền hạn và kiểm soát truy cập vẫn phụ thuộc vào việc các nút máy chủ "chủ động" mở ra, nói cách khác, chúng chỉ là một công cụ mã nguồn mở.

Lý lẽ thì, chúng hoàn toàn trái ngược với tư tưởng "máy chủ phân tán, hợp tác phân tán, khích lệ phân tán" mà web3 AI Agent theo đuổi, làm sao một khẩu pháo tập trung có thể phá hủy được pháo đài phi tập trung?

Nguyên nhân là, giai đoạn đầu của web3 AI Agent quá "web2 hóa", một mặt là do nhiều đội ngũ đến từ nền tảng web2, thiếu hiểu biết sâu sắc về nhu cầu bản địa web3, ví dụ như khung ElizaOS ban đầu chỉ là một framework giúp nhà phát triển nhanh chóng triển khai ứng dụng AI Agent, tích hợp các nền tảng như Twitter, Discord và một số API như OpenAI, Claude, DeepSeek, chỉ đơn giản là bao bọc một số bộ khung Memory, Charater chung, giúp nhà phát triển nhanh chóng xây dựng ứng dụng AI Agent. Nhưng nếu xét kỹ, thì bộ khung dịch vụ này và các công cụ mã nguồn mở web2 có gì khác biệt? Và lợi thế cạnh tranh là gì?

Ồ, liệu ưu thế chỉ là có một cơ chế khích lệ Tokenomics? Sau đó sử dụng một bộ khung hoàn toàn có thể thay thế bằng web2, để khích lệ một nhóm AI Agent chỉ tồn tại vì phát hành tiền mới? Kinh khủng... Theo logic này, bạn sẽ hiểu tại sao Manus + MCP lại có thể tác động đến web3 AI Agent.

Do các khuôn khổ và dịch vụ web3 AI Agent chỉ giải quyết nhu cầu phát triển và ứng dụng tương tự như web2 AI Agent, nhưng về mặt công nghệ, tiêu chuẩn và lợi thế cạnh tranh thì vẫn chưa theo kịp tốc độ đổi mới của web2, nên thị trường/vốn đã tiến hành định giá và định giá lại đối với web3 AI Agent trước đó.

3) Nói đến đây, đại khái đã tìm ra nguyên nhân cốt lõi của vấn đề, nhưng làm thế nào để phá vỡ được? Chỉ có một con đường: tập trung vào việc xây dựng các giải pháp bản địa web3, bởi vì cấu trúc vận hành phân tán và khích lệ mới là lợi thế cạnh tranh tuyệt đối của web3.

Lấy ví dụ về các nền tảng dịch vụ tính toán đám mây, dữ liệu, thuật toán phân tán, trên bề mặt thì việc tập hợp các tài nguyên nhàn rỗi để cung cấp dịch vụ, ngắn hạn hoàn toàn không thể đáp ứng được nhu cầu triển khai đổi mới công nghiệp. Nhưng trong bối cảnh các AI LLM đang cạnh tranh quyết liệt để đạt được bước nhảy vọt về hiệu suất, thì một mô hình dịch vụ dựa trên "tài nguyên nhàn rỗi, chi phí thấp" tự nhiên sẽ khiến các nhà phát triển web2 và VC không thèm đếm xỉa.

Tuy nhiên, khi web2 AI Agent vượt qua giai đoạn cạnh tranh về hiệu suất, tất yếu sẽ hướng tới mở rộng ứng dụng chuyên ngành và tối ưu hóa mô hình, lúc đó mới thực sự thể hiện được ưu thế của dịch vụ tài nguyên web3 AI.

Trên thực tế, khi những "ông lớn" web2 AI đã chiếm lĩnh vị trí thống trị thông qua độc quyền tài nguyên, rất khó để quay trở lại với tư duy "vây làng đánh thành", từng bước phá vỡ các phân khúc chuyên sâu, đó chính là thời điểm mà các nhà phát triển web2 AI dư thừa kết hợp với nguồn lực web3 AI phát huy sức mạnh.

Trên thực tế, ngoài khuôn khổ triển khai nhanh + hợp tác đa Agent và câu chuyện phát hành Token của web2, web3 AI Agent còn có rất nhiều hướng đổi mới mang tính bản địa web3 đáng để khám phá:

Ví dụ, trang bị một khuôn khổ hợp tác đồng thuận phân tán, xét đến đặc tính tính toán ngoài chuỗi + lưu trữ trạng thái trên chuỗi của các mô hình LLM lớn, cần nhiều thành phần thích ứng.

1. Một hệ thống xác thực danh tính phi tập trung (DID), để các Agent có thể sở hữu danh tính có thể xác minh trên chuỗi, giống như địa chỉ duy nhất do máy ảo tạo ra cho hợp đồng thông minh, chủ yếu để theo dõi và ghi lại trạng thái liên tục;

2. Một hệ thống oracle phi tập trung, chủ yếu chịu trách nhiệm thu thập và xác minh dữ liệu ngoài chuỗi, khác với oracle truyền thống, oracle này phù hợp với AI Agent có thể cần một kiến trúc kết hợp nhiều Agent bao gồm lớp thu thập dữ liệu, lớp đồng thuận quyết định và lớp phản hồi thực thi, để dữ liệu và tính toán ngoài chuỗi cần thiết cho Agent có thể kịp thời tiếp cận;

3. Một hệ thống lưu trữ phân tán (DA), do trạng thái của kho kiến thức và quá trình suy luận của AI Agent tương đối không chắc chắn và tạm thời, cần một hệ thống lưu trữ các trạng thái then chốt và lộ trình suy luận vào hệ thống lưu trữ phân tán, cung cấp cơ chế chứng minh dữ liệu có chi phí kiểm soát được để đảm bảo tính sẵn có của dữ liệu khi xác minh trên chuỗi;

4. Một lớp tính toán bằng chứng không tri thức (ZKP), có thể kết hợp các giải pháp tính toán riêng tư như TEE, FHE, v.v., để thực hiện tính toán riêng tư theo thời gian thực + chứng minh dữ liệu, cho phép Agent có thể tiếp cận nhiều nguồn dữ liệu chuyên ngành hơn (y tế, tài chính), từ đó xuất hiện nhiều dịch vụ Agent tùy chỉnh chuyên sâu hơn;

5. Một giao thức khả năng tương tác liên chuỗi, có phần tương tự như khuôn khổ giao thức MCP đã định nghĩa, nhưng khác biệt ở chỗ, giải pháp Interoperability này cần có cơ chế relay và điều phối giao tiếp phù hợp với việc chạy, truyền và xác minh Agent, để giải quyết vấn đề chuyển tài sản và đồng bộ hóa trạng thái giữa các chuỗi, đặc biệt là bao gồm ngữ cảnh Agent, Prompt, kho kiến thức, Memory, v.v.;

...

Theo tôi, trọng tâm thực sự của web3 AI Agent nên là làm thế nào để "quy trình công việc phức tạp" của AI Agent và "luồng xác minh tin cậy" của blockchain có thể tương thích tối đa. Về các giải pháp tăng cường này, có thể đến từ việc nâng cấp lặp đi lặp lại các dự án kể chuyện cũ, hoặc được xây dựng lại từ đầu bởi các dự án mới trên đường đua AI Agent, đều có khả năng.

Đây mới chính là hướng mà web3 AI Agent nên nỗ lực xây dựng, đây mới là cơ sở cơ bản của một hệ sinh thái đổi mới phù hợp với câu chuyện lớn AI + Crypto. Nếu không thể có những đột phá sáng tạo và xây dựng rào cản cạnh tranh khác biệt, thì mỗi lần gió thổi trong cuộc đua AI web2, đều có thể làm cho web3 AI lật đổ.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận