Tác giả: Frank Fu @ IOSG
MCP đang nhanh chóng chiếm địa vị cốt lõi trong hệ sinh thái Web3 AI Agent. Nó giới thiệu MCP Server thông qua kiến trúc dạng plug-in-in, cung cấp cho AI Agent các công cụ và khả năng mới.
Tương tự như các câu chuyện mới nổi khác trong không gian AI Web3, chẳng hạn như mã hóa rung cảm, MCP hoặc Giao thức ngữ cảnh mô hình, có nguồn gốc từ AI Web2 và hiện đang được tái hiện trong bối cảnh Web3.
MCP là gì?
MCP là một giao thức mở do Anthropic đề xuất để chuẩn hóa cách các ứng dụng truyền thông tin theo ngữ cảnh tới các mô hình ngôn ngữ lớn (LLM). Điều này cho phép sự cộng tác liền mạch hơn giữa các công cụ, dữ liệu và tác nhân AI.
Tại sao điều này lại quan trọng?
Những hạn chế cốt lõi của các mô hình ngôn ngữ lớn hiện nay bao gồm:
Không thể duyệt internet theo thời gian thực
Không có quyền truy cập trực tiếp vào các tập tin cục bộ hoặc riêng tư
Không thể tự động tương tác với phần mềm bên ngoài
MCP lấp đầy khoảng cách khả năng trên bằng cách hoạt động như một lớp giao diện chung, cho phép các tác nhân AI sử dụng nhiều công cụ khác nhau.
Bạn có thể so sánh MCP với USB-C trong lĩnh vực ứng dụng AI - một tiêu chuẩn giao diện thống nhất giúp AI dễ dàng kết nối với nhiều nguồn dữ liệu và mô-đun chức năng khác nhau.
Hãy tưởng tượng mỗi LLM là một chiếc điện thoại khác nhau — Claude sử dụng USB-A, ChatGPT sử dụng USB-C và Gemini có cổng Lightning. Nếu bạn là nhà sản xuất phần cứng, bạn phải phát triển một bộ phụ kiện cho mỗi giao diện, điều này có chi phí bảo trì cực kỳ cao.
Đây chính xác là vấn đề mà các nhà phát triển công cụ AI phải đối mặt: việc tùy chỉnh plug-in cho từng nền tảng LLM làm tăng đáng kể độ phức tạp và hạn chế mở rộng. MCP được thiết kế để giải quyết vấn đề này bằng cách thiết lập một tiêu chuẩn thống nhất, giống như việc yêu cầu tất cả các LLM và nhà cung cấp công cụ sử dụng giao diện USB-C.
Giao thức chuẩn hóa này có lợi cho cả hai bên:
Đối với AI Agent (máy trạm): có thể truy cập an toàn vào các công cụ bên ngoài và nguồn dữ liệu thời gian thực
Đối với nhà phát triển công cụ (phía máy chủ): quyền truy cập một lần, khả năng sử dụng đa nền tảng
Kết quả cuối cùng là một hệ sinh thái AI cởi mở hơn, có khả năng tương tác cao hơn và ít trở ngại hơn.
MCP khác với các API truyền thống như thế nào?
API được thiết kế để phục vụ con người chứ không phải để phục vụ AI. Mỗi API đều có cấu trúc và tài liệu riêng và các nhà phát triển phải chỉ định thủ công các tham số và đọc tài liệu giao diện. Bản thân AI Agent không thể đọc tài liệu và phải được mã hóa cứng để thích ứng với từng API (như REST, GraphQL, RPC, v.v.).
MCP tóm tắt các phần không có cấu trúc này bằng cách chuẩn hóa định dạng gọi hàm trong API và cung cấp phương thức gọi thống nhất cho Agent. Bạn có thể coi MCP như một lớp điều chỉnh API bao bọc Autonomous Agent.
Khi Anthropic lần đầu ra mắt MCP vào tháng 11 năm 2024, các nhà phát triển sẽ cần triển khai máy chủ MCP trên thiết bị cục bộ của họ. Vào tháng 5 năm nay, Cloudflare đã công bố tại Tuần lễ dành cho nhà phát triển rằng các nhà phát triển có thể triển khai trực tiếp máy chủ MCP từ xa trên nền tảng Cloudflare Workers với cấu hình thiết bị tối thiểu. Điều này giúp đơn giản hóa đáng kể quá trình triển khai và quản lý máy chủ MCP, bao gồm xác thực và truyền dữ liệu, có thể được gọi là "triển khai chỉ bằng một cú nhấp chuột".
Mặc dù bản thân MCP có vẻ không đủ "hấp dẫn" nhưng không có nghĩa là nó không quan trọng. Là một thành phần cơ sở hạ tầng thuần túy, MCP không thể được người tiêu dùng sử dụng trực tiếp. Giá trị của nó chỉ thực sự được bộc lộ khi AI Agent cấp cao gọi công cụ MCP và chứng minh kết quả thực tế.
Web3 AI x MCP Cảnh quan sinh thái
AI trong Web3 cũng phải đối mặt với các vấn đề về “thiếu dữ liệu theo ngữ cảnh” và “kho dữ liệu riêng lẻ”, nghĩa là AI không thể truy cập dữ liệu thời gian thực trên Chuỗi hoặc thực thi logic hợp đồng thông minh một cách tự nhiên.
Trước đây, các dự án như ai16Z, ARC, Swarms và Myshell đã cố gắng xây dựng các mạng lưới cộng tác đa tác nhân, nhưng cuối cùng lại rơi vào tình thế tiến thoái lưỡng nan khi phải "phát minh lại bánh xe" do phụ thuộc vào API tập trung và tích hợp tùy chỉnh.
Lớp thích ứng cần phải được viết lại mỗi khi kết nối nguồn dữ liệu, dẫn đến tăng chi phí phát triển. Để giải quyết tình trạng tắc nghẽn này, thế hệ AI Agent tiếp theo cần có kiến trúc dạng mô-đun giống Lego hơn để tạo điều kiện tích hợp liền mạch các công cụ và plug-in của bên thứ ba.
Kết quả là, một thế hệ cơ sở hạ tầng và ứng dụng AI Agent mới dựa trên giao thức MCP và A2A đang nổi lên, được thiết kế riêng cho các tình huống Web3, cho phép các Agent truy cập dữ liệu đa chuỗi và tương tác trực tiếp với các giao thức DeFi.
▲ Nguồn: IOSG Ventures
(Biểu đồ này không bao gồm đầy đủ tất cả các dự án Web3 liên quan đến MCP)
Trường hợp dự án: DeMCP và DeepCore
DeMCP là một thị trường máy chủ MCP phi tập trung(https://github.com/modelcontextprotocol/servers) tập trung vào các công cụ crypto gốc và đảm bảo chủ quyền của các công cụ MCP.
Ưu điểm của nó bao gồm:
Sử dụng TEE (Hoàn cảnh thực thi đáng tin cậy) để đảm bảo rằng các công cụ MCP không bị can thiệp Sử dụng khích lệ token để khuyến khích các nhà phát triển đóng góp vào máy chủ MCP
Cung cấp chức năng tổng hợp MCP và thanh toán vi mô để hạ thấp ngưỡng sử dụng
Một dự án khác, DeepCore (deepcore.top), cũng cung cấp hệ thống đăng ký Máy chủ MCP, tập trung vào lĩnh vực crypto và mở rộng hơn nữa sang một tiêu chuẩn mở khác do Google đề xuất: giao thức A2A (Agent-to-Agent) (https://x.com/i/trending/1910001585008058782).
A2A là một giao thức mở được Google công bố vào ngày 9 tháng 4 năm 2025, nhằm mục đích đạt được khả năng giao tiếp, cộng tác và phối hợp nhiệm vụ an toàn giữa AI Agent khác nhau. A2A cho phép cộng tác AI cấp doanh nghiệp, chẳng hạn như để AI Agent từ các công ty khác nhau cùng làm việc trên nhiệm vụ(ví dụ: tác nhân CRM của Salesforce làm việc với tác nhân Jira của Atlassian).
Nếu MCP tập trung vào sự tương tác giữa Agent (máy trạm) và công cụ (máy chủ), thì A2A giống như một lớp trung gian cộng tác giữa các Agent, cho phép nhiều Agent cùng hoàn thành nhiệm vụ mà không cần chia sẻ trạng thái nội bộ. Họ cộng tác thông qua ngữ cảnh, hướng dẫn, cập nhật trạng thái và truyền dữ liệu.
A2A được cho rằng"ngôn ngữ chung" cho sự cộng tác AI Agent, thúc đẩy khả năng tương tác AI đa nền tảng và đa đám mây, và có thể thay đổi cách thức hoạt động của AI doanh nghiệp. Do đó, A2A có thể được coi như Slack của thế giới tác nhân—một tác nhân khởi tạo nhiệm vụ và một tác nhân khác thực thi tác vụ đó.
Tóm lại:
MCP: Cung cấp khả năng truy cập công cụ cho các Đại lý
A2A: Cung cấp cho các tác nhân khả năng cộng tác với nhau


Tại sao máy chủ MCP cần blockchain?
Có nhiều lợi ích tích hợp công nghệ blockchain vào MCP Server:
1. Thu thập dữ liệu đuôi dài thông qua các cơ chế khích lệ crypto gốc và khuyến khích cộng đồng đóng góp các tập dữ liệu khan hiếm
2. Phòng thủ chống lại các cuộc tấn công "đầu độc công cụ", trong đó các công cụ độc hại ngụy trang thành plug-in hợp pháp để đánh lừa các tác nhân
Blockchain cung cấp các cơ chế xác minh crypto, chẳng hạn như TEE Remote Attestation, ZK-SNARK, FHE, v.v.
Để biết chi tiết, vui lòng tham khảo bài viết này (https://ybbcapital.substack.com/p/from-suis-sub-second-mpc-network?utm_source=substack&utm_medium=email)

3. Giới thiệu cơ chế cam kết/phạt và xây dựng hệ thống tin cậy cho máy chủ MCP kết hợp với hệ thống danh tiếng trên Chuỗi
4. Cải thiện khả năng chịu lỗi của hệ thống và hiệu suất thời gian thực, tránh lỗi điểm đơn lẻ của các hệ thống tập trung như Equifax
5. Thúc đẩy đổi mới mã nguồn mở, cho phép các nhà phát triển nhỏ công bố các nguồn dữ liệu ESG, v.v., để làm giàu sự đa dạng sinh thái
Hiện nay, hầu hết các cơ sở hạ tầng MCP Server vẫn thực hiện việc khớp công cụ bằng cách phân tích lời nhắc bằng ngôn ngữ tự nhiên của người dùng. Trong tương lai, các tác nhân AI sẽ có thể tự động tìm kiếm các công cụ MCP cần thiết để hoàn thành các mục tiêu nhiệm vụ phức tạp.
Tuy nhiên, dự án MCP vẫn đang trong giai đoạn đầu. Hầu hết các nền tảng vẫn là thị trường plug-in tập trung, nơi chủ sở hữu dự án tự tay sắp xếp các công cụ máy chủ của bên thứ ba từ GitHub và tự phát triển một số plug-in. Về bản chất, chúng không khác nhiều so với thị trường plug-in Web2. Sự khác biệt duy nhất là chúng tập trung vào các tình huống Web3.

Xu hướng tương lai và tác động của ngành
Hiện nay, ngày càng nhiều người ngành công nghiệp crypto bắt đầu nhận ra tiềm năng của MCP trong việc kết nối AI và blockchain. Ví dụ, nhà sáng lập Binance CZ gần đây đã công khai kêu gọi các nhà phát triển AI tích cực xây dựng Máy chủ MCP chất lượng cao để cung cấp bộ công cụ phong phú hơn cho các tác nhân AI trên Chuỗi BNB. Danh sách dự án BNB MCP Server đã được công khai để người dùng đang khám phá hệ sinh thái tham khảo.
Khi cơ sở hạ tầng hoàn thiện, lợi thế cạnh tranh của các công ty "ưu tiên nhà phát triển" sẽ chuyển từ thiết kế API sang công ty có thể cung cấp bộ công cụ phong phú hơn, đa dạng hơn và dễ kết hợp hơn.
Trong tương lai, mọi ứng dụng đều có thể trở thành máy trạm MCP và mọi API đều có thể là máy chủ MCP.
Điều này có thể dẫn đến một cơ chế định giá mới: Các đại lý có thể lựa chọn công cụ một cách linh hoạt dựa trên tốc độ thực hiện, hiệu quả về chi phí, mức độ phù hợp, v.v., hình thành nên một hệ thống kinh tế dịch vụ đại lý hiệu quả hơn được hỗ trợ bởi tiền điện tử và blockchain như một phương tiện.
Tất nhiên, MCP không phải là giao thức trực tiếp với người dùng cuối, mà là lớp giao thức cấp thấp. Nói cách khác, giá trị và tiềm năng thực sự của MCP chỉ có thể được nhìn thấy khi AI Agent tích hợp và biến nó thành các ứng dụng thực tế.
Cuối cùng, Agent là đơn vị vận chuyển và khuếch đại các khả năng của MCP, trong khi blockchain và cơ chế crypto xây dựng một hệ thống kinh tế đáng tin cậy, hiệu quả và có thể cấu thành cho mạng lưới thông minh này.



