MCP: Sự kết hợp hoàn hảo giữa cuộc cách mạng phi tập trung của AI và Ethereum

Bài viết này được dịch máy
Xem bản gốc

"Khoảnh khắc USB-C" trong lịch sử tiến hóa của AI, vào tháng 11 năm 2024, giao thức MCP do Anthropic phát hành đang gây chấn động Thung lũng Silicon. Tiêu chuẩn mở được ví von là "USB-C của giới AI" này không chỉ tái cấu trúc cách thức kết nối các mô hình lớn với thế giới vật lý, mà còn ẩn chứa mã để giải mã bế tắc độc quyền AI và tái cấu trúc các mối quan hệ sản xuất của nền văn minh số. Trong khi chúng ta vẫn đang tranh luận về quy mô tham số của GPT-5, MCP đã lặng lẽ mở ra con đường phi tập trung hóa đến kỷ nguyên AGI...

Bruce: Gần đây, tôi đang nghiên cứu về Giao thức Ngữ cảnh Mô hình (MCP). Đây là thứ thứ hai khiến tôi rất phấn khích trong lĩnh vực AI sau ChatGPT, vì nó có hy vọng giải quyết ba vấn đề mà tôi đã suy nghĩ trong nhiều năm:

  • Những người không phải là nhà khoa học và thiên tài, những người bình thường làm thế nào để tham gia vào ngành công nghiệp AI và kiếm được thu nhập?

  • AI và Ethereum có những điểm kết hợp cùng thắng lợi nào?

  • Làm thế nào để thực hiện AI d/acc? Tránh sự độc quyền của các công ty lớn tập trung, kiểm duyệt và sự hủy diệt của AGI đối với loài người?

01 MCP là gì?

MCP là một khung chuẩn mở có thể đơn giản hóa việc tích hợp LLM với các nguồn dữ liệu và công cụ bên ngoài. Nếu chúng ta so sánh LLM với hệ điều hành Windows, thì Cursor và các ứng dụng khác là bàn phím và phần cứng, còn MCP chính là giao diện USB, hỗ trợ việc linh hoạt kết nối các dữ liệu và công cụ bên ngoài, sau đó người dùng có thể đọc và sử dụng các dữ liệu và công cụ bên ngoài này.

MCP cung cấp ba khả năng để mở rộng LLM:

  • Tài nguyên (mở rộng kiến thức)

  • Công cụ (thực hiện các chức năng, gọi các hệ thống bên ngoài)

  • Lời nhắc (mẫu lời nhắc được soạn sẵn)

MCP có thể được bất kỳ ai phát triển và lưu trữ, cung cấp dưới dạng Server, có thể ngừng hoạt động bất cứ lúc nào.

02 Tại sao lại cần MCP

Hiện tại, LLM sử dụng càng nhiều dữ liệu càng tốt để thực hiện nhiều tính toán và tạo ra nhiều tham số, nhúng kiến thức vào mô hình để đạt được đầu ra đối thoại tương ứng với kiến thức. Tuy nhiên, vẫn tồn tại một số vấn đề khá lớn:

  1. Lượng lớn dữ liệu và tính toán cần rất nhiều thời gian và phần cứng để huấn luyện, kiến thức được sử dụng để huấn luyện thường đã lỗi thời.

  2. Các mô hình có nhiều tham số rất khó để triển khai và sử dụng trên các thiết bị cục bộ, nhưng thực tế hầu hết người dùng chỉ cần một phần thông tin để hoàn thành yêu cầu của họ.

  3. Một số mô hình sử dụng phương pháp thu thập thông tin từ bên ngoài để tính toán nhằm đạt được tính thời sự, nhưng do giới hạn của việc thu thập thông tin và chất lượng dữ liệu bên ngoài, có thể sẽ tạo ra nội dung có xu hướng gây hiểu lầm hơn.

  4. Do AI chưa mang lại lợi ích tốt cho những người sáng tạo, nhiều trang web và nội dung bắt đầu áp dụng các biện pháp chống lại AI, tạo ra nhiều thông tin rác, dẫn đến chất lượng LLM sẽ dần suy giảm.

  5. LLM rất khó mở rộng đến các chức năng và thao tác bên ngoài, ví dụ như gọi chính xác giao diện GitHub để thực hiện một số thao tác, nó sẽ tạo ra mã dựa trên tài liệu có thể đã lỗi thời, nhưng không thể đảm bảo thực hiện chính xác.

03 Sự tiến hóa của kiến trúc "Mô hình LLM Béo" và "Mô hình LLM Gầy + MCP"

Chúng ta có thể coi các mô hình siêu lớn hiện tại là "Mô hình LLM Béo", kiến trúc của nó có thể được biểu diễn bằng sơ đồ đơn giản sau:

Sau khi người dùng nhập thông tin, thông qua lớp Nhận thức & Lý luận, đầu vào sẽ được phân tích và suy luận, sau đó gọi các tham số khổng lồ để tạo ra kết quả.

Dựa trên MCP, LLM có thể tập trung vào việc phân tích ngôn ngữ, tách ra kiến thức và khả năng, trở thành "Mô hình LLM Gầy":

Trong kiến trúc của Mô hình LLM Gầy, lớp Nhận thức & Lý luận sẽ tập trung vào việc phân tích thông tin về môi trường vật lý toàn diện của con người, bao gồm nhưng không giới hạn ở: giọng nói, cảm xúc, mùi, hình ảnh, văn bản, trọng lực, nhiệt độ, v.v., sau đó thông qua Điều phối viên MCP sắp xếp và phối hợp hàng trăm Máy chủ MCP để hoàn thành nhiệm vụ. Chi phí huấn luyện và tốc độ của Mô hình LLM Gầy sẽ tăng lên rất nhanh, yêu cầu về thiết bị triển khai cũng trở nên rất thấp.

04 Cách MCP giải quyết ba vấn đề lớn

Những người bình thường làm thế nào để tham gia vào ngành công nghiệp AI?

Bất kỳ ai có tài năng độc đáo đều có thể tạo ra Máy chủ MCP riêng của mình để cung cấp dịch vụ cho LLM. Ví dụ, một người yêu thích chim có thể chia sẻ các ghi chép về chim của mình nhiều năm qua MCP. Khi ai đó sử dụng LLM để tìm kiếm thông tin liên quan đến chim, họ sẽ gọi đến dịch vụ ghi chép về chim MCP hiện tại. Người sáng tạo cũng sẽ nhận được phần chia sẻ doanh thu từ việc sử dụng.

Đây là một chu trình kinh tế sáng tạo tự động hóa và chính xác hơn, nội dung dịch vụ được chuẩn hóa, số lần gọi, số lượng token đầu ra đều có thể thống kê chính xác. Nhà cung cấp LLM thậm chí có thể gọi đồng thời nhiều Máy chủ MCP ghi chép về chim để người dùng lựa chọn và đánh giá, xác định ai có chất lượng tốt hơn để được trọng số phù hợp cao hơn.

Sự kết hợp cùng thắng lợi của AI và Ethereum

a. Chúng ta có thể dựa trên Ethereum xây dựng một mạng lưới kích thích sáng tạo OpenMCP.Network. Máy chủ MCP cần được lưu trữ và cung cấp dịch vụ ổn định, người dùng trả phí cho nhà cung cấp LLM, nhà cung cấp LLM sẽ phân phối kích thích thực tế thông qua mạng lưới đến các Máy chủ MCP được gọi, từ đó duy trì tính bền vững và ổn định của toàn bộ mạng lưới, kích thích các tác giả MCP tiếp tục sáng tạo và cung cấp nội dung chất lượng cao. Toàn bộ hệ thống kích thích này cần sử dụng hợp đồng thông minh để thực hiện tự động hóa, minh bạch, đáng tin cậy và chống kiểm duyệt. Các quy trình ký, xác thực quyền, bảo vệ quyền riêng tư trong quá trình vận hành cũng có thể sử dụng ví Ethereum, ZK, v.v. để thực hiện.

b. Phát triển các Máy chủ MCP liên quan đến các thao tác trên chuỗi Ethereum, ví dụ như dịch vụ gọi ví AA, người dùng có thể thực hiện thanh toán bằng ví thông qua ngôn ngữ trong LLM mà không phải tiết lộ các private key và quyền liên quan cho LLM.

c. Cũng có các công cụ phát triển khác, tiếp tục đơn giản hóa việc phát triển và tạo mã hợp đồng thông minh Ethereum.

Thực hiện phi tập trung hóa AI

a. Các Máy chủ MCP sẽ phi tập trung hóa kiến thức và khả năng của AI, bất kỳ ai cũng có thể tạo và lưu trữ Máy chủ MCP, sau đó đăng ký trên nền tảng như OpenMCP.Network để nhận kích thích dựa trên lượt gọi. Không có công ty nào có thể nắm giữ toàn bộ Máy chủ MCP. Nếu một nhà cung cấp LLM cung cấp kích thích không công bằng cho các Máy chủ MCP, những người sáng tạo sẽ ủng hộ việc chặn công ty đó, người dùng sẽ không nhận được kết quả chất lượng cao và sẽ chuyển sang nhà cung cấp LLM khác để cạnh tranh công bằng hơn.

b. Những người sáng tạo có thể kiểm soát quyền hạn chi tiết đối với các Máy chủ MCP của họ để bảo vệ quyền riêng tư và bản quyền. Nhà cung cấp LLM Gầy nên cung cấp kích thích hợp lý để khuyến khích những người sáng tạo đóng góp các Máy chủ MCP chất lượng cao.

c. Khoảng cách về khả năng của LLM Gầy sẽ dần được san bằng, vì ngôn ngữ của con người có giới hạn về khả năng lặp lại và tiến hóa rất chậm. Các nhà cung cấp LLM sẽ cần đưa tầm nhìn và nguồn lực vào các Máy chủ MCP chất lượng cao, thay vì lặp đi lặp lại việc sử dụng thêm nhiều card đồ họa để luyện tập.

d. Khả năng của AGI sẽ được phân tán và giảm quyền, LLM chỉ đóng vai trò xử lý ngôn ngữ và tương tác với người dùng, các khả năng cụ thể sẽ được phân bổ trong các Máy chủ MCP. AGI sẽ không đe dọa loài người, v

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận