AI mở ra "khoảnh khắc USB-C". Làm thế nào để MCP có thể tích hợp hoàn hảo với Ethereum?

avatar
PANews
03-21
Bài viết này được dịch máy
Xem bản gốc

Nội dung | Bruce

Biên tập & Định dạng | Huanhuan

Thiết kế | Daisy

"Khoảnh khắc USB-C" trong lịch sử tiến hóa của AI. Vào tháng 11 năm 2024, giao thức MCP do Anthropic phát hành đang gây ra một trận động đất ở Thung lũng Silicon. Tiêu chuẩn mở này được mô tả là "USB-C trong thế giới AI", không chỉ tái cấu trúc kết nối giữa các mô hình lớn và thế giới vật lý mà còn chứa đựng mã để phá vỡ thế tiến thoái lưỡng nan độc quyền của AI và tái cấu trúc quan hệ sản xuất của nền văn minh số. Trong khi chúng ta vẫn đang tranh cãi về thang đo tham số của GPT-5, MCP đã âm thầm mở đường cho phi tập trung trong kỷ nguyên AGI...

Bruce: Hiện tại tôi đang nghiên cứu về Giao thức ngữ cảnh mô hình (MCP). Đây là điều thứ hai trong lĩnh vực AI khiến tôi hứng thú sau ChatGPT, vì nó có khả năng giải quyết ba vấn đề mà tôi đã suy nghĩ trong nhiều năm:

  • Làm thế nào những người bình thường, những người không phải nhà khoa học và cả những thiên tài, có thể tham gia vào ngành công nghiệp AI và kiếm được thu nhập ?
  • Sự kết hợp có lợi cho cả hai bên giữa AI và Ethereum là gì?
  • Làm thế nào để triển khai AI d/acc? Tránh độc quyền và kiểm duyệt của các công ty lớn tập trung, liệu AGI có hủy diệt nhân loại không?

01. MCP là gì?

MCP là một khuôn khổ tiêu chuẩn mở giúp đơn giản hóa tích hợp LLM với các công cụ và nguồn dữ liệu bên ngoài. Nếu so sánh LLM với hệ điều hành Windows và các ứng dụng như Cursor là bàn phím và phần cứng, thì MCP là giao diện USB hỗ trợ dữ liệu dữ liệu và công cụ bên ngoài một cách linh hoạt, sau đó người dùng có thể đọc và sử dụng.

MCP cung cấp ba khả năng để mở rộng LLM:

  • Tài nguyên (mở rộng kiến ​​thức)
  • Công cụ (thực hiện chức năng, gọi hệ thống bên ngoài)
  • Lời nhắc (mẫu lời nhắc được viết sẵn)

MCP có thể được phát triển và lưu trữ bởi bất kỳ ai, được cung cấp dưới dạng máy chủ và có thể ngoại tuyến hoặc dừng bất kỳ lúc nào.

02. Tại sao chúng ta cần MCP?

Hiện nay, LLM sử dụng càng nhiều dữ liệu càng tốt để thực hiện lượng lớn các phép tính và tạo ra lượng lớn các tham số, tích hợp kiến ​​thức vào mô hình, để đạt được đầu ra đối thoại của kiến ​​thức tương ứng. Nhưng có một số vấn đề lớn:

  1. Lượng dữ liệu và tính toán lượng lớn đòi hỏi lượng lớn thời gian và phần cứng, và kiến ​​thức dùng để đào tạo thường đã lỗi thời.
  2. Các mô hình có lượng lớn tham số rất khó triển khai và sử dụng trên các thiết bị cục bộ, nhưng trên thực tế, người dùng có thể không cần tất cả thông tin để đáp ứng nhu cầu của họ trong hầu hết các tình huống.
  3. Một số mô hình sử dụng trình thu thập thông tin để đọc thông tin bên ngoài cho mục đích tính toán nhằm đạt được tính kịp thời, nhưng do hạn chế của trình thu thập thông tin và chất lượng dữ liệu bên ngoài, chúng có thể tạo ra nội dung gây hiểu lầm hơn.
  4. Do AI chưa mang lại lợi ích tốt cho người sáng tạo nên nhiều trang web và nội dung đã bắt đầu triển khai các biện pháp chống AI, tạo ra lượng lớn, khiến chất lượng LLM dần giảm.
  5. LLM khó mở rộng đến tất cả các khía cạnh của các hàm và hoạt động bên ngoài. Ví dụ, nó có thể gọi chính xác giao diện GitHub để triển khai một số hoạt động. Nó sẽ tạo mã theo các tài liệu có thể đã lỗi thời, nhưng không thể đảm bảo thực hiện chính xác.

03. Sự tiến hóa về kiến ​​trúc của LLM béo và LLM mỏng + MCP

Chúng ta có thể coi mô hình siêu lớn hiện tại như một LLM béo và kiến ​​trúc của nó có thể được biểu diễn bằng sơ đồ đơn giản sau:

AI mở ra "thời đại USB-C". Làm thế nào để MCP có thể tích hợp hoàn hảo với Ethereum?

Sau khi người dùng nhập thông tin, thông tin đầu vào sẽ được phân tích và lý giải thông qua lớp Nhận thức & Lý luận, sau đó một số lượng lớn tham số được gọi để tạo ra kết quả.

Dựa trên MCP, LLM có thể tập trung vào việc phân tích ngôn ngữ, loại bỏ kiến ​​thức và khả năng để trở thành một LLM mỏng:

AI mở ra "thời đại USB-C". Làm thế nào để MCP có thể tích hợp hoàn hảo với Ethereum?

Theo kiến ​​trúc LLM mỏng, lớp Nhận thức & Lý luận sẽ tập trung vào cách phân tích mọi khía cạnh thông tin về hoàn cảnh vật lý của con người thành các mã thông báo, bao gồm nhưng không giới hạn ở: giọng nói, âm điệu, mùi, hình ảnh, văn bản, trọng lực, nhiệt độ, v.v., sau đó sắp xếp và phối hợp tới hàng trăm Máy chủ MCP thông qua Điều phối viên MCP để hoàn thành nhiệm vụ. Chi phí đào tạo và tốc độ của LLM mỏng sẽ tăng nhanh chóng và các yêu cầu về thiết bị triển khai sẽ trở nên rất thấp.

04. MCP giải quyết ba vấn đề chính như thế nào?

Người dân bình thường có thể tham gia vào ngành công nghiệp AI như thế nào?

Bất kỳ ai có tài năng đặc biệt đều có thể tạo Máy chủ MCP của riêng mình để cung cấp dịch vụ cho LLM. Ví dụ, một người yêu chim có thể cung cấp những ghi chép về loài chim mà mình đã thu thập được trong nhiều năm như một dịch vụ cho thế giới bên ngoài thông qua MCP. Khi ai đó sử dụng LLM để tìm kiếm thông tin liên quan đến loài chim, dịch vụ ghi chú về loài chim MCP hiện tại sẽ được gọi. Người sáng tạo cũng sẽ nhận được một phần thu nhập.

Đây là chu kỳ kinh tế sáng tạo chính xác và tự động hơn. Nội dung dịch vụ được chuẩn hóa hơn và số lượng cuộc gọi và mã thông báo đầu ra có thể được đếm chính xác. Các nhà cung cấp LLM thậm chí có thể gọi nhiều Máy chủ MCP của Bird Notes cùng một lúc để cho phép người dùng lựa chọn và đánh giá để xác định xem ai có chất lượng tốt hơn và nhận được tỷ trọng phù hợp cao hơn.

Sự kết hợp đôi bên cùng có lợi giữa AI và Ethereum

a. Chúng ta có thể xây dựng mạng lưới khích lệ người sáng tạo OpenMCP.Network dựa trên Ethereum. Máy chủ MCP cần lưu trữ và cung cấp các dịch vụ ổn định. Người dùng trả tiền cho nhà cung cấp LLM và nhà cung cấp LLM phân phối khích lệ thực tế cho các Máy chủ MCP được gọi thông qua mạng để duy trì tính bền vững và ổn định của toàn bộ mạng và truyền cảm hứng cho những người sáng tạo MCP tiếp tục tạo và cung cấp nội dung chất lượng cao. Mạng lưới này sẽ cần sử dụng các hợp đồng thông minh để tự động hóa khích lệ, minh bạch, đáng tin cậy và chống kiểm duyệt. Chữ ký, xác minh quyền và bảo vệ quyền riêng tư trong quá trình vận hành đều có thể thực hiện được bằng các công nghệ như ví Ethereum và ZK.

b. Phát triển Máy chủ MCP liên quan đến hoạt động Chuỗi Ethereum, chẳng hạn như dịch vụ gọi ví AA. Người dùng sẽ có thể triển khai thanh toán ví thông qua ngôn ngữ trong LLM mà không cần tiết lộ private key và quyền liên quan đến LLM.

c. Ngoài ra còn có nhiều công cụ dành cho nhà phát triển khác nhau giúp đơn giản hóa hơn nữa quá trình phát triển hợp đồng thông minh Ethereum và tạo mã.

Phi tập trung AI

a. Máy chủ MCP phi tập trung kiến ​​thức và khả năng AI. Bất kỳ ai cũng có thể tạo và lưu trữ Máy chủ MCP, đăng ký trên các nền tảng như OpenMCP.Network và nhận được khích lệ dựa trên các cuộc gọi. Không có công ty nào có thể kiểm soát tất cả Máy chủ MCP. Nếu nhà cung cấp LLM đưa ra khích lệ không công bằng cho Máy chủ MCP, người sáng tạo sẽ ủng hộ việc chặn công ty đó và người dùng không nhận được kết quả chất lượng sẽ chuyển sang các nhà cung cấp LLM khác để đạt được sự cạnh tranh công bằng hơn.

b. Người sáng tạo có thể triển khai quyền kiểm soát chặt chẽ trên Máy chủ MCP của riêng họ để bảo vệ quyền riêng tư và bản quyền. Các nhà cung cấp LLM mỏng nên khuyến khích người sáng tạo đóng góp Máy chủ MCP chất lượng cao bằng cách cung cấp khích lệ hợp lý.

c. LLM mỏng Khoảng cách về năng lực sẽ dần được xóa bỏ vì ngôn ngữ của con người có giới hạn trên và phát triển rất chậm. Các nhà cung cấp LLM sẽ cần tập trung sự chú ý và tiền bạc vào các Máy chủ MCP chất lượng cao thay vì tái sử dụng nhiều card đồ họa để tạo ra thuốc tiên.

d. Khả năng của AGI sẽ được phân cấp và hạ cấp. LLM sẽ chỉ được sử dụng để xử lý ngôn ngữ và tương tác với người dùng, và các khả năng cụ thể sẽ được phân phối trong nhiều Máy chủ MCP khác nhau. AGI sẽ không gây ra mối đe dọa cho con người vì chỉ có thể giao tiếp bằng ngôn ngữ cơ bản sau khi tắt Máy chủ MCP.

05. Đánh giá chung

  1. Sự phát triển về mặt kiến ​​trúc của Máy chủ LLM + MCP về cơ bản phi tập trung khả năng của AI và giảm rủi ro AGI hủy diệt loài người.
  2. Việc sử dụng LLM cho phép đếm và tự động hóa số lượng cuộc gọi và đầu vào, đầu ra của Máy chủ MCP ở cấp độ mã thông báo, đặt nền tảng cho việc xây dựng hệ thống kinh tế sáng tạo AI.
  3. Một hệ thống kinh tế tốt có thể thúc đẩy người sáng tạo tích cực đóng góp vào việc tạo ra các Máy chủ MCP chất lượng cao, từ đó thúc đẩy sự phát triển của toàn thể nhân loại và tạo ra bánh đà tích cực. Những người sáng tạo sẽ không còn chống lại AI nữa, và AI sẽ tạo ra nhiều việc làm và thu nhập hơn, đồng thời phân phối hợp lý lợi nhuận của các công ty thương mại độc quyền như OpenAI.
  4. Hệ thống kinh tế này, kết hợp với các đặc điểm của nó và nhu cầu của người sáng tạo, rất phù hợp để triển khai dựa trên Ethereum.

06. Triển vọng tương lai: Bước tiếp theo của sự phát triển kịch bản

  1. Các giao thức MCP hoặc tương tự MCP sẽ xuất hiện liên tục và một số công ty lớn sẽ bắt đầu cạnh tranh để đưa ra các tiêu chuẩn.
  2. LLM dựa trên MCP sẽ xuất hiện, một mô hình nhỏ tập trung vào việc phân tích và xử lý ngôn ngữ con người, với MCP Coordinator được kết nối để truy cập mạng MCP. LLM sẽ hỗ trợ việc tự động khám phá và lên lịch cho Máy chủ MCP mà không cần cấu hình thủ công phức tạp.
  3. Các nhà cung cấp dịch vụ Mạng MCP sẽ xuất hiện, mỗi nhà cung cấp có hệ thống khích lệ kinh tế riêng và những người sáng tạo MCP có thể kiếm thu nhập bằng cách đăng ký và lưu trữ máy chủ của riêng họ.
  4. Nếu hệ thống khích lệ kinh tế của Mạng MCP được xây dựng bằng Ethereum và dựa trên các hợp đồng thông minh, thì các giao dịch của mạng Ethereum sẽ tăng trưởng thận trọng khoảng 150 lần (dựa trên con số thận trọng là 100 lần cuộc gọi đến Máy chủ MCP mỗi ngày và con số hiện tại là 12 cho mỗi Khối bao gồm 100 giao dịch).

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận