Bài viết này được dịch máy
Xem bản gốc

Có một câu chuyện hài hước về một dự án lập trình trí tuệ nhân tạo, bản demo của dự án rất ấn tượng và đã huy động được rất nhiều tiền. Sau đó, người ta phát hiện ra rằng họ thực chất đã thuê ngoài dự án cho một công ty ở Ấn Độ và sử dụng các phương pháp lỗi thời để viết mã lập trình ở phía sau... Điều này thực sự khá tiêu biểu; với nhiều dự án AI được gọi là như vậy, bạn không hề biết liệu AI đó có thực sự đang làm việc gì hay không. Đặc biệt trong lĩnh vực tiền điện tử, mọi người đều nói về việc AI tự động lập chiến lược, nhưng bạn không thể xác minh những điều này trên Chuỗi— tất cả chỉ là vấn đề tin tưởng mà thôi. Gần đây tôi tình cờ bắt gặp một dự án đang cố gắng giải quyết vấn đề này; đó là AI Oracle của Flap. Họ đang làm điều đó bằng cách viết lời nhắc AI vào một hợp đồng thông minh, sau đó khi hợp đồng được kích hoạt, nó sẽ gọi LLM (Quản lý cấp độ cục bộ) và gửi kết quả trở lại để thực thi. Bằng cách này, logic AI thực tế được thực thi trên Chuỗi , và cơ chế cam kết-tiết lộ (thực chất là một phương pháp quan trọng để xác minh phi tập trung bằng cách sử dụng các hàm băm blockchain , nhưng tôi sẽ không đi sâu vào chi tiết ở đây) cho phép họ xác minh rằng logic AI thực sự đã được thực thi. So với các giải pháp trước đây, ưu điểm của giải pháp này là: thứ nhất, nó mang phi tập trung và dựa trên công nghệ blockchain cao hơn nhờ việc bổ sung các gợi ý từ AI ở cấp độ hợp đồng thông minh, phù hợp với các dự án có yêu cầu phi tập trung cao; thứ hai, quá trình suy luận được hiển thị rõ ràng và kết quả có thể được xác minh Chuỗi. Tóm lại, tôi cảm thấy rằng loại hình này có thể khá hữu ích trong một số trường hợp nhất định, chẳng hạn như thị trường dự đoán hoặc các cơ chế yêu cầu sự công bằng, ít nhất bạn có thể chứng minh rằng quyết định đó không phải do con người đưa ra một cách tùy tiện. Từ góc nhìn này, tôi nghĩ rằng các hệ thống AI Oracle có thể trở thành một công cụ và cơ sở hạ tầng khá cần thiết.

Từ Twitter
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận