Trong các hệ thống phi tập trung, mối nguy hiểm thực sự thường không nằm ở các lỗ hổng mã nguồn, mà ở những "lựa chọn mặc định" không bao giờ được đặt câu hỏi. Rủi ro này sẽ càng gia tăng khi trí tuệ nhân tạo bắt đầu tham gia vào việc thực thi giao dịch, phân bổ tài nguyên và thậm chí cả các quyết định quản trị. Nếu một kết quả chỉ "có vẻ hợp lý" nhưng không thể chứng minh, tái tạo hoặc kiểm toán, thì cái gọi là niềm tin phi tập trung đơn giản chỉ được giao phó cho xác suất và các mô hình. Đó là lý do tại sao tôi cho rằng phương pháp của @inference_labs rất quan trọng. Trọng tâm của @inference_labs không phải là mô hình thông minh đến mức nào, mà là liệu quyết định được đưa ra có trách nhiệm và có thể truy vết được tại thời điểm đó hay không. Bằng cách biến chính quá trình suy luận thành một đối tượng có thể kiểm chứng, mỗi kết quả đầu ra có thể trả lời câu hỏi "tại sao lại như vậy" và "liệu nó có đáp ứng các ràng buộc đã đặt trước hay không". Các lỗi không còn bị che giấu trong mô hình nữa; chúng có thể được phát hiện, đặt câu hỏi và sửa chữa. Bằng cách trực tiếp tích hợp các khả năng như JSTprove vào các hệ thống thực tế, zkML vượt qua giai đoạn trình diễn và tiến vào hoàn cảnh sản xuất. Theo tôi, @inference_labs thể hiện một cách tiếp cận AI + Web3 trưởng thành: thay vì theo đuổi sự mở rộng không giới hạn, họ ưu tiên thiết lập trách nhiệm giải trình và xác thực. #suy luận #KaitoYap @KaitoAI
Bài viết này được dịch máy
Xem bản gốc

Từ Twitter
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận
Chia sẻ



