Bài viết này được dịch máy
Xem bản gốc
AI đã gây ra những vấn đề thực sự trong hơn 150 vụ án pháp lý bằng cách tự tin đưa ra câu trả lời sai.
Vâng, đây là cách AI hoạt động. Vì nó đoán dựa trên xác suất, nên đôi khi sẽ luôn sai.
Ngay lúc này, chúng ta cần con người kiểm tra mọi thứ AI làm. Nhưng đó là nút thắt cổ chai bất kể AI có tốt đến đâu.
@Mira_Network đang giải quyết điều này bằng cách để nhiều AI kiểm tra công việc của nhau. Khi nhiều AI đồng ý, độ chính xác sẽ tăng lên đến 95%
Cách thức hoạt động👇
+ Chia các câu hỏi lớn thành các phần nhỏ
+ Nhiều AI xác minh từng phần riêng biệt
+ Nếu một AI nói dối và bị phát hiện, nó sẽ không được thưởng
+ Chỉ việc kiểm tra trung thực mới được thưởng
Cách tiếp cận này nhắc tôi về quá trình tính toán ẩn của @nillionnetwork hoạt động hướng tới quyền riêng tư.
Tôi đã theo dõi tiến trình của Mira (gần 3-4 tháng nay) và phải nói rằng họ đã đi được một chặng đường dài + không một AI nào nhìn thấy toàn bộ câu hỏi, chỉ là các phần (do đó quyền riêng tư cũng được duy trì)
@Mira_Network đảm bảo chúng ta sẽ không cần con người giám sát AI mọi lúc cùng với @AlloraNetwork hoạt động như một lớp trí tuệ cho AI có thể mang lại rất nhiều Use Case cùng nhau & đó là lý do tại sao chúng là những lựa chọn hàng đầu của tôi trong dài hạn!
twitter.com/YashasEdu/status/1...
@Mira_Network đang thiết kế sự tin cậy vào chính hệ thống bằng cách khiến các AI phải chịu trách nhiệm với nhau.
Vâng, lớp tin cậy của AI có lý do
AI có thể xác minh sẽ thống trị mọi lĩnh vực từ chăm sóc sức khỏe đến CNTT. @Mira_Network thực sự đã bắt đầu một cuộc cách mạng!
AI đã phá vỡ lòng tin
nhưng @Mira_Network sẽ không để họ làm điều đó nữa =)))
Từ Twitter
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận
Chia sẻ






