本文為機器翻譯
展示原文
人工智慧在超過150起法律案件中透過自信地給出錯誤答案造成了實際問題。
是的,這就是人工智慧的工作方式。由於它是基於機率猜測,所以有時總會出錯。
目前我們需要人類檢查人工智慧做的每一件事。但無論人工智慧有多好,這都是一個瓶頸。
@Mira_Network 透過讓多個人工智慧互相檢查工作來解決這個問題。當多個人工智慧達成一致時,準確性可以提高到95%
其工作原理如下👇
+ 將大問題分解為小片段
+ 多個人工智慧分別驗證每個片段
+ 如果人工智慧說謊並被發現,將不會獲得獎勵
+ 只有誠實的檢查才會獲得獎勵
這種方法讓我想起了@nillionnetwork的盲計算過程,該過程致力於隱私保護。
我已經關注Mira的進展(已經將近3-4個月了)必須說他們已經取得了很大進步,而且沒有單個人工智慧能看到整個問題,只能看到片段(因此隱私也得到了維護)
@Mira_Network 確保我們不再需要人類全天候監控人工智慧,同時@AlloraNetwork 充當人工智慧的智慧層,它們可以共同提供許多使用場景,這就是它們成為我長期看好的頂級選擇的原因!
twitter.com/YashasEdu/status/1...
@Mira_Network 通過讓人工智能相互負責,在系統本身中設計信任。
是的,信任人工智能層是有原因的
可驗證的人工智慧將主導從醫療保健到IT的各個領域。 @Mira_Network確實發起了一場革命!
AI 破壞了信任
但 @Mira_Network 不會再讓他們這麼做了 =)))
來自推特
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論
分享






