本文为机器翻译
展示原文
人工智能在超过150起法律案件中通过自信地给出错误答案造成了实际问题。
是的,这就是人工智能的工作方式。由于它是基于概率猜测,所以有时总会出错。
目前我们需要人类检查人工智能做的每一件事。但无论人工智能有多好,这都是一个瓶颈。
@Mira_Network 通过让多个人工智能互相检查工作来解决这个问题。当多个人工智能达成一致时,准确性可以提高到95%
其工作原理如下👇
+ 将大问题分解为小片段
+ 多个人工智能分别验证每个片段
+ 如果人工智能说谎并被发现,将不会获得奖励
+ 只有诚实的检查才会获得奖励
这种方法让我想起了@nillionnetwork的盲计算过程,该过程致力于隐私保护。
我已经关注Mira的进展(已经将近3-4个月了)必须说他们已经取得了很大进步,而且没有单个人工智能能看到整个问题,只能看到片段(因此隐私也得到了维护)
@Mira_Network 确保我们不再需要人类全天候监控人工智能,同时@AlloraNetwork 充当人工智能的智能层,它们可以共同提供许多使用场景,这就是它们成为我长期看好的顶级选择的原因!
twitter.com/YashasEdu/status/1...
@Mira_Network 通过让人工智能相互负责,在系统本身中设计信任。
是的,信任人工智能层是有原因的
可验证的人工智慧将主导从医疗保健到IT的各个领域。 @Mira_Network确实发起了一场革命!
AI 破坏了信任
但 @Mira_Network 不会再让他们这么做了 =)))
来自推特
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
收藏
评论
分享






