黑箱问题:为什么人工智慧需要证明而不是承诺

avatar
Decrypt
05-18
本文为机器翻译
展示原文

当人们思考人工智能时,他们想到的是聊天机器人和大型语言模型。然而,很容易忽视人工智能正越来越多地融入社会的关键领域。

这些系统不再仅仅推荐观看或购买内容;它们还能诊断疾病、批准贷款、检测欺诈并定位威胁。

随着人工智能越来越嵌入我们的日常生活,我们需要确保它能为我们的最佳利益行事。我们需要确保其输出是可证明的。

大多数人工智能系统运行在一个黑盒中,我们通常无法知道它们是如何做出决定的,或者它们是否按预期运行。

这种缺乏透明度已经深深嵌入其工作方式中,使得事后审计或质疑人工智能决策几乎是不可能的。

对于某些应用来说,这已经足够好了。但在医疗、金融和执法等高风险领域,这种不透明性会带来严重风险。

人工智能模型可能无意中编码偏见、操纵结果,或以违反法律或道德规范的方式运行。没有可验证的轨迹,用户只能猜测一个决定是否公平、有效,甚至是安全的。

当这些担忧与人工智能能力持续呈指数级增长的事实相结合时,这些问题变得更加紧迫。

该领域有广泛共识,认为开发人工智能超级智能(ASI)是不可避免的。

迟早,我们将拥有一个在所有领域都超越人类智能的人工智能,从科学推理到战略规划,再到创造力,甚至是情感智能。

大型语言模型已经显示出在泛化和任务自主性方面的快速进步。

如果一个超级智能系统以人类无法预测或理解的方式行动,我们如何确保它与我们的价值观一致?如果它以不同的方式解释命令或追求带有意外后果的目标,会发生什么?如果它失控,又会怎样?

即使对人工智能倡导者来说,这种可能威胁人类的场景也是显而易见的。

深度学习先驱杰弗里·希顿警告称有可能出现能够发动文明级网络攻击或大规模操纵的人工智能系统。生物安全专家担心人工智能增强的实验室可能开发出超出人类控制的病原体

而Anduril创始人帕尔默·卢基声称其Lattice人工智能系统可以在几秒钟内干扰、黑客或欺骗军事目标,使自主战争成为迫在眉睫的现实。

面对这么多可能的场景,我们将如何确保人工智能超级智能不会将我们全部消灭?

对所有这些问题的简短答案是可验证性。

依赖不透明模型的承诺对于将其整合到关键基础设施中已不再可接受,更不用说在人工智能超级智能的规模上了。我们需要保证。我们需要证据。

在政策和研究界,对人工智能需要技术透明度措施的共识正在增长。

监管讨论经常提到人工智能决策的审计跟踪。例如,美国国家标准与技术研究院欧盟人工智能法案都强调了人工智能系统"可追溯"和"可理解"的重要性。

幸运的是,人工智能研究和开发并非在真空中进行。在高级密码学等其他领域已经有重要突破,这些突破可以应用于人工智能,并确保我们能够控制当前系统,最终控制人工智能超级智能系统,使其符合人类利益。

目前最相关的是零知识证明。零知识证明为实现可追溯性提供了一种新颖的方法,并且可立即应用于人工智能系统。

事实上,零知识证明可以从根本上将这种可追溯性嵌入人工智能模型。不仅仅是记录人工智能做了什么(这可能被篡改),它们还可以生成发生事件的不可更改的证明。

具体来说,使用zkML库,我们可以结合零知识证明和机器学习,验证这些模型上产生的所有计算。

具体而言,我们可以使用zkML库来验证人工智能模型是否正确使用,是否运行了预期的计算,以及其输出是否遵循了特定逻辑——所有这些都不会暴露内部模型权重或敏感数据。

这有效地将人工智能从黑盒中取出,让我们准确知道它的状态和到达该状态的方式。更重要的是,它让人类保持在决策循环中。

人工智能发展需要开放、去中心化和可验证,zkML需要实现这一点。

这需要从今天就开始,以便在明天保持对人工智能的控制。我们需要确保从第一天起就能保护人类利益,通过能够保证人工智能按我们预期的方式运行,然后再让它变得自主。

然而,zkML不仅仅是为了阻止恶意的人工智能超级智能。

在短期内,它是为了确保我们能够信任人工智能处理贷款、诊断和警务等敏感流程,因为我们有证据表明它以透明和公平的方式运行。

如果大规模使用,zkML库可以给我们信任人工智能的理由。

尽管拥有更强大的模型可能很有帮助,但人工智能发展的下一步是保证它们正确地学习和进化。

有效且可扩展的zkML的广泛使用将很快成为人工智能竞赛和最终创造人工智能超级智能的关键组成部分。

通向人工智能超级智能的道路不能靠猜测铺平。随着人工智能系统变得更加强大并融入关键领域,证明它们做什么和如何做将是至关重要的。

可验证性必须从研究概念转变为设计原则。借助zkML等工具,我们现在有了一条可行的路径,可以将透明度、安全性和问责制嵌入人工智能的基础。

问题不再是我们是否能证明人工智能做了什么,而是我们是否选择这样做。

编辑:塞巴斯蒂安·辛克莱尔

来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
收藏
评论