中心化人工智慧很危险:我们该如何阻止它?

avatar
AI News
11-08
本文为机器翻译
展示原文
生成式人工智能聊天机器人(如OpenAI的ChatGPT)展现出的智能已经引起了个人和企业的想象力,人工智能突然成为最令人兴奋的技术创新领域。 人工智能被认为是一个游戏规则改变者,有潜力改变我们生活的许多方面。从个性化医疗到自动驾驶汽车,从自动投资到数字资产,人工智能带来的可能性似乎是无穷无尽的。 但是,尽管人工智能将带来巨大的变革,但这项新技术也存在许多风险。虽然对一个充满恶意、类似"天网"的人工智能系统失控的担忧是不合理的,但人工智能集中的危险却是真实存在的。随着微软、谷歌和英伟达等公司在追求人工智能方面不断取得进展,对少数几个中心化参与者手中权力集中的担忧也越来越强烈。 集中式人工智能带来的最紧迫问题是,几家科技巨头可能会获得行业的垄断控制权。这些科技巨头已经积累了大量的人工智能市场份额,掌握了大量的数据。他们还控制着人工智能系统运行的基础设施,能够抑制竞争对手,阻碍创新,并延续经济不平等。 通过实现对人工智能发展的垄断,这些公司更有可能对监管框架产生不公平的影响,并操纵它们以达到自己的利益。这意味着缺乏巨大资源的小型初创公司将很难跟上创新的步伐。那些幸存下来并看起来可能会蓬勃发展的公司几乎肯定最终会被收购,进一步集中了少数人的权力。结果将是人工智能发展的多样性降低,消费者的选择减少,以及更不利的条件,限制人工智能所承诺的用例和经济机会。 除了垄断控制,人工智能系统的偏见也引发了真正的担忧,随着社会越来越依赖人工智能,这些担忧将变得更加重要。 风险源于组织越来越依赖自动化系统来做出决策。一家公司雇用人工智能算法来筛选求职者并不罕见,风险在于偏见系统可能会根据种族、年龄或地点不公平地排斥某些候选人。保险公司也使用人工智能来确定保单费率,金融服务公司使用人工智能来决定某人是否有资格获得贷款以及需要支付的利率,执法部门使用人工智能来确定哪些地区可能会出现更高的犯罪率。在所有这些用例中,偏见人工智能系统的潜在影响都令人担忧。 无论是执法部门针对少数群体社区,还是歧视性的贷款实践,集中式人工智能都可能加剧社会不平等,并助长系统性歧视。 集中式人工智能系统带来的另一个风险是缺乏隐私保护。当只有少数几家大公司控制了由人工智能产生的绝大部分数据时,他们就能够进行前所未有的用户监视。最主导的人工智能平台积累的数据可用于以令人难以置信的准确度监控、分析和预测个人行为,侵蚀隐私,增加信息被滥用的可能性。 在拥有威权政府的国家,数据可能被用作创造更复杂监视工具的武器,这尤其令人担忧。但即使在民主社会,也存在着因监视增加而带来的威胁,正如斯诺登关于美国国家安全局棱镜计划的爆料所示。 企业也可能滥用消费者的数据来增加利润。此外,当集中实体积累大量敏感数据时,这使他们成为黑客的更诱人目标,增加了数据泄露的风险。 由于集中式人工智能,国家安全问题也可能出现。例如,有人担心人工智能系统可能被国家武器化,用于网络战、间谍活动和开发新的武器系统。人工智能可能成为未来战争的关键工具,增加地缘政治冲突的风险。 人工智能系统本身也可能成为目标。随着各国越来越依赖人工智能,这些系统将成为诱人的目标,因为它们是明显的单点故障。摧毁一个人工智能系统就可能扰乱整个城市的交通流量,关闭电网等。 集中式人工智能的另一个主要担忧是伦理问题。这是因为控制人工智能系统的少数公司将对社会的文化规范和价值观产生重大影响,并可能经常优先考虑利润,从而引发进一步的伦理问题。 例如,人工智能算法已被社交媒体平台广泛用于内容审核,试图识别和过滤令人反感的帖子。人们担心,算法可能会有意或无意地压制言论自由。 关于人工智能驱动的审核系统的有效性已经存在争议,许多看似无害的帖子都被自动算法屏蔽或删除,这引发了人们对这些系统是否被操纵以推动特定政治叙述的猜测。 唯一合乎逻辑的对抗集中式人工智能的办法是发展分散式人工智能系统,确保技术的控制权掌握在多数人手中,而不是少数人手中。通过这样做,我们可以确保没有单一公司或实体对人工智能的发展方向产生重大影响。 当人工智能的发展和治理由成千上万的实体共享时,它的进步将更加公平,更好地满足个人的需求。结果将是更多样化的人工智能应用,拥有几乎无穷无尽的模型,而不是几个主导行业的模型。 分散式人工智能系统还意味着对大规模监视和数据操纵的风险设置了制衡机制。而集中式人工智能可能被武器化,并以违背多数人利益的方式使用,分散式人工智能可以防范这种压迫。 分散式人工智能的主要优势在于,每个人都可以控制技术的发展,防止任何单一实体获得过大的影响力。 分散式人工智能涉及对构成人工智能技术栈的各个层面进行重新思考,包括基础设施(计算和网络资源)、数据、模型、训练、推理和微调等。 如果底层基础设施仍然完全由亚马逊、微软和谷歌等云计算巨头掌控,我们就不能仅仅寄希望于开源模型。我们需要确保人工智能的每个方面都是分散的。 实现人工智能栈的分散化的最佳方式是将其分解为模块化组件,并根据供给和需求创造市场。Spheron就是一个如何实现这一目标的例子,它创建了一个分散式物理基础设施网络(DePIN),任何人都可以参与其中。 通过Spheron的DePIN,每个人都可以自由分享未充分利用的计算资源,本质上是将它们租赁给需要基础设施来托管其人工智能应用程序的人。因此,一名使用功能强大的笔记本电脑带有GPU的平面设计师,在不使用它进行自己的工作时,可以将处理能力捐赠给DePIN,并获得代币奖励。 这意味着人工智能基础设施层变得广泛分散和去中心化,没有单一提供商掌控。这是由区块链技术和智能合约实现的,它们提供了透明性、不可变性和自动化。 DePIN还可以用于开源模型和底层数据。例如,可以在像Qubic这样的分散式网络上共享训练数据集,这将确保每次该数据被人工智能系统访问时,其提供者都能获得报酬。 为了确保访问和权限的分散化,技术栈的每个部分都以这种方式分布。然而,人工智能行业目前难以提供如此程度的分散化。尽管开源模型已经在人工智能开发者中变得非常流行,但大多数人仍然依赖专有的云网络,这意味着训练和推理过程高度集中。 但分散化最终会胜出,这是有很强的激励因素的。DePIN网络的主要优势之一是,它们有助于降低开支。因为像Spheron这样的网络不依赖中介,参与者无需支付任何费用或与第三方分享收益。此外,他们可以在定价方面更具竞争力,因为他们不像受利润压力的公司那样。 人工智能的未来充满了潜力,但也充满了危险。虽然人工智能系统的能力在过去几年里有了巨大的进步,但大部分进步都是由一些强大的公司完成的,这导致了他们对行业的影响力增加。这样做是有代价的,不仅仅是金钱上的。 唯一合理的替代方案是促进分散式人工智能的更广泛采用,这可以提高可访问性,并确保人工智能的灵活性更大。通过让每个人在平等的基础上参与人工智能的发展,我们将看到更多样化、更有趣和更有用的应用程序,这些应用程序可以平等地惠及所有人,并将用户置于首位。 建立一个分散式人工智能的未来将需要在人工智能栈的每一层进行大量的协调和合作。幸运的是,参与者有强烈的动力去做到这一点。而且,这些激励因素不仅仅是金钱上的。

相关赛道:
来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
3
收藏
1
评论