人工智慧的伦理道德及其对你的影响

avatar
AI News
03-10
本文为机器翻译
展示原文

自2018年以来一直从事AI工作,我正在关注其缓慢但稳定的发展,以及无序的跟风现象,这令我颇感兴趣。如今,人们对机器人接管的最初恐惧已有所缓解,取而代之的是关于将AI融入日常商业结构的伦理问题的讨论。

将会出现一系列新的角色,负责处理伦理、治理和合规问题,这些角色将为组织带来巨大的价值和重要性。

其中最为关键的可能是AI伦理专家,他们将被要求确保代理AI系统符合公平性和透明度等伦理标准。这一角色将涉及使用专门的工具和框架,有效地解决伦理问题,避免潜在的法律或声誉风险。为确保透明度和负责任的伦理,人工监督至关重要,以维持数据驱动决策、智能和直觉之间的微妙平衡。

此外,代理AI工作流设计师、AI交互和集成设计师等角色,将确保AI在生态系统中无缝集成,并优先考虑透明度、伦理因素和适应性。还需要设置AI监督员,监控整个代理代理和裁决者的堆栈,即AI决策要素。

对于任何开始将AI融入组织并希望确保负责任地引入和维护该技术的人来说,我可以推荐咨询联合国的原则。这10项原则是联合国在2022年针对AI日益普及引发的伦理挑战而制定的。

那么,这十项原则是什么,我们如何将其作为框架?

首先,不伤害

作为一项具有自主性的技术,第一项原则着眼于以不会对社会、文化、经济、自然或政治环境产生负面影响的方式部署AI系统。AI生命周期应被设计为尊重和保护人权和自由。应对系统进行监控,以确保维持这种情况,不会造成长期损害。

避免为AI而使用AI

确保使用AI是合理的、适当的,且不过度。人们很容易过于热衷于应用这项令人兴奋的技术,但它需要与人类需求和目标保持平衡,决不能以牺牲人的尊严为代价。

安全和安保

应在AI系统的整个生命周期内以及持续不断地识别、解决和缓解安全和安保风险。应将与任何其他业务领域相同的健康和安全框架应用于AI。

平等

同样,部署AI应旨在确保利益、风险和成本的平等和公正分配,并防止任何形式的偏见、欺骗、歧视和污名化。

可持续性

AI应旨在促进环境、经济和社会的可持续发展。应持续评估以解决负面影响,包括对后代的影响。

数据隐私、数据保护和数据治理

应建立或加强适当的数据保护框架和数据治理机制,以确保个人的隐私和权利得到维护,符合有关数据完整性和个人数据保护的法律指南。任何AI系统都不应侵犯他人的隐私。

人工监督

应保证人工监督,以确保使用AI的结果是公平和正义的。应采用以人为中心的设计实践,并赋予人类权力,随时干预并决定如何何时使用AI,以及推翻AI做出的任何决定。联合国甚至建议,任何涉及生死的决定都不应由AI做出。

透明度和可解释性

在我看来,这是平等原则的一部分。使用AI的每个人都应完全了解他们使用的系统、系统的决策过程及其后果。应告知个人,当涉及其权利、自由或利益的决定由人工智能做出时,并且最重要的是,解释应以一种使人理解的方式进行。

责任和问责

这是吹哨人原则,涵盖审计和尽职调查,以及保护吹哨人的措施,以确保对AI决策和使用负责和问责。应建立治理,规定人类对任何AI决策的伦理和法律责任。任何造成伤害的决定都应进行调查并采取行动。

包容性和参与性

与任何其他业务领域一样,在设计、部署和使用人工智能系统时,应采取包容、跨学科和参与式的方法,其中也包括性别平等。应告知利益相关方和任何受影响的社区,并征求他们的意见,告知他们任何利益和潜在风险。

围绕这些核心支柱构建您的AI集成,应能让您放心,您进入AI集成的道路是建立在伦理和坚实的基础之上的。

照片由Immo WegmannUnsplash拍摄

想从行业领导者那里了解更多关于AI和大数据的知识吗?查看在阿姆斯特丹、加州和伦敦举办的AI & Big Data Expo。这个全面的活动与其他领先的活动如Intelligent Automation ConferenceBlockXDigital Transformation WeekCyber Security & Cloud Expo同时举办。

在这里探索其他即将到来的企业技术活动和网络研讨会here

本文最初发表于AI News

来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
收藏
评论