人工智能伦理101:了解机器学习的道德格局

本文为机器翻译
展示原文
AI Ethics 101: Navigating the Moral Landscape of Machine Learning

人工智能(AI)已经改变了我们的生活和工作方式。技术正在影响每个领域,从营销和技术到医疗保健。

AI 爱好者正在努力理解如何利用机器学习(ML)作为基础来解决世界上最复杂的问题。

ML 是向系统输入数据以使系统能够执行任务的过程。现在,这可能听起来并不新鲜,但 ML 的迷人之处在于,一个系统可以使用它所获得的数据自主学习任务,甚至在没有人类明确指令的情况下变得更擅长执行任务,这在 AI 爆发之前是常态。

这就是我们正在走向自动驾驶汽车这样的事物的原因,这在 AI 出现之前是难以想象的。由 ML 驱动的这些汽车可以'学习'随时间变得更好的'驾驶员'。

但是,要谨慎。

AI 正在迅速接管直接影响人类生活的任务。自然,人们提出了一些问题:

  1. AI 是公平的还是存在偏见?
  2. AI 会侵犯我们的基本人权吗?

这些讨论已经被称为 AI 伦理 - 识别和解决我们如何使用 AI 而不违背人类价值观的实践。

在这篇博客中,我们将讨论并探讨如何就调整 AI 和 ML 的道德指南进行艰难和坦诚的对话。

什么是 AI 伦理?

道德 AI 密切检查 AI 如何与人类社会互动和影响人类社会。参与道德 AI 的人讨论如何公平地构建 AI 系统 - 具体来说,就是 AI 如何从数据中做出决策,以最大程度地减少任何风险。

为了说明这一点,让我们以手术为例。

医疗保健 AI 的一个例子可能是提供商培训一个系统来帮助医生确定手术等待名单上的患者优先顺序。在这种情况下,AI 伦理学家将确保该系统使用适当的指标来确定优先顺序(如医疗状况的严重程度),而不是不道德的因素(如优先考虑来自更富裕社区的人)。

此外,伦理学家将确保 AI 使用公平的数据。如果 AI 被给予有偏见的数据来学习,它只会延续有害的stereotypes。

总的来说,道德 AI 的核心是创造有益于社会并最大限度减少危害的系统。

我们不应被技术进步所迷惑,以至于危及社会的某些成员。

为什么 AI 伦理很重要

道德 AI 通过以下方式保护个人免受伤害。

保护基本权利

企业中的 AI通常处理敏感数据,如个人的财务或生物信息。

如果没有实施道德保障措施,这些系统可能会侵犯他们的人权。例如:

  • 数据可能被滥用
  • 数据可能被出售给恶意实体
  • 人们可能遭受未经授权的监视

在这方面,道德 AI 的作用是确保这些系统透明运作。

防止差异化影响

尽管 ML 如此智能,但从充满人类偏见的数据中学习可能会产生灾难性的后果。这就像放大种族主义、性别歧视等。结果可能会导致:

  • 有偏见的贷款决定
  • 不公平的招聘做法
  • 有缺陷的法律裁决

道德系统设计旨在根除认知和潜意识偏见。

解决存在性和社会风险

AI 被滥用以导致存在危机是一个真正的问题。一个典型的例子是深度造假。

深度造假是指创造高度逼真的虚假媒体。一个恶意行为者可以制造一个名人的深度造假(相似的人),并让它说任何他们想说的话 - 想想这对受害者和整个社会会造成多大的破坏。

深度造假可能导致:

  • 虚假信息的传播
  • 身份盗窃


基于深度造假的身份欺诈正在急剧上升。(图片来源。)

这种后果在全球事件(如大选)期间可能会是灾难性的。

AI 开发中的关键伦理问题

我们提出了关于 AI 使用的重要问题,但我们如何实施 AI 伦理?有几个问题需要考虑。

谁来决定什么是正确的?

谁来决定什么是对还是错?毕竟,除非有人遵循严格的行为准则(如宗教组织中的准则),否则道德仍然是主观的。

你的对可能是我的错。

那么,谁来决定?(谁来决定谁来决定?)

应该是:

  • 整个组织?
  • 专门的指导小组?
  • 政府?
  • 开发人员?
  • 教皇?

一般来说,最好的方法是由一个多元化的指导小组做出决定,也许持有不同观点。我们获得的多样化输入越多,做出明智选择的机会就越大,因为每个群体都可以弥补其他群体在 AI 方面的盲点。

而且,尽管道德可能是主观的,但有很大一部分是有99.99%的人达成共识的,所以道德困境并不一定每次都很复杂,但我们需要集体决策。

我们如何防止偏见?

AI 系统必须被设计成避免对个人或群体进行歧视。训练数据中的偏见可能会导致不公平的结果,例如根据人口统计因素拒绝贷款。确保公平性需要多样化的数据集和严格的测试来检测和纠正偏见。

我们是否保持透明?

人们需要了解 AI 系统如何做出决策。缺乏透明度会造成困惑和信任降低,特别是在医疗保健或刑事司法等关键领域。可解释的 AI 意味着人们可以理解决策背后的原因。

我们是否在保护人们的隐私?

作为透明度的延伸,系统应该明确告知用户数据的收集、存储和共享方式 - 鉴于隐私是 AI 中的主要伦理问题

当出现问题时,谁负责?

需要有一个问责链来应对出现的问题。

开发人员、组织或监管机构必须建立问责框架来管理风险并提供错误纠正。

AI 推理在多大程度上取代了人类的推理?

人的因素永远不应从 AI 方程式中剔除。没有人类监督的 AI 决策可能会造成破坏。

对就业的影响

AI 有可能自动化任务,这可能会在各行各业中取代工人。

Companies use of Ai to replace workers

公司认为 AI 相关裁员是不可避免的。(图片来源。)

道德 AI 包括解决这些中断的策略,如再培训计划或创造新的就业机会来减轻经济影响。

虚假信息

如前所述,深度造假等 AI 技术可以传播虚假信息并操纵舆论。

Ipsos | Data dive | Artificial intelligence
虚假信息可能是 AI 最大的挑战。(图片来源。)

道德框架必须专注于检测和预防 AI 的滥用,以保护信息和民主进程的完整性。

当 AI 出错时:真实案例研究

鉴于 AI 在过去几年中出现了具体问题,上述担忧是有道理的。

有偏见的 AI 招聘

亚马逊的 AI招聘工具惩罚了包含"women's"等词语的简历,偏向于男性候选人,这是由于历史招聘数据中的模式。

政府中的算法歧视

荷兰儿童福利丑闻是政府应用中算法偏见的一个明显例子。一个 AI 系统标记了低收入家庭和双重国籍者为潜在的骗子,导致了错误指控。

为政治利益操纵数据

剑桥分析公司丑闻揭示了 AI 驱动的分析如何被滥用于政治目的。通过利用 Facebook 用户的数据,该公司影响了2016年美国总统选举,引发了关于数据隐私和 AI 在塑造政治结果方面的道德边界的辩论。

开发道德 AI 系统的步骤

正如你所看到的,AI 可以像是一个好的来源一样具有破坏性。因此,有必要以道德的方式开发 AI。

以下是方法。

建立道德 AI 原则

每个组织都需要一个道德 AI 标准操作程序,概述他们计划如何负责任地使用 AI。这些应该成为强制性的发布内容。良好的 AI 伦理优先考虑人权、隐私和民主价值观。

这个标准操作程序然后就成为组织的指南针。去年的一份报告建议 AI 公司将其30%的资金用于安全和伦理方面的研发

需要道德 AI 的不仅仅是营利性公司。即使是英国顶尖大学也在制定指导性的道德 AI 原则

进行道德风险评估

当我们解决隐私、公平性和社会影响等道德问题时,我们可以帮助AI系统与人类价值观保持一致,并促进信任。 对于组织而言,将道德AI原则纳入其开发流程不仅仅是道德或法律义务,更是负责任创新的前提条件。 AI伦理101:导航机器学习的道德景观最先出现在Metaverse Post

来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
收藏
评论