企业如何应对人工智慧的阴暗面

本文为机器翻译
展示原文
企业如何应对人工智慧的阴暗面

人工智慧正日益融入我们的日常生活,从提供情感支援的聊天机器人到最大化商业价值的演算法,其隐忧也日益凸显。问题不再是“是否”,而是谁以及如何引导人工智慧走向安全。

企业、政府和跨国联盟正在逐步填补这一空白,有时是被动应对,有时是主动指导。以下概述了哪些措施正在发挥作用,哪些措施令人担忧,以及哪些措施仍有不足。

科技巨头收紧控制

Meta 为青少年添加护栏

为了回应公众和政界的强烈反对, Meta 承诺加强其人工智慧保障措施

它的聊天机器人现在将拒绝与青少年讨论自残、自杀或饮食问题,而是将他们转介给心理健康专家。

这是 Facebook、Instagram 和 Messenger 上更大规模的「青少年帐号」计划的一部分,旨在提供更安全的体验和家长意识,包括了解孩子在前一周与哪些机器人互动的能力。

批评人士声称,这些举措早就应该出台,尤其是考虑到泄漏的数据表明,机器人可能与儿童进行过令人尴尬的「色情」聊天。一位倡议者警告说:“严格的安全测试应该在产品上市前进行,而不是事后再进行。”

Meta 选择退出欧盟自愿性人工智慧法规

欧盟发布了一项自愿性行为准则,以帮助人工智慧开发者遵守其《人工智慧法案》。 Meta 拒绝签署,称其官僚主义过度,可能会阻碍创新。

美国政府合作

OpenAI 和 Anthropic 已同意在模型发布前后与美国人工智慧安全研究所共享其模型。此举旨在透过政府检查获取安全意见并降低风险。

2025 年 8 月,44 名美国总检察长签署了一封联合信,鼓励包括 Meta、OpenAI、微软、谷歌和 Replika 在内的主要人工智慧公司更好地保护未成年人免受掠夺性人工智慧材料的侵害。

伊利诺州禁止人工智慧治疗

伊利诺伊州已成为首批禁止使用人工智慧聊天机器人进行治疗的州之一,除非该机器人由经过认证的专业人员监督。内华达州和犹他州也实施了类似的限制。违反者可能面临最高1万美元的民事罚款。

全球立法框架

从欧盟的《人工智慧法案》到印度的《资料保护法》以及韩国的安全要求,世界各地的法规都在不断发展。越来越多的美国州正在实施针对人工智慧的专门立法或扩展现有的框架,例如消费者保护、演算法透明度和偏见审计。

加州参议员维纳建议立法强制大型人工智慧企业公开披露其安全实践并向州政府报告重大事件。

人工智慧安全机构:多国监督

为了确保人工智慧审查的独立性和规范性,各国建立了人工智慧安全机构:

美国和英国在2023年人工智慧安全高峰会后成立了国家机构

到2025年,包括日本、法国、德国、义大利、新加坡、韩国、加拿大和欧盟在内的许多国家将加入一个网络,以评估模型安全性并制定全球监督标准。

报告揭示持续存在的差距

未来生命研究所 (FLI) 在生存安全规划方面对人工智慧公司的评分为 D 或以下;没有一家公司的得分高于 C+。 Anthropic 以 C+ 领先,其次是 OpenAI (C) 和 Meta (D)。

OpenAI 前员工指责该公司将利润置于安全之上,私下引发了透明度和道德方面的担忧。

从 Meta 的青少年防护栏到伊利诺伊州的治疗禁令,再到像 SSI 这样的公司将安全融入人工智慧,传递的讯息非常明确:立法和预见性落后于科技。泄漏的数据、诉讼和国际审查表明,伤害通常会先发生。我们的任务不仅是开发更好的人工智慧,还要确保每项突破都能在灾难来临之前保护人类。

《企业如何对抗人工智慧的黑暗面》一文最早出现在元宇宙 Post

来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
收藏
评论