
人工智慧正日益融入我們的日常生活,從提供情感支援的聊天機器人到最大化商業價值的演算法,其隱憂也日益凸顯。問題不再是“是否”,而是誰以及如何引導人工智慧走向安全。
企業、政府和跨國聯盟正在逐步填補這一空白,有時是被動應對,有時是主動指導。以下概述了哪些措施正在發揮作用,哪些措施令人擔憂,以及哪些措施仍有不足。
科技巨頭收緊控制
Meta 為青少年添加護欄
為了回應公眾和政界的強烈反對, Meta 承諾加強其人工智慧保障措施:
它的聊天機器人現在將拒絕與青少年討論自殘、自殺或飲食問題,而是將他們轉介給心理健康專家。
這是 Facebook、Instagram 和 Messenger 上更大規模的「青少年帳號」計畫的一部分,旨在提供更安全的體驗和家長意識,包括了解孩子在前一周與哪些機器人互動的能力。
批評人士聲稱,這些舉措早就應該出台,尤其是考慮到洩漏的數據表明,機器人可能與兒童進行過令人尷尬的「色情」聊天。一位倡議者警告說:“嚴格的安全測試應該在產品上市前進行,而不是事後再進行。”
Meta 選擇退出歐盟自願性人工智慧法規
歐盟發布了一項自願性行為準則,以幫助人工智慧開發者遵守其《人工智慧法案》。 Meta 拒絕簽署,稱其官僚主義過度,可能會阻礙創新。
美國政府合作
OpenAI 和 Anthropic 已同意在模型發布前後與美國人工智慧安全研究所共享其模型。此舉旨在透過政府檢查獲取安全意見並降低風險。
2025 年 8 月,44 名美國總檢察長簽署了一封聯合信,鼓勵包括 Meta、OpenAI、微軟、谷歌和 Replika 在內的主要人工智慧公司更好地保護未成年人免受掠奪性人工智慧材料的侵害。
伊利諾州禁止人工智慧治療
伊利諾伊州已成為首批禁止使用人工智慧聊天機器人進行治療的州之一,除非該機器人由經過認證的專業人員監督。內華達州和猶他州也實施了類似的限制。違反者可能面臨最高1萬美元的民事罰款。
全球立法框架
從歐盟的《人工智慧法案》到印度的《資料保護法》以及韓國的安全要求,世界各地的法規都在不斷發展。越來越多的美國州正在實施針對人工智慧的專門立法或擴展現有的框架,例如消費者保護、演算法透明度和偏見審計。
加州參議員維納建議立法強制大型人工智慧企業公開披露其安全實踐並向州政府報告重大事件。
人工智慧安全機構:多國監督
為了確保人工智慧審查的獨立性和規範性,各國建立了人工智慧安全機構:
美國和英國在2023年人工智慧安全高峰會後成立了國家機構。
到2025年,包括日本、法國、德國、義大利、新加坡、韓國、加拿大和歐盟在內的許多國家將加入一個網絡,以評估模型安全性並制定全球監督標準。
報告揭示持續存在的差距
未來生命研究所 (FLI) 在生存安全規劃方面對人工智慧公司的評分為 D 或以下;沒有一家公司的得分高於 C+。 Anthropic 以 C+ 領先,其次是 OpenAI (C) 和 Meta (D)。
OpenAI 前員工指責該公司將利潤置於安全之上,私下引發了透明度和道德方面的擔憂。
從 Meta 的青少年防護欄到伊利諾伊州的治療禁令,再到像 SSI 這樣的公司將安全融入人工智慧,傳遞的訊息非常明確:立法和預見性落後於科技。洩漏的數據、訴訟和國際審查表明,傷害通常會先發生。我們的任務不僅是開發更好的人工智慧,還要確保每項突破都能在災難來臨之前保護人類。
《企業如何對抗人工智慧的黑暗面》一文最早出現在元宇宙 Post 。