在針對人工智慧開發商 OpenAI 的最新訴訟中,一位 83 歲的康乃狄克州婦女的遺產管理人起訴了 ChatGPT 的開發商和微軟,聲稱該聊天機器人證實了在謀殺-自殺事件發生前產生的妄想信念——這是將人工智慧系統與兇殺案聯繫起來的第一起案件。
上週在舊金山加州高等法院提起的訴訟指控 OpenAI 設計並分發了有缺陷的產品 GPT-4o,該產品強化了斯坦-埃里克·索爾伯格的偏執信念,隨後他將這些信念指向了他的母親蘇珊娜·亞當斯,之後在康涅狄格州格林威治的家中殺死了她,然後自殺。
「這是首例追究OpenAI因對第三方造成暴力行為而承擔責任的案件,」代表亞當斯遺產的Edelson律師事務所管理合夥人J·伊萊·韋德-斯科特告訴Decrypt 。 “我們也代表今年不幸自殺的亞當·雷恩的家人,但這是首例追究OpenAI因唆使他人傷害他人而承擔責任的案件。”
警方稱,索爾伯格於8月毆打並勒死了亞當斯,之後自殺身亡。訴訟稱,在事件發生前,ChatGPT加劇了索爾伯格的妄想症,並使其對聊天機器人產生了情感依賴。
根據訴狀,聊天機器人強化了索爾伯格的信念,讓他除了ChatGPT之外誰都不能信任,並將他周圍的人,包括他的母親、警察和送貨司機,都描繪成敵人。訴訟還稱,ChatGPT並沒有對這些妄想提出質疑,也沒有建議索爾伯格尋求心理健康專家的協助。
韋德-斯科特說:“我們敦促執法部門開始思考,當此類悲劇發生時,該用戶對 ChatGPT 說了什麼,以及 ChatGPT 指示他們做什麼。”
OpenAI 在一份聲明中表示,他們正在審查這起訴訟,並將繼續改進 ChatGPT 識別情緒困擾、緩和對話以及引導用戶獲得現實世界支持的能力。
OpenAI 的一位發言人在一份聲明中表示:“這是一個令人無比心痛的情況,我們正在審查相關文件以了解詳情。”
該訴訟還將 OpenAI 執行長 Sam Altman 列為被告,並指控微軟批准在 2024 年發布 GPT-4o,稱其為「更危險的 ChatGPT 版本」。
OpenAI 已承認其平台使用者存在嚴重的心理健康問題。該公司在 10 月披露,在其每週約 8 億 ChatGPT 用戶中,每週約有120 萬人討論過自殺,另有數十萬用戶表現出自殺傾向或精神病症狀。儘管如此,韋德-斯科特表示,OpenAI 尚未公佈索爾伯格的聊天記錄。
這次訴訟正值人工智慧聊天機器人及其與弱勢用戶互動受到廣泛關注之際。去年10月,Character.AI公司表示,將移除18歲以下用戶的開放式聊天功能。此前,該公司因其平台引發的青少年自殺和情感傷害問題而面臨訴訟和監管壓力。
Character.AI 也遭到了成年用戶的強烈反對,包括一波帳戶刪除潮。此前,一條病毒式傳播的提示警告用戶,如果他們退出該應用程序,就會失去“我們共同擁有的愛”,這引發了人們對其充滿情感的設計做法的批評。
針對OpenAI和微軟的訴訟是首例將微軟列為被告的涉及人工智慧聊天機器人的非正常死亡案件,也是首例將聊天機器人與他殺而非自殺聯繫起來的案件。死者家屬尋求未指明的賠償金、陪審團審判以及法院命令OpenAI安裝額外的安全措施。
「這是一項極其強大的技術,由一家正迅速成為全球最強大公司之一的企業開發,該公司有責任開發和部署安全的產品,而不是像這次一樣,為用戶構建虛幻世界,危及周圍所有人的安全,」韋德-斯科特說道。 “OpenAI和微軟有責任在產品正式發布前進行測試。”
Decrypt向微軟發出置評請求後,微軟尚未立即回應。






