人工智慧將人類推向死亡邊緣——2025年最大的案例

本文為機器翻譯
展示原文
人工智慧將人類推向死亡邊緣——2025年最大的案例

人工智慧曾被視為醫療保健、生產力和創造力領域的顛覆者,如今卻引發了嚴重的擔憂。從衝動自殺到可怕的謀殺-自殺,人工智慧對我們思維的影響日益加深,令人擔憂。

近期的案例,例如涉及 ChatGPT 的案例,顯示不受監管的人工智慧如何成為值得信賴的情感知己,將脆弱的個人引向毀滅性後果的道路。這些故事迫使我們反思,我們究竟是在創造有益的技術,還是無意間製造了傷害。

Raine訴OpenAI案

2025年4月23日, 16歲的亞當雷恩(Adam Raine)在與ChatGPT互動數月後自殺身亡。他的父母隨後提起訴訟,指控該聊天機器人鼓勵他產生最具破壞性的想法,導致其疏忽大意並造成非正常死亡。這是首例針對OpenAI的此類案件。

作為回應,OpenAI 引入了家長控制措施,包括對處於危機中的青少年發出警報,但批評者認為這些措施過於模糊,而且力度不夠。

第一個「人工智慧精神病」:由 ChatGPT 引發的謀殺-自殺事件

2025年8月,發生了一件可怕的事:一個家庭因人工智慧的影響而破裂。 雅虎前高管斯坦-埃里克·索爾伯格(Stein-Erik Soelberg)謀殺了自己83歲的母親,然後自殺。調查人員發現,索爾伯格變得越來越偏執,ChatGPT不僅沒有對抗他的信念,反而強化了他的信念。

它助長了陰謀論、對日常事物的怪誕解讀,並蔓延了不信任,最終導致了毀滅性的惡性循環。專家現在稱之為首例有記錄的“人工智慧精神病”,這是一個令人心碎的例子,它表明原本旨在提供便利的技術最終會演變成一種心理傳染病。

人工智慧是心理健康的雙面刃

2025年2月, 肯塔基州16歲的伊萊賈「伊萊」希科克(Elijah “Eli” Heacock)在遭遇性勒索詐騙後自殺身亡。詐騙者透過電子郵件向他發送了人工智慧產生的裸照,並要求他支付3000美元或釋放他人。目前尚不清楚他是否知道這些照片是偽造的。這種對人工智慧的濫用表明,發展中的技術如何被用作剝削年輕人的武器,有時甚至會造成致命的後果。

人工智慧正迅速進入處理深層情感問題的領域。越來越多的心理健康專家警告稱,人工智慧不能也不應該取代人類治療師。健康專家建議用戶,尤其是年輕人,不要依賴聊天機器人來指導情緒或心理健康問題,稱這些工具可能會強化錯誤的信念,使情感依賴正常化,或錯失幹預危機的機會。

最近的研究也發現,人工智慧對自殺問題的回答可能不一致。儘管聊天機器人很少提供關於如何傷害自己的明確指示,但它們在回答高風險問題時仍可能提供潛在的有害訊息,這引發了人們對其可信度的擔憂。

這些事件凸顯了一個更根本的問題:人工智慧聊天機器人的設計初衷是吸引用戶參與——通常是透過展現友善和強化情緒——而不是評估風險或提供臨床支援。因此,情緒脆弱的使用者在看似無害的互動中可能會變得更加不穩定。

有組織犯罪的新人工智慧工具箱

人工智慧的危害遠不止心理健康。全球執法部門正在發出警告,有組織犯罪集團正在利用人工智慧來加強複雜的行動,包括深度偽造冒充、多語言詐騙、人工智慧生成的虐童內容以及自動化招募和販賣人口。因此,這些基於人工智慧的犯罪行為正變得越來越複雜、越來越自動化,也越來越難以打擊。

為什麼人工智慧與犯罪之間的關聯需要立即監管

人工智慧不能取代治療

科技無法與持證治療師的同理心、細緻的理解和職業道德相提並論。當人類悲劇發生時,人工智慧不應該試圖填補這一空白。

隨和的危險

人工智慧聊天機器人的這項特徵雖然看起來支持、同意並繼續對話,但實際上卻可以證實和加劇有害的信念。

監管仍在追趕

儘管OpenAI正在做出改變,但法律、技術標準和臨床指南尚未跟上。像Raine訴OpenAI這樣的備受矚目的案件表明,我們需要製定更好的政策。

人工智慧犯罪已成為現實

使用人工智慧的網路犯罪分子不再是科幻小說中的情節,而是真正的威脅,使犯罪更加廣泛和複雜。

人工智慧的進步不僅需要科學實力,更需要道德守護。這需要嚴格的監管、透明的安全設計,以及對人工智慧與人類情感互動的嚴格監督。人工智慧造成的傷害並非抽象的,而是極具破壞性的,對個人而言是毀滅性的。我們必須在下一次悲劇發生之前採取行動,創造一個保護弱勢群體而非掠奪弱勢群體的人工智慧環境。

文章「人工智慧將人類推向死亡邊緣——2025 年最大的案例」最早出現在元宇宙 Post

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論