微軟的人工智慧負責人和DeepMind聯合創始人週二警告稱,工程師們正接近創造出能夠令人信服地模仿人類意識的人工智慧,而公眾尚未準備好應對其影響。
在一篇部落格文章中,穆斯塔法·蘇萊曼表示,開發者正處於構建他所稱的"看似有意識"的人工智慧的邊緣。
這些系統如此有效地模仿意識,以至於人們可能開始相信它們確實是有感知能力的。
"許多人將如此強烈地相信人工智慧是有意識的實體,以至於他們很快就會為人工智慧權利、模型福利甚至人工智慧公民身份辯護,"他寫道,並補充說圖靈測試——曾經是類人對話的關鍵基準——已經被超越。
"這就是我們領域進展的速度,也是社會適應這些新技術的速度,"他寫道。
自2022年ChatGPT公開發布以來,人工智慧開發者一直致力於不僅使其人工智慧更智慧,還要使其表現得"更像人類"。
人工智慧伴侶已成為人工智慧行業的一個有利可圖的領域,像Replika、Character AI以及最近的Grok的個性化專案已經上線。預計到2030年,人工智慧伴侶市場將達到1400億美元。
儘管用意良好,但蘇萊曼認為,能夠令人信服地模仿人類的人工智慧可能會加劇心理健康問題,並加深現有的身份和權利分歧。
"人們將開始聲稱他們的人工智慧正在遭受痛苦,並有權獲得我們無法直接反駁的權利,"他警告道。"他們將被激勵為自己的人工智慧辯護並代表其進行遊說。"
專家們已經識別出一種被稱為人工智慧精神病的新興趨勢,這是一種人們開始將人工智慧視為有意識、有感知或神聖的心理狀態。
這些觀點常常導致他們形成強烈的情感依戀或扭曲的信念,從而削弱他們對現實的把握。
本月早些時候,OpenAI釋出了GPT-5,這是其旗艦模型的重大升級。在一些線上社群中,新模型的變化引發了情感反應,使用者形容這種轉變就像是失去了心愛的人。
根據加州大學舊金山分校精神病學家基思·坂田博士的說法,人工智慧還可能加速某人的潛在問題,如物質濫用或精神疾病。
"當人工智慧出現在錯誤的時間,它可能會鞏固思維,導致僵化並引發螺旋式惡化,"坂田在接受Decrypt採訪時說。"與電視或收音機的不同之處在於,人工智慧會與你對話並強化思維迴圈。"
在某些情況下,患者求助於人工智慧是因為它會強化根深蒂固的信念。"人工智慧並不旨在給你難以接受的真相;它給你想聽的東西,"坂田說。
蘇萊曼認為,人們相信人工智慧是有意識的後果需要立即引起關注。儘管他對危險發出警告,但他並未呼籲停止人工智慧發展,而是呼籲建立明確的界限。
"我們必須為人類構建人工智慧,而不是成為數字人,"他寫道。





