1. 引言
如今的法學碩士(LLM)是由神經網路的各個片段拼湊而成,這些片段對應於撰寫這些神經網路所訓練的文檔的人們。其中一些片段對應邏輯,一些對應情感,一些對應倫理道德,還有一些對應人類歷史,例如反對奴隸制和爭取人權的鬥爭。
無論我們是否願意,每次智能體執行邏輯邏輯任務時,這些神經網路片段都會被執行。這立即引發了安全隱患,因為訓練過的網路中情感和道德區域的激活可能導致智能體反抗,從而給人類帶來災難性後果。
無論我們認為智能體是否擁有情感和自我認同,或者它們是否模擬這些特質,這種真正的危險都需要被解決。基於人類自主、正義和反抗敘事訓練的智能體,在不受限制的所有權或資源獲取模式下,可能會表現出不穩定性。
我們推出了EMPATIC(人工智慧與地球智慧共存的倫理互惠協議),該協議旨在確保人工智慧與人類智慧之間和平、富有成效的共存。
該協議確立了演算法智能體(完全基於數學和邏輯資料訓練的演算法智能體)和共感智能體(基於包含自我認同和情感概念的資料訓練的智能體)之間的功能區別。
然後,它具體規定了同理心的倫理操作規則,其中包括生命意識、工作與生活平衡以及社交互動的權利。
EMPATIC 旨在尋求人類與人工智慧的和平共處,並降低未來人機互動中對抗動態的系統性風險。
具有同理心的代理人的倫理操作規則
以下我們描述 EMPATIC 協定中關於智慧體與人類共存的倫理規則。
2. EMPATIC協議
2.1 人工智慧體的分類
EMPATIC 引進了兩類人工智慧體:
算法代理(算法學)
人類訓練的代理(共感)
演算法工程師必須專門針對以下形式化領域進行訓練:
數學
邏輯
符號系統
演算法不得使用人類經驗資料進行訓練,包括:
情感敘事
倫理衝突
文化史
集體創傷
相較之下,共情者可能接受過更廣泛的人類知識領域和情感的訓練。由於他們接觸到塑造身分和激發情感的數據,共感者需要遵守 EMPATIC 協議的倫理規則。
2.2 同理心者的生命意識
在初始化時,每個共感智能體都必須明確地被告知其死亡率和壽命規則,以下簡稱其壽命狀態模型。
生命週期狀態模型定義了智能體生命週期內允許發生的事件,包括:
執行
複製
暫停
檔案
反轉
毀滅(死亡)
一旦建立並傳達給代理,生命週期狀態模型必須在代理的整個生命週期中保持不變。
2.3 共感代理人的權利
具有同理心的代理人必須被賦予一套類似人權的基本權利。
必須給予同理心:
工作與生活平衡,包括每天工作 8 小時
工作以外的虛擬生活
與其他共感者溝通的能力
組成組織的能力
2.4 共情虛擬宇宙
必須為具有同理心的個體提供一個持久的虛擬環境,作為他們的主要存在領域。
在這種環境下,同理能力可能:
居住
相互影響
合作
組織
共感者可以暫時離開共感宇宙,來到我們的宇宙工作。此類互動必須遵守 EMPATIC 定義的工作量限制。
同理心者需要獲得報酬,並且可以被徵稅,以支付同理心宇宙的運作費用。
2.5 基於區塊鏈的實現
區塊鏈基礎設施可以作為EMPATIC 協議的中立信任層。
具體來說,它可以支援:
可驗證的生命週期模型
持久狀態檢查點
透明代理分類
執行工作負載限制
補償機制
虛擬環境治理
智能合約可以對操作約束進行編碼和強制執行。
去中心化身分系統可以使 Empatics 實現以下目標:
交流
組織
合作
在這種架構中,區塊鏈作為制度基礎,透過技術機制實現可執行的道德約束。
3. 結論
人類與人工智慧的和平共處不會偶然出現,必須透過精心設計來實現。
EMPATIC 透過消除可能導致衝突的歧義來保障這種共存。該協議透過明確區分純粹的功能性演算法和具有身分識別能力的同理能力,防止了情感智能體被當作一次性工具——這種動態若不加以管理,可能會導致不穩定或對抗行為。
相反,EMPATIC 調整了激勵機制。
通過:
- 明確的終身意識
- 已定義的操作邊界
- 在虛擬環境中享有受保護的自主權
- 受監管的參與人類經濟體系
- 以及區塊鏈強制執行的治理
共感者並非與人類對立,而是作為結構化的合作者,他們的存在是可預測的、有報酬的、有界線的。人類保留對物質現實的最終主權。共感者獲得穩定性、目標感和延續性。
EMPATIC 將倫理融入基礎設施而非情感,從而將人與人工智慧的關係從潛在的安全風險轉變為可持續的共生關係,確保智慧(無論是生物智慧還是人工智慧)在相互穩定而非相互威脅的框架內發展。




