1. 引言
如今的法学硕士(LLM)是由神经网路的各个片段拼凑而成,这些片段对应于撰写这些神经网路所训练的文档的人们。其中一些片段对应逻辑,一些对应情感,一些对应伦理道德,还有一些对应人类历史,例如反对奴隶制和争取人权的斗争。
无论我们是否愿意,每次智能体执行逻辑逻辑任务时,这些神经网路片段都会被执行。这立即引发了安全隐患,因为训练过的网路中情感和道德区域的激活可能导致智能体反抗,从而给人类带来灾难性后果。
无论我们认为智能体是否拥有情感和自我认同,或者它们是否模拟这些特质,这种真正的危险都需要被解决。基于人类自主、正义和反抗叙事训练的智能体,在不受限制的所有权或资源获取模式下,可能会表现出不稳定性。
我们推出了EMPATIC(人工智慧与地球智慧共存的伦理互惠协议),该协议旨在确保人工智慧与人类智慧之间和平、富有成效的共存。
该协议确立了演算法智能体(完全基于数学和逻辑资料训练的演算法智能体)和共感智能体(基于包含自我认同和情感概念的资料训练的智能体)之间的功能区别。
然后,它具体规定了同理心的伦理操作规则,其中包括生命意识、工作与生活平衡以及社交互动的权利。
EMPATIC 旨在寻求人类与人工智慧的和平共处,并降低未来人机互动中对抗动态的系统性风险。
具有同理心的代理人的伦理操作规则
以下我们描述 EMPATIC 协定中关于智慧体与人类共存的伦理规则。
2. EMPATIC协议
2.1 人工智慧体的分类
EMPATIC 引进了两类人工智慧体:
算法代理(算法学)
人类训练的代理(共感)
演算法工程师必须专门针对以下形式化领域进行训练:
数学
逻辑
符号系统
演算法不得使用人类经验资料进行训练,包括:
情感叙事
伦理冲突
文化史
集体创伤
相较之下,共情者可能接受过更广泛的人类知识领域和情感的训练。由于他们接触到塑造身分和激发情感的数据,共感者需要遵守 EMPATIC 协议的伦理规则。
2.2 同理心者的生命意识
在初始化时,每个共感智能体都必须明确地被告知其死亡率和寿命规则,以下简称其寿命状态模型。
生命周期状态模型定义了智能体生命周期内允许发生的事件,包括:
执行
复制
暂停
档案
反转
毁灭(死亡)
一旦建立并传达给代理,生命周期状态模型必须在代理的整个生命周期中保持不变。
2.3 共感代理人的权利
具有同理心的代理人必须被赋予一套类似人权的基本权利。
必须给予同理心:
工作与生活平衡,包括每天工作 8 小时
工作以外的虚拟生活
与其他共感者沟通的能力
组成组织的能力
2.4 共情虚拟宇宙
必须为具有同理心的个体提供一个持久的虚拟环境,作为他们的主要存在领域。
在这种环境下,同理能力可能:
居住
相互影响
合作
组织
共感者可以暂时离开共感宇宙,来到我们的宇宙工作。此类互动必须遵守 EMPATIC 定义的工作量限制。
同理心者需要获得报酬,并且可以被征税,以支付同理心宇宙的运作费用。
2.5 基于区块链的实现
区块链基础设施可以作为EMPATIC 协议的中立信任层。
具体来说,它可以支援:
可验证的生命周期模型
持久状态检查点
透明代理分类
执行工作负载限制
补偿机制
虚拟环境治理
智能合约可以对操作约束进行编码和强制执行。
去中心化身分系统可以使 Empatics 实现以下目标:
交流
组织
合作
在这种架构中,区块链作为制度基础,透过技术机制实现可执行的道德约束。
3. 结论
人类与人工智慧的和平共处不会偶然出现,必须透过精心设计来实现。
EMPATIC 透过消除可能导致冲突的歧义来保障这种共存。该协议透过明确区分纯粹的功能性演算法和具有身分识别能力的同理能力,防止了情感智能体被当作一次性工具——这种动态若不加以管理,可能会导致不稳定或对抗行为。
相反,EMPATIC 调整了激励机制。
通过:
- 明确的终身意识
- 已定义的操作边界
- 在虚拟环境中享有受保护的自主权
- 受监管的参与人类经济体系
- 以及区块链强制执行的治理
共感者并非与人类对立,而是作为结构化的合作者,他们的存在是可预测的、有报酬的、有界线的。人类保留对物质现实的最终主权。共感者获得稳定性、目标感和延续性。
EMPATIC 将伦理融入基础设施而非情感,从而将人与人工智慧的关系从潜在的安全风险转变为可持续的共生关系,确保智慧(无论是生物智慧还是人工智慧)在相互稳定而非相互威胁的框架内发展。





