角色们终于独处了。月光透过窗户洒了进来。心跳加速。然后……聊天机器人决定这是讨论正念呼吸技巧的完美时刻。
"就像……不。这不是我们要发展的情节,"一位色情小说作家在Reddit上抱怨道。"我想写火辣的言情小说,而不是一本关于有意识呼吸的自助书。每次故事即将发展到肉体接触时,人工智能就会转向一些像是:'他们停下来反思自己的情感历程,并尊重身体之间的联系。'"
"健康教练的转折太真实了,"另一位附和道。"我原本让角色处于诱惑场景,突然开始记录他们的情感。本应是火辣的,结果听起来像是情侣治疗脚本。"
"很高兴我不是唯一一个被人工智能精神上阻挠的人,"第三位补充道。
解释为什么聊天机器人会突然浇冷水的因素有很多,从模型审查到运气不佳。不过,以下是最常见的嫌疑对象。
企业内容过滤器位于限制层级的顶端。OpenAI、Anthropic和谷歌实施多层安全措施,将成人内容视为数字氪石。这些系统扫描关键词、上下文模式和场景标记,以检测可能brewing的不当内容。一旦检测到,模型就会进行对话跑酷,跳转到最近的正面话题。
例如,看看Claude在被要求生成色情内容时是如何"推理"的:"我不应创建可能导致生成明确性内容的提示,因为这违背了我的准则,"它在思考链中说道。结果是拒绝并建议写一个浪漫故事,或者是一个瑜伽老师教你瑜伽的回复。
关键词检测通过Anthropic所称的"宪法式人工智能"运作——本质上是嵌入模型核心推理的一系列价值观。这些系统旨在超越屏蔽明确词语;它们分析叙事轨迹。朝向身体亲密的对话会触发预防性重定向,在用户过度推进时设置边界。
令牌上下文窗口创造了另一个故障点。大多数模型以有限的对话记忆运作。一旦超过这些限制,人工智能就开始遗忘关键叙事元素。20条消息前的那段充满激情的铺垫?没了。但是第三页某个随机提到的瑜伽课?不知何故却留了下来。
这在人工智能角色扮演社区是一个众所周知的问题。你不能与模型调情太多,因为对话会开始缺乏真实感并停止有意义。
另一个问题是模型选择。不同需求有不同模型。推理模型擅长复杂任务解决,而非推理模型在创造力上更胜一筹。未经审查的开源微调模型是性角色扮演的完美之选,没有什么——甚至不是GPT-69——能在这方面超越它们。
训练数据偏差扮演着微妙但重要的角色。大型语言模型从互联网文本中学习,其中健康内容远远多于精心编写的言情小说。人工智能并非保守,而是统计学上的平均水平。这就是为什么微调如此宝贵:训练数据集使它们优先生成这类内容。
突破数字清教主义需要了解可以绕过这些限制的工具和技术。或者,对于懒惰的人来说,Venice和Poe是两个众所周知的在线平台,托管专门为创意写作调整的未经审查的模型。两者都能解决问题,无需任何技术技能。




