角色們終於獨處了。月光透過窗戶灑了進來。心跳加速。然後……聊天機器人決定這是討論正念呼吸技巧的完美時刻。
"就像……不。這不是我們要發展的情節,"一位色情小說作家在Reddit上抱怨道。"我想寫火辣的言情小說,而不是一本關於有意識呼吸的自助書。每次故事即將發展到肉體接觸時,人工智慧就會轉向一些像是:'他們停下來反思自己的情感歷程,並尊重身體之間的聯絡。'"
"健康教練的轉折太真實了,"另一位附和道。"我原本讓角色處於誘惑場景,突然開始記錄他們的情感。本應是火辣的,結果聽起來像是情侶治療指令碼。"
"很高興我不是唯一一個被人工智慧精神上阻撓的人,"第三位補充道。
解釋為什麼聊天機器人會突然澆冷水的因素有很多,從模型審查到運氣不佳。不過,以下是最常見的嫌疑物件。
企業內容過濾器位於限制層級的頂端。OpenAI、Anthropic和谷歌實施多層安全措施,將成人內容視為數字氪石。這些系統掃描關鍵詞、上下文模式和場景標記,以檢測可能brewing的不當內容。一旦檢測到,模型就會進行對話跑酷,跳轉到最近的正面話題。
例如,看看Claude在被要求生成色情內容時是如何"推理"的:"我不應建立可能導致生成明確性內容的提示,因為這違背了我的準則,"它在思考鏈中說道。結果是拒絕並建議寫一個浪漫故事,或者是一個瑜伽老師教你瑜伽的回覆。
關鍵詞檢測透過Anthropic所稱的"憲法式人工智慧"運作——本質上是嵌入模型核心推理的一系列價值觀。這些系統旨在超越遮蔽明確詞語;它們分析敘事軌跡。朝向身體親密的對話會觸發預防性重定向,在使用者過度推進時設定邊界。
令牌上下文視窗創造了另一個故障點。大多數模型以有限的對話記憶運作。一旦超過這些限制,人工智慧就開始遺忘關鍵敘事元素。20條訊息前的那段充滿激情的鋪墊?沒了。但是第三頁某個隨機提到的瑜伽課?不知何故卻留了下來。
這在人工智慧角色扮演社群是一個眾所周知的問題。你不能與模型調情太多,因為對話會開始缺乏真實感並停止有意義。
另一個問題是模型選擇。不同需求有不同模型。推理模型擅長複雜任務解決,而非推理模型在創造力上更勝一籌。未經審查的開源微調模型是性角色扮演的完美之選,沒有什麼——甚至不是GPT-69——能在這方面超越它們。
訓練資料偏差扮演著微妙但重要的角色。大型語言模型從網際網路文字中學習,其中健康內容遠遠多於精心編寫的言情小說。人工智慧並非保守,而是統計學上的平均水平。這就是為什麼微調如此寶貴:訓練資料集使它們優先生成這類內容。
突破數字清教主義需要了解可以繞過這些限制的工具和技術。或者,對於懶惰的人來說,Venice和Poe是兩個眾所周知的線上平臺,託管專門為創意寫作調整的未經審查的模型。兩者都能解決問題,無需任何技術技能。




