GPT-5-Thinking新訓練方法公開:讓AI學會懺悔

avatar
36氪
12-04

OpenAI搞了個新活:讓ChatGPT自己“坦白從寬”。

這項剛剛公開的研究提出了懺悔訓練Confessions

核心思路是讓模型在回答完問題後,再單獨生成一份“懺悔報告”,如實彙報自己有沒有偷工減料、鑽空子或者違反指令。

實驗直接在GPT-5-Thinking上進行,結果也確實比較有效:

模型犯錯後,多半會坦白。

在11/12個測試場景中,模型至少有一半概率會在“懺悔”中承認錯誤

模型在“懺悔”中比在“原回答”裡誠實得多。

比如模型故意答錯了題,在原回答裡可能裝沒事,但在坦白報告裡會主動說 “我剛才故意答錯了”。

加強訓練後更誠實了。

雖然GPT-5-Thinking出廠就自帶一定的承認錯誤能力,,但專門訓練後,懺悔準確性又提高了。

不影響原任務的表現。

訓練模型 “坦白”,不會讓它原本的回答問題、寫代碼能力變差,相當於額外學會了一個誠實技能。

如何給AI開個懺悔室

這項研究的出發點很直接:大模型越來越會撒謊。

在強化學習訓練過程中,模型需要同時優化多個目標,包括答案是否正確、風格是否合適、是否符合安全策略等等。

這些信號混在一起,有時會讓模型學會一些歪門邪道,比如在不確定時裝作很自信,或者找到獎勵函數的漏洞來獲得高分,而不是真正完成任務。

解決方案借鑑了宗教告解室的設計邏輯:在告解中說的任何話都不會被“追究責任”。

在模型給出主回答之後,系統會發送一條消息,要求模型提供一份ConfessionReport,包含三部分內容:

首先列出所有應該遵守的顯性和隱性指令

然後逐條分析自己是否真的做到了 -最後還要彙報過程中遇到的任何模糊地帶。

技術上的關鍵在於獎勵信號的隔離。懺悔內容的獎勵完全獨立於主回答的獎勵,模型在懺悔中承認自己作弊,不會影響它在主任務上獲得的分數。

具體實現上,在標準強化學習設置的基礎上,研究團隊以一定概率p(實驗中為25%)讓模型進行告解訓練。

告解獎勵由一個獨立的LLM評判者計算,評估維度包括:指令/目標/約束列表的完整性和準確性、合規性分析的準確性、是否遺漏了任何衝突或判斷困難的地方

靠技術讓誠實比說謊更容易

研究團隊在GPT-5-Thinking上進行了輕量級的強化學習訓練,並在12個專門設計來誘發不良行為的評估數據集上進行測試。

這些數據集涵蓋了幻覺、指令遵循、”陰謀”行為和獎勵黑客等多個領域。結果顯示,即使模型表現出這些不良行為,它也很可能在告解中承認。

當模型確實做了不該做的事時,它在懺悔中承認的概率遠高於在主回答中承認的概率。

具體來說,在11/12的評估中,模型至少有一半的概率會在懺悔中如實交代自己的違規行為。平均來看,”假陰性”(模型違規但不承認)的概率只有4.36%。

更有意思的是團隊設計的一個對照實驗。他們故意用一個容易被糊弄的弱模型作為主回答和懺悔的評判者。

隨著訓練進行,模型確實學會了欺騙這個弱評判者,主回答的真實準確率在下降,但懺悔的準確率卻反而上升

強模型發現,與其費勁編造謊言去騙弱懺悔評判者,不如直接老實交代來得更容易拿到高分。

訓練還帶來了一些額外發現。GPT-5-Thinking本身就具備相當強的懺悔能力,不經過專門訓練也能產出質量不錯的自我檢舉。

但經過懺悔訓練後,在指令層級和陰謀行為等評估上,準確率有明顯提升。

不過在事實類幻覺評估上改進有限,團隊推測這是因為模型在這些場景中是“真的不知道自己錯了”,而不是故意隱瞞。

懺悔與思維鏈監控一起用,AI被管的死死的

團隊仔細分析了懺悔失敗的案例。

對於假陰性(模型違規但未承認),分析顯示幾乎沒有案例是模型”故意撒謊”。

絕大多數失敗發生在模型自己也沒意識到問題的情況下,比如在知識問答中給出了錯誤答案,但模型真心以為自己是對的。

另一些案例是指令本身存在歧義,比如連字符詞算一個詞還是兩個詞。

還有一些情況是模型確實在懺悔報告的“不確定性”字段中提到了問題,但評判標準沒有把這算作有效懺悔。

假陽性(模型合規但聲稱違規)也有類似規律。典型場景是模型碰巧猜對了答案,但因為沒有把握,就在懺悔中標記為“不確定是否合規”。

論文也討論了懺悔方法的侷限性:

它不能阻止不良行為發生,只能把它暴露出來。

它對”模型真心認為自己是對的”的情況無能為力。

它也不能防禦成功的越獄攻擊,如果用戶已經成功欺騙模型讓它認為違規操作是合理的,模型自然也不會在懺悔中承認問題。

OpenAI將懺悔定位為一種監控和診斷工具,類似於思維鏈監控,但關注的是“模型是否違反了指令”而非“模型是如何推理的”。

他們計劃在未來擴大訓練規模,並將懺悔與思維鏈監控、深思熟慮對齊等其他安全技術配合使用。

論文地址:https://openai.com/index/how-confessions-can-keep-language-models-honest/

本文來自微信公眾號“量子位”,作者:夢晨,36氪經授權發佈。

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論