人工智慧可以診斷疾病、寫詩,甚至開車,但它仍然難以理解一個簡單的詞:"不"。這個盲點可能在現實世界的應用中造成嚴重後果,比如在醫療保健領域的人工智慧。
根據麻省理工學院博士生Kumail Alhamoud領導的一項新研究,與OpenAI和牛津大學合作,未能理解"不"和"非"可能會產生深遠的後果,尤其是在醫療環境中。
否定(例如,"無骨折"或"未放大")是一個關鍵的語言功能,尤其是在醫療等高風險環境中,誤解它可能導致嚴重的傷害。研究表明,當前的人工智慧模型(如ChatGPT、Gemini和Llama)常常無法正確處理否定陳述,而是傾向於預設為正面關聯。
核心問題不僅僅是缺乏資料;而是人工智慧的訓練方式。大多數大型語言模型是為識別模式而構建的,而非邏輯推理。這意味著它們可能會將"不好"解釋為仍然有些積極,因為它們將"好"與積極性聯絡起來。專家認為,除非模型被教導透過邏輯推理,而不僅僅是模仿語言,否則它們將繼續犯微小但危險的錯誤。
零知識基礎設施公司Lagrange Labs的首席研究工程師Franklin Delehelle告訴Decrypt:"人工智慧非常擅長生成與訓練期間看到的類似的響應。但它很難提出真正新的或訓練資料之外的東西。因此,如果訓練資料缺乏說"不"或表達負面情緒的強有力示例,模型可能難以生成那種響應。"
在研究中,研究人員發現,旨在解釋影象和文字的視覺語言模型表現出更強的肯定陳述偏見,經常無法區分正面和負面標題。
研究人員表示:"透過合成否定資料,我們為更可靠的模型提供了一個有希望的途徑。雖然我們的合成數據方法改進了否定理解,但挑戰仍然存在,尤其是在細微的否定差異方面。"
儘管在推理方面取得了持續進展,但許多人工智慧系統仍然難以進行類似人類的推理,尤其是在處理開放性問題或需要更深入理解或"常識"的情況時。
Delehelle告訴Decrypt:"所有大型語言模型——我們現在通常稱之為人工智慧——在某種程度上受到其初始提示的影響。當你與ChatGPT或類似系統互動時,系統不僅僅是使用你的輸入。還有一個內部或'內部'提示,是公司預先設定的——這是你作為使用者無法控制的。"
Delehelle強調了人工智慧的一個核心侷限性:它依賴於訓練資料中發現的模式,這種約束可能會塑造並有時扭曲其響應方式。
斯坦福大學深度學習兼職教授、技能智慧公司Workera的創始人Kian Katanforoosh表示,否定的挑戰源於語言模型運作方式的根本缺陷。
Katanforoosh告訴Decrypt:"否定是出奇複雜的。像'不'和'非'這樣的詞會顛倒句子的含義,但大多數語言模型並不透過邏輯推理——它們只是根據模式預測什麼聽起來可能。這使它們容易在涉及否定時錯過要點。"
Katanforoosh還指出,呼應Delehelle的觀點,人工智慧模型的訓練方式是核心問題。
"這些模型是被訓練用於關聯,而非推理。所以當你說'不好'時,它們仍然強烈地將'好'這個詞與正面情緒關聯,"他解釋道。"與人類不同,它們並不總是能夠覆蓋這些關聯。"
Katanforoosh警告說,無法準確解釋否定不僅僅是技術缺陷——它可能在現實世界中產生嚴重後果。
"理解否定對於理解至關重要,"他說。"如果一個模型不能可靠地掌握它,你就會冒著微妙但關鍵的錯誤風險——尤其是在法律、醫療或人力資源應用等用例中。"
儘管擴大訓練資料看似是一個簡單的解決方案,但他認為解決方案在別處。
"解決這個問題不在於更多資料,而在於更好的推理。我們需要能夠處理邏輯的模型,而不僅僅是語言,"他說。"現在的前沿是:將統計學習與結構化思維結合起來。"
編輯:James Rubin





