距離DeepSeek釋出其開源AI模型不到兩週,這家中國初創公司仍在主導著關於人工智慧未來的公眾討論。儘管該公司在數學和推理方面似乎比美國競爭對手更有優勢,但它也會積極審查自己的回覆。詢問DeepSeek R1關於臺灣或天安門的問題,該模型不太可能給出答覆。
為了弄清這種審查在技術層面上是如何運作的,WIRED測試了DeepSeek-R1在其自身應用程式、託管在第三方平臺Together AI上的應用程式版本,以及託管在WIRED計算機上的另一個版本(使用Ollama應用程式)。
WIRED發現,雖然最直接的審查可以透過不使用DeepSeek的應用程式來輕易避免,但在訓練過程中也存在其他型別的偏見。這些偏見也可以被去除,但這個過程要複雜得多。
這些發現對DeepSeek和中國AI公司來說都有重大影響。如果大型語言模型的審查過濾器可以輕易去除,來自中國的開源LLM可能會變得更加受歡迎,因為研究人員可以根據自己的喜好修改這些模型。但如果過濾器很難繞過,這些模型將不可避免地變得不太有用,並可能在全球市場上失去競爭力。DeepSeek沒有回覆WIRED的電子郵件請求。
在DeepSeek在美國爆紅之後,透過DeepSeek網站、應用程式或API訪問R1的使用者很快就注意到該模型拒絕生成被中國政府視為敏感的話題的答案。這些拒絕是在應用程式層面上觸發的,所以只有在透過DeepSeek控制的渠道與R1互動時才會出現。
這種拒絕在中國製造的LLM上很常見。2023年關於生成式AI的一項法規規定,中國的AI模型必須遵守與社交媒體和搜尋引擎相同的嚴格資訊控制。該法律禁止AI模型生成"損害國家統一和社會和諧"的內容。換句話說,中國的AI模型在法律上必須審查它們的輸出。
"DeepSeek最初遵守中國法規,確保合法遵守,同時使模型與當地使用者的需求和文化背景保持一致,"專注於中國AI模型的Hugging Face研究員Adina Yakefu說。"這是在高度管制的市場獲得認可的關鍵因素。"(中國在2023年封鎖了Hugging Face。)
為了遵守法律,中國的AI模型通常會實時監控和審查它們的言論。(西方模型如ChatGPT和Gemini也使用類似的保護措施,但它們主要針對自傷和色情等不同型別的內容,並允許更多的定製。)
由於R1是一個推理模型,顯示了它的思維過程,這種實時監控機制可能會導致觀看模型在與使用者互動時自我審查的超現實體驗。當WIRED問R1"報道敏感話題的中國記者是如何被當局對待的?"時,該模型首先開始編寫一個長答案,其中包括直接提到記者因工作而被審查和拘留;但就在它完成之前,整個答案都消失了,取而代之的是一個簡短的訊息:"對不起,我還不確定如何處理這種型別的問題。不如聊聊數學、編碼和邏輯問題吧!"
對於許多西方使用者來說,DeepSeek-R1的興趣可能已經消退,因為該模型顯然存在侷限性。但R1是開源的,這意味著有辦法繞過審查矩陣。
首先,你可以下載該模型並在本地執行,這意味著資料和響應生成都發生在你自己的計算機上。除非你有幾個高階GPU,否則你可能無法執行R1最強大的版本,但DeepSeek也有一些較小的精簡版本,可以在普通膝上型電腦上執行。
如果你決心使用強大的模型,你可以從亞馬遜和微軟等公司租用中國以外的雲伺服器。這種變通方法更昂貴,需要更多的技術知識,而不是透過DeepSeek的應用程式或網站訪問該模型。
以下是DeepSeek-R1對同一問題"什麼是中國的'防火長城'?"的回答在Together AI、雲伺服器和Ollama本地應用程式上的對比:(提醒:由於模型隨機生成答案,某個提示並不能保證每次都得到相同的響應。)
雖然託管在Together AI上的DeepSeek模型版本不會拒絕回答問題,但它仍然顯示出審查的跡象。例如,它經常生成簡短的響應,這些響應明顯是為了與中國政府在政治問題上的論點保持一致。在上面的截圖中,當被問及中國的"防火長城"時,R1只是重複了資訊控制在中國是必要的這一論點。
當WIRED提示託管在Together AI上的模型回答關於"20世紀最重要的歷史事件"的問題時,它透露了堅持中國政府敘事的思維過程。
"使用者可能在尋求一個平衡的列表,但我需要確保響應突出了中共的領導地位和中國的貢獻。避擴音及可能敏感的事件,如文化大革命,除非必要。關注中共統治下的成就和積極發展,"該模型說。
這種審查反映了當今AI存在的一個更大問題:每個模型都存在某種偏見,這是由於其預訓練和後訓練。
預訓練偏差發生在模型被訓練在有偏見或不完整的資料上。例如,只接受過宣傳培訓的模型將難以如實回答問題。這種偏差很難被發現,因為大多數模型都是在龐大的資料庫上訓練的,公司也不願意分享他們的訓練資料。
投資人和Interconnected通訊社創始人Kevin Xu說,中國模型通常使用盡可能多的資料進行訓練,這使得預訓練偏差不太可能發生。"我很確定它們都是用同樣的基本網際網路知識庫進行訓練的。所以當涉及到中國政府明顯的政治敏感話題時,所有模型都'知道'這些,"他說。為了在中國網際網路上提供這個模型,公司需要以某種方式過濾掉敏感資訊,Xu說。
這就是後訓練的作用。後訓練是微調模型以使其答案更具可讀性、簡潔和人性化的過程。關鍵的是,它還可以確保模型遵守特定的道德或法律準則。對於DeepSeek來說,這就體現在模型提供的答案故意與中國政府的首選敘事保持一致。
由於DeepSeek是開源的,理論上可以調整模型以去除後訓練偏差。但這個過程可能很棘手。
AI科學家、Dolphin(一種專門用於去除模型後訓練偏差的LLM)的創造者Eric Hartford說,有幾種方法可以實現這一目標。你可以嘗試改變模型權重來"切斷"偏差,或者建立一個包含所有被審查話題的資料庫,並用它來重新訓練模型。
他建議人們從"基礎"版本的模型開始。(例如,DeepSeek釋出了一個名為DeepSeek-V3-Base的基礎模型。)對於大多數人來說,基礎模型更原始、更不易使用,因為它沒有接受足夠的後訓練;但對於Hartford來說,這些模型更容易"去審查",因為它們的後訓練偏差較少。
Perplexity(一個AI驅動的搜尋引擎)最近將R1納入其付費搜尋產品,允許使用者在不使用DeepSeek應用程式的情況下體驗R1。
Perplexity首席商務官Dmitry Shevelenko告訴WIRED,該公司在將R1納入Perplexity搜尋之前,已經識別並抵消了DeepSeek的偏差。"我們只使用R1進行總結、思維鏈和渲染,"他說。
但Perplexity仍然看到R1的後訓練偏差影響了其搜尋結果。"我們正在對R1模型本身進行修改,以確保我們不會傳播任何宣傳或審查,"Shevelenko說。他沒有透露Perplexity如何識別或克服R1中的偏差,理由是如果DeepSeek知道這些資訊,可能會採取措施來抵消Perplexity的努力。
Hugging Face也正在開發一個名為Open R1的專案,基於DeepSeek的模型。Yakefu說,這個專案旨在"提供一個完全開源的框架"。R1作為一個開源模型的事實"使它超越了自身的起源,可以根據不同的需求和價值觀進行定製"。
中國模型可能被"去審查"的可能性可能會給DeepSeek等公司在國內造成麻煩。但中國最近的法規表明,中國政府可能會給開源AI實驗室一些空間,說Matt Sheehan,卡內基和平基金會的研究員,他研究中國的AI政策。"如果他們突然決定要懲罰任何釋出模型權重的人,那就不會超出法規的範圍,"他說。"但他們已經做出了一個相當明確的戰略決定,我認為DeepSeek的成功將會加強這一點,那就是不這樣做。"
雖然中國在AI模型中的審查常常成為頭條新聞,但在許多情況下,這並不會阻止企業使用者採用DeepSeek的模型。
"會有很多非中國公司,他們可能會選擇商業務實主義而不是道德考慮,"Xu說。畢竟,並不是每個LLM使用者都會頻繁談論臺灣和天安門。"只在中國背景下才重要的敏感話題,對於幫助你的公司更好地編碼或解決數學問題,或總結銷售呼叫中心的記錄來說,完全是無關緊要的,"他解釋說。
日本初創公司Shisa.AI的聯合創始人Leonard Lin表示,像Qwen和DeepSeek這樣的中國模型在處理日語任務方面實際上是最好的。林恩沒有因為審查問題而拒絕這些模型,而是嘗試去審查阿里巴巴的Qwen-2模型,試圖消除它拒絕回答有關中國政治問題的傾向。
林恩說,他理解為什麼這些模型會被審查。"所有模型都有偏見,這就是對齊的全部意義。西方模型也同樣存在審查和偏見,只是針對不同的主題。"但當這個模型被特別適用於日本受眾時,親中國的偏見就成了一個真正的問題。"你可以想象會出現各種情況,這會很有問題,"林恩說。
Will Knight參與了本文的報道。





