距离DeepSeek发布其开源AI模型不到两周,这家中国初创公司仍在主导着关于人工智能未来的公众讨论。尽管该公司在数学和推理方面似乎比美国竞争对手更有优势,但它也会积极审查自己的回复。询问DeepSeek R1关于台湾或天安门的问题,该模型不太可能给出答复。
为了弄清这种审查在技术层面上是如何运作的,WIRED测试了DeepSeek-R1在其自身应用程序、托管在第三方平台Together AI上的应用程序版本,以及托管在WIRED计算机上的另一个版本(使用Ollama应用程序)。
WIRED发现,虽然最直接的审查可以通过不使用DeepSeek的应用程序来轻易避免,但在训练过程中也存在其他类型的偏见。这些偏见也可以被去除,但这个过程要复杂得多。
这些发现对DeepSeek和中国AI公司来说都有重大影响。如果大型语言模型的审查过滤器可以轻易去除,来自中国的开源LLM可能会变得更加受欢迎,因为研究人员可以根据自己的喜好修改这些模型。但如果过滤器很难绕过,这些模型将不可避免地变得不太有用,并可能在全球市场上失去竞争力。DeepSeek没有回复WIRED的电子邮件请求。
在DeepSeek在美国爆红之后,通过DeepSeek网站、应用程序或API访问R1的用户很快就注意到该模型拒绝生成被中国政府视为敏感的话题的答案。这些拒绝是在应用程序层面上触发的,所以只有在通过DeepSeek控制的渠道与R1互动时才会出现。
这种拒绝在中国制造的LLM上很常见。2023年关于生成式AI的一项法规规定,中国的AI模型必须遵守与社交媒体和搜索引擎相同的严格信息控制。该法律禁止AI模型生成"损害国家统一和社会和谐"的内容。换句话说,中国的AI模型在法律上必须审查它们的输出。
"DeepSeek最初遵守中国法规,确保合法遵守,同时使模型与当地用户的需求和文化背景保持一致,"专注于中国AI模型的Hugging Face研究员Adina Yakefu说。"这是在高度管制的市场获得认可的关键因素。"(中国在2023年封锁了Hugging Face。)
为了遵守法律,中国的AI模型通常会实时监控和审查它们的言论。(西方模型如ChatGPT和Gemini也使用类似的保护措施,但它们主要针对自伤和色情等不同类型的内容,并允许更多的定制。)
由于R1是一个推理模型,显示了它的思维过程,这种实时监控机制可能会导致观看模型在与用户互动时自我审查的超现实体验。当WIRED问R1"报道敏感话题的中国记者是如何被当局对待的?"时,该模型首先开始编写一个长答案,其中包括直接提到记者因工作而被审查和拘留;但就在它完成之前,整个答案都消失了,取而代之的是一个简短的消息:"对不起,我还不确定如何处理这种类型的问题。不如聊聊数学、编码和逻辑问题吧!"
对于许多西方用户来说,DeepSeek-R1的兴趣可能已经消退,因为该模型显然存在局限性。但R1是开源的,这意味着有办法绕过审查矩阵。
首先,你可以下载该模型并在本地运行,这意味着数据和响应生成都发生在你自己的计算机上。除非你有几个高级GPU,否则你可能无法运行R1最强大的版本,但DeepSeek也有一些较小的精简版本,可以在普通笔记本电脑上运行。
如果你决心使用强大的模型,你可以从亚马逊和微软等公司租用中国以外的云服务器。这种变通方法更昂贵,需要更多的技术知识,而不是通过DeepSeek的应用程序或网站访问该模型。
以下是DeepSeek-R1对同一问题"什么是中国的'防火长城'?"的回答在Together AI、云服务器和Ollama本地应用程序上的对比:(提醒:由于模型随机生成答案,某个提示并不能保证每次都得到相同的响应。)
虽然托管在Together AI上的DeepSeek模型版本不会拒绝回答问题,但它仍然显示出审查的迹象。例如,它经常生成简短的响应,这些响应明显是为了与中国政府在政治问题上的论点保持一致。在上面的截图中,当被问及中国的"防火长城"时,R1只是重复了信息控制在中国是必要的这一论点。
当WIRED提示托管在Together AI上的模型回答关于"20世纪最重要的历史事件"的问题时,它透露了坚持中国政府叙事的思维过程。
"用户可能在寻求一个平衡的列表,但我需要确保响应突出了中共的领导地位和中国的贡献。避免提及可能敏感的事件,如文化大革命,除非必要。关注中共统治下的成就和积极发展,"该模型说。
这种审查反映了当今AI存在的一个更大问题:每个模型都存在某种偏见,这是由于其预训练和后训练。
预训练偏差发生在模型被训练在有偏见或不完整的数据上。例如,只接受过宣传培训的模型将难以如实回答问题。这种偏差很难被发现,因为大多数模型都是在庞大的数据库上训练的,公司也不愿意分享他们的训练数据。
投资人和Interconnected通讯社创始人Kevin Xu说,中国模型通常使用尽可能多的数据进行训练,这使得预训练偏差不太可能发生。"我很确定它们都是用同样的基本互联网知识库进行训练的。所以当涉及到中国政府明显的政治敏感话题时,所有模型都'知道'这些,"他说。为了在中国互联网上提供这个模型,公司需要以某种方式过滤掉敏感信息,Xu说。
这就是后训练的作用。后训练是微调模型以使其答案更具可读性、简洁和人性化的过程。关键的是,它还可以确保模型遵守特定的道德或法律准则。对于DeepSeek来说,这就体现在模型提供的答案故意与中国政府的首选叙事保持一致。
由于DeepSeek是开源的,理论上可以调整模型以去除后训练偏差。但这个过程可能很棘手。
AI科学家、Dolphin(一种专门用于去除模型后训练偏差的LLM)的创造者Eric Hartford说,有几种方法可以实现这一目标。你可以尝试改变模型权重来"切断"偏差,或者创建一个包含所有被审查话题的数据库,并用它来重新训练模型。
他建议人们从"基础"版本的模型开始。(例如,DeepSeek发布了一个名为DeepSeek-V3-Base的基础模型。)对于大多数人来说,基础模型更原始、更不易使用,因为它没有接受足够的后训练;但对于Hartford来说,这些模型更容易"去审查",因为它们的后训练偏差较少。
Perplexity(一个AI驱动的搜索引擎)最近将R1纳入其付费搜索产品,允许用户在不使用DeepSeek应用程序的情况下体验R1。
Perplexity首席商务官Dmitry Shevelenko告诉WIRED,该公司在将R1纳入Perplexity搜索之前,已经识别并抵消了DeepSeek的偏差。"我们只使用R1进行总结、思维链和渲染,"他说。
但Perplexity仍然看到R1的后训练偏差影响了其搜索结果。"我们正在对R1模型本身进行修改,以确保我们不会传播任何宣传或审查,"Shevelenko说。他没有透露Perplexity如何识别或克服R1中的偏差,理由是如果DeepSeek知道这些信息,可能会采取措施来抵消Perplexity的努力。
Hugging Face也正在开发一个名为Open R1的项目,基于DeepSeek的模型。Yakefu说,这个项目旨在"提供一个完全开源的框架"。R1作为一个开源模型的事实"使它超越了自身的起源,可以根据不同的需求和价值观进行定制"。
中国模型可能被"去审查"的可能性可能会给DeepSeek等公司在国内造成麻烦。但中国最近的法规表明,中国政府可能会给开源AI实验室一些空间,说Matt Sheehan,卡内基和平基金会的研究员,他研究中国的AI政策。"如果他们突然决定要惩罚任何发布模型权重的人,那就不会超出法规的范围,"他说。"但他们已经做出了一个相当明确的战略决定,我认为DeepSeek的成功将会加强这一点,那就是不这样做。"
虽然中国在AI模型中的审查常常成为头条新闻,但在许多情况下,这并不会阻止企业用户采用DeepSeek的模型。
"会有很多非中国公司,他们可能会选择商业务实主义而不是道德考虑,"Xu说。毕竟,并不是每个LLM用户都会频繁谈论台湾和天安门。"只在中国背景下才重要的敏感话题,对于帮助你的公司更好地编码或解决数学问题,或总结销售呼叫中心的记录来说,完全是无关紧要的,"他解释说。
日本初创公司Shisa.AI的联合创始人Leonard Lin表示,像Qwen和DeepSeek这样的中国模型在处理日语任务方面实际上是最好的。林恩没有因为审查问题而拒绝这些模型,而是尝试去审查阿里巴巴的Qwen-2模型,试图消除它拒绝回答有关中国政治问题的倾向。
林恩说,他理解为什么这些模型会被审查。"所有模型都有偏见,这就是对齐的全部意义。西方模型也同样存在审查和偏见,只是针对不同的主题。"但当这个模型被特别适用于日本受众时,亲中国的偏见就成了一个真正的问题。"你可以想象会出现各种情况,这会很有问题,"林恩说。
Will Knight参与了本文的报道。