为防止不安全的AI使用并保护知识产权,OpenAI准备上线更强大的模型。
OpenAI刚刚公布了"验证组织"流程——这是一个新的验证系统,要求组织提供有效的身份证件,以便通过公司的API访问未来的先进AI模型。
根据上周发布的支持页面,组织验证流程被描述为"帮助开发者解锁OpenAI平台上最先进的模型和功能的新方式"。该过程要求提供OpenAI API支持的国家之一签发的政府身份证件。
每个ID只能在90天内验证一个组织,并且表明并非所有组织都有资格进行验证。
"在OpenAI,我们认真确保AI既被广泛接触又被安全使用,"引用支持页面的内容。"不幸的是,少数开发者故意违反OpenAI的使用政策。我们增加验证流程,以在提供给更大的开发者社群的同时,减少不安全的AI使用。"
加强安全性和保护知识产权
新的验证流程可能旨在增强OpenAI产品的安全性,因为它们变得越来越复杂和强大。公司已发布多份报告,阐述了发现和减少其模型被恶意使用的努力,包括据称与朝鲜有关的团体。
OpenAI发布了新的验证组织状态,作为开发者解锁平台上最先进模型和功能的新方式,并为"下一个令人兴奋的模型发布"做好准备
— Tibor Blaho (@btibor91) 2025年4月12日
——验证只需几分钟,需要一个有效的… pic.twitter.com/zWZs1Oj8vE
这一措施还可能旨在阻止知识产权盗窃。根据今年早些时候彭博社的报告,OpenAI正在调查是否有与总部位于中国的AI实验室DeepSeek有关的团队在2024年底通过其API大量提取数据,可能是为了训练自己的模型,这将违反OpenAI的条款。
值得注意的是,OpenAI自去年夏天以来一直禁止在中国访问其服务,反映了人们对其AI技术在国外使用的日益增长的担忧。