為防止不安全的AI使用並保護智慧財產權,OpenAI準備上線更強大的模型。
OpenAI剛剛公佈了"驗證組織"流程——這是一個新的驗證系統,要求組織提供有效的身份證件,以便透過公司的API訪問未來的先進AI模型。
根據上週釋出的支援頁面,組織驗證流程被描述為"幫助開發者解鎖OpenAI平臺上最先進的模型和功能的新方式"。該過程要求提供OpenAI API支援的國家之一簽發的政府身份證件。
每個ID只能在90天內驗證一個組織,並且表明並非所有組織都有資格進行驗證。
"在OpenAI,我們認真確保AI既被廣泛接觸又被安全使用,"引用支援頁面的內容。"不幸的是,少數開發者故意違反OpenAI的使用政策。我們增加驗證流程,以在提供給更大的開發者社群的同時,減少不安全的AI使用。"
加強安全性和保護智慧財產權
新的驗證流程可能旨在增強OpenAI產品的安全性,因為它們變得越來越複雜和強大。公司已釋出多份報告,闡述了發現和減少其模型被惡意使用的努力,包括據稱與朝鮮有關的團體。
OpenAI釋出了新的驗證組織狀態,作為開發者解鎖平臺上最先進模型和功能的新方式,併為"下一個令人興奮的模型釋出"做好準備
— Tibor Blaho (@btibor91) 2025年4月12日
——驗證只需幾分鐘,需要一個有效的… pic.twitter.com/zWZs1Oj8vE
這一措施還可能旨在阻止智慧財產權盜竊。根據今年早些時候彭博社的報告,OpenAI正在調查是否有與總部位於中國的AI實驗室DeepSeek有關的團隊在2024年底透過其API大量提取資料,可能是為了訓練自己的模型,這將違反OpenAI的條款。
值得注意的是,OpenAI自去年夏天以來一直禁止在中國訪問其服務,反映了人們對其AI技術在國外使用的日益增長的擔憂。