為 AI 模型評分:Endor Labs 推出評估工具

avatar
AI News
10-16
本文為機器翻譯
展示原文

Endor Labs開始根據AI模型的安全性、受歡迎程度、質量和活躍度進行評分。

這一獨特的功能被稱為"Endor Scores for AI Models",旨在簡化識別當前在Hugging Face上可用的最安全的開源AI模型的過程 - Hugging Face是一個用於共享大型語言模型(LLM)、機器學習模型和其他開源AI模型及資料集的平臺 - 透過提供簡單明瞭的評分。

這一訊息的釋出恰逢開發者越來越多地轉向像Hugging Face這樣的平臺尋找現成的AI模型,這反映了可隨時獲取的開源軟體(OSS)的早期發展。這個新版本透過使開發者能夠"從頭開始"使用AI模型來改善AI治理,這一目標到目前為止一直難以實現。

Endor Labs的聯合創始人兼執行長Varun Badhwar表示:"我們一直的使命就是保護你的程式碼所依賴的一切,AI模型是這一關鍵任務的下一個重要領域。"

"每個組織都在試驗AI模型,無論是為了驅動特定應用程式還是建立全新的基於AI的業務。安全性必須與之保持同步,這裡有一個難得的機會可以從頭開始,避免未來出現風險和高昂的維護成本。"

Endor Labs的創始工程師George Apostolopoulos補充說:"每個人現在都在試驗AI模型。有些團隊正在建立全新的基於AI的業務,而其他人則在尋找將'由AI驅動'的標籤貼在他們的產品上的方法。有一點是肯定的,你的開發人員正在玩弄AI模型。"

然而,這種便利並非沒有風險。Apostolopoulos警告說,當前的環境就像"狂野西部",人們在沒有考慮潛在漏洞的情況下抓取符合自己需求的模型。

Endor Labs將AI模型視為軟體供應鏈中的依賴項

"我們在Endor Labs的使命是'保護你的程式碼所依賴的一切',"Apostolopoulos說。這一觀點使組織能夠將類似於評估其他開源元件的風險評估方法應用於AI模型。

Endor的AI模型評分工具關注幾個關鍵的風險領域:

  • 安全漏洞:預訓練模型可能包含惡意程式碼或模型權重中的漏洞,在整合到組織環境中時可能導致安全漏洞。
  • 法律和許可問題:遵守許可條款至關重要,特別是考慮到AI模型及其訓練集的複雜血統。
  • 運營風險:對預訓練模型的依賴創造了一個複雜的圖譜,這可能很難管理和保護。

為了應對這些問題,Endor Labs的評估工具對Hugging Face上的AI模型進行了50項現成的檢查。該系統根據維護者數量、企業贊助、釋出頻率和已知漏洞等因素生成"Endor評分"。

Endor Labs用於評分AI模型的工具截圖。

該系統中AI模型評分的正面因素包括使用安全的權重格式、存在許可資訊以及下載量和參與度高等。負面因素包括文件不完整、缺乏效能資料以及使用不安全的權重格式。

Endor評分的一個關鍵特點是其使用者友好的方法。開發人員不需要知道具體的模型名稱;他們可以從諸如"我可以使用哪些模型來進行情感分類?"或"Meta的最受歡迎的模型有哪些?"這樣的一般問題開始搜尋。該工具然後提供明確的評分,對每個模型的正面和負面方面進行排名,使開發人員能夠選擇最適合自己需求的選項。

"你的團隊每天都會被問及AI,他們會尋找可以用來加速創新的模型,"Apostolopoulos指出。"使用Endor Labs評估開源AI模型可以確保你使用的模型能夠按預期工作,並且安全可靠。"

(照片由Element5 Digital拍攝)

另見:中國電信在國產晶片上訓練了擁有1萬億引數的AI模型

想了解更多來自行業領導者的AI和大資料資訊嗎?檢視在阿姆斯特丹、加州和倫敦舉辦的AI & Big Data Expo。這個全面的活動與其他領先的活動如Intelligent Automation ConferenceBlockXDigital Transformation WeekCyber Security & Cloud Expo同時舉辦。

在這裡探索由TechForge提供的其他即將到來的企業技術活動和網路研討會連結

本文最初發表於AI News

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論