Endor Labs开始根据AI模型的安全性、受欢迎程度、质量和活跃度进行评分。
这一独特的功能被称为"Endor Scores for AI Models",旨在简化识别当前在Hugging Face上可用的最安全的开源AI模型的过程 - Hugging Face是一个用于共享大型语言模型(LLM)、机器学习模型和其他开源AI模型及数据集的平台 - 通过提供简单明了的评分。
这一消息的发布恰逢开发者越来越多地转向像Hugging Face这样的平台寻找现成的AI模型,这反映了可随时获取的开源软件(OSS)的早期发展。这个新版本通过使开发者能够"从头开始"使用AI模型来改善AI治理,这一目标到目前为止一直难以实现。
Endor Labs的联合创始人兼首席执行官Varun Badhwar表示:"我们一直的使命就是保护你的代码所依赖的一切,AI模型是这一关键任务的下一个重要领域。"
"每个组织都在试验AI模型,无论是为了驱动特定应用程序还是建立全新的基于AI的业务。安全性必须与之保持同步,这里有一个难得的机会可以从头开始,避免未来出现风险和高昂的维护成本。"
Endor Labs的创始工程师George Apostolopoulos补充说:"每个人现在都在试验AI模型。有些团队正在建立全新的基于AI的业务,而其他人则在寻找将'由AI驱动'的标签贴在他们的产品上的方法。有一点是肯定的,你的开发人员正在玩弄AI模型。"
然而,这种便利并非没有风险。Apostolopoulos警告说,当前的环境就像"狂野西部",人们在没有考虑潜在漏洞的情况下抓取符合自己需求的模型。
Endor Labs将AI模型视为软件供应链中的依赖项
"我们在Endor Labs的使命是'保护你的代码所依赖的一切',"Apostolopoulos说。这一观点使组织能够将类似于评估其他开源组件的风险评估方法应用于AI模型。
Endor的AI模型评分工具关注几个关键的风险领域:
- 安全漏洞:预训练模型可能包含恶意代码或模型权重中的漏洞,在集成到组织环境中时可能导致安全漏洞。
- 法律和许可问题:遵守许可条款至关重要,特别是考虑到AI模型及其训练集的复杂血统。
- 运营风险:对预训练模型的依赖创造了一个复杂的图谱,这可能很难管理和保护。
为了应对这些问题,Endor Labs的评估工具对Hugging Face上的AI模型进行了50项现成的检查。该系统根据维护者数量、企业赞助、发布频率和已知漏洞等因素生成"Endor评分"。
该系统中AI模型评分的正面因素包括使用安全的权重格式、存在许可信息以及下载量和参与度高等。负面因素包括文档不完整、缺乏性能数据以及使用不安全的权重格式。
Endor评分的一个关键特点是其用户友好的方法。开发人员不需要知道具体的模型名称;他们可以从诸如"我可以使用哪些模型来进行情感分类?"或"Meta的最受欢迎的模型有哪些?"这样的一般问题开始搜索。该工具然后提供明确的评分,对每个模型的正面和负面方面进行排名,使开发人员能够选择最适合自己需求的选项。
"你的团队每天都会被问及AI,他们会寻找可以用来加速创新的模型,"Apostolopoulos指出。"使用Endor Labs评估开源AI模型可以确保你使用的模型能够按预期工作,并且安全可靠。"
(照片由Element5 Digital拍摄)
想了解更多来自行业领导者的AI和大数据信息吗?查看在阿姆斯特丹、加州和伦敦举办的AI & Big Data Expo。这个全面的活动与其他领先的活动如Intelligent Automation Conference、BlockX、Digital Transformation Week和Cyber Security & Cloud Expo同时举办。
在这里探索由TechForge提供的其他即将到来的企业技术活动和网络研讨会链接。
本文最初发表于AI News。