OpenAI于本周五宣布推出Codex Security,这是一款旨在提升应用程式安全性的AI智能体。 该工具旨在解决开发团队面临的一个常见问题:误报过多。这些无关的警报常常令安全团队不堪重负,并延误软体发布。 根据OpenAI称,Codex Security不仅能够识别漏洞,还能为每个专案创建特定的威胁模型,分析程式码上下文,并在不损害系统完整性的前提下,建议或自动应用修复方案。 与传统工具的另一个区别在于其验证方法。该智能体并非简单地指出可疑的程式码行,而是在隔离环境(沙箱)中测试缺陷,以确认问题是否真实存在,然后再产生警报。 在专案测试阶段(专案名称仍为Aardvark),OpenAI声称该系统已显著降低了安全分析中的“杂讯”,并识别出OpenSSH、PHP和Chromium等知名专案中的关键缺陷。 此次发布正值人工智慧领域蓬勃发展之际。 近几周来,OpenAI 和 Anthropic 之间的竞争愈演愈烈。这两家公司一直在争夺先进人工智慧模型开发领域的市场份额,同时也与政府和大型企业建立合作关系。 在涉及美国国防部的谈判中,这种紧张关系更加明显。 Anthropic 试图限制其系统在大规模国内监控和自主武器领域的应用,而 OpenAI 最终却与美国政府签署协议,提供人工智慧技术。 这事件扩大了人工智慧在战略环境中作用的讨论,引发了人们对该技术的安全、伦理和治理等方面的质疑。 在这场技术竞赛中,诸如 Codex Security 等倡议表明,人工智慧在数位安全基础设施中也开始占据越来越重要的地位。 现在断言这场企业与政府之间的争端将如何影响人工智慧的未来可能还为时过早。 但一个问题正变得越来越频繁地出现:随著这些技术变得越来越强大和具有战略意义,安全和使用者利益是否仍将是决策的核心? 值得我们密切关注。 你如何看待这场运动? 来源:The Verge | Olhar Digital #CtbrWeb3 #AI
本文为机器翻译
展示原文

来自推特
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
收藏
评论
分享





