本文為機器翻譯
展示原文

OpenAI於本週五宣布推出Codex Security,這是一款旨在提升應用程式安全性的AI智能體。 該工具旨在解決開發團隊面臨的一個常見問題:誤報過多。這些無關的警報常常令安全團隊不堪重負,並延誤軟體發布。 根據OpenAI稱,Codex Security不僅能夠識別漏洞,還能為每個專案創建特定的威脅模型,分析程式碼上下文,並在不損害系統完整性的前提下,建議或自動應用修復方案。 與傳統工具的另一個區別在於其驗證方法。該智能體並非簡單地指出可疑的程式碼行,而是在隔離環境(沙箱)中測試缺陷,以確認問題是否真實存在,然後再產生警報。 在專案測試階段(專案名稱仍為Aardvark),OpenAI聲稱該系統已顯著降低了安全分析中的“雜訊”,並識別出OpenSSH、PHP和Chromium等知名專案中的關鍵缺陷。 此次發布正值人工智慧領域蓬勃發展之際。 近幾週來,OpenAI 和 Anthropic 之間的競爭愈演愈烈。這兩家公司一直在爭奪先進人工智慧模型開發領域的市場份額,同時也與政府和大型企業建立合作關係。 在涉及美國國防部的談判中,這種緊張關係更加明顯。 Anthropic 試圖限制其係統在大規模國內監控和自主武器領域的應用,而 OpenAI 最終卻與美國政府簽署協議,提供人工智慧技術。 這事件擴大了人工智慧在戰略環境中作用的討論,引發了人們對該技術的安全、倫理和治理等方面的質疑。 在這場技術競賽中,諸如 Codex Security 等倡議表明,人工智慧在數位安全基礎設施中也開始佔據越來越重要的地位。 現在斷言這場企業與政府之間的爭端將如何影響人工智慧的未來可能還為時過早。 但一個問題正變得越來越頻繁地出現:隨著這些技術變得越來越強大和具有戰略意義,安全和使用者利益是否仍將是決策的核心? 值得我們密切關注。 你如何看待這場運動? 來源:The Verge | Olhar Digital #CtbrWeb3 #AI

相关赛道:
來自推特
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論