當人們思考人工智慧時,他們想到的是聊天機器人和大型語言模型。然而,很容易忽視人工智慧正越來越多地融入社會的關鍵領域。
這些系統不再僅僅推薦觀看或購買內容;它們還能診斷疾病、批准貸款、檢測欺詐並定位威脅。
隨著人工智慧越來越嵌入我們的日常生活,我們需要確保它能為我們的最佳利益行事。我們需要確保其輸出是可證明的。
大多數人工智慧系統執行在一個黑盒中,我們通常無法知道它們是如何做出決定的,或者它們是否按預期執行。
這種缺乏透明度已經深深嵌入其工作方式中,使得事後審計或質疑人工智慧決策幾乎是不可能的。
對於某些應用來說,這已經足夠好了。但在醫療、金融和執法等高風險領域,這種不透明性會帶來嚴重風險。
人工智慧模型可能無意中編碼偏見、操縱結果,或以違反法律或道德規範的方式執行。沒有可驗證的軌跡,使用者只能猜測一個決定是否公平、有效,甚至是安全的。
當這些擔憂與人工智慧能力持續呈指數級增長的事實相結合時,這些問題變得更加緊迫。
該領域有廣泛共識,認為開發人工智慧超級智慧(ASI)是不可避免的。
遲早,我們將擁有一個在所有領域都超越人類智慧的人工智慧,從科學推理到戰略規劃,再到創造力,甚至是情感智慧。
大型語言模型已經顯示出在泛化和任務自主性方面的快速進步。
如果一個超級智慧系統以人類無法預測或理解的方式行動,我們如何確保它與我們的價值觀一致?如果它以不同的方式解釋命令或追求帶有意外後果的目標,會發生什麼?如果它失控,又會怎樣?
即使對人工智慧倡導者來說,這種可能威脅人類的場景也是顯而易見的。
深度學習先驅傑弗裡·希頓警告稱有可能出現能夠發動文明級網路攻擊或大規模操縱的人工智慧系統。生物安全專家擔心人工智慧增強的實驗室可能開發出超出人類控制的病原體。
而Anduril創始人帕爾默·盧基聲稱其Lattice人工智慧系統可以在幾秒鐘內干擾、駭客或欺騙軍事目標,使自主戰爭成為迫在眉睫的現實。
面對這麼多可能的場景,我們將如何確保人工智慧超級智慧不會將我們全部消滅?
對所有這些問題的簡短答案是可驗證性。
依賴不透明模型的承諾對於將其整合到關鍵基礎設施中已不再可接受,更不用說在人工智慧超級智慧的規模上了。我們需要保證。我們需要證據。
在政策和研究界,對人工智慧需要技術透明度措施的共識正在增長。
監管討論經常提到人工智慧決策的審計跟蹤。例如,美國國家標準與技術研究院和歐盟人工智慧法案都強調了人工智慧系統"可追溯"和"可理解"的重要性。
幸運的是,人工智慧研究和開發並非在真空中進行。在高階密碼學等其他領域已經有重要突破,這些突破可以應用於人工智慧,並確保我們能夠控制當前系統,最終控制人工智慧超級智慧系統,使其符合人類利益。
目前最相關的是零知識證明。零知識證明為實現可追溯性提供了一種新穎的方法,並且可立即應用於人工智慧系統。
事實上,零知識證明可以從根本上將這種可追溯性嵌入人工智慧模型。不僅僅是記錄人工智慧做了什麼(這可能被篡改),它們還可以生成發生事件的不可更改的證明。
具體來說,使用zkML庫,我們可以結合零知識證明和機器學習,驗證這些模型上產生的所有計算。
具體而言,我們可以使用zkML庫來驗證人工智慧模型是否正確使用,是否運行了預期的計算,以及其輸出是否遵循了特定邏輯——所有這些都不會暴露內部模型權重或敏感資料。
這有效地將人工智慧從黑盒中取出,讓我們準確知道它的狀態和到達該狀態的方式。更重要的是,它讓人類保持在決策迴圈中。
人工智慧發展需要開放、去中心化和可驗證,zkML需要實現這一點。
這需要從今天就開始,以便在明天保持對人工智慧的控制。我們需要確保從第一天起就能保護人類利益,透過能夠保證人工智慧按我們預期的方式執行,然後再讓它變得自主。
然而,zkML不僅僅是為了阻止惡意的人工智慧超級智慧。
在短期內,它是為了確保我們能夠信任人工智慧處理貸款、診斷和警務等敏感流程,因為我們有證據表明它以透明和公平的方式執行。
如果大規模使用,zkML庫可以給我們信任人工智慧的理由。
儘管擁有更強大的模型可能很有幫助,但人工智慧發展的下一步是保證它們正確地學習和進化。
有效且可擴充套件的zkML的廣泛使用將很快成為人工智慧競賽和最終創造人工智慧超級智慧的關鍵組成部分。
通向人工智慧超級智慧的道路不能靠猜測鋪平。隨著人工智慧系統變得更加強大並融入關鍵領域,證明它們做什麼和如何做將是至關重要的。
可驗證性必須從研究概念轉變為設計原則。藉助zkML等工具,我們現在有了一條可行的路徑,可以將透明度、安全性和問責制嵌入人工智慧的基礎。
問題不再是我們是否能證明人工智慧做了什麼,而是我們是否選擇這樣做。
編輯:塞巴斯蒂安·辛克萊爾





