DWF Labs 的 Andrey Grachev:“我們未來的日常生活將被人工智能代理取代”

本文為機器翻譯
展示原文

隨著對 AI 代理的投資不斷增加,這預示著一個比工業革命更具變革性的廣泛自動化的未來。與所有技術創新一樣,AI 代理在開發過程中也將面臨挑戰。負責任的使用和持續改進至關重要,以最大限度地實現 AI 代理的潛力。

BeInCrypto 在香港共識會議上採訪了 DWF Labs 的管理合夥人 Andrey Grachev,瞭解 AI 代理面臨的主要大眾化挑戰,以及廣泛使用的可能情況。

傳統技術領域、Web3 AI 的採用

在這一時刻,人工智慧(AI)的採用很快就會成為不可避免。包括 Meta、亞馬遜、Alphabet 和微軟在內的科技巨頭已經宣佈,到 2025 年將在 AI 和資料中心上投資最多 3200 億美元。

美國總統特朗普在就職首周宣佈了一項新的私營合資企業 Stargate,重點是開發 AI 資料中心。這個合資企業包括 OpenAI、軟銀和甲骨文,計劃在全美建設最多 20 個大型 AI 資料中心。

初期投資估計為 1000 億美元,根據擴張計劃,到 2029 年可能達到 5000 億美元。

Web3 專案也在進行類似的 AI 投資。12 月,DWF Labs 推出了一隻 2000 萬美元的 AI 代理基金,以加速自主 AI 技術創新。

本月初,支援 NEAR 協議的 NEAR 基金會也宣佈了一隻 2000 萬美元的基金,用於擴充套件基於 NEAR 技術構建的完全自主和可驗證的代理開發。

"歷史表明,所有可自動化的事物都將被自動化。確實,一些商業和日常生活流程將被 AI 代理取代。" – Andrey Grachev, DWF Labs 管理合夥人

然而,隨著 AI 開發的加速,其濫用的可能性也越來越令人擔憂。

AI 代理的濫用

在 Web3 中,AI 代理已經快速成為主流。它們提供從市場分析到自主加密貨幣交易的各種功能。

但是,它們不斷增加的整合帶來了重要的挑戰。惡意行為者對 AI 的濫用是一個主要擔憂,從簡單的網路釣魚活動到複雜的勒索軟體攻擊都在其列。

從 2022 年底開始,生成式 AI 的廣泛可用性徹底改變了內容創作,並吸引了試圖濫用這項技術的惡意行為者。這種計算能力的民主化提高了對手的能力,並可能降低較不復雜的威脅行為者的進入門檻。

根據 Entrust 的報告,由 AI 工具推動的數字文件偽造已超過實體偽造,到 2024 年將增加 244%。同時,深度造假佔所有生物識別欺詐的 40%。

The State of Fraud in 2024.
2024 年欺詐的狀況。來源: Entrust.

"它已經被用於欺詐。用於在視訊通話中錯誤地表現人們和錯誤地表現他們的聲音。" – Andrey Grachev, DWF Labs 管理合夥人

這些濫用案例已經成為新聞頭條。本月初,一名來自香港跨國公司的金融員工被一名使用深度造假技術的騙子騙取了 2500 萬美元。

該員工相信他與包括公司首席財務官在內的同事進行了視訊通話。儘管最初有所猶豫,但由於其他參與者看起來和聽起來都很真實,該員工最終還是按照報告進行了支付。後來證實,所有與會者都是深度造假操縱。

從早期採用到主流接受

Grachev 認為這種惡意使用是不可避免的。他指出,技術發展通常伴隨著初期錯誤,但隨著技術成熟,這些錯誤會減少。Grachev 用全球資訊網和比特幣的早期階段作為兩個例子來證明他的觀點。

"我們必須記住,網際網路起源於色情網站。這就像第一個比特幣起源於毒品交易商一樣,之後得到了改善。" – Andrey Grachev, DWF Labs 管理合夥人

多份報告支援 Grachev 的觀點。成人娛樂行業在網際網路的早期採用和發展中發揮了重要作用。除了提供消費者基礎之外,它還開拓了 VCR、影片流媒體、虛擬現實和各種通訊技術。

色情業充當了一個入門工具。歷史上,成人娛樂行業一直主導著新技術的消費者採用。

特別是當它成功滿足受眾需求時,創新的早期採用和應用通常會導致更廣泛的主流採用。

"開始是出於娛樂,但娛樂讓很多人加入進來。然後你可以在此基礎上建立一些東西。" – Andrey Grachev, DWF Labs 管理合夥人

隨著時間的推移,也建立了一些安全措施來限制成人娛樂的頻率和可訪問性。儘管如此,它仍然是當今網際網路提供的眾多服務之一。

比特幣,從暗網到創新

比特幣的發展與網際網路的早期使用案例非常相似。比特幣的早期採用與暗網市場和非法活動,如毒品交易、欺詐和洗錢密切相關。比特幣的匿名性和全球資金轉賬的便利性對罪犯很有吸引力。

儘管在犯罪活動中持續使用,但比特幣也找到了許多合法的應用。支撐加密貨幣的區塊鏈技術為現實世界的問題提供瞭解決方案,並擾亂了傳統金融體系。

加密貨幣和區塊鏈應用程式仍處於非常早期的行業階段,但將繼續發展。根據Garchev的說法,AI技術的漸進採用也會發生同樣的情況。他表示,我們必須透過犯錯來學習並相應調整。

"我們必須記住,欺詐首先發生,然後人們才開始考慮如何預防它。當然會發生,這是正常的過程,也是學習曲線。"Grachev說。

但是,知道這種情況將來會發生,也引發了關於誰應該承擔責任的問題。

責任問題

當代理人的行為造成損害時,確定責任是一個複雜的法律和道德問題。不可避免地會提出如何追究AI責任的問題。

AI系統的複雜性使確定責任變得困難。AI的"黑箱"特性、不可預測的行為以及持續學習能力,使得通常適用於確定過錯的一般概念難以適用。

此外,多方參與AI的開發和部署,也使責任評估變得複雜,難以確定AI故障的責任方。

責任可能在於製造商存在設計或生產缺陷、軟體開發者存在程式碼問題,或使用者未遵循指南、未安裝更新或未維護安全性。

"我認為這一切都太新了,我們必須從中學習。如果需要,我們應該能夠停止某些AI代理。但從我的角度來看,如果沒有惡意創造它們,那麼就沒有人應該承擔責任。因為你真的在處理一些全新的東西。"Grachev告訴BeInCrypto。

但是,他表示,這種情況必須謹慎管理,以免影響持續創新。

"如果我們譴責這些企業家,人們會害怕,創新就會死亡。但如果它以錯誤的方式運作,最終它仍將運作。我們必須學會停下來,學習,改進,然後重新學習。"Grachev補充說。

但在更極端的情況下,這種界限變得非常模糊。

採用負責任的AI,解決信任問題

在討論人工智慧的未來時,一個普遍的擔憂是AI代理可能會變得比人類更強大。

"有很多電影講述這個問題。如果談及警察、政府控制或軍隊在戰爭中使用自動化,這是一個巨大的恐懼。某些事物可能會自動化到足以傷害人類的程度。"Grachev說。

對於這種情況是否可能發生,Grachev表示在理論上是可能的。儘管如此,他承認無法預知未來會發生什麼。

但這種情況代表了人類與人工智慧之間根本的信任問題。Grachev說,解決這個問題的最佳方法是讓人類接觸到AI實際上可以提供幫助的用例。

"AI可能很難讓人們相信。所以我們應該從簡單的事情開始。當你解釋AI代理是可信的時,信任並不會自動形成。人們需要習慣使用它。例如,如果談論加密貨幣,你可以在Pump.fun上釋出一個meme,但為什麼不用語音訊息釋出呢?使用AI代理傳送'請釋出這個和那個'的語音訊息,它就會發布。下一步就是相信代理做出更重要的決定。"他說。

最終,通向廣泛採用AI的道路,必將標誌著驚人的進步和意料之外的挑戰。

在這個不斷發展的領域,平衡創新和負責任的實施,對於塑造AI為全人類帶來利益的未來至關重要。

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論