深度解析Nesa:你日常使用的AI為何需要隱私保護?

本報告由Tiger Research撰寫,大多數人每天都在使用AI,卻從未想過數據流向了何處。Nesa提出的問題是:當你開始正視這個問題時,會發生什麼?

核心要點

  • AI已融入日常生活,但用戶往往忽略數據如何通過中央服務器傳輸
  • 即便是美國CISA的代理局長,也在不知情中將機密文件洩露給ChatGPT
  • Nesa通過傳輸前的數據轉換(EE)和跨節點分割(HSS-EE)重構了這一流程,確保任何單一方都無法查看原始數據
  • 學術認證(COLM 2025)和企業實際部署(寶潔)為Nesa奠定了先發優勢
  • 更廣泛的市場是否會選擇去中心化隱私AI,而非習慣的中央化API,這仍是關鍵問題

1. 你的數據安全嗎?

來源:CISA

2026年1月,美國網絡安全領導機構CISA的代理局長馬杜·戈圖穆卡拉(Madhu Gottumukkala)將敏感政府文件上傳至ChatGPT,僅僅是為了總結和整理合同相關資料。

這次洩露既未被ChatGPT檢測到,OpenAI也未向政府報告。而是被該機構自身的內部安全系統捕獲,並因違反安全協議引發了調查。

連美國最高網絡安全官員都在日常使用AI,甚至不慎上傳了機密材料。

我們都知道,大多數AI服務會將用戶輸入以加密形式存儲在中央服務器。但這種加密從設計上就是可逆的。在合法授權或緊急情況下,數據可以被解密和披露,而用戶對背後發生的一切毫不知情。

2. 面向日常使用的隱私AI:Nesa

AI已經成為日常生活的一部分——總結文章、編寫代碼、起草郵件。真正值得擔憂的是,正如前述案例所示,即便是機密文件和個人數據,也在人們幾乎沒有風險意識的情況下被交給了AI。

核心問題在於:所有這些數據都要經過服務商的中央服務器。即使進行了加密,解密密鑰也掌握在服務商手中。用戶憑什麼信任這種安排?

用戶輸入的數據可能通過多種途徑暴露給第三方:模型訓練、安全審查、法律請求。企業版中,組織管理員可以訪問聊天記錄;個人版中,數據同樣可能在合法授權下被移交。

既然AI已深度嵌入日常生活,是時候認真審視隱私問題了。

Nesa正是為徹底改變這一結構而生的項目。它構建了去中心化基礎設施,在無需將數據託付給中央服務器的前提下實現AI推理。用戶輸入在加密狀態下處理,任何單一節點都無法查看原始數據。

3. Nesa如何解決問題

設想一家醫院使用Nesa。醫生希望AI分析患者的MRI影像以檢測腫瘤。在現有AI服務中,影像會被直接發送到OpenAI或谷歌的服務器。

而使用Nesa時,影像在離開醫生電腦之前就已完成數學轉換。

打個簡單的比方:假設原始問題是“3 + 5 = ?”如果直接發送,接收方會清楚知道你在計算什麼。

但如果發送前將每個數字乘以2,接收方看到的就是“6 + 10 = ?”並返回16。你再除以2得到8——與直接計算原問題的答案完全一致。接收方完成了計算,卻始終不知道你的原始數字是3和5。

這正是Nesa的等變加密(EE)所實現的。數據在傳輸前經過數學轉換,AI模型對轉換後的數據進行計算。

用戶再應用逆向轉換,得到的結果與使用原始數據完全相同。在數學上,這種特性叫做等變性:無論先轉換後計算,還是先計算後轉換,最終結果都一致。

實際操作中,轉換遠比簡單乘法複雜得多——它是根據AI模型的內部計算結構專門定製的。正因為轉換與模型的處理流程完美對齊,準確性才不會受到任何影響。

回到醫院場景。對醫生而言,整個流程沒有任何變化——上傳影像、接收結果,一切如常。改變的是:中間環節的任何節點都無法看到患者的原始MRI。

Nesa還更進一步。單憑EE就能防止節點查看原始數據,但轉換後的數據仍完整存在於單個服務器上。

HSS-EE(加密嵌入上的同態秘密共享)則進一步分割了轉換後的數據。

繼續前面的比方。EE相當於在發送試卷前應用乘法規則;HSS-EE則是把轉換後的試卷撕成兩半——第一部分發給節點A,第二部分發給節點B。

每個節點只能解答自己的片段,都看不到完整題目。只有當兩個部分答案合併時,才能得出完整結果——而且只有原始發送者能完成這個合併操作。

簡而言之:EE轉換數據,讓原始內容無法被看見;HSS-EE進一步分割轉換後的數據,使其永遠不會完整出現在任何一處。隱私保護實現了雙重加固。

4. 隱私保護會拖慢性能嗎?

更強的隱私往往意味著更慢的性能——這是密碼學領域長期以來的鐵律。最廣為人知的全同態加密(FHE)比標準計算慢10,000到1,000,000倍,根本無法應用於實時AI服務。

Nesa的等變加密(EE)採用了不同路徑。回到數學類比:發送前乘以2、接收後除以2的成本微乎其微。

與FHE將整個問題轉換為完全不同的數學系統不同,EE只是在現有計算基礎上添加了輕量級轉換層。

性能基準數據:

  • EE:在LLaMA-8B上延遲增加不到9%,準確率與原始模型匹配,超過99.99%
  • HSS-EE:在LLaMA-2 7B上每次推理耗時700至850毫秒

此外,MetaInf元學習調度器進一步優化了全網效率。它會評估模型大小、GPU規格和輸入特徵,自動選擇最快的推理方法。

MetaInf實現了89.8%的選擇準確率,速度比傳統ML選擇器快1.55倍。該成果已在COLM 2025主會議發表,獲得學術界認可。

以上數據來自受控測試環境。但更重要的是,Nesa的推理基礎設施已在實際企業環境中部署運行,驗證了生產級性能表現。

5. 誰在用?怎麼用?

訪問Nesa有三種方式。

第一種是Playground。用戶可以直接在網頁上選擇和測試模型,無需任何開發背景。你可以實際體驗輸入數據、查看各模型輸出結果的完整流程。

這是最快了解去中心化AI推理實際運作方式的途徑。

第二種是Pro訂閱。每月8美元,包含無限訪問、每月1,000個快速推理積分、自定義模型定價控制,以及模型特色頁面展示。

這一檔位專為希望部署和變現自有模型的個人開發者或小團隊設計。

第三種是Enterprise企業版。這不是公開定價方案,而是定製化合同。包含SSO/SAML支持、可選數據存儲區域、審計日誌、細粒度訪問控制和年度合約計費。

起步價為每用戶每月20美元,但實際條款需根據規模協商。它專為將Nesa集成到內部AI流程的組織打造,通過獨立協議提供API訪問和組織級管理功能。

總結:Playground用於探索體驗,Pro適合個人或小團隊開發,Enterprise面向組織級部署。

6. 為什麼需要代幣?

去中心化網絡沒有中央管理者。運行服務器和驗證結果的實體分佈在全球各地。這自然引出一個問題:為什麼有人願意讓自己的GPU持續運轉,為他人處理AI推理?

答案是經濟激勵。在Nesa網絡中,這個激勵就是$NES代幣。

來源:Nesa

機制非常直接。當用戶發起AI推理請求時,需要支付費用。Nesa稱之為PayForQuery,由每筆交易的固定費用加上與數據量成正比的可變費用構成。

費用越高,處理優先級越高——這與區塊鏈上的gas費原理相同。

這些費用的接收者是礦工。要參與網絡,礦工必須質押一定數量的$NES——在被分配任務前,他們要先將自己的代幣置於風險之中。

如果礦工返回錯誤結果或無法響應,將從質押中扣除罰金;如果處理準確迅速,則獲得更高獎勵。

$NES同時也是治理工具。代幣持有者可以提交提案,對費用結構、獎勵比例等核心網絡參數進行投票。

總而言之,$NES發揮三重作用:推理請求的支付手段、礦工的抵押品和獎勵、網絡治理的參與憑證。沒有代幣,節點不會運行;沒有節點,隱私AI就無從談起。

值得注意的是:代幣經濟的運轉依賴於一定的前提條件。

推理需求必須足夠充分,礦工獎勵才有意義;獎勵有意義,礦工才會留存;礦工數量充足,網絡質量才能維持。

這是一個需求驅動供給、供給維持需求的良性循環——但啟動這個循環恰恰是最困難的階段。

寶潔等企業客戶已經在生產環境中使用該網絡,這是個積極信號。但隨著網絡規模擴張,代幣價值與挖礦獎勵之間的平衡能否維持,仍有待觀察。

7. 隱私AI的必要性

Nesa試圖解決的問題很明確:改變用戶在使用AI時數據暴露給第三方的結構性困境。

技術基礎紮實可靠。其核心加密技術——等變加密(EE)和HSS-EE源自學術研究。推理優化調度器MetaInf已在COLM 2025主會議發表。

這不是簡單引用論文那麼簡單。研究團隊直接設計了協議,並將其實現在了網絡中。

在去中心化AI項目中,能夠在學術層面驗證自有加密原語,並將其部署到實際運行的基礎設施上的項目屈指可數。寶潔等大型企業已經在這套基礎設施上運行推理任務——對於早期項目而言,這是個頗具分量的信號。

話雖如此,侷限性同樣清晰可見:

  • 市場範圍:機構客戶優先;普通用戶暫時不太可能為隱私付費
  • 產品體驗:Playground更像Web3/投資工具界面,而非日常AI應用
  • 規模驗證:受控基準測試≠數千併發節點的生產環境
  • 市場時機:隱私AI的需求是真實存在的,但去中心化隱私AI的需求尚未得到驗證;企業仍習慣於中央化API

大多數企業仍習慣使用中央化API,採用基於區塊鏈的基礎設施門檻依然不低。

我們身處這樣一個時代:連美國網絡安全負責人都會將機密文件上傳給AI。對隱私AI的需求已然存在,且只會持續增長。

Nesa擁有經過學術驗證的技術和實際運行的基礎設施來滿足這種需求。儘管存在侷限性,但它的起點已經領先於其他項目。

當隱私AI市場真正打開時,Nesa必將是最先被提及的名字之一。

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論