大多數人工智能平臺仍然要求用戶交出敏感數據,並只能寄希望於平臺能夠負責任地處理這些數據。 @NEARProtocol 另闢蹊徑。 隨著 NEAR AI Cloud 和 Private Chat 的推出,NEAR 正在構建一個隱私可驗證而非僅憑承諾就能保障隱私的人工智能堆棧。 NEAR AI Cloud 一個安全的計算環境,用於運行人工智能模型而無需暴露敏感數據。它通過硬件級保護實現可驗證的私密推理,確保每次計算都保持機密,同時還能訪問高級人工智能模型。 NEAR Private Chat 一個基於 NEAR AI Cloud 構建的、以隱私為先的聊天界面。它類似於主流人工智能工具,但擁有真正的數據所有權和加密保障。 聊天時: 1⃣ 對話全程加密 2⃣ 推理在 TEE(加密執行環境)內運行——隔離、受保護且對外部不可見 3⃣ 您可以使用加密證明來驗證安全性 重要性 大多數人工智能服務需要將敏感數據發送到第三方服務器——通常無法驗證幕後發生了什麼。 NEAR 的方法顛覆了這種模式: 可信執行環境 + 硬件強制安全 + 加密驗證 = 真正掌控您的數據。 這是邁向隱私安全型 AI 生態系統的重要一步。
本文為機器翻譯
展示原文

來自推特
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論
分享




