本文为机器翻译
展示原文

大多数人工智能平台仍然要求用户交出敏感数据,并只能寄希望于平台能够负责任地处理这些数据。 @NEARProtocol 另辟蹊径。 随着 NEAR AI Cloud 和 Private Chat 的推出,NEAR 正在构建一个隐私可验证而非仅凭承诺就能保障隐私的人工智能堆栈。 NEAR AI Cloud 一个安全的计算环境,用于运行人工智能模型而无需暴露敏感数据。它通过硬件级保护实现可验证的私密推理,确保每次计算都保持机密,同时还能访问高级人工智能模型。 NEAR Private Chat 一个基于 NEAR AI Cloud 构建的、以隐私为先的聊天界面。它类似于主流人工智能工具,但拥有真正的数据所有权和加密保障。 聊天时: 1⃣ 对话全程加密 2⃣ 推理在 TEE(加密执行环境)内运行——隔离、受保护且对外部不可见 3⃣ 您可以使用加密证明来验证安全性 重要性 大多数人工智能服务需要将敏感数据发送到第三方服务器——通常无法验证幕后发生了什么。 NEAR 的方法颠覆了这种模式: 可信执行环境 + 硬件强制安全 + 加密验证 = 真正掌控您的数据。 这是迈向隐私安全型 AI 生态系统的重要一步。

来自推特
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
收藏
评论