近一年来,AI 叙事在 Crypto 市场发展火热,a16z、红杉、Lightspeed、Polychain 等领先的 VC 大笔一挥,千万美元下注。许多科研背景、名校背景的高素质团队也进入了 Web3,向着去中心化 AI 的方向迈进。未来 12 个月内,我们将见证这些优质项目逐渐落地。
今年 10 月,OpenAI 再次融资 66 亿美元,AI 赛道的军备竞赛来到了一个史无前例的高度。散户投资者很少有机会在直接投资英伟达和硬件以外赚钱,这股热情势必会持续蔓延到 Crypto 中,特别是近期由 AI Meme 带动的全民抓狗潮。可以预见的是,Crypto x AI,不论是现有上市代币,还是新晋明星项目,势头仍会强劲。
随着去中心化 AI 头部项目 Hyperbolic 近日获得 Polychain 和 Lightspeed 的二次加码,我们从近期获得头部机构大额融资的 6 个项目出发,梳理 Crypto x AI 基建项目的发展脉络,展望去中心化技术可以如何为人类在 AI 的未来保驾护航。
Hyperbolic:近日宣布完成由 Variant 和 Polychain 共同领投的 1200 万美元 A 轮融资,总融资额超过 2000 万美元,Bankless Ventures、Chapter One、Lightspeed Faction、IOSG、Blockchain Builders Fund、Alumni Ventures、Samsung Next 等知名 VC 参投。
PIN AI:完成 1000 万美元 pre-seed 轮融资,a16z CSX、Hack VC、Blockchain Builders Fund(斯坦福区块链加速器)等一众知名 VC 投资。
Vana:完成 1800 万美元的 A 轮融资和 500 万美元的战略融资,Paradigm、Polychain、Coinbase 等知名 VC 投资。
Sahara:完成 4300 万美元 A 轮融资,Binance Labs、Pantera Capital、Polychain 等知名 VC 投资。
Aethir:2023 年以 1.5 亿美元估值完成 900 万美元的 Pre-A 轮融资,并在 2024 年完成约 1.2 亿美元的节点销售。
IO.NET:完成 3000 万美元的 A 轮融资,Hack VC、Delphi Digital、Foresight Ventures 等知名 VC 投资。
AI 的三要素:数据、算力和算法
马克思在《资本论》中告诉我们,生产资料、生产力和生产关系是社会生产中的关键要素。如果我们做一次类比,就会发现在人工智能世界中,也有这样的关键三要素。
在 AI 时代,算力、数据和算法是关键。
在 AI 中,数据即生产资料。例如,你每天在手机上打字聊天、拍照发朋友圈,这些文字和图片都是数据,它们就像是 AI 的“食材”,是 AI 得以运作的基础。
这些数据包括从结构化的数值信息到非结构化的图像、音频、视频和文本等多种形式。没有数据,AI 算法就无法学习和优化。数据的质量、数量、覆盖面和多样性直接影响到 AI 模型的表现,决定了它能否有能效地完成特定任务。
在 AI 中,算力即生产力。算力是执行 AI 算法所需的底层计算资源。算力越强,处理数据的速度就越快、效果就越好。算力的强弱直接决定了 AI 系统的效率和能力。
强大的算力不仅能够缩短模型的训练时间,还可以支持更复杂的模型架构,从而提升 AI 的智能水平。像 OpenAI 的 ChatGPT 这样的大语言模型,需要数月时间在强大的计算集群上进行训练。
在 AI 中,算法即生产关系。算法是 AI 的核心,其设计决定了数据和算力怎样协同工作,是将数据转化为智能决策的关键。在强大算力的支持下,算法能够更好地学习数据中的模式,并应用于实际问题中。
如此看来,数据就相当于 AI 的燃料,算力是 AI 的引擎,而算法则是 AI 的灵魂。 AI=数据+算力+算法,任何想要在 AI 赛道中脱颖而出的创业公司,这三要素必须齐全,或者在其中一项中展现出独特的领先优势。
随着 AI 正在向多模态(模型基于多种信息形式,能够同时处理文本、图像和音频等)发展,对算力和数据的需求只会呈指数级增长。
算力稀缺时代,Crypto 赋能 AI
ChatGPT 的横空出世,不仅掀起了一场人工智能的革命,也无意中将算力和算力硬件推向了科技热搜的风口浪尖。
历经 2023 年的“千模大战”,2024 年,随着市场对于 AI 大模型认知的不断加深,围绕大模型的全球竞争正在被划分为“能力提升”与“场景开发”两条路。
在大模型能力提升方面,市场最大的期待莫过于被传 OpenAI 将于今年发布的 GPT-5,翘首以盼其大模型被推到一个真正多模态的阶段。
在大模型场景开发方面,AI 巨头们都在推进大模型更快融入行业场景,产生应用落地价值。例如,AI Agent、AI 搜索等领域的尝试,都是在不断深化大模型对现有用户体验的提升。
这两条路背后,无疑都对算力提出了更高的需求。大模型能力提升以训练为主,需要短时间内调用庞大的高性能算力;大模型场景应用则以推理为主,对算力的性能要求相对不算高,但更注重稳定性和低延时。
正如 OpenAI 曾在 2018 年做过的估算,自 2012 年以来,训练大模型的算力需求每 3.5 个月会翻一番,每年所需算力增幅高达 10 倍。同时随着大模型及应用越来越多地部署到企业实际业务场景中,推理算力需求也水涨船高。
问题来了,全球范围内对高性能 GPU 的需求正在迅速增长,而供给却未能跟上。以英伟达的 H100 芯片为例,在 2023 年经历了严重的供应短缺问题,其供给缺口超过 43 万颗。即将推出的性能提高 2.5 倍、成本仅增加 25% 的 B100 芯片,很有可能再次出现供应短缺。这种供需失衡会导致算力成本的再次上升,使得许多中小型企业难以承担高昂的计算费用,从而限制他们在 AI 领域的发展潜力。
大型科技公司如 OpenAI、Google 和 Meta 拥有更强大的资源获取能力,有钱有资源去构建自家的算力基础设施。但对于 AI 初创公司,更别说是尚未融资的呢?
的确在 eBay、亚马逊等平台上购买二手 GPU 也是可行方法之一。虽然降低了成本,但可能存在性能问题和长期维修费用。在这个 GPU 稀缺的时代,构建基础设施对于初创公司恐怕永远不会是最优解。
即便已经有了可按需租赁的 GPU 云提供商,但高昂的价格对于它们来说也是一个不小的挑战,例如,一张英伟达 A100 的价格约每天 80 美元,如果需要 50 张每月运行 25 天,只在算力方面的成本就高达 80 x 50 x 25=10 万美元/月。
这给了以 DePIN 为架构的去中心化算力网络趁虚而入的机会,可以说顺风顺水。正如 IO.NET、Aethir、Hyperbolic 所做的,它们将 AI 初创公司的算力基础设施成本转移到网络本身。而且可以让全球任何人将家中未使用的 GPU 连接至其中,大幅降低了计算成本。
Aethir:全球 GPU 共享网络,让算力普惠化
Aethir 在 2023 年 9 月以 1.5 亿美元估值完成 900 万美元的 Pre-A 轮融资,并在今年 3-5 月完成约 1.2 亿美元的 Checker Node 节点销售。Aethir 在短短 30 分钟内通过销售 Checker Node 获得了 6000 万美元的收益,可见市场对该项目的认可和期待。
Aethir 的核心,是要建立一个去中心化的 GPU 网络,让每个人都有机会贡献自己的闲置 GPU 资源,并获得收益。这就像是把每个人的电脑变成一个小型的超级计算机,大家一起共享计算能力。这样做的好处是,可以大幅度提高 GPU 的利用率,减少资源浪费,同时也能让需要大量计算能力的企业或个人,以更低的成本获取到所需的资源
Aethir 创建了一个去中心化的 DePIN 网络,就像资源池一般,激励来自全球各地的数据中心、游戏工作室、科技公司和游戏玩家将闲置 GPU 连至其中。这些 GPU 提供方可以自由地将 GPU 连接或退出网络,因此具有比闲置更高的利用率。这使得 Aethir 能够向算力需求方提供从消费者级、专业级到数据中心级的 GPU 资源,而且相比 Web2 云提供商的价格要低 80% 以上。
Aethir 的 DePIN 架构确保了这些零散算力的品质和稳定。其中最核心的三个部分是:
Container(容器)是 Aethir 的计算单元,充当云服务器,负责执行和渲染应用程序。每一个任务都被封装在一个独立的 Container 中,作为相对隔离的环境来运行客户的任务,避免了任务间互相干扰的情况。
Indexer(索引器)主要用于根据任务需求即时匹配和调度可用的算力资源。同时,动态资源调整机制能够根据整个网络的负载情况,动态将资源分配给不同的任务,以达到最佳整体效能。
Checker(检查器)则负责即时监控和评估 Container 的性能,它可以即时监控和评估整个网络的状态,并对可能出现的安全问题做出及时的反应。如需应对网络攻击等安全事件,在侦测到异常行为后,能够及时发出警告并启动防护措施。同样的,当网络性能出现瓶颈时,Checker也可以及时发出提醒,以便问题能够被及时解决,保证了服务品质和安全。
Container、Indexer、Checker 三者之间有效协作,为客户提供了自由定制算力配置,安全、稳定且价格相对低廉的云服务体验。对于 AI 和游戏等领域,Aethir 是一个不错的商用级解决方案。
总的来说,Aethir 通过 DePIN 的方式,重塑了 GPU 资源的分配和使用,让算力变得更加普及和经济。它已在 AI 和游戏领域取得了一些不错的成绩,而且还在不断扩展合作伙伴和业务线,未来的发展潜力不可限量。
IO.NET:打破算力瓶颈的分布式超级计算网络
IO.NET 今年 3 月完成了 3000 万美元的 A 轮融资,Hack VC、Delphi Digital、Foresight Ventures 等知名 VC 投资。
与 Aethir 类似,打造一个企业级的去中心化计算网络,通过汇聚全球闲散的计算资源(GPU、CPU),为 AI 初创企业提供价格更低、更易获得、更灵活适配的算力服务。
不同于 Aethir 的是,IO.NET 利用 Ray 框架(IO-SDK)将数千个 GPU 集群转换为一个整体,服务于机器学习(Ray 框架也被 OpenAI 用于训练 GPT-3)。在单个设备上训练大模型时,CPU/GPU 内存限制和顺序处理工作流程呈现了巨大的瓶颈。利用 Ray 框架来编排和批处理,实现了算力任务并行化。
为此,IO.NET 采用多层架构:
用户界面层:为用户提供视觉前端界面,包括公共网站、客户区域及GPU供应商区域,旨在提供直观且友好的用户体验。
安全层:确保系统的完整性与安全,融合了网络防护、用户认证及活动日志记录等机制。
API 层:作为网站、供应商及内部管理的通信枢纽,便于数据交换和各类操作的执行。
后端层:构成系统核心,负责管理集群/GPU、客户交互及自动扩展等运营任务。
数据库层:负责数据的存储和管理,主存储负责结构化数据,而缓存则用于临时数据的处理。
任务层:管理异步通信和任务执行,保证数据处理和流转的高效性。
基础设施层:构成系统基础,包含 GPU 资源池、编排工具及执行/ML 任务,配备了强大的监控解决方案。
从技术上看,IO.NET 为解决分布式算力面临的难点,推出了其核心技术 IO-SDK 的分层架构,以及解决安全连接和数据隐私问题的反向隧道技术和网状 VPN 架构。在 Web3 受到热捧,被称为是下一个 Filecoin,前景较为广阔。
总的来说,IO.NET 的核心使命是打造全球最大的 DePIN 基础设施,把全世界的闲置 GPU 资源都集中起来,向需要大量算力的 AI 和机器学习领域提供支持。
Hyperbolic:打造“AI 雨林”,实现繁荣互助的分布式 AI 基建生态
今天,Hyperbolic 再次宣布完成了总额超过 1200 万美元的 A 轮融资,由 Variant 和 Polychain Capital 共同领投,总融资额超过2000万美元。Bankless Ventures、Chapter One、Lightspeed Faction、IOSG、Blockchain Builders Fund、Alumni Ventures、Samsung Next 等知名 VC机构参投。其中头部硅谷风投 Polychain 和 LightSpeed Faction 在种子轮后二度加码,足以说明 Hyperbolic 在 Web3 AI 赛道的龙头地位。
Hyperbolic 的核心使命是让 AI 变得人人可用,开发者做的起,创作者用的起。Hyperbolic 旨在构建一个“AI 雨林”,在其生态系统中,开发者可以找到创新、协作和发展所需的必要资源。就像天然雨林一样,生态间相互联系、生机勃勃、可再生,让创作者能够无限制地探索。
在两位联合创始人 Jasper 和 Yuchen 看来,虽然 AI 模型可以开源,但如果没有开放的计算资源,那还是不够的。目前很多大型数据中心控制着 GPU 资源,这让很多想要用 AI 的人望而却步。Hyperbolic 就是要打破这种局面,他们通过整合全球的闲置计算资源建立 DePIN 算力基础设施,让每个人都能轻松使用 AI。
因此,Hyperbolic 引入了“开放式 AI 云”概念,小到个人电脑,大到数据中心,都可以连接到 Hyperbolic 提供算力。在此基础上,Hyperbolic 创建了一个可验证、确保隐私的 AI 层,允许开发者构建有推理能力的 AI 应用,而所需算力则直接来源于 AI 云。
与 Aethir、IO.NET 类似,Hyperbolic 的 AI 云拥有自己独特的 GPU 集群模型,被称为“太阳系集群”。正如我们所知的那样,太阳系包含了水星、火星等各种独立行星,Hyperbolic 的太阳系集群掌管着例如水星集群、火星集群、木星集群,这些 GPU 集群用途广泛,规模各异,但又相互独立,由太阳系调度。
这样的模型确保了 GPU 集群满足了两个特性,相比 Aethir、IO.NET 更灵活且效率最大化:
调节状态平衡,GPU 集群会根据需求自动扩大或缩小
若某个集群发生中断,太阳系集群将自动检测并修复
在大型语言模型(LLM)的性能对比实验中,Hyperbolic GPU 集群的吞吐量高达 43 tokens/s,这一成绩不仅超过了由 60 人组成的 Together AI 团队的 42 tokens/s,更是明显高于拥有 300 多名团队成员的 HuggingFace 的 27 tokens/s。
而在图像生成模型的生成速度对比实验中,Hyperbolic GPU 集群同样展现了其技术实力不容小觑。同样是使用 SOTA 开源图像生成模型,Hyperbolic 以 17.6 images/min 的生成速度领先,不仅超过了 Together AI 的 13.6 images/min,更是远高于 IO.NET 的 6.5 images/min。
这些数据有力地证明了 Hyperbolic 的 GPU 集群模型拥有极高的效率,卓越的性能表现使之在规模更大的竞争对手中脱颖而出。结合价格低廉的优势,这使得 Hyperbolic 非常适合需要高算力提供支持的复杂 AI 应用,提供近乎实时的响应,且确保 AI 模型在处理复杂任务时具有更高的准确性和效率。
另外,从加密创新的角度,我们认为 Hyperbolic 最应关注的成绩是开发了验证机制 PoSP(Proof of Sampling,抽样证明),以去中心化的方法解决 AI 领域最棘手的挑战之一 — 验证输出是否来自指定的模型,从而使推理过程可以经济有效地去中心化。
基于 PoSP 原理,Hyperbolic 团队开发了针对 AI 应用的 spML机制(抽样机器学习),对网络中的交易随机抽样,奖励诚实者,处罚不诚实者,来达到一种轻量级的验证效果,减轻了网络的计算负担,使得几乎任何 AI 创业公司都可以将他们的 AI 服务以一种可分布验证的范式完成去中心化。
具体实现流程如下:
1)节点计算了函数,通过加密的方式将结果提交给编排者。
2) 然后,由编排者决定是否信任这一结果,如果信任,则节点因计算而获得奖励。
3) 如果不信任,编排者会随机选择网络中的验证者,对节点发起挑战,计算同样的函数。同样的,验证者通过加密的方式将结果提交给编排者。
4) 最后,编排者检查所有的结果是否一致,如果一致,节点和验证者都会获得奖励;如果不一致,将会发起仲裁程序,对每个结果的计算过程做追溯。诚实者因其准确性获得奖励,不诚实者因欺骗系统而被处罚。
节点不知道他们提交的结果是否会被挑战,也不知道编排者会选择哪个验证者来挑战,有次来确保验证的公正性。作弊成本远超潜在的收益。
如果未来 spML 得到检验,那么足以改变 AI 应用的游戏规则,使无需信任的推理验证成为现实。此外,Hyperbolic 拥有行业中独一无二的将 BF16 算法运用在模型推理中的能力(同业者都还停留在 FP8),能有效提升推理的准确度,使得 Hyperbolic 的去中心化推理服务性价比卓越超群。
此外,Hyperbolic 的创新还体现在其将 AI 云的算力供给与 AI 应用一体化。去中心化算力市场的需求本身较为稀少,Hyperbolic 通过构建可验证的 AI 基础设施来吸引开发者建设 AI 应用,算力可以在不牺牲性能和安全性的情况下直接无缝集成至 AI 应用,扩展到一定规模后能做到自给自足,达到供需平衡。
开发者可以在 Hyperbolic 上构建围绕算力、Web2 及 Web3 的 AI 创新应用,例如:
GPU Exchange,建立在 GPU 网络(编排层)之上的 GPU 交易平台,将“GPU 资源”商品化自由交易,使算力更具成本效益。
IAO,或者说将 AI Agent 代币化,允许贡献者赚取代币,AI Agent 的收入将分配给代币持有者。
AI 驱动的 DAO,即通过人工智能帮助治理决策和财务管理的 DAO。
GPU Restaking,允许用户将 GPU 连接到 Hyperbolic 后,再质押到 AI 应用。
总的来说,Hyperbolic 建立了一个开放的 AI 生态系统,让每个人都能轻松地使用 AI。通过技术创新,Hyperbolic 正在让 AI 变得更加普及和可访问,让 AI 的未来充满互操作性和兼容性,鼓励合作创新。
数据回归用户,共赴 AI 浪潮
当今,数据就是金矿,个人数据正被科技巨头无偿攫取和商业化。
数据是 AI 的食粮。没有高质量的数据,即使是最先进的算法也无法发挥其作用。数据的数量、质量和多样性直接影响到 AI 模型的性能。
前面我们提到过,业界正在期待 GPT-5 的推出。但是它迟迟没出来,原因可能是数据量尚未足够。仅在发表论文阶段的 GPT-3,就需要 2 万亿 Token 的数据量。GPT-5 预计会达到 200 万亿 Token 的数据量。除了现有的文本数据,还要更多的多模态数据,加以清洗后才能够被用于训练。
在今天的公开互联网数据中,高质量的数据样本是偏少的,一个现实的情况是,大模型在任意领域的问答生成表现都非常好,但面对专业领域问题的表现不佳,甚至会出现模型“一本正经地胡说八道”的幻觉。
为了确保数据的“新鲜程度”,AI 巨头们经常与大型数据源的所有者达成交易协议。例如,OpenAI 与 Reddit 签署了一项价值 6000 万美元的协议。
近期一些社群软件开始要求用户签署协议,需要用户同意将内容授权用于第三方 AI 模型的训练,然而,用户却没有从中获得任何回报。这种掠夺行为引发舆论对数据使用权的质疑。
显然,区块链去中心化且可追溯来源的潜力天然适合改善数据和资源的获取窘境,同时为用户数据提供更多控制权和透明度,还可以通过参与 AI 模型的训练和优化获得收益。这种全新的数据价值创造方式将大幅提升用户参与度,推动生态整体繁荣。
Web3 已经有了一些针对 AI 数据的公司,例如:
数据获取:Ocean Protocol、Vana、PIN AI、Sahara 等
数据处理:Public AI、Lightworks 等
其中比较有意思的是 Vana、PIN AI、Saraha,恰巧也都在近期获得了大额融资,投资者阵容豪华。这两个项目都跳脱出了子领域,将数据获取与 AI 开发相结合,推动 AI 应用的落地。
Vana:用户掌控数据,DAO 与贡献机制重塑 AI 数据经济
Vana 在 2022 年 12 月完成了一轮 1800 万美元的融资,并在今年 9 月完成了 500 万美元的战略融资。Paradigm、Polychain、Coinbase 等知名 VC 投资。
Vana 的核心理念是“用户拥有的数据,实现用户拥有的 AI”。在这个数据为王的时代,Vana 想要打破大公司对数据的垄断,让用户自己控制自己的数据,并且从自己的数据中获益。
Vana 是一个去中心化数据网络,专注于保护私人数据,使用户的数据能够像金融资产一样灵活地使用。Vana 试图重塑数据经济的格局,将用户从被动的数据提供者转变为积极参与、共同受益的生态系统建设者。
为了实现这个愿景,Vana 允许用户通过数据 DAO 汇集并上传数据,然后通过贡献证明机制,在保护隐私的情况下验证数据的价值。这些数据可以用于 AI 训练,而用户根据上传数据的优质程度获得激励。
在实现方式上,Vana 的技术架构包括数据流动性层、数据可移植层、通用连接组、非托管数据存储和去中心化应用层五个关键组件。
数据流动性层(Data Liquidity Layer):这是 Vana 网络的核心,它通过数据流动性池(DLP)激励、聚合并验证有价值的数据。DLP 就像是数据版的“流动性池”,每个 DLP 都是一个智能合约,专门用于聚合特定类型的数据资产,如 Reddit、Twitter 等社交媒体数据。
数据可移植层(Data Portability Layer):这一组件向用户数据赋予了可移植性,确保用户可以轻松地在不同的应用和 AI 模型之间转移和使用自己的数据。
数据生态图:这是一个跟踪整个生态实时数据流动的地图,确保了透明度。
非托管数据存储:Vana 的创新点在于其独特的数据管理方式,让用户始终保持对自己数据的完全控制权。用户的原始数据不会上链,而是由用户自行选择存储位置,比如云服务器或个人服务器。
去中心化应用层:在数据基础上,Vana 构建了一个开放的应用生态系统,开发者可以利用 DLP 积累的数据构建各种创新应用,包括 AI 应用,而数据贡献者则可以从这些应用中获得分红奖励。
目前 Vana 上构建了围绕 ChatGPT、Reddit、LinkedIn、Twitter 等社媒平台以及专注于 AI、浏览数据的 DLP,随着更多的 DLP 加入其中,更多的创新应用在平台上构建,Vana 有潜力成为下一代去中心化 AI 和数据经济基础设施。
这不禁让我们想到最近发生的一则新闻,为了改善 LLM 的多样性,Meta 正在收集 Facebook、Instagram 英国用户的数据,但因让用户选择“退出”而不是“同意”,而饱受强迫诟病。也许,Meta 在 Vana 上分别构建一个 Facebook 和 Instagram 的 DLP,不仅确保了数据隐私,还激励更多用户主动贡献数据,会是一种更好的选择。
PIN AI:去中心化 AI 助手,移动式 AI 连接数据与日常生活
PIN AI 今年 9 月完成 1000 万美元 pre-seed 轮融资,a16z CSX、Hack VC、Blockchain Builders Fund(斯坦福区块链加速器)等一众知名 VC 和天使投资人参与了本次投资。
PIN AI 是一个开放的 AI 网络,由 DePIN 架构的分布式数据存储网络提供支持,用户可以将设备连接至该网络,提供个人数据/用户偏好,获得代币激励。此举使用户能够重新获得控制权并使其数据货币化。而开发者可以利用数据在其中构建有用的 AI Agent。
其愿景是成为 Apple Intelligence 的去中心化替代方案,致力于向用户群体提供对日常生活有用的应用,实现用户提出的意图,比如线上购买商品、策划旅行、计划投资行为。
PIN AI 由两种 AI 组成,个人 AI 助理和外部 AI 服务。
个人 AI 助理能够访问用户数据,收集用户的需求,并且在外部服务 AI 需要数据时给予它们相应的数据。PIN AI 底层由 DePIN 分布式数据存储网络构成,为外部 AI 服务的推理提供丰富的用户数据,同时无法访问用户的个人隐私。
有了 PIN AI,用户将不再需要打开数千个手机 App 来完成不同的任务。当用户向个人 AI 助理表达“我想买一件新衣服”、“点什么样的外卖”或“找到我这篇文章中最好的投资机会”等意图时,该 AI 不仅了解用户的偏好,还可以有效地执行所有这些任务——将找到最相关的应用程序和服务提供商,以竞标的形式实现用户意图。
最重要的是,PIN AI 意识到了在当下用户习惯直接和中心化服务提供商互动获得服务的困局下,引入一个能提供更多价值的去中心化服务的必要性。个人 AI 助理可以名正言顺的以用户的名义,获取用户和 Web2 应用互动时产生的高价值数据,并以去中心化的方式存储、调用,使同一份数据发挥更大的价值,使数据所有者和调用者同时受益。
虽然 PIN AI 主网还未正式上线,但团队通过 Telegram 小程度向用户展示了产品雏形,便于感知愿景。
Hi PIN Bot 由三个板块组成,Play、Data Connectors、AI Agent。
Play 是一个 AI 虚拟伴侣,由 PIN AI-1.5b、Gemma、Llama 等大模型提供支持。这就相当于 PIN AI 的个人 AI 助理。
在 Data Connectors 中,用户可以连接 Google、Facebook、X、Telegram 账户,赚取积分升级虚拟伴侣。未来还将支持用户连接 Amazon、Ebay、Uber 等账户。这就相当于 PIN AI 的 DePIN 数据网络。
自己的数据自己用,连接数据后,用户可以向虚拟伴侣提出需求(Coming soon),由虚拟伴侣向符合任务要求的 AI Agent 提供用户的数据来处理。
官方开发了一些 AI Agent 原型,目前仍是测试阶段,这些也就相当于 PIN AI 的外部 AI 服务。例如 X Insight,输入推特账号,它可以分析该账号的运营情况。当 Data Connectors 支持电商、外卖等平台账户后,像 Shopping、Order Food 这些 AI Agent 也能够发挥作用,自主处理用户提出的订单。
总的来说,通过 DePIN+AI 的形式,PIN AI 建立了一个开放的 AI 网络,让开发者可以构建真正有用的 AI 应用,让用户的生活变得更加便捷和智能。随着更多的开发者加入,PIN AI 将会带来更多创新的应用,让 AI 真正融入日常生活。
Sahara:多层架构领航AI数据确权、隐私、与公平交易
Sahara 在今年 8 月完成 4300 万美元 A 轮融资,Binance Labs、Pantera Capital、Polychain 等知名 VC 投资。
Sahara AI 是一个多层架构的 AI 区块链应用平台,专注在 AI 时代建立一个更加公平透明、能够将数据进行价值归属并分润给用户的 AI 发展模式,解决传统 AI 系统中的隐私、安全、数据获取以及透明度等痛点。
通俗的来说,Sahara AI 想要建一个去中心化的 AI 网络,让用户能自己控制数据,还能根据贡献的数据质量来获得奖励。这样一来,用户不再是被动的数据提供者,而是变成了能够参与进来,共享收益的生态系统建设者。
用户可以把数据上传到他们的去中心化数据市场,然后通过一种特殊的机制来证明这些数据的所有权(“确权”)。这些数据可以用来训练 AI,用户根据数据的质量来获得奖励。
Sahara AI 包含应用、交易、数据和执行四层架构,为 AI 生态系统发展提供了强大的基础。
应用层:提供安全保险库、去中心化 AI 数据市场、无代码工具包和 Sahara ID 等工具。这些工具能够确保数据隐私并推动对用户的公平补偿,且进一步简化创建和部署 AI 应用的过程。
简单来说,保险库利用先进的加密技术保障 AI 数据的安全性;去中心化 AI 数据市场可以用于数据收集、标注和转化,促进创新和公平交易;无代码工具包则使 AI 应用的开发更加简单;Sahara ID 负责管理用户声誉,保障信任。
交易层:Sahara 区块链,通过权益证明(PoS)共识机制来确保网络的效率和稳定性,让即使在有恶意节点存在的情况下也能达成共识。此外,Sahara 的原生预编译功能是专为优化 AI 处理而设计,能直接在区块链环境中进行高效计算,提升系统性能。
数据层:管理链上和链下的数据。链上数据处理不可追溯的操作和属性记录,保障信誉和透明性;链下数据则处理大型数据集,并通过 Merkle Tree 和零知识证明技术来确保数据的完整性与安全性,防止数据重复和篡改。
执行层:抽象了保险库、AI 模型和 AI 应用的操作,支持各种 AI 训练、推理和服务范式。
整个四层架构不仅确保了系统的安全和可扩展性,还体现了 Sahara AI 促进协作经济和 AI 发展的远大愿景,旨在彻底改变 AI 技术的应用模式,为用户带来更具创新性和公平的解决方案。
结语
随着 AI 技术的不断进步和加密市场的兴起,我们正站在一个新时代的门槛上。
随着 AI 大模型和应用的不断涌现,对算力的需求也在呈指数级增长。然而,算力的稀缺和成本的上升,对于许多中小型企业来说,是一个巨大的挑战。幸运的是,去中心化的解决方案,特别是 Hyperbolic、Aethir 和 IO.NET,为 AI 初创公司提供了新的算力获取途径,降低了成本,提高了效率。
同时,我们也看到了数据在 AI 发展中的重要性。数据不仅是 AI 的食粮,更是推动 AI 应用落地的关键。PIN AI、 Sahara 等项目通过激励网络,鼓励用户参与数据的收集和分享,为 AI 的发展提供了强大的数据支持。
算力和数据不仅仅是训练环节,对于 AI 应用来说,从数据摄入到生产推理,每个环节都需要利用不同工具实现海量数据处理,并且这是一个不断重复的流程。
在这个 AI 和 Crypto 交织的世界中,我们有理由相信,未来将见证更多创新的 AI 项目落地,这些项目将不仅改变我们的工作和生活方式,也将推动整个社会向更加智能化、去中心化的方向发展。随着技术的不断进步和市场的不断成熟,我们期待着一个更加开放、公平、高效的 AI 时代的到来。