只需 1% 的合成资料就能击穿一个 AI 模型。 问题在于:大多数团队并不知道他们的训练资料有多少是由其他 AI 产生的。 模型竞赛吸引了所有人的目光,但背后的数据却悄悄腐烂。 AI 模型越来越多地使用其他 AI 模型的输出进行训练。起初,这种方法似乎有效,但随后细节开始消失,判断力也随之下降。 这就是合成资料循环,它已经污染了那些甚至没有意识到其存在的管道。 @PerleLabs 正在围绕相反的问题进行构建。 他们没有追求模型基准,而是专注于资料层:为企业和主权应用场景建立的、经过人工验证且可链上审计的资料基础设施,在这些场景中,资料来源至关重要。 同样的「信任来源」理念也反映在他们的代币分发上。 他们没有让机器人刷空投,而是透过 @VeryAI 添加了基于掌纹的生物辨识验证,将每个申领与真人绑定。 真正的AI瓶颈不在于谁来建立下一代模型,而在于输入这些模型的资料是否可信。 很高兴能与@PerleLabs合作。 twitter.com/thedefiedge/status...
本文为机器翻译
展示原文
相关赛道:
来自推特
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
收藏
评论
分享





