人工智能领域的数据层几乎无人问津。 当人工智能开始使用自身生成的数据进行训练时会发生什么? 你会获得更快的输出。 但你也会得到性能更弱、反馈循环更差、信任问题更严重的模型。研究人员已经将这种情况称为“模型崩溃”,即当模型反复使用合成数据进行训练时,其性能会下降。 这正是 Perle 正在努力的方向。 $PRL 现已上线,其理念很简单:随着人工智能规模的扩大,干净且可验证的数据变得越来越有价值,尤其是在合成内容充斥系统的情况下。 Perle 正是围绕这一层进行构建。 为企业和主权应用场景提供人工验证、链上可审计的数据,在这些场景中,错误的输入会造成实际后果。 该团队来自 Scale AI,已筹集 1750 万美元,并致力于开发与模型炒作相比仍然被低估的技术栈部分。 他们还将 1 美元与贡献者奖励挂钩,因此奖励以稳定的链上单位发放,而不是分散的单位。 如果人工智能持续扩展,瓶颈可能不在于模型,而在于数据。 很高兴能与 @PerleLabs 合作,共同展现人工智能中大多数人仍然忽视的一面。
本文为机器翻译
展示原文

Perle Labs
@PerleLabs
03-25
The stamp of verification is here.
$PRL is now live. Start your claim ⬇️
@PerleFDN
来自推特
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
收藏
评论
分享





