人工智能領域的數據層幾乎無人問津。 當人工智能開始使用自身生成的數據進行訓練時會發生什麼? 你會獲得更快的輸出。 但你也會得到性能更弱、反饋循環更差、信任問題更嚴重的模型。研究人員已經將這種情況稱為“模型崩潰”,即當模型反覆使用合成數據進行訓練時,其性能會下降。 這正是 Perle 正在努力的方向。 $PRL 現已上線,其理念很簡單:隨著人工智能規模的擴大,乾淨且可驗證的數據變得越來越有價值,尤其是在合成內容充斥系統的情況下。 Perle 正是圍繞這一層進行構建。 為企業和主權應用場景提供人工驗證、鏈上可審計的數據,在這些場景中,錯誤的輸入會造成實際後果。 該團隊來自 Scale AI,已籌集 1750 萬美元,並致力於開發與模型炒作相比仍然被低估的技術棧部分。 他們還將 1 美元與貢獻者獎勵掛鉤,因此獎勵以穩定的鏈上單位發放,而不是分散的單位。 如果人工智能持續擴展,瓶頸可能不在於模型,而在於數據。 很高興能與 @PerleLabs 合作,共同展現人工智能中大多數人仍然忽視的一面。
本文為機器翻譯
展示原文

Perle Labs
@PerleLabs
03-25
The stamp of verification is here.
$PRL is now live. Start your claim ⬇️
@PerleFDN
來自推特
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論
分享





