本文為機器翻譯
展示原文

只需 1% 的合成資料就能擊穿一個 AI 模型。 問題在於:大多數團隊並不知道他們的訓練資料有多少是由其他 AI 產生的。 模型競賽吸引了所有人的目光,但背後的數據卻悄悄腐爛。 AI 模型越來越多地使用其他 AI 模型的輸出進行訓練。起初,這種方法似乎有效,但隨後細節開始消失,判斷力也隨之下降。 這就是合成資料循環,它已經污染了那些甚至沒有意識到其存在的管道。 @PerleLabs 正在圍繞相反的問題進行構建。 他們沒有追求模型基準,而是專注於資料層:為企業和主權應用場景建立的、經過人工驗證且可鏈上審計的資料基礎設施,在這些場景中,資料來源至關重要。 同樣的「信任來源」理念也反映在他們的代幣分發上。 他們沒有讓機器人刷空投,而是透過 @VeryAI 添加了基於掌紋的生物辨識驗證,將每個申領與真人綁定。 真正的AI瓶頸不在於誰來建立下一代模型,而在於輸入這些模型的資料是否可信。 很高興能與@PerleLabs合作。 twitter.com/thedefiedge/status...

來自推特
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論