Bài viết này được dịch máy
Xem bản gốc

Thực tế là chẳng ai nói nhiều về lớp dữ liệu trong AI. Điều gì xảy ra khi AI bắt đầu huấn luyện trên dữ liệu do chính AI tạo ra? Bạn sẽ có kết quả nhanh hơn. Nhưng bạn cũng sẽ có các mô hình yếu hơn, vòng phản hồi kém hơn và vấn đề về độ tin cậy lớn hơn. Các nhà nghiên cứu đã gọi đây là "Sự sụp đổ của mô hình", hiệu suất giảm sút khi các mô hình được huấn luyện trên dữ liệu tổng hợp lặp đi lặp lại. Đó là hướng đi mà Perle đang nhắm tới. $PRL đã ra mắt và ý tưởng rất đơn giản: khi AI mở rộng quy mô, dữ liệu sạch và có thể kiểm chứng trở nên có giá trị hơn, đặc biệt là khi nội dung tổng hợp tràn ngập hệ thống. Perle đang xây dựng xung quanh lớp đó. Dữ liệu được con người xác minh, có thể kiểm toán trên chuỗi cho các trường hợp sử dụng của doanh nghiệp và chính phủ, nơi mà các đầu vào xấu thực sự gây ra hậu quả. Nhóm này đến từ Scale AI, đã huy động được 17,5 triệu đô la và đang nhắm đến một phần của hệ sinh thái mà vẫn còn bị định giá thấp so với sự cường điệu về mô hình. Họ cũng đã gắn 1 đô la Mỹ vào khoản thanh toán cho người đóng góp, vì vậy phần thưởng được chuyển thành một đơn vị ổn định trên chuỗi thay vì bị phân mảnh hơn. Nếu AI tiếp tục phát triển, nút thắt cổ chai có lẽ không phải là các mô hình. Mà là dữ liệu. Rất vui được hợp tác với @PerleLabs để làm nổi bật khía cạnh của AI mà hầu hết mọi người vẫn thường bỏ qua.

Perle Labs
@PerleLabs
03-25
The stamp of verification is here. $PRL is now live. Start your claim ⬇️ @PerleFDN
Từ Twitter
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận