Bài viết này được dịch máy
Xem bản gốc

Chỉ cần 1% dữ liệu giả lập cũng đủ để làm hỏng mô hình AI. Vấn đề là gì? Hầu hết các nhóm không biết bao nhiêu dữ liệu huấn luyện của họ được tạo ra bởi một AI khác. Cuộc đua mô hình thu hút mọi sự chú ý, nhưng dữ liệu đằng sau đó lại đang âm thầm bị mục nát. Các mô hình AI ngày càng được huấn luyện dựa trên kết quả đầu ra từ các mô hình AI khác. Ban đầu, phương pháp này có hiệu quả, nhưng sau đó các chi tiết bắt đầu biến mất. Khả năng phán đoán trở nên yếu hơn. Đó chính là vòng lặp dữ liệu giả mạo, và nó đang làm ô nhiễm các quy trình xử lý dữ liệu mà ngay cả những hệ thống không hề nhận ra sự hiện diện của nó. @PerleLabs đang xây dựng dựa trên một vấn đề hoàn toàn ngược lại. Thay vì chạy theo các tiêu chuẩn mô hình, họ tập trung vào lớp dữ liệu: cơ sở hạ tầng dữ liệu được con người xác minh và có thể kiểm toán trên chuỗi, được xây dựng cho các trường hợp sử dụng của doanh nghiệp và chính phủ, nơi nguồn gốc thực sự quan trọng. Nguyên tắc "tin tưởng nguồn gốc" cũng được áp dụng vào việc phân phối Token của họ. Thay vì để Bots tự động nhận Airdrop, họ đã thêm xác minh sinh trắc học bằng lòng bàn tay thông qua @VeryAI để liên kết mỗi yêu cầu với một người thật. Điểm nghẽn thực sự của AI sẽ không phải là ai xây dựng mô hình tiếp theo, mà là liệu dữ liệu dùng để cung cấp cho các mô hình đó có đáng tin cậy hay không. Rất vui được hợp tác với @PerleLabs. twitter.com/thedefiedge/status...

Từ Twitter
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận