Đánh giá mô hình AI: Endor Labs ra mắt công cụ đánh giá

avatar
AI News
10-16
Bài viết này được dịch máy
Xem bản gốc

Endor Labs đã bắt đầu chấm điểm các mô hình AI dựa trên bảo mật, độ phổ biến, chất lượng và hoạt động của chúng.

Được gọi là 'Endor Scores for AI Models,' khả năng độc đáo này nhằm đơn giản hóa quá trình xác định các mô hình AI nguồn mở an toàn nhất hiện có trên Hugging Face - một nền tảng chia sẻ Mô hình Ngôn ngữ Lớn (LLM), mô hình học máy và các mô hình AI nguồn mở khác cũng như tập dữ liệu - bằng cách cung cấp các điểm số rõ ràng.

Thông báo này đến khi các nhà phát triển ngày càng quay sang các nền tảng như Hugging Face để có được các mô hình AI sẵn có, phản ánh những ngày đầu của phần mềm nguồn mở (OSS) có sẵn. Bản phát hành mới này cải thiện quản trị AI bằng cách cho phép các nhà phát triển "bắt đầu sạch" với các mô hình AI, một mục tiêu mà cho đến nay vẫn chưa đạt được.

Varun Badhwar, đồng sáng lập và Giám đốc điều hành của Endor Labs, cho biết: "Luôn luôn là sứ mệnh của chúng tôi để bảo mật mọi thứ mà mã của bạn phụ thuộc vào, và các mô hình AI là biên giới lớn tiếp theo trong nhiệm vụ quan trọng đó.

"Mọi tổ chức đều đang thử nghiệm với các mô hình AI, cho dù để cung cấp các ứng dụng cụ thể hay xây dựng toàn bộ các doanh nghiệp dựa trên AI. Bảo mật phải theo kịp, và đây là một cơ hội hiếm có để bắt đầu sạch và tránh các rủi ro và chi phí bảo trì cao trong tương lai."

George Apostolopoulos, Kỹ sư sáng lập tại Endor Labs, cho biết thêm: "Mọi người đều đang thử nghiệm với các mô hình AI ngay bây giờ. Một số nhóm đang xây dựng các doanh nghiệp hoàn toàn mới dựa trên AI trong khi những người khác đang tìm cách dán một nhãn 'được cung cấp bởi AI' lên sản phẩm của họ. Một điều chắc chắn, các nhà phát triển của bạn đang chơi với các mô hình AI."

Tuy nhiên, sự tiện lợi này không đến mà không có rủi ro. Apostolopoulos cảnh báo rằng bức tranh hiện tại giống như "miền Viễn Tây," với mọi người lấy các mô hình phù hợp với nhu cầu của họ mà không xem xét các lỗ hổng tiềm ẩn.

Phương pháp tiếp cận của Endor Labs xem các mô hình AI như các phụ thuộc trong chuỗi cung ứng phần mềm

"Sứ mệnh của chúng tôi tại Endor Labs là 'bảo mật mọi thứ mà mã của bạn phụ thuộc vào'," Apostolopoulos khẳng định. Quan điểm này cho phép các tổ chức áp dụng các phương pháp đánh giá rủi ro tương tự đối với các mô hình AI như họ làm với các thành phần nguồn mở khác.

Công cụ của Endor để chấm điểm các mô hình AI tập trung vào một số lĩnh vực rủi ro chính:

  • Lỗ hổng bảo mật: Các mô hình được huấn luyện trước có thể chứa mã độc hại hoặc lỗ hổng trong trọng số mô hình, có thể dẫn đến vi phạm bảo mật khi tích hợp vào môi trường của tổ chức.
  • Các vấn đề pháp lý và cấp phép: Tuân thủ các điều khoản cấp phép là rất quan trọng, đặc biệt là xét đến nguồn gốc phức tạp của các mô hình AI và tập dữ liệu huấn luyện của chúng.
  • Rủi ro hoạt động: Sự phụ thuộc vào các mô hình được huấn luyện trước tạo ra một đồ thị phức tạp mà có thể khó quản lý và bảo mật.

Để giải quyết các vấn đề này, công cụ đánh giá của Endor Labs áp dụng 50 kiểm tra sẵn có cho các mô hình AI trên Hugging Face. Hệ thống tạo ra một "Endor Score" dựa trên các yếu tố như số lượng người bảo trì, tài trợ doanh nghiệp, tần suất phát hành và lỗ hổng đã biết.

Screenshot of Endor Labs' tool for scoring AI models.

Các yếu tố tích cực trong hệ thống chấm điểm các mô hình AI bao gồm việc sử dụng các định dạng trọng số an toàn, sự hiện diện của thông tin cấp phép và các chỉ số tải xuống và tham gia cao. Các yếu tố tiêu cực bao gồm tài liệu không đầy đủ, thiếu dữ liệu hiệu suất và sử dụng các định dạng trọng số không an toàn.

Một tính năng chính của Endor Scores là cách tiếp cận thân thiện với người dùng. Các nhà phát triển không cần biết tên mô hình cụ thể; họ có thể bắt đầu tìm kiếm của mình với các câu hỏi chung như "Tôi có thể sử dụng những mô hình nào để phân loại cảm xúc?" hoặc "Những mô hình phổ biến nhất từ Meta là gì?" Công cụ sau đó cung cấp các điểm số rõ ràng xếp hạng cả các khía cạnh tích cực và tiêu cực của từng mô hình, cho phép các nhà phát triển chọn các tùy chọn phù hợp nhất với nhu cầu của họ.

"Các nhóm của bạn được hỏi về AI mỗi ngày, và họ sẽ tìm kiếm các mô hình họ có thể sử dụng để tăng tốc đổi mới," Apostolopoulos lưu ý. "Đánh giá các mô hình AI nguồn mở với Endor Labs giúp bạn đảm bảo rằng các mô hình bạn đang sử dụng làm những gì bạn mong đợi và an toàn để sử dụng."

(Ảnh bởi Element5 Digital)

Xem thêm: China Telecom trains AI model with 1 trillion parameters on domestic chips

Muốn tìm hiểu thêm về AI và dữ liệu lớn từ các nhà lãnh đạo trong ngành? Hãy kiểm tra AI & Big Data Expo diễn ra tại Amsterdam, California và London. Sự kiện toàn diện này được tổ chức đồng thời với các sự kiện hàng đầu khác bao gồm Intelligent Automation Conference, BlockX, Digital Transformation Week, và Cyber Security & Cloud Expo.

Khám phá các sự kiện công nghệ doanh nghiệp sắp tới và các webinar khác được cung cấp bởi TechForge tại đây.

Bài viết Scoring AI models: Endor Labs unveils evaluation tool đầu tiên xuất hiện trên AI News.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận