Meta tăng cường bảo mật AI bằng các công cụ Llama mới

avatar
AI News
04-30
Bài viết này được dịch máy
Xem bản gốc

Nếu bạn đang xây dựng bằng AI hoặc đang cố gắng phòng thủ trước những mặt trái của công nghệ này, Meta vừa mới tung ra công cụ bảo mật Llama mới.

Các công cụ bảo mật được cải tiến cho các mô hình AI Llama đi kèm với các tài nguyên mới từ Meta được thiết kế để giúp các nhóm an ninh mạng khai thác AI để phòng thủ. Tất cả đều là một phần trong nỗ lực của họ nhằm giúp việc phát triển và sử dụng AI an toàn hơn một Bit cho tất cả mọi người liên quan.

Các nhà phát triển làm việc với họ mô hình Llama hiện có một số bộ công cụ nâng cấp để chơi. Bạn có thể lấy các công cụ Llama Protection mới nhất này trực tiếp từ trang Llama Protections của Meta hoặc tìm chúng ở nơi nhiều nhà phát triển sinh sống: Hugging Face và GitHub.

Đầu tiên là Llama Guard 4. Hãy coi nó như một sự tiến hóa của bộ lọc an toàn tùy chỉnh của Meta dành cho AI. Tin tức lớn ở đây là giờ đây nó đa phương thức nên có thể hiểu và áp dụng các quy tắc an toàn không chỉ cho văn bản mà còn cho cả hình ảnh. Điều đó rất quan trọng vì các ứng dụng AI trở nên trực quan hơn. Phiên bản mới này cũng đang được tích hợp vào Llama API hoàn toàn mới của Meta, hiện đang ở dạng xem trước giới hạn.

Sau đó là LlamaFirewall. Đây là một phần mới của câu đố từ Meta, được thiết kế để hoạt động như một trung tâm kiểm soát bảo mật cho các hệ thống AI. Nó giúp quản lý các mô hình an toàn khác nhau hoạt động cùng nhau và kết nối với các công cụ bảo vệ khác của Meta. Công việc của nó là gì? Để phát hiện và Block loại rủi ro khiến các nhà phát triển AI mất ngủ vào ban đêm – những thứ như các cuộc tấn công 'tiêm nhắc nhở' thông minh được thiết kế để đánh lừa AI, khả năng tạo mã gian lận hoặc hành vi rủi ro từ các plug-in AI.

Meta cũng đã cải tiến Llama Prompt Guard. Mẫu Prompt Guard 2 (86M) chính giờ đây có khả năng đánh hơi tốt hơn những nỗ lực bẻ khóa và tiêm mã nhắc nhở khó chịu. Thú vị hơn nữa, có lẽ là sự ra mắt của Prompt Guard 2 22M.

Prompt Guard 2 22M là phiên bản nhỏ hơn, nhanh hơn nhiều. Meta cho rằng nó có thể giảm độ trễ và chi phí tính toán lên đến 75% so với mô hình lớn hơn mà không phải hy sinh quá nhiều sức mạnh phát hiện. Đối với bất kỳ ai cần phản hồi nhanh hơn hoặc làm việc với ngân sách eo hẹp hơn, thì đây là một bổ sung đáng hoan nghênh.

Nhưng Meta không chỉ tập trung vào những người xây dựng AI; họ còn hướng đến những người bảo vệ mạng ở tuyến đầu của an ninh kỹ thuật số. Họ đã nghe thấy những lời kêu gọi về các công cụ hỗ trợ AI tốt hơn để giúp chống lại các cuộc tấn công mạng và họ đang chia sẻ một số bản cập nhật nhằm vào mục đích đó.

Bộ công cụ chuẩn CyberSec Eval 4 đã được cập nhật. Bộ công cụ mã nguồn mở này giúp các tổ chức tìm ra mức độ tốt thực sự của các hệ thống AI trong các nhiệm vụ bảo mật. Phiên bản mới nhất này bao gồm hai công cụ mới:

  • CyberSOC Eval: Được xây dựng với sự trợ giúp của các chuyên gia an ninh mạng CrowdStrike, khuôn khổ này đo lường cụ thể mức độ hoạt động tốt của AI trong môi trường Trung tâm điều hành an ninh (SOC) thực tế. Nó được thiết kế để cung cấp bức tranh rõ ràng hơn về hiệu quả của AI trong việc phát hiện và ứng phó với mối đe dọa. Bản thân chuẩn mực sẽ sớm ra mắt.
  • AutoPatchBench: Tiêu chuẩn này kiểm tra khả năng của Llama và các AI khác trong việc tự động tìm và sửa các lỗ hổng bảo mật trong mã trước khi kẻ xấu có thể khai thác chúng.

Để giúp đưa những loại công cụ này đến tay những người cần chúng, Meta đang khởi động Chương trình Llama Defenders. Chương trình này có vẻ như là về việc cung cấp cho các công ty đối tác và nhà phát triển quyền truy cập đặc biệt vào hỗn hợp các giải pháp AI – một số là mã nguồn mở, một số là quyền truy cập sớm, một số có lẽ là độc quyền – tất cả đều hướng đến các thách thức bảo mật khác nhau .

Là một phần của việc này, Meta đang chia sẻ một công cụ bảo mật AI mà họ sử dụng nội bộ: Công cụ phân loại tài liệu nhạy cảm tự động. Công cụ này tự động dán nhãn bảo mật vào các tài liệu bên trong một tổ chức. Tại sao? Để ngăn thông tin nhạy cảm bị rò rỉ hoặc để ngăn thông tin này vô tình được đưa vào hệ thống AI (như trong các thiết lập RAG) nơi thông tin có thể bị rò rỉ.

Họ cũng đang giải quyết vấn đề âm thanh giả do AI tạo ra, vốn ngày càng được sử dụng nhiều trong các vụ lừa đảo. Llama Generated Audio Detector và Llama Audio Watermark Detector đang được chia sẻ với các đối tác để giúp họ phát hiện giọng nói do AI tạo ra trong các cuộc gọi lừa đảo tiềm ẩn hoặc các nỗ lực lừa đảo. Các công ty như ZenDesk, Bell Canada và AT&T đã xếp hàng để tích hợp những công cụ này.

Cuối cùng, Meta đã hé lộ một thứ có khả năng rất lớn đối với quyền riêng tư của người dùng: Private Processing. Đây là công nghệ mới mà họ đang phát triển cho WhatsApp. Ý tưởng là để AI thực hiện những việc hữu ích như tóm tắt tin nhắn chưa đọc của bạn hoặc giúp bạn soạn thảo câu trả lời, nhưng Meta hoặc WhatsApp không thể đọc nội dung của những tin nhắn đó.

Meta khá cởi mở về khía cạnh bảo mật, thậm chí còn công bố mô hình đe dọa của họ và mời các nhà nghiên cứu bảo mật tìm lỗ hổng trong kiến ​​trúc trước khi nó được đưa vào hoạt động. Đó là dấu hiệu cho thấy họ biết họ cần phải làm đúng về khía cạnh quyền riêng tư.

Nhìn chung, đây là một loạt các thông báo bảo mật AI từ Meta. Họ rõ ràng đang cố gắng hết sức để bảo mật AI mà họ xây dựng, đồng thời cung cấp cho cộng đồng công nghệ rộng lớn hơn các công cụ tốt hơn để xây dựng an toàn và bảo vệ hiệu quả.

Xem thêm: Sự gia tăng đáng báo động của các vụ lừa đảo sử dụng AI: Microsoft tiết lộ đã ngăn chặn được 4 tỷ đô la gian lận

Bạn muốn tìm hiểu thêm về AI và dữ liệu lớn từ những người dẫn đầu ngành? Hãy xem Triển lãm AI & Big Data diễn ra tại Amsterdam, California và London. Sự kiện toàn diện này được tổ chức cùng với các sự kiện hàng đầu khác bao gồm Hội nghị tự động hóa thông minh , BlockX , Tuần lễ chuyển đổi sốTriển lãm an ninh mạng & đám mây .

Khám phá các sự kiện công nghệ doanh nghiệp sắp tới và hội thảo trực tuyến do TechForge hỗ trợ tại đây .

Bài đăng Meta tăng cường bảo mật AI bằng các công cụ Llama mới xuất hiện đầu tiên trên AI News .

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
2
Thêm vào Yêu thích
2
Bình luận