zkPyTorch: Đưa Bằng chứng không tri thức vào lý luận PyTorch để tạo ra AI thực sự đáng tin cậy

Bài viết này được dịch máy
Xem bản gốc

Khi trí tuệ nhân tạo (AI) ngày càng sâu rộng trong các lĩnh vực then chốt như y tế, tài chính, xe tự lái, việc đảm bảo độ tin cậy, tính minh bạch và an toàn của quá trình suy luận học máy (ML) đang trở nên quan trọng hơn bao giờ hết.

Tuy nhiên, các dịch vụ học máy truyền thống thường hoạt động như một "hộp đen", người dùng chỉ có thể thấy kết quả mà khó có thể xác minh quá trình. Tính không minh bạch này khiến các dịch vụ mô hình dễ bị phơi nhiễm với các rủi ro:

Mô hình bị lạm dụng,

Kết quả suy luận bị thay đổi một cách độc hại,

Dữ liệu người dùng đối mặt với nguy cơ rò rỉ quyền riêng tư.

ZKML (Học máy không tri thức) đã cung cấp một giải pháp mật mã học hoàn toàn mới cho thách thức này. Nó dựa trên công nghệ Bằng chứng không tri thức (ZKPs), trao quyền cho các mô hình học máy khả năng xác minh được mã hóa: chứng minh một phép tính đã được thực hiện chính xác mà không tiết lộ thông tin nhạy cảm.

Nói cách khác, ZKPs cho phép nhà cung cấp dịch vụ chứng minh với người dùng:

"Kết quả suy luện bạn nhận được là do tôi chạy bằng mô hình đã được đào tạo - nhưng tôi sẽ không tiết lộ bất kỳ tham số mô hình nào."

Điều này có nghĩa là người dùng có thể tin tưởng vào tính xác thực của kết quả suy luận, trong khi cấu trúc và các tham số mô hình (thường là tài sản có giá trị cao) vẫn luôn được giữ bí mật.

zkPyTorch:

Polyhedra Network trọng thể giới thiệu zkPyTorch - một trình biên dịch cách mạng được xây dựng riêng cho Học máy không tri thức (ZKML), nhằm mục đích kết nối phần cuối cùng giữa các khung AI chính thống và công nghệ ZK.

zkPyTorch kết hợp sâu sắc khả năng học máy mạnh mẽ của PyTorch với động cơ Bằng chứng không tri thức tiên tiến, các nhà phát triển AI không cần thay đổi thói quen lập trình, cũng không cần học ngôn ngữ ZK hoàn toàn mới, mà có thể xây dựng các ứng dụng AI có thể xác minh trong môi trường quen thuộc.

Trình biên dịch này có thể tự động chuyển đổi các thao tác mô hình cấp cao (như tích chập, nhân ma trận, ReLU, softmax và cơ chế chú ý) thành mạch ZKP có thể được mã hóa xác minh, và kết hợp với bộ công cụ tối ưu hóa ZKML do Polyhedra tự phát triển, thực hiện nén và tăng tốc thông minh các đường dẫn suy luận chính, đảm bảo cả tính chính xác và hiệu quả tính toán của mạch.

Cơ sở hạ tầng then chốt để xây dựng hệ sinh thái AI đáng tin cậy

Hệ sinh thái học máy hiện nay đang phải đối mặt với nhiều thách thức về an toàn dữ liệu, khả năng xác minh tính toán và tính minh bạch của mô hình. Đặc biệt trong các ngành then chốt như y tế, tài chính, xe tự lái, các mô hình AI không chỉ liên quan đến lượng lớn thông tin cá nhân nhạy cảm, mà còn mang theo quyền sở hữu trí tuệ và bí mật thương mại cốt lõi.

Học máy không tri thức (ZKML) ra đời, trở thành một bước đột phá quan trọng để giải quyết tình trạng này. Thông qua công nghệ Bằng chứng không tri thức (ZKP), ZKML có thể hoàn thành việc xác minh tính toàn vẹn của suy luận mô hình mà không tiết lộ các tham số mô hình hoặc dữ liệu đầu vào - vừa giữ bí mật, vừa đảm bảo độ tin cậy.

Nhưng trong thực tế, việc phát triển ZKML thường có ngưỡng cực kỳ cao, đòi hỏi nền tảng mật mã sâu sắc, xa rời khả năng của các kỹ sư AI truyền thống.

Đây chính là sứ mệnh của zkPyTorch. Nó xây dựng một cây cầu giữa PyTorch và động cơ ZKP, cho phép các nhà phát triển sử dụng mã quen thuộc để xây dựng các hệ thống AI có bảo vệ quyền riêng tư và khả năng xác minh, mà không cần học lại các ngôn ngữ mật mã phức tạp.

Thông qua zkPyTorch, Polyhedra Network đang đáng kể giảm các rào cản kỹ thuật của ZKML, thúc đẩy các ứng dụng AI có thể mở rộng, đáng tin cậy đi vào dòng chính, tái cấu trúc một mô hình mới về an toàn và quyền riêng tư của AI.

Chiến lược này không chỉ cải thiện đáng kể hiệu quả tạo bằng chứng, mà còn đảm bảo kết quả bằng chứng được tạo ra hoàn toàn phù hợp với đầu ra của mô hình lượng tử độ chính xác cao, cân bằng giữa hiệu suất và độ tin cậy, thúc đẩy quá trình thực tế hóa học máy học có thể xác minh.

Chiến lược tối ưu hóa mạch đa cấp

zkPyTorch đã áp dụng hệ thống tối ưu hóa mạch đa lớp cực kỳ chính xác, xuất phát từ nhiều chiều, đảm bảo hiệu suất tối đa của suy luận không tri thức về hiệu quả và khả năng mở rộng:

Tối ưu hóa xử lý hàng loạt (Batch Processing Optimization)

Bằng cách đóng gói nhiều nhiệm vụ suy luận thành các lô, giảm đáng kể độ phức tạp tính toán tổng thể, đặc biệt phù hợp với các kịch bản thao tác tuần tự trong các mô hình ngôn ngữ như Transformer. Như được hiển thị trong Hình 3, quá trình suy luận của các mô hình ngôn ngữ lớn (LLM) truyền thống chạy theo cách tạo từng Token, còn phương pháp sáng tạo của zkPyTorch tổng hợp tất cả các Token đầu vào và đầu ra thành một quy trình prompt duy nhất để xác minh. Phương thức xử lý này có thể xác nhận một lần liệu suy luận tổng thể của LLM có chính xác không, đồng thời đảm bảo mỗi Token đầu ra nhất quán với suy luận LLM tiêu chuẩn.

Trong suy luận LLM, tính chính xác của cơ chế bộ nhớ đệm KV (bộ nhớ đệm khóa-giá trị) là chìa khóa để đảm bảo độ tin cậy của đầu ra suy luận. Nếu logic suy luận của mô hình không chính xác, thậm chí khi sử dụng bộ nhớ đệm, cũng không thể khôi phục kết quả nhất quán với quy trình giải mã tiêu chuẩn. Chính zkPyTorch thông qua việc sao chép chính xác quy trình này, đảm bảo mỗi đầu ra trong bằng chứng không tri thức đều có tính xác định và toàn vẹn có thể xác minh.

Hình 3: Xác minh hàng loạt tính toán của các mô hình ngôn ngữ lớn (LLMs), trong đó L biểu thị độ dài chuỗi đầu vào, N biểu thị độ dài chuỗi đầu ra, H biểu thị chiều không gian ẩn của mô hình.

(Phần dịch tiếp theo sẽ được thực hiện tương tự, giữ nguyên các thẻ HTML và dịch nội dung bên trong)

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận