Vấn đề hộp đen: Tại sao AI cần bằng chứng, không phải lời hứa

avatar
Decrypt
05-18
Bài viết này được dịch máy
Xem bản gốc

Khi mọi người nghĩ về trí tuệ nhân tạo, họ nghĩ về chatbot và các mô hình ngôn ngữ lớn. Tuy nhiên, thật dễ dàng để bỏ qua rằng AI đang ngày càng được tích hợp với các lĩnh vực quan trọng trong xã hội.

Những hệ thống này không chỉ đề xuất nên xem hay mua gì nữa; chúng còn chẩn đoán bệnh tật, chấp thuận khoản vay, phát hiện gian lận và nhắm mục tiêu vào các mối đe dọa.

Khi AI ngày càng được tích hợp sâu hơn vào cuộc sống hàng ngày của chúng ta, chúng ta cần đảm bảo AI hoạt động vì lợi ích tốt nhất của chúng ta. Chúng ta cần đảm bảo đầu ra của AI có thể chứng minh được.

Hầu hết các hệ thống AI đều hoạt động trong một hộp đen, nơi chúng ta thường không biết chúng đưa ra quyết định như thế nào hoặc liệu chúng có hoạt động theo đúng ý định hay không.

Chính sự thiếu minh bạch đã ăn sâu vào cách thức hoạt động của chúng và khiến việc kiểm toán hoặc đặt câu hỏi về các quyết định của AI sau đó trở nên gần như không thể.

Đối với một số ứng dụng nhất định, điều này là đủ tốt. Nhưng trong các lĩnh vực có rủi ro cao như chăm sóc sức khỏe, tài chính và thực thi pháp luật, sự thiếu minh bạch này gây ra những rủi ro nghiêm trọng.

Các mô hình AI có thể vô tình mã hóa sự thiên vị, thao túng kết quả hoặc hành xử theo cách xung đột với các chuẩn mực pháp lý hoặc đạo đức. Nếu không có dấu vết có thể xác minh, người dùng sẽ phải đoán xem quyết định có công bằng, hợp lệ hay thậm chí là an toàn hay không.

Những lo ngại này trở nên cấp thiết khi kết hợp với thực tế là khả năng của AI tiếp tục tăng trưởng theo cấp số nhân.

Có Consensus rộng rãi trong lĩnh vực này rằng việc phát triển Siêu trí tuệ nhân tạo (ASI) là điều tất yếu.

Sớm hay muộn, chúng ta sẽ có một AI vượt trội hơn trí thông minh của con người trên mọi lĩnh vực, từ lý luận khoa học đến lập kế hoạch chiến lược, sáng tạo và thậm chí cả trí tuệ cảm xúc.

Các chương trình LLM đã cho thấy sự tiến bộ nhanh chóng về khả năng khái quát hóa và tính tự chủ trong nhiệm vụ.

Nếu một hệ thống siêu thông minh hoạt động theo cách mà con người không thể dự đoán hoặc hiểu được, làm sao chúng ta đảm bảo nó phù hợp với các giá trị của chúng ta? Điều gì xảy ra nếu nó diễn giải một lệnh khác đi hoặc theo đuổi một mục tiêu với hậu quả không mong muốn? Điều gì xảy ra nếu nó trở nên bất chính?

Những viễn cảnh mà điều này có thể đe dọa đến nhân loại thậm chí còn rõ ràng với những người ủng hộ AI.

Geoffrey Hinton, người tiên phong trong lĩnh vực học sâu, cảnh báo về các hệ thống AI có khả năng tấn công mạng hoặc thao túng hàng loạt ở cấp độ văn minh. Các chuyên gia an ninh sinh học lo ngại các phòng thí nghiệm được tăng cường AI có thể phát triển các mầm bệnh ngoài tầm kiểm soát của con người.

Và người sáng lập Anduril, Palmer Luckey, đã tuyên bố rằng hệ thống AI Lattice của công ty có thể gây nhiễu, hack hoặc đánh lừa các mục tiêu quân sự chỉ trong vài giây, biến chiến tranh tự động trở thành hiện thực trong tương lai gần.

Với rất nhiều kịch bản có thể xảy ra, làm sao chúng ta có thể đảm bảo rằng ASI sẽ không tiêu diệt tất cả chúng ta?

Câu trả lời Short cho tất cả những câu hỏi này là khả năng xác minh.

Việc dựa vào lời hứa từ các mô hình không rõ ràng không còn được chấp nhận để tích hợp chúng vào cơ sở hạ tầng quan trọng, càng không thể ở quy mô ASI. Chúng ta cần sự đảm bảo. Chúng ta cần bằng chứng.

Ngày càng có Consensus trong cộng đồng nghiên cứu và chính sách rằng cần có các biện pháp minh bạch kỹ thuật cho AI.

Các cuộc thảo luận về quy định thường đề cập đến các dấu vết kiểm toán cho các quyết định về AI. Ví dụ, US NIST Đạo luật AI của EU đã nhấn mạnh tầm quan trọng của các hệ thống AI là "có thể theo dõi" và "có thể hiểu được".

May mắn thay, nghiên cứu và phát triển AI không diễn ra trong chân không. Đã có những đột phá quan trọng trong các lĩnh vực khác như mật mã tiên tiến có thể được áp dụng cho AI và đảm bảo chúng ta kiểm soát các hệ thống hiện tại—và cuối cùng là hệ thống ASI—và phù hợp với lợi ích của con người.

Hiện tại, bằng chứng zero-knowledge là quan trọng nhất. ZKP cung cấp một cách mới để đạt được Truy vết nguồn gốc có thể áp dụng ngay cho các hệ thống AI.

Trên thực tế, ZKP có thể nhúng Truy vết nguồn gốc này vào các mô hình AI ngay từ đầu. Không chỉ ghi lại những gì AI đã làm, có thể bị can thiệp, chúng có thể tạo ra bằng chứng bất biến về những gì đã xảy ra.

Cụ thể, bằng cách sử dụng thư viện zkML, chúng ta có thể kết hợp các bằng chứng zero-knowledge và máy học để xác minh tất cả các phép tính được tạo ra trên các mô hình này.

Nói một cách cụ thể, chúng ta có thể sử dụng thư viện zkML để xác minh rằng mô hình AI đã được sử dụng đúng cách, rằng mô hình này chạy các phép tính mong đợi và đầu ra của mô hình này tuân theo logic đã chỉ định, tất cả mà không làm lộ trọng số mô hình nội bộ hoặc dữ liệu nhạy cảm.

Điều này thực sự đưa AI ra khỏi hộp đen và cho chúng ta biết chính xác nó đang ở đâu và nó đến đó bằng cách nào. Quan trọng hơn, nó giúp con người luôn cập nhật.

Sự phát triển của AI cần phải cởi mở, phi tập trung và có thể xác minh được, và zkML cần đạt được điều này.

Điều này cần phải xảy ra ngay hôm nay để duy trì quyền kiểm soát AI vào ngày mai. Chúng ta cần đảm bảo rằng lợi ích của con người được bảo vệ ngay từ ngày đầu tiên bằng cách có thể đảm bảo rằng AI đang hoạt động như chúng ta mong đợi trước khi nó trở nên tự chủ.

Tuy nhiên, ZkML không chỉ có tác dụng ngăn chặn ASI độc hại.

Trong Short hạn, điều quan trọng là đảm bảo rằng chúng ta có thể tin tưởng AI trong việc tự động hóa các quy trình nhạy cảm như cho vay, chẩn đoán và giám sát vì chúng ta có bằng chứng cho thấy AI hoạt động minh bạch và công bằng.

Thư viện ZkML có thể cung cấp cho chúng ta lý do để tin tưởng AI nếu chúng được sử dụng ở quy mô lớn.

Mặc dù việc có nhiều mô hình mạnh mẽ hơn có thể hữu ích, nhưng bước tiếp theo trong quá trình phát triển AI là đảm bảo rằng chúng đang học và phát triển đúng cách.

Việc sử dụng rộng rãi zkML hiệu quả và có khả năng mở rộng sẽ sớm trở thành một thành phần quan trọng trong cuộc đua AI và quá trình tạo ra ASI.

Con đường đến Siêu trí tuệ nhân tạo không thể được trải bằng phỏng đoán. Khi các hệ thống AI trở nên có khả năng hơn và được tích hợp vào các lĩnh vực quan trọng, việc chứng minh chúng làm gì—và chúng làm như thế nào—sẽ rất cần thiết.

Khả năng xác minh phải chuyển từ khái niệm nghiên cứu sang nguyên tắc thiết kế. Với các công cụ như zkML, giờ đây chúng ta có một con đường khả thi để nhúng tính minh bạch, bảo mật và trách nhiệm giải trình vào nền tảng của AI.

Câu hỏi không còn là liệu chúng ta có thể chứng minh được những gì AI làm hay không, mà là liệu chúng ta có muốn làm như vậy hay không.

Biên tập bởi Sebastian Sinclair

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận