Manus mở ra kỷ nguyên của AGI, nhưng sự an toàn của AI cũng đáng để suy ngẫm
Bài viết này được dịch máy
Xem bản gốc
Manus đạt được thành tích SOTA (Tối ưu hiện tại) trong bộ tiêu chuẩn GAIA, cho thấy hiệu suất của nó vượt trội so với các mô hình lớn cùng cấp của Open AI. Nói cách khác, nó có thể hoàn thành các nhiệm vụ phức tạp một cách độc lập, chẳng hạn như đàm phán kinh doanh xuyên quốc gia, bao gồm phân tích các điều khoản hợp đồng, dự đoán chiến lược, tạo ra các giải pháp, thậm chí còn có thể phối hợp các nhóm pháp lý và tài chính. So với các hệ thống truyền thống, ưu thế của Manus nằm ở khả năng phân tách mục tiêu động, khả năng suy luận đa phương thức và khả năng học tăng cường bộ nhớ. Nó có thể phân chia các nhiệm vụ lớn thành hàng trăm nhiệm vụ con có thể thực hiện, đồng thời xử lý nhiều loại dữ liệu khác nhau và sử dụng học tăng cường để liên tục nâng cao hiệu quả ra quyết định, giảm tỷ lệ lỗi.
Bên cạnh sự ngưỡng mộ trước tốc độ phát triển của công nghệ, Manus cũng một lần nữa gây ra sự chia rẽ trong cộng đồng về con đường tiến hóa của trí tuệ nhân tạo: Liệu tương lai sẽ là sự thống trị của AGI hay sự dẫn dắt của MAS?
Điều này bắt nguồn từ ý tưởng thiết kế của Manus, nó ẩn chứa hai khả năng:
Một là con đường AGI. Thông qua việc liên tục nâng cao mức độ thông minh của một thực thể, khiến nó tiến gần hơn đến khả năng ra quyết định tổng hợp của con người.
Còn một là con đường MAS. Với tư cách là một siêu điều phối viên, chỉ huy hàng nghìn Tác nhân (Agent) trong các lĩnh vực chuyên ngành để phối hợp hoạt động.
Trên bề mặt, chúng ta đang thảo luận về sự khác biệt trong các con đường, nhưng thực chất chúng ta đang thảo luận về mâu thuẫn cơ bản trong sự phát triển của trí tuệ nhân tạo: Hiệu quả và an toàn nên được cân bằng như thế nào? Khi trí thông minh đơn lẻ tiến gần hơn đến AGI, rủi ro về hộp đen ra quyết định của nó càng cao; trong khi phối hợp nhiều Tác nhân có thể phân tán rủi ro, nhưng có thể bỏ lỡ cửa sổ ra quyết định quan trọng do độ trễ trong giao tiếp.
Sự tiến hóa của Manus vô hình trung đã phóng to các rủi ro vốn có trong sự phát triển của trí tuệ nhân tạo. Ví dụ như hố đen dữ liệu riêng tư: Trong lĩnh vực y tế, Manus cần truy cập dữ liệu gen của bệnh nhân theo thời gian thực; trong đàm phán tài chính, nó có thể tiếp cận thông tin tài chính chưa công bố của doanh nghiệp; hoặc bẫy định kiến thuật toán, trong đàm phán tuyển dụng, Manus đưa ra mức lương thấp hơn mức trung bình cho ứng viên thuộc một số sắc tộc cụ thể; khi kiểm tra hợp đồng pháp lý, tỷ lệ sai lầm đối với các điều khoản của ngành mới nổi lên gần 50%. Hoặc lỗ hổng tấn côngối kháng, tin tặc có thể chèn tần số âm thanh cụ thể để khiến Manus đánh giá sai khoảng giá của đối phương trong đàm phán.
Chúng ta không thể tránh khỏi một điểm đau khổ đáng sợ của hệ thống trí tuệ nhân tạo: Hệ thống càng thông minh, bề mặt tấn công càng rộng.
Tuy nhiên, an ninh luôn là một từ được nhắc đến liên tục trong web3, trong khuôn khổ tam giác bất khả thi của V-神 (an ninh, phi tập trung hóa và khả năng mở rộng) cũng đã phát triển nhiều phương thức mã hóa khác nhau:
- Mô hình an ninh không tin tưởng (Zero Trust Security Model): Lõi của mô hình an ninh không tin tưởng là "không tin tưởng bất kỳ ai, luôn xác minh", nghĩa là không phân biệt thiết bị ở trong hoặc ngoài mạng nội bộ, đều không nên được tin tưởng ngầm định. Mô hình này nhấn mạnh việc xác thực danh tính và ủy quyền nghiêm ngặt đối với mỗi yêu cầu truy cập để đảm bảo an ninh hệ thống.
- Danh tính phi tập trung hóa (Decentralized Identity, DID): DID là một tiêu chuẩn định danh cho phép các thực thể có thể có được sự nhận dạng có thể xác minh và bền vững mà không cần bảng đăng ký tập trung. Điều này thực hiện một mô hình danh tính số mới phi tập trung, thường được liên kết với danh tính chủ quyền, là một phần quan trọng của Web3.
- Mã hóa đồng hình hoàn toàn (Fully Homomorphic Encryption, FHE): Đây là một kỹ thuật mã hóa tiên tiến cho phép thực hiện các phép tính tùy ý trên dữ liệu được mã hóa mà không cần giải mã. Điều này có nghĩa là bên thứ ba có thể thao tác trên văn bản mã hóa và thu được kết quả sau khi giải mã tương tự như thao tác trên dữ liệu gốc.
Mô hình an ninh không tin tưởng và DID đã có một số dự án triển khai trong nhiều chu kỳ tăng giá, họ hoặc đã đạt được thành tựu, hoặc bị chìm nghỉm trong làn sóng tiền mã hóa. Còn là phương pháp mã hóa mới nhất, FHE cũng là vũ khí lớn để giải quyết vấn đề an ninh trong kỷ nguyên trí tuệ nhân tạo.
Làm thế nào để giải quyết?
Trước tiên là ở mức độ dữ liệu. Tất cả thông tin do người dùng nhập vào (bao gồm cả sinh trắc học, giọng nói) được xử lý ở trạng thái mã hóa, ngay cả Manus cũng không thể giải mã dữ liệu gốc. Ví dụ, trong trường hợp chẩn đoán y tế, dữ liệu gen của bệnh nhân tham gia phân tích suốt quá trình ở dạng văn bản mã hóa, tránh rò rỉ thông tin sinh học.
Ở mức độ thuật toán. Thông qua "huấn luyện mô hình được mã hóa" bằng FHE, ngay cả nhà phát triển cũng không thể xem xét quá trình ra quyết định của trí tuệ nhân tạo.
Ở mức độ phối hợp. Các Tác nhân giao tiếp sử dụng mã hóa ngưỡng, việc một nút bị tấn công không dẫn đến rò rỉ dữ liệu toàn cục. Thậm chí trong các bài tập diễn tập tấn công chuỗi cung ứng, kẻ tấn công xâm nhập nhiều Tác nhân cũng không thể có được toàn bộ cái nhìn về hoạt động kinh doanh.
Do hạn chế về mặt kỹ thuật, an ninh web3 có thể không liên quan trực tiếp đến phần lớn người dùng, nhưng lại có liên quan gián tiếp đến lợi ích của họ. Trong khu rừng đen tối này, nếu không nỗ lực trang bị vũ khí, sẽ không bao giờ thoát khỏi số phận "cỏ dại".
- uPort được phát hành trên mạng chủ Ethereum vào năm 2017, có thể là dự án danh tính phi tập trung (DID) sớm nhất được triển khai trên mạng chủ.
- Trong lĩnh vực mô hình an ninh không tin tưởng, NKN đã phát hành mạng chủ của mình vào năm 2019.
- Mind Network là dự án FHE đầu tiên được triển khai trên mạng chủ và đã hợp tác với ZAMA, Google, DeepSeek và các đối tác khác.
uPort và NKN dường như là những dự án mà biên tập viên chưa từng nghe nói, có vẻ như các dự án an ninh thực sự không được các nhà đầu cơ quan tâm. Liệu Mind Network có thể thoát khỏi lời nguyền này và trở thành lãnh đạo trong lĩnh vực an ninh, hãy cùng chờ xem.
Tương lai đã đến. Khi trí tuệ nhân tạo tiến gần hơn đến trí thông minh của con người, nó càng cần một hệ thống phòng thủ phi con người. Giá trị của FHE không chỉ nằm ở việc giải quyết các vấn đề hiện tại, mà còn là để mở đường cho kỷ nguyên AGI. Trên con đường gian nan đến AGI này, FHE không phải là một lựa chọn, mà là một nhu cầu sinh tồn.
Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận
Chia sẻ




