Giao dịch tự động đòi hỏi các biện pháp kiểm soát có thể xác minh | Ý kiến

Bài viết này được dịch máy
Xem bản gốc

Tiết lộ: Quan điểm và ý kiến ​​nêu ở đây hoàn toàn thuộc về tác giả và không đại diện cho quan điểm và ý kiến ​​của ban biên tập crypto.news.

Ranh giới giữa "tự chủ" và "tự động hóa" đang dần xóa nhòa trên thị trường hiện đại. Các đại lý có thể đặt lệnh, thương lượng phí, đọc hồ sơ và tái cân bằng danh mục đầu tư của công ty đã thoát khỏi "khu vực thử nghiệm" và trực tiếp làm việc với quỹ của khách hàng. Mặc dù điều này nghe có vẻ như một chuẩn mực mới về hiệu quả, nhưng nó cũng mở ra một loại rủi ro hoàn toàn mới.

Bản tóm tắt
  • Các tác nhân AI tự động hiện đang hoạt động ngoài môi trường thử nghiệm, đưa ra các quyết định tài chính trên thị trường thực tế — một bước nhảy vọt về hiệu quả nhưng cũng mở ra cánh cửa cho các rủi ro hệ thống và khoảng cách trách nhiệm pháp lý.
  • Quản trị và kiểm soát AI hiện tại đã lỗi thời, khi các cơ quan quản lý như FSB, IOSCO và các ngân hàng trung ương cảnh báo rằng hành vi thiếu minh bạch, tập trung và sự phụ thuộc chung có thể gây ra sự bất ổn cho thị trường.
  • An toàn phải được thiết kế chứ không phải tuyên bố — thông qua danh tính có thể chứng minh, dữ liệu đầu vào đã được xác minh, dấu vết kiểm toán không thể thay đổi và các ràng buộc đạo đức được mã hóa giúp tính toán được trách nhiệm và xác minh được sự tuân thủ.

Ngành công nghiệp này vẫn đang hành xử như thể ý định và trách nhiệm pháp lý có thể được tách biệt bằng một tuyên bố miễn trừ trách nhiệm, nhưng điều này hoàn toàn sai lầm. Một khi phần mềm có khả năng chuyển tiền hoặc công bố giá, gánh nặng chứng minh sẽ đảo ngược, và các bằng chứng đầu vào, ràng buộc hành động và dấu vết kiểm toán không thể thay đổi trở nên quan trọng, thực tế là không thể thương lượng.

Bạn cũng có thể thích: Sự chuyển hướng tập trung hóa: Web3 có nguy cơ mất đi linh hồn | Ý kiến

Nếu không có những yêu cầu như vậy, vòng phản hồi do một tác nhân tự động thiết lập sẽ nhanh chóng trở thành một tai nạn diễn biến nhanh chóng khiến các cơ quan quản lý phải e ngại. Các ngân hàng trung ương và những tổ chức đặt ra tiêu chuẩn cho thị trường đang đưa ra cùng một thông điệp cảnh báo ở khắp mọi nơi: các biện pháp kiểm soát AI hiện tại không được xây dựng cho các tác nhân ngày nay.

Sự tiến bộ của AI này khuếch đại rất nhiều rủi ro trên nhiều phương diện dễ bị tổn thương, nhưng cách khắc phục thực sự đơn giản nếu thiết lập được một tiêu chuẩn đạo đức: giao dịch tự động chỉ được chấp nhận khi được chứng minh là an toàn thông qua quá trình xây dựng.

Vòng phản hồi cần phải lo sợ

Cách thức thị trường được xây dựng tạo ra một hệ thống được khuyến khích, nơi tốc độ và tính đồng nhất tồn tại, và các tác nhân AI sẽ thúc đẩy cả hai yếu tố này. Nếu nhiều công ty triển khai các tác nhân được đào tạo tương tự trên cùng một tín hiệu, thì việc giảm thiểu rủi ro theo chu kỳ và các giao dịch tương quan sẽ trở thành cơ sở cho mọi biến động trên thị trường.

Ủy ban Ổn định Tài chính (FSB) đã cảnh báo tình trạng tập trung, hành vi mờ ám và sự phụ thuộc vào mô hình của bên thứ ba là những rủi ro có thể gây bất ổn thị trường. FSB cũng cảnh báo rằng các cơ quan giám sát thị trường này phải chủ động giám sát thay vì thụ động quan sát, đảm bảo không xuất hiện lỗ hổng và không xảy ra thảm họa.

Ngay cả báo cáo của Ngân hàng Anh hồi tháng 4 cũng đã nhắc lại rủi ro mà việc áp dụng AI rộng rãi có thể gặp phải nếu không có các biện pháp bảo vệ phù hợp, đặc biệt là khi các thị trường này đang chịu áp lực. Tất cả các dấu hiệu đều cho thấy kỹ thuật tốt hơn được tích hợp vào các mô hình, dữ liệu và định tuyến thực thi trước khi các vị thế từ khắp nơi trên web cùng nhau sụp đổ.

Các sàn giao dịch trực tiếp với số lượng lớn tác nhân AI hoạt động không thể được quản lý bằng các tài liệu đạo đức chung chung; các quy tắc phải được biên soạn thành các điều khiển thời gian chạy. Ai, cái gì, cái nào và khi nào phải được tích hợp vào mã để đảm bảo không có lỗ hổng và đạo đức không bị bỏ qua.

Cuộc tham vấn của Tổ chức Ủy ban Chứng khoán Quốc tế (IOSCO) cũng bày tỏ lo ngại vào tháng 3, chỉ ra những lỗ hổng trong quản trị và kêu gọi các biện pháp kiểm soát có thể được kiểm toán toàn diện. Nếu không hiểu rõ về tình trạng tập trung nhà cung cấp, hành vi chưa được kiểm chứng dưới áp lực và giới hạn khả năng giải thích, rủi ro sẽ ngày càng phức tạp.

Nguồn gốc dữ liệu cũng quan trọng như chính sách ở đây. Các tác nhân chỉ nên tiếp nhận dữ liệu thị trường và tin tức đã ký; họ nên ràng buộc mỗi quyết định với một chính sách đã được lập phiên bản, và một hồ sơ niêm phong về quyết định đó nên được lưu trữ an toàn on-chain . Trong trạng thái mới và đang phát triển này, trách nhiệm giải trình là tất cả, vì vậy hãy làm cho nó có thể tính toán được để đảm bảo trách nhiệm giải trình được quy cho các tác nhân AI.

Đạo đức trong thực hành

"An toàn có thể chứng minh bằng xây dựng" trông như thế nào trên thực tế? Nó bắt đầu với danh tính có phạm vi, trong đó mỗi tác nhân hoạt động đằng sau một tài khoản được đặt tên, có thể chứng thực với các giới hạn rõ ràng dựa trên vai trò, xác định những gì tác nhân có thể truy cập, thay đổi hoặc thực thi. Quyền không được mặc định; chúng được cấp và giám sát một cách rõ ràng. Bất kỳ sửa đổi nào đối với các ranh giới đó đều yêu cầu sự chấp thuận của nhiều bên, để lại dấu vết mật mã có thể được xác minh độc lập. Trong mô hình này, trách nhiệm giải trình không phải là một yêu cầu chính sách; đó là một thuộc tính kiến ​​trúc được nhúng ngay từ ngày đầu.

Lớp tiếp theo là khả năng chấp nhận đầu vào, đảm bảo rằng chỉ dữ liệu đã ký, các công cụ được liệt kê trong danh sách trắng và nghiên cứu đã được xác thực mới được đưa vào không gian quyết định của hệ thống. Mọi tập dữ liệu, lời nhắc hoặc sự phụ thuộc phải có thể truy xuất nguồn gốc đến một nguồn đã biết và được xác thực. Điều này làm giảm đáng kể nguy cơ tiếp xúc với thông tin sai lệch, đầu độc mô hình và chèn lời nhắc. Khi tính toàn vẹn đầu vào được thực thi ở cấp độ giao thức, toàn bộ hệ thống sẽ tự động kế thừa sự tin tưởng đó, khiến an toàn không chỉ là một khát vọng mà còn là một kết quả có thể dự đoán được.

Sau đó là quyết định niêm phong: thời điểm mọi hành động hoặc đầu ra được hoàn tất. Mỗi hành động hoặc đầu ra phải mang dấu thời gian, chữ ký số và bản ghi phiên bản, ràng buộc chúng với các đầu vào, chính sách, cấu hình mô hình và biện pháp bảo vệ cơ bản. Kết quả là một chuỗi bằng chứng hoàn chỉnh, bất biến, có thể kiểm tra, phát lại và chịu trách nhiệm, biến việc xem xét hậu sự thành phân tích có cấu trúc thay vì suy đoán.

Đây chính là cách đạo đức trở thành kỹ thuật, nơi bằng chứng tuân thủ nằm trong chính hệ thống. Mỗi đầu vào và đầu ra phải đi kèm với một biên lai có thể xác minh, cho thấy người đại diện đã dựa vào những gì và cách thức họ đi đến kết luận. Các công ty tích hợp các biện pháp kiểm soát này sớm sẽ vượt qua các đợt đánh giá mua sắm, rủi ro và tuân thủ nhanh hơn, đồng thời xây dựng niềm tin của người tiêu dùng từ rất lâu trước khi niềm tin đó bị thử thách. Những công ty không làm được điều này sẽ phải đối mặt với trách nhiệm giải trình giữa lúc khủng hoảng, dưới áp lực và không có các biện pháp bảo vệ mà họ đáng lẽ phải thiết kế sẵn.

Quy tắc rất đơn giản: xây dựng các tác nhân chứng minh danh tính, xác minh mọi dữ liệu đầu vào, ghi lại mọi quyết định một cách bất biến và dừng lại khi có lệnh, không sai sót. Bất cứ điều gì ít hơn thế đều không còn đáp ứng được Threshold tham gia có trách nhiệm trong xã hội số ngày nay, hay nền kinh tế tự chủ của tương lai, nơi bằng chứng sẽ thay thế niềm tin làm nền tảng của tính hợp pháp.

Đọc thêm: Đạo luật GENIUS đi ngược lại bản chất của tiền điện tử | Ý kiến
Selwyn Zhou (JOE)

Selwyn Zhou (JOE) là đồng sáng lập DeAgentAI, sở hữu kinh nghiệm dày dặn với tư cách là Tiến sĩ AI, cựu Nhà khoa học Dữ liệu SAP và nhà đầu tư mạo hiểm hàng đầu. Trước khi thành lập công ty web3, anh từng là nhà đầu tư tại các quỹ đầu tư mạo hiểm hàng đầu và là nhà đầu tư giai đoạn đầu vào một số kỳ lân AI, dẫn dắt các khoản đầu tư vào các công ty như Shein (định giá 60 tỷ USD), Pingpong (công ty AI payfi trị giá 4 tỷ USD), Black Sesame Technology niêm yết công khai (HKG: 2533), và Enflame (công ty chip AI trị giá 4 tỷ USD).

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
64
Thêm vào Yêu thích
14
Bình luận