Ủy ban Nghị viện Anh cảnh báo về những lỗ hổng trong việc giám sát trí tuệ nhân tạo, có thể gây nguy hại cho hệ thống tài chính.

avatar
Decrypt
01-20
Bài viết này được dịch máy
Xem bản gốc

Một ủy ban quốc hội Anh đã cảnh báo rằng việc ứng dụng nhanh chóng trí tuệ nhân tạo trong lĩnh vực dịch vụ tài chính đang vượt quá khả năng quản lý rủi ro đối với người tiêu dùng và hệ thống tài chính của các cơ quan quản lý, làm dấy lên lo ngại về trách nhiệm giải trình, giám sát và sự phụ thuộc vào các nhà cung cấp công nghệ lớn.

Trong báo cáo được Hạ viện yêu cầu công bố hồi đầu tháng này, Ủy ban Treasury cho biết các cơ quan quản lý của Anh, bao gồm Cơ quan Quản lý Tài chính (FCA), Ngân hàng Anh và Treasury, đang dựa quá nhiều vào các quy định hiện hành khi việc sử dụng trí tuệ nhân tạo (AI) lan rộng trong các ngân hàng, công ty bảo hiểm và công ty thanh toán.

“Bằng cách áp dụng phương pháp chờ đợi và quan sát đối với việc ứng dụng trí tuệ nhân tạo trong dịch vụ tài chính, ba cơ quan quản lý đang khiến người tiêu dùng và hệ thống tài chính đối mặt với những nguy cơ nghiêm trọng”, ủy ban viết.

Ủy ban cho biết, trí tuệ nhân tạo (AI) đã được tích hợp vào các chức năng tài chính cốt lõi, trong khi việc giám sát chưa theo kịp quy mô hoặc tính thiếu minh bạch của các hệ thống đó.

Những phát hiện này xuất hiện trong bối cảnh chính phủ Anh đang thúc đẩy việc ứng dụng trí tuệ nhân tạo (AI) trên toàn nền kinh tế, với việc Thủ tướng Keir Starmer cam kết khoảng một năm trước sẽ "thúc đẩy mạnh mẽ" tương lai của nước Anh thông qua công nghệ này.

Trong khi ghi nhận rằng “trí tuệ nhân tạo và những phát triển công nghệ rộng hơn có thể mang lại lợi ích đáng kể cho người tiêu dùng”, ủy ban cho biết các cơ quan quản lý đã không cung cấp cho các công ty những kỳ vọng rõ ràng về cách áp dụng các quy định hiện hành trong thực tế.

Ủy ban đã kêu gọi Cơ quan Quản lý Tài chính (FCA) công bố hướng dẫn toàn diện vào cuối năm 2026 về cách thức áp dụng các quy tắc bảo vệ người tiêu dùng đối với việc sử dụng trí tuệ nhân tạo (AI) và cách phân bổ trách nhiệm cho các giám đốc điều hành cấp cao theo các quy tắc trách nhiệm hiện hành khi hệ thống AI gây ra thiệt hại.

Biên bản chính thức dự kiến ​​sẽ được công bố vào cuối tuần này.

“Phải công nhận rằng, Vương quốc Anh đã đi tiên phong trong lĩnh vực công nghệ tài chính – chương trình thử nghiệm của FCA năm 2015 là chương trình đầu tiên thuộc loại này, và 57 quốc gia đã sao chép mô hình đó kể từ đó. London vẫn là một cường quốc trong lĩnh vực công nghệ tài chính bất chấp Brexit,” Dermot McGrath, đồng sáng lập của ZenGen Labs, một công ty tư vấn chiến lược và tăng trưởng có trụ sở tại Thượng Hải, chia sẻ với Decrypt .

Tuy nhiên, trong khi phương pháp đó "có hiệu quả vì các cơ quan quản lý có thể thấy các công ty đang làm gì và can thiệp khi cần thiết", thì trí tuệ nhân tạo "phá vỡ hoàn toàn mô hình đó", McGrath nói.

Công nghệ này đã được sử dụng rộng rãi trong lĩnh vực tài chính của Vương quốc Anh. Tuy nhiên, nhiều công ty vẫn thiếu hiểu biết rõ ràng về chính các hệ thống mà họ đang dựa vào, McGrath giải thích. Điều này khiến các cơ quan quản lý và các công ty phải suy luận xem các quy tắc công bằng lâu đời được áp dụng như thế nào đối với các quyết định thiếu minh bạch và dựa trên mô hình.

McGrath lập luận rằng mối lo ngại lớn hơn là các quy định không rõ ràng có thể cản trở các công ty cố gắng triển khai AI đến mức "sự mơ hồ về quy định kìm hãm các công ty đang thực hiện việc này một cách cẩn trọng."

McGrath giải thích rằng trách nhiệm giải trình của AI trở nên phức tạp hơn khi các mô hình được xây dựng bởi các công ty công nghệ, được bên thứ ba điều chỉnh và được các ngân hàng sử dụng, khiến các nhà quản lý phải chịu trách nhiệm về những quyết định mà họ khó có thể giải thích.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
82
Thêm vào Yêu thích
12
Bình luận