AI đang trở nên phổ biến nhanh chóng trong các hệ thống kinh doanh và hệ sinh thái CNTT, với tốc độ áp dụng và phát triển nhanh hơn bất kỳ ai có thể mong đợi. Ngày nay, dường như ở mọi nơi chúng ta quay lại, các kỹ sư phần mềm đang xây dựng các mô hình tùy chỉnh và tích hợp AI vào các sản phẩm của họ, khi các nhà lãnh đạo doanh nghiệp kết hợp các giải pháp dựa trên AI vào môi trường làm việc của họ.
Tuy nhiên, sự không chắc chắn về cách tốt nhất để triển khai AI đang ngăn cản một số công ty hành động. Chỉ số Gia tốc Kỹ thuật số (DAI) mới nhất của Boston Consulting Group, một cuộc khảo sát toàn cầu với 2.700 lãnh đạo điều hành, cho thấy chỉ 28% nói rằng tổ chức của họ đã sẵn sàng hoàn toàn cho các quy định mới về AI.
Sự không chắc chắn của họ được gia tăng bởi các quy định về AI đang đến nhanh chóng: Đạo luật AI của EU đang trên đường; Argentina đã phát hành một kế hoạch AI dự thảo; Canada có Đạo luật AI và Dữ liệu; Trung Quốc đã ban hành nhiều quy định về AI; và các quốc gia G7 đã khởi động "Quy trình AI Hiroshima". Các hướng dẫn phổ biến, với OECD đang phát triển các nguyên tắc AI, Liên Hợp Quốc đề xuất một cơ quan tư vấn AI mới của Liên Hợp Quốc, và chính quyền Biden đã công bố một kế hoạch cho Tuyên ngôn Quyền AI (mặc dù điều đó có thể thay đổi nhanh chóng với nhiệm kỳ thứ hai của ông Trump).
Luật pháp cũng đang đến ở các bang riêng lẻ của Mỹ và xuất hiện trong nhiều khuôn khổ ngành. Cho đến nay, 21 bang đã ban hành luật để điều chỉnh việc sử dụng AI theo một cách nào đó, bao gồm Đạo luật AI của Colourado, và các điều khoản trong CCPA của California, cùng với 14 bang khác đang chờ phê duyệt luật pháp.
Trong khi đó, có những tiếng nói lớn ủng hộ cả hai phía của cuộc tranh luận về quy định AI. Một cuộc khảo sát mới từ SolarWinds cho thấy 88% chuyên gia CNTT ủng hộ việc tăng cường quy định, và nghiên cứu riêng biệt tiết lộ rằng 91% người dân Anh muốn chính phủ làm nhiều hơn để buộc các doanh nghiệp chịu trách nhiệm về các hệ thống AI của họ. Mặt khác, các nhà lãnh đạo của hơn 50 công ty công nghệ gần đây đã viết một bức thư công khai kêu gọi cải cách khẩn cấp các quy định AI nặng nề của EU, với lập luận rằng chúng làm suy yếu đổi mới.
Đây chắc chắn là một giai đoạn khó khăn cho các nhà lãnh đạo doanh nghiệp và nhà phát triển phần mềm, khi các cơ quan quản lý cố gắng theo kịp công nghệ. Tất nhiên, bạn muốn tận dụng lợi ích mà AI có thể mang lại, bạn có thể làm điều đó theo cách đặt bạn vào vị trí tuân thủ với bất kỳ yêu cầu quy định nào đang đến, và không làm tê liệt việc sử dụng AI của bạn một cách không cần thiết trong khi các đối thủ cạnh tranh của bạn đang tiến lên trước.
Chúng tôi không có quả cầu pha lê, vì vậy chúng tôi không thể dự đoán tương lai. Nhưng chúng tôi có thể chia sẻ một số thực hành tốt nhất để thiết lập các hệ thống và quy trình sẽ chuẩn bị nền tảng cho việc tuân thủ các quy định về AI.
Lập bản đồ việc sử dụng AI trong hệ sinh thái rộng hơn của bạn
Bạn không thể quản lý việc sử dụng AI của nhóm của mình trừ khi bạn biết về nó, nhưng điều đó một mình cũng có thể là một thách thức đáng kể. Bóng ma CNTT đã là nỗi ám ảnh của các nhóm bảo mật: Nhân viên đăng ký các công cụ SaaS mà không có sự hiểu biết của các bộ phận CNTT, để lại một số lượng không xác định các giải pháp và nền tảng có quyền truy cập vào dữ liệu và/hoặc hệ thống kinh doanh.
Bây giờ các nhóm bảo mật cũng phải đối mặt với bóng ma AI. Nhiều ứng dụng, trò chuyện và các công cụ khác kết hợp AI, học máy (ML) hoặc lập trình ngôn ngữ tự nhiên (NLP), mà không nhất thiết các giải pháp như vậy phải là các giải pháp AI rõ ràng. Khi nhân viên đăng nhập vào các giải pháp này mà không có sự phê duyệt chính thức, họ đưa AI vào hệ thống của bạn mà không có sự hiểu biết của bạn.
Như chuyên gia về quyền riêng tư dữ liệu của Opice Blum Henrique Fabretti Moraes đã giải thích, "Lập bản đồ các công cụ đang được sử dụng - hoặc những công cụ dự định sử dụng - là rất quan trọng để hiểu và điều chỉnh các chính sách sử dụng chấp nhận được và các biện pháp giảm thiểu tiềm năng để giảm các rủi ro liên quan đến việc sử dụng chúng."
Một số quy định coi bạn chịu trách nhiệm về việc sử dụng AI của nhà cung cấp. Để kiểm soát hoàn toàn tình hình, bạn cần lập bản đồ tất cả AI trong môi trường của bạn và các tổ chức đối tác của bạn. Trong trường hợp này, sử dụng một công cụ như Harmonic có thể là công cụ quan trọng để phát hiện việc sử dụng AI trên toàn chuỗi cung ứng.
Xác minh quản trị dữ liệu
Quyền riêng tư và bảo mật dữ liệu là mối quan tâm cốt lõi đối với tất cả các quy định về AI, cả những quy định đã có và những quy định sắp được phê duyệt.
Việc sử dụng AI của bạn đã cần phải tuân thủ các luật về quyền riêng tư hiện có như GDPR và CCPR, yêu cầu bạn biết dữ liệu nào mà AI của bạn có thể truy cập và nó làm gì với dữ liệu đó, và để bạn chứng minh các biện pháp bảo vệ để bảo vệ dữ liệu mà AI sử dụng.
Để đảm bảo tuân thủ, bạn cần đưa ra các quy tắc quản trị dữ liệu vững chắc trong tổ chức của mình, được quản lý bởi một nhóm được xác định, và được hỗ trợ bởi các cuộc kiểm toán định kỳ. Các chính sách của bạn nên bao gồm việc thẩm định cẩn trọng để đánh giá bảo mật dữ liệu và nguồn gốc của tất cả các công cụ của bạn, bao gồm những công cụ sử dụng AI, để xác định các lĩnh vực có khả năng bị thiên lệch và rủi ro về quyền riêng tư.
"Các tổ chức có trách nhiệm thực hiện các biện pháp chủ động bằng cách tăng cường vệ sinh dữ liệu, thực thi đạo đức AI mạnh mẽ và tập hợp đội ngũ đúng để lãnh đạo các nỗ lực này," Rob Johnson, Phó Chủ tịch và Trưởng bộ phận Kỹ thuật Giải pháp Toàn cầu tại SolarWinds cho biết. "Tư thế chủ động này không chỉ giúp tuân thủ với các quy định đang phát triển mà còn tối đa hóa tiềm năng của AI."
Thiết lập giám sát liên tục cho các hệ thống AI của bạn
Giám sát hiệu quả là rất quan trọng để quản lý bất kỳ lĩnh vực nào của doanh nghiệp của bạn. Khi nói đến AI, cũng như các lĩnh vực bảo mật mạng khác, bạn cần giám sát liên tục để đảm bảo rằng bạn biết các công cụ AI của mình đang làm gì, chúng đang hoạt động như thế nào và chúng đang truy cập dữ liệu gì. Bạn cũng cần kiểm tra chúng thường xuyên để theo dõi việc sử dụng AI trong tổ chức của bạn.
"Ý tưởng sử dụng AI để giám sát và điều chỉnh các hệ thống AI khác là một bước phát triển quan trọng để đảm bảo rằng các hệ thống này vừa hiệu quả vừa đạo đức," Cache Merrill, người sáng lập công ty phát triển phần mềm Zibtek cho biết. "Hiện tại, các kỹ thuật như các mô hình học máy dự đoán hành vi của các mô hình khác (meta-model) được sử dụng để giám sát AI. Các hệ thống phân tích các mẫu và đầu ra của AI hoạt động để phát hiện các bất thường, thiên vị hoặc các lỗi tiềm ẩn trước khi chúng trở nên nghiêm trọng."
Nền tảng tự động hóa Cyber GRC Cypago cho phép bạn chạy giám sát liên tục và thu thập bằng chứng kiểm toán quy định trong nền tảng. Tự động hóa không mã cho phép bạn thiết lập các khả năng quy trình tùy chỉnh mà không cần chuyên môn kỹ thuật, vì vậy các cảnh báo và hành động giảm thiểu được kích hoạt ngay lập tức theo các điều kiện và ngưỡng bạn đã thiết lập.
Cypago có thể kết nối với các nền tảng kỹ