人工智慧正在迅速滲透到各種商業系統和IT生態系統中,其採用和發展的速度超出了任何人的預期。如今,無論我們轉向何處,軟體工程師都在構建定製模型並將人工智慧整合到他們的產品中,而企業領導者也在他們的工作環境中採用基於人工智慧的解決方案。
然而,對於如何最佳實施人工智慧的不確定性,阻礙了一些公司採取行動。波士頓諮詢集團最新的數字加速指數(DAI)全球調查2,700名高管發現,只有28%的受訪者表示他們的組織已完全準備好應對新的人工智慧法規。
他們的不確定性加劇是由於人工智慧法規層出不窮:歐盟人工智慧法案正在制定中;阿根廷釋出了人工智慧計劃草案;加拿大有人工智慧和資料法案;中國已頒佈了一系列人工智慧法規;七國集團啟動了"廣島人工智慧程序"。各種指南層出不窮,經合組織制定了人工智慧原則,聯合國提議成立新的人工智慧諮詢機構,拜登政府釋出了人工智慧權利法案的藍圖(儘管這可能會在第二個特朗普政府下迅速改變)。
個別美國州也在出臺相關法律,並出現在許多行業框架中。迄今為止,已有21個州頒佈了法律來規範人工智慧的使用,包括科羅拉多州的人工智慧法案,以及加州CCPA中的條款,另有14個州正在等待批准相關立法。
與此同時,人工智慧監管辯論的兩個陣營都有強烈的聲音。SolarWinds的一項新調查顯示,88%的IT專業人士主張實施更嚴格的監管,另一項獨立研究顯示,91%的英國人希望政府採取更多措施,讓企業為其人工智慧系統負責。另一方面,50多家科技公司的領導人最近發表了一封公開信,呼籲緊急改革歐盟繁瑣的人工智慧法規,認為這些法規阻礙了創新。
對於企業領導者和軟體開發人員來說,這確實是一個棘手的時期,因為監管機構正在努力趕上技術的發展。當然,你想利用人工智慧帶來的好處,但你可以以一種為即將到來的任何監管要求做好準備的方式來實現,而不會因為你的競爭對手迅速前進而使你的人工智慧使用受到不必要的限制。
我們沒有水晶球,無法預測未來。但我們可以分享一些最佳實踐,為人工智慧監管合規性做好準備。
繪製您更廣泛生態系統中的人工智慧使用情況
除非您瞭解員工的人工智慧使用情況,否則無法管理團隊的人工智慧使用。但這本身就是一個重大挑戰。"影子IT"已經成為網路安全團隊的禍害:員工在IT部門不知情的情況下注冊使用SaaS工具,導致有未知數量的解決方案和平臺可以訪問業務資料和/或系統。
現在,安全團隊還必須應對"影子人工智慧"。許多應用程式、聊天機器人和其他工具都包含人工智慧、機器學習(ML)或自然語言程式設計(NLP),但這些解決方案並不一定是明顯的人工智慧解決方案。當員工在未經正式批准的情況下登入這些解決方案時,他們就會將人工智慧引入您的系統,而您並不知情。
正如Opice Blum的資料隱私專家Henrique Fabretti Moraes所解釋的,"對映正在使用或打算使用的工具是瞭解和微調可接受使用政策以及降低其使用風險的潛在緩解措施的關鍵。"
某些法規要求您對供應商使用的人工智慧負責。為了完全控制局勢,您需要對映您和您的合作伙伴組織環境中的所有人工智慧。在這方面,使用像Harmonic這樣的工具可以幫助您檢測整個供應鏈中的人工智慧使用情況。
驗證資料治理
資料隱私和安全是所有人工智慧法規的核心關切,無論是已經生效的還是即將批准的。
您的人工智慧使用已經需要遵守現有的隱私法,如GDPR和CCPR,這要求您知道您的人工智慧可以訪問什麼資料以及它如何處理這些資料,並且您需要證明有保護人工智慧使用資料的防護措施。
為了確保合規性,您需要在組織內部建立健全的資料治理規則,由一個明確的團隊管理,並透過定期審計得到支援。您的政策應包括盡職調查,以評估所有工具(包括使用人工智慧的工具)的資料安全性和資料來源,以識別潛在的偏差和隱私風險。
"組織有責任採取主動措施,透過增強資料衛生、執行強大的人工智慧倫理和組建合適的團隊來領導這些工作,"SolarWinds解決方案工程副總裁兼全球負責人Rob Johnson表示。"這種主動姿態不僅有助於遵守不斷發展的法規,而且還能最大限度地發揮人工智慧的潛力。"
為您的人工智慧系統建立持續監控
有效的監控對於管理您業務的任何領域都至關重要。對於人工智慧來說,與網路安全的其他領域一樣,您需要持續監控,以確保瞭解您的人工智慧工具的行為方式、執行情況以及它們訪問的資料。您還需要定期稽核它們,以保持對組織內人工智慧使用情況的掌握。
"使用人工智慧來監控和調節其他人工智慧系統的想法是確保這些系統既有效又合乎道德的關鍵發展,"軟體開發公司Zibtek的創始人Cache Merrill表示。"目前,採用預測其他模型行為的機器學習模型(元模型)的技術被用來監控人工智慧。這些系統分析運營中人工智慧的模式和輸出,以在問題變得嚴重之前檢測異常、偏差或潛在故障。"
網路GRC自動化平臺Cypago可以讓您在後臺執行持續監控和監管審計證據收集。無程式碼自動化允許您在沒有技術專長的情況下設定自定義工作流功能,因此根據您設定的控制和閾值,警報和緩解措施會立即觸發。
Cypago可以連線您的各種數字平臺,與幾乎任何監管框架同步,並將所有相關控制轉換為自動化工作流。一旦您設定好整合和監管框架,在該平臺上建立自定義工作流就像上傳電子表格一樣簡單。
將風險評估作為您的指導方針
瞭解您的人工智慧工具屬於高風險、中風險還是低風險,這對於遵守外部法規、內部業務風險管理以及改善軟體開發工作流程都至關重要。高風險用例將需要更多的保障措施和評估,然後才能部署。
"儘管人工智慧風險管理可以在專案開發的任何階段開始,"來自Holistic AI的人工智慧政策專家Ayesha Gulley表示,"但儘早實施風險管理框架可以幫助企業增加信任並有信心地進行擴充套件。"
當您瞭解不同人工智慧解決方案帶來的風險時,您就可以決定授予它們對資料和關鍵業務系統的訪問許可權。
就法規而言,歐盟人工智慧法案已經區分了不同風險等級的人工智慧系統,而NIST建議根據可信度、社會影響以及人與系統的互動方式來評估人工智慧工具。
主動建立人工智慧倫理治理
您無需等待人工智慧法規出臺就可以建立合乎道德的人工智慧政策。分配負責人工智慧倫理考量的責任,組建團隊,並制定包括網路安全、模型驗證、透明度、資料隱私和事故報告在內的合乎道德的人工智慧使用政策。
NIST的人工智慧風險管理框架和ISO/IEC 42001等現有框架都提供了您可以納入政策的人工智慧最佳實踐。
"監管人工智慧既有必要性,也是不可避免的,以確保其得到道德和負責任的使用。儘管這可能會帶來複雜性,但它並不意味著會阻礙創新,"Cypago的執行長兼聯合創始人Arik Solomon表示。"透過將合規性納入內部框架,並制定與監管原則一致的政策和流程,受監管行業的公司可以繼續有效地發展和創新。"
能夠展示主動採取合乎道德的人工智慧方法的公司將更有可能達到合規性。人工智慧法規旨在確保透明度和資料隱私,因此如果您的目標與這些原則一致,您就更有可能擁有符合未來監管要求的政策。FairNow平臺可以幫助您完成這一過程,提供用於管理人工智慧治理、偏差檢查和風險評估的工具。
不要讓對人工智慧監管的擔憂阻礙您前進
人工智慧法規仍在不斷發展和出臺,給企業和開發人員帶來了不確定性。但不要讓這種流動的局勢阻止您從人工智慧中獲益。透過主動實施與資料隱私、透明度和合乎道德使用原則相一致的政策、工作流程和工具,您可以為人工智慧法規做好準備,並利用人工智慧帶來的各種可能性。
本文最初發表於人工智慧新聞。