自2018年以來一直從事AI工作,我正在關注其緩慢但穩定的發展,以及無序的跟風現象,這令我頗感興趣。如今,人們對機器人接管的最初恐懼已有所緩解,取而代之的是關於將AI融入日常商業結構的倫理問題的討論。
將會出現一系列新的角色,負責處理倫理、治理和合規問題,這些角色將為組織帶來巨大的價值和重要性。
其中最為關鍵的可能是AI倫理專家,他們將被要求確保代理AI系統符合公平性和透明度等倫理標準。這一角色將涉及使用專門的工具和框架,有效地解決倫理問題,避免潛在的法律或聲譽風險。為確保透明度和負責任的倫理,人工監督至關重要,以維持資料驅動決策、智慧和直覺之間的微妙平衡。
此外,代理AI工作流設計師、AI互動和整合設計師等角色,將確保AI在生態系統中無縫整合,並優先考慮透明度、倫理因素和適應性。還需要設定AI監督員,監控整個代理代理和裁決者的堆疊,即AI決策要素。
對於任何開始將AI融入組織並希望確保負責任地引入和維護該技術的人來說,我可以推薦諮詢聯合國的原則。這10項原則是聯合國在2022年針對AI日益普及引發的倫理挑戰而制定的。
那麼,這十項原則是什麼,我們如何將其作為框架?
首先,不傷害
作為一項具有自主性的技術,第一項原則著眼於以不會對社會、文化、經濟、自然或政治環境產生負面影響的方式部署AI系統。AI生命週期應被設計為尊重和保護人權和自由。應對系統進行監控,以確保維持這種情況,不會造成長期損害。
避免為AI而使用AI
確保使用AI是合理的、適當的,且不過度。人們很容易過於熱衷於應用這項令人興奮的技術,但它需要與人類需求和目標保持平衡,決不能以犧牲人的尊嚴為代價。
安全和安保
應在AI系統的整個生命週期內以及持續不斷地識別、解決和緩解安全和安保風險。應將與任何其他業務領域相同的健康和安全框架應用於AI。
平等
同樣,部署AI應旨在確保利益、風險和成本的平等和公正分配,並防止任何形式的偏見、欺騙、歧視和汙名化。
可持續性
AI應旨在促進環境、經濟和社會的可持續發展。應持續評估以解決負面影響,包括對後代的影響。
資料隱私、資料保護和資料治理
應建立或加強適當的資料保護框架和資料治理機制,以確保個人的隱私和權利得到維護,符合有關資料完整性和個人資料保護的法律指南。任何AI系統都不應侵犯他人的隱私。
人工監督
應保證人工監督,以確保使用AI的結果是公平和正義的。應採用以人為中心的設計實踐,並賦予人類權力,隨時干預並決定如何何時使用AI,以及推翻AI做出的任何決定。聯合國甚至建議,任何涉及生死的決定都不應由AI做出。
透明度和可解釋性
在我看來,這是平等原則的一部分。使用AI的每個人都應完全瞭解他們使用的系統、系統的決策過程及其後果。應告知個人,當涉及其權利、自由或利益的決定由人工智慧做出時,並且最重要的是,解釋應以一種使人理解的方式進行。
責任和問責
這是吹哨人原則,涵蓋審計和盡職調查,以及保護吹哨人的措施,以確保對AI決策和使用負責和問責。應建立治理,規定人類對任何AI決策的倫理和法律責任。任何造成傷害的決定都應進行調查並採取行動。
包容性和參與性
與任何其他業務領域一樣,在設計、部署和使用人工智慧系統時,應採取包容、跨學科和參與式的方法,其中也包括性別平等。應告知利益相關方和任何受影響的社群,並徵求他們的意見,告知他們任何利益和潛在風險。
圍繞這些核心支柱構建您的AI整合,應能讓您放心,您進入AI整合的道路是建立在倫理和堅實的基礎之上的。
照片由Immo Wegmann在Unsplash拍攝
想從行業領導者那裡瞭解更多關於AI和大資料的知識嗎?檢視在阿姆斯特丹、加州和倫敦舉辦的AI & Big Data Expo。這個全面的活動與其他領先的活動如Intelligent Automation Conference、BlockX、Digital Transformation Week和Cyber Security & Cloud Expo同時舉辦。
在這裡探索其他即將到來的企業技術活動和網路研討會here。
本文最初發表於AI News。





