人工智慧(AI)已經改變了我們的生活和工作方式。技術正在影響每個領域,從營銷和技術到醫療保健。
AI 愛好者正在努力理解如何利用機器學習(ML)作為基礎來解決世界上最複雜的問題。
ML 是向系統輸入資料以使系統能夠執行任務的過程。現在,這可能聽起來並不新鮮,但 ML 的迷人之處在於,一個系統可以使用它所獲得的資料自主學習任務,甚至在沒有人類明確指令的情況下變得更擅長執行任務,這在 AI 爆發之前是常態。
這就是我們正在走向自動駕駛汽車這樣的事物的原因,這在 AI 出現之前是難以想象的。由 ML 驅動的這些汽車可以'學習'隨時間變得更好的'駕駛員'。
但是,要謹慎。
AI 正在迅速接管直接影響人類生活的任務。自然,人們提出了一些問題:
- AI 是公平的還是存在偏見?
- AI 會侵犯我們的基本人權嗎?
這些討論已經被稱為 AI 倫理 - 識別和解決我們如何使用 AI 而不違揹人類價值觀的實踐。
在這篇部落格中,我們將討論並探討如何就調整 AI 和 ML 的道德指南進行艱難和坦誠的對話。
什麼是 AI 倫理?
道德 AI 密切檢查 AI 如何與人類社會互動和影響人類社會。參與道德 AI 的人討論如何公平地構建 AI 系統 - 具體來說,就是 AI 如何從資料中做出決策,以最大程度地減少任何風險。
為了說明這一點,讓我們以手術為例。
醫療保健 AI 的一個例子可能是提供商培訓一個系統來幫助醫生確定手術等待名單上的患者優先順序。在這種情況下,AI 倫理學家將確保該系統使用適當的指標來確定優先順序(如醫療狀況的嚴重程度),而不是不道德的因素(如優先考慮來自更富裕社群的人)。
此外,倫理學家將確保 AI 使用公平的資料。如果 AI 被給予有偏見的資料來學習,它只會延續有害的stereotypes。
總的來說,道德 AI 的核心是創造有益於社會並最大限度減少危害的系統。
我們不應被技術進步所迷惑,以至於危及社會的某些成員。
為什麼 AI 倫理很重要
道德 AI 透過以下方式保護個人免受傷害。
保護基本權利
企業中的 AI通常處理敏感資料,如個人的財務或生物資訊。
如果沒有實施道德保障措施,這些系統可能會侵犯他們的人權。例如:
- 資料可能被濫用
- 資料可能被出售給惡意實體
- 人們可能遭受未經授權的監視
在這方面,道德 AI 的作用是確保這些系統透明運作。
防止差異化影響
儘管 ML 如此智慧,但從充滿人類偏見的資料中學習可能會產生災難性的後果。這就像放大種族主義、性別歧視等。結果可能會導致:
- 有偏見的貸款決定
- 不公平的招聘做法
- 有缺陷的法律裁決
道德系統設計旨在根除認知和潛意識偏見。
解決存在性和社會風險
AI 被濫用以導致存在危機是一個真正的問題。一個典型的例子是深度造假。
深度造假是指創造高度逼真的虛假媒體。一個惡意行為者可以製造一個名人的深度造假(相似的人),並讓它說任何他們想說的話 - 想想這對受害者和整個社會會造成多大的破壞。
深度造假可能導致:
- 虛假資訊的傳播
- 身份盜竊
基於深度造假的身份欺詐正在急劇上升。(圖片來源。)
這種後果在全球事件(如大選)期間可能會是災難性的。
AI 開發中的關鍵倫理問題
我們提出了關於 AI 使用的重要問題,但我們如何實施 AI 倫理?有幾個問題需要考慮。
誰來決定什麼是正確的?
誰來決定什麼是對還是錯?畢竟,除非有人遵循嚴格的行為準則(如宗教組織中的準則),否則道德仍然是主觀的。
你的對可能是我的錯。
那麼,誰來決定?(誰來決定誰來決定?)
應該是:
- 整個組織?
- 專門的指導小組?
- 政府?
- 開發人員?
- 教皇?
一般來說,最好的方法是由一個多元化的指導小組做出決定,也許持有不同觀點。我們獲得的多樣化輸入越多,做出明智選擇的機會就越大,因為每個群體都可以彌補其他群體在 AI 方面的盲點。
而且,儘管道德可能是主觀的,但有很大一部分是有99.99%的人達成共識的,所以道德困境並不一定每次都很複雜,但我們需要集體決策。
我們如何防止偏見?
AI 系統必須被設計成避免對個人或群體進行歧視。訓練資料中的偏見可能會導致不公平的結果,例如根據人口統計因素拒絕貸款。確保公平性需要多樣化的資料集和嚴格的測試來檢測和糾正偏見。
我們是否保持透明?
人們需要了解 AI 系統如何做出決策。缺乏透明度會造成困惑和信任降低,特別是在醫療保健或刑事司法等關鍵領域。可解釋的 AI 意味著人們可以理解決策背後的原因。
我們是否在保護人們的隱私?
作為透明度的延伸,系統應該明確告知使用者資料的收集、儲存和共享方式 - 鑑於隱私是 AI 中的主要倫理問題。
當出現問題時,誰負責?
需要有一個問責鏈來應對出現的問題。
開發人員、組織或監管機構必須建立問責框架來管理風險並提供錯誤糾正。
AI 推理在多大程度上取代了人類的推理?
人的因素永遠不應從 AI 方程式中剔除。沒有人類監督的 AI 決策可能會造成破壞。
對就業的影響
AI 有可能自動化任務,這可能會在各行各業中取代工人。
公司認為 AI 相關裁員是不可避免的。(圖片來源。)
道德 AI 包括解決這些中斷的策略,如再培訓計劃或創造新的就業機會來減輕經濟影響。
虛假資訊
如前所述,深度造假等 AI 技術可以傳播虛假資訊並操縱輿論。
虛假資訊可能是 AI 最大的挑戰。(圖片來源。)
道德框架必須專注於檢測和預防 AI 的濫用,以保護資訊和民主程序的完整性。
當 AI 出錯時:真實案例研究
鑑於 AI 在過去幾年中出現了具體問題,上述擔憂是有道理的。
有偏見的 AI 招聘
亞馬遜的 AI招聘工具懲罰了包含"women's"等詞語的簡歷,偏向於男性候選人,這是由於歷史招聘資料中的模式。
政府中的演算法歧視
荷蘭兒童福利醜聞是政府應用中演算法偏見的一個明顯例子。一個 AI 系統標記了低收入家庭和雙重國籍者為潛在的騙子,導致了錯誤指控。
為政治利益操縱資料
劍橋分析公司醜聞揭示了 AI 驅動的分析如何被濫用於政治目的。透過利用 Facebook 使用者的資料,該公司影響了2016年美國總統選舉,引發了關於資料隱私和 AI 在塑造政治結果方面的道德邊界的辯論。
開發道德 AI 系統的步驟
正如你所看到的,AI 可以像是一個好的來源一樣具有破壞性。因此,有必要以道德的方式開發 AI。
以下是方法。
建立道德 AI 原則
每個組織都需要一個道德 AI 標準操作程式,概述他們計劃如何負責任地使用 AI。這些應該成為強制性的釋出內容。良好的 AI 倫理優先考慮人權、隱私和民主價值觀。
這個標準操作程式然後就成為組織的指南針。去年的一份報告建議 AI 公司將其30%的資金用於安全和倫理方面的研發。
需要道德 AI 的不僅僅是營利性公司。即使是英國頂尖大學也在制定指導性的道德 AI 原則。