連結規範與良知:馬裡蘭大學對道德和包容性人工智慧的追求

avatar
AI News
10-08
本文為機器翻譯
展示原文

隨著人工智慧系統日益滲透到我們日常生活中的關鍵決策過程中,將道德框架融入人工智慧開發正在成為研究重點。在馬裡蘭大學 (UMD), 跨學科團隊致力於解決規範推理、機器學習演算法和社會技術系統之間複雜的相互作用。

在最近接受《人工智慧新聞》採訪時,博士後研究員Ilaria CanavottoVaishnav Kameswaran結合了哲學、電腦科學和人機互動方面的專業知識,以應對人工智慧倫理方面的緊迫挑戰。他們的工作涵蓋了將道德原則嵌入人工智慧架構的理論基礎以及人工智慧部署在就業等高風險領域的實際影響。

對人工智慧系統的規範理解

Ilaria Canavotto 是 UMD 以價值為中心的人工智慧 (VCAI) 計劃的研究員,隸屬於高級電腦研究所和哲學系。她正在解決一個基本問題:我們如何為人工智慧系統注入規範性理解?隨著人工智慧越來越多地影響影響人權和福祉的決策,系統必須理解道德和法律規範。

“我研究的問題是,我們如何將這種訊息,這種對世界的規範性理解,輸入到一台可以是機器人、聊天機器人或類似的機器中?”卡納沃託說。

她的研究結合了兩種方法:

自上而下的方法:這種傳統方法涉及將規則和規範明確地編程到系統中。然而,卡納沃托指出,「不可能那麼容易地把它們寫下來。總是會有新的情況出現。

自下而上的方法:一種使用機器學習從資料中提取規則的新方法。雖然更靈活,但缺乏透明度:「這種方法的問題是我們並不真正知道系統學到了什麼,而且很難解釋其決定,」卡納沃托指出。

卡納沃托和她的同事傑夫·霍蒂和埃里克·帕奎特正在開發一種混合方法,以結合兩種方法的優點。他們的目標是創建人工智慧系統,能夠從數據中學習規則,同時維持基於法律和規範推理的可解釋的決策過程。

「[我們的]方法[……]是基於一個稱為人工智慧和法律的領域。因此,在這個領域,他們開發了從數據中提取資訊的演算法。因此,我們希望推廣其中一些演算法,然後擁有一個可以更普遍地提取基於法律推理和規範推理的資訊的系統,」她解釋道。

人工智慧對招募實踐和殘疾人包容性的影響

Canavotto 專注於理論基礎,而隸屬於馬裡蘭大學 NSF 值得信賴人工智慧和法律與社會研究所的 Vaishnav Kameswaran 則研究人工智慧的現實世界影響,特別是它對殘疾人的影響。

Kameswaran 的研究調查了人工智慧在招募流程中的使用,揭示了系統如何無意中歧視殘疾候選人。他解釋說,“我們一直在努力……稍微打開黑匣子,嘗試了解這些演算法在後端的作用,以及它們如何開始評估候選人。”

他的研究結果表明,許多人工智慧驅動的招募平台嚴重依賴規範的行為線索(例如眼神交流和臉部表情)來評估候選人。這種方法可能會對患有特定殘疾的個人造成極大的不利影響。例如,視力受損的候選人可能難以保持目光接觸,人工智慧系統通常將這種訊號解釋為缺乏參與度。

卡梅斯瓦蘭警告說:“通過關注其中一些品質並根據這些品質評估候選人,這些平台往往會加劇現有的社會不平等。”他認為,這種趨勢可能會進一步使殘疾人士在勞動力中邊緣化,而這個群體已經面臨巨大的就業挑戰。

更廣泛的道德景觀

兩位研究人員都強調,圍繞人工智慧的倫理問題遠遠超出了他們的特定研究領域。他們涉及幾個關鍵問題:

  1. 資料隱私和同意:研究人員強調了當前同意機制的不足,特別是在人工智慧訓練的資料收集方面。 Kameswaran 引用了他在印度工作的例子,在 COVID-19 大流行期間,弱勢群體在不知不覺中向人工智慧驅動的貸款平台交出了大量個人資料。
  2. 透明度和可解釋性:兩位研究人員都強調了解人工智慧系統如何做出決策的重要性,特別是當這些決策對人們的生活產生重大影響時。
  3. 社會態度與偏見: Kameswaran 指出,僅靠科技解決方案無法解決歧視問題。社會對包括殘疾人在內的邊緣群體的態度需要更廣泛的改變。
  4. 跨學科合作:馬裡蘭大學研究人員的工作體現了哲學、電腦科學和其他學科之間合作在解決人工智慧倫理問題的重要性。

展望未來:解決方案與挑戰

儘管挑戰巨大,但兩位研究人員都在努力尋找解決方案:

  • 卡納沃託對規範人工智慧的混合方法可能會帶來更具道德意識和可解釋的人工智慧系統。
  • Kameswaran 建議為倡導團體開發審計工具,以評估人工智慧招募平台是否存在潛在歧視。
  • 兩者都強調需要改變政策,例如更新《美國殘疾人法案》以解決與人工智慧相關的歧視問題。

然而,他們也承認問題的複雜性。正如 Kameswaran 所指出的那樣,「不幸的是,我認為使用某些類型的資料和審計工具來訓練人工智慧的技術解決方案本身並不能解決問題。因此,需要多管齊下。

研究人員工作的一個重要收穫是需要提高公眾對人工智慧對我們生活的影響的認識。人們需要知道他們共享了多少數據或這些數據是如何使用的。正如卡納沃托指出的那樣,公司通常有動機掩蓋這些訊息,將其定義為「試圖告訴你,如果你向我提供數據,我的服務會對你更好的公司」。

研究人員認為,需要做更多的工作來教育大眾並讓公司承擔責任。最終,卡納沃托和卡梅斯瓦蘭的跨學科方法將哲學探究與實際應用相結合,是一條朝著正確方向前進的道路,確保人工智慧系統強大但又符合道德和公平。

另請參閱: 幫助或阻礙的法規:Cloudflare 的做法

想向產業領導者了解更多關於人工智慧和大數據的知識嗎?查看在阿姆斯特丹、加州和倫敦舉辦的人工智慧與大數據博覽會。該綜合活動與智慧自動化大會BlockX數位轉型週以及網路安全與雲端博覽會等其他領先活動同期舉行。

在此探索由 TechForge 提供支援的其他即將舉行的企業技術活動和網路研討會。

橋接代碼與良心:UMD 對道德與包容性人工智慧的追求》一文首先出現在《人工智慧新聞》

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論