人工智慧與政策制定的結合有時會產生不可預見的影響,正如最近在阿拉斯加所看到的那樣。
據報道,阿拉斯加立法者使用人工智慧產生的不準確的引文來證明擬議的學校禁止使用手機政策的合理性,這是一個不尋常的事件。根據/The Alaska Beacon/ 報導,阿拉斯加教育和早期發展部 (DEED) 提出了一份政策草案,其中引用了根本不存在的學術研究。
當阿拉斯加州教育專員 Deena Bishop 使用生成式人工智慧起草手機政策時,就出現了這種情況。人工智慧製作的文件包含了既未經驗證也不準確的所謂學術參考資料,但該文件並未揭露人工智慧在其準備過程中的使用情況。一些人工智慧產生的內容在接受審查之前就到達了阿拉斯加州教育和早期發展委員會,這可能會影響委員會的討論。
畢曉普委員後來聲稱,人工智慧僅用於為初稿“創建引文”,並聲稱她在會議之前通過向董事會成員發送更新的引文來糾正錯誤。然而,人工智慧的「幻覺」——人工智慧試圖創建看似合理但未經驗證的內容時產生的捏造訊息——仍然存在於董事會投票表決的最終文件中。
最終決議發佈在 DEED 網站上,指示該部門制定學校限制使用手機的示範政策。不幸的是,該文件包含六處引用,其中四處似乎來自受人尊敬的科學期刊。然而,這些引用完全是編造的,其中的 URL 導致了不相關的內容。該事件表明,在未經適當人工驗證的情況下使用人工智慧產生的數據存在風險,尤其是在製定政策裁決時。
阿拉斯加的案例並非獨一無二。人工智慧幻覺在各個專業領域越來越普遍。例如,一些法律專業人士因在法庭上使用人工智慧產生的虛構案件引證而面臨後果。同樣,使用人工智慧創建的學術論文也包含扭曲的數據和虛假來源,帶來了嚴重的可信度問題。如果不加以控制,生成式人工智慧演算法(旨在根據模式而不是事實準確性生成內容)很容易產生誤導性引用。
在決策中,特別是在教育中,對人工智慧產生的數據的依賴帶來了巨大的風險。當基於捏造資訊制定政策時,可能會錯誤分配資源並可能傷害學生。例如,基於捏造的數據限製手機使用的政策可能會轉移人們對更有效、基於證據的干預措施的注意力,而這些幹預措施可以真正使學生受益。
此外,使用未經驗證的人工智慧數據可能會削弱公眾對政策制定過程和人工智慧技術本身的信任。此類事件凸顯了在敏感決策領域使用人工智慧時事實查核、透明度和謹慎的重要性,特別是在教育領域,這對學生的影響可能是深遠的。
阿拉斯加官員試圖淡化這種情況,將捏造的引文稱為“佔位符”,以便稍後糾正。然而,帶有「佔位符」的文件仍然被提交給董事會並用作投票的基礎,強調使用人工智慧時需要嚴格監督。
( 哈托諾創意工作室攝)
另請參閱: Anthropic 敦促人工智慧監管以避免災難
想向產業領導者了解更多關於人工智慧和大數據的知識嗎?查看在阿姆斯特丹、加州和倫敦舉辦的人工智慧與大數據博覽會。該綜合活動與智慧自動化大會、 BlockX 、數位轉型週以及網路安全與雲端博覽會等其他領先活動同期舉行。
在此探索由 TechForge 提供支援的其他即將舉行的企業技術活動和網路研討會。
由於阿拉斯加在政策中使用虛假統計數據,人工智慧幻覺出了問題,這一消息首先出現在《人工智慧新聞》上。