歐盟推出人工智能模型監管指導草案

avatar
AI News
11-15
本文為機器翻譯
展示原文

《通用人工智慧實踐守則初稿》的發布標誌著歐盟致力於為通用人工智慧模型製定全面的監管指南。

該草案的製定是各方共同努力的結果,涉及工業界、學術界和民間社會等不同部門的意見。該計劃由四個專門工作小組領導,每個工作小組負責人工智慧治理和風險緩解的具體方面:

  • 第一工作小組:透明度和版權相關規則
  • 第二工作小組:系統性風險識別與評估
  • 第 3 工作小組:系統性風險的技術風險緩解
  • 第 4 工作小組:系統性風險的治理風險緩解

該草案與《歐盟基本權利憲章》等現行法律一致。它考慮了國際方法,力求與風險相稱,並旨在透過考慮快速的技術變革來面向未來。

草案中概述的主要目標包括:

  • 明確通用人工智慧模型提供者的合規方法
  • 促進整個人工智慧價值鏈的理解,確保人工智慧模型無縫整合到下游產品中
  • 確保遵守歐盟版權法,特別是有關使用受版權保護的材料進行模型培訓的法律
  • 持續評估並減輕與人工智慧模型相關的系統性風險

識別和減輕系統性風險

草案的一個核心特徵是系統性風險的分類,包括風險的類型、性質和來源。該文件概述了各種威脅,例如網路犯罪、生物風險、自主人工智慧模型失控以及大規模虛假資訊。透過承認人工智慧技術不斷發展的性質,草案認識到該分類法需要更新才能保持相關性。

隨著具有系統性風險的人工智慧模型變得越來越普遍,草案強調需要強大的安全框架(SSF)。它提出了衡量標準、子衡量標準和關鍵績效指標 (KPI) 的層次結構,以確保在整個模型生命週期中進行適當的風險識別、分析和緩解。

該草案建議提供者建立流程來識別和報告與其人工智慧模型相關的嚴重事件,並根據需要提供詳細的評估和修正。它還鼓勵與獨立專家合作進行風險評估,特別是對於構成重大系統性風險的模型。

積極主動接受人工智慧監管指導

2024 年 8 月 1 日生效的《 歐盟人工智慧法案》要求本準則的最終版本在2025 年5 月1 日之前準備好。透明度和安全性的必要性。

隨著草案的不斷發展,工作小組邀請利害關係人積極參與完善文件。他們的協作投入將塑造一個監管框架,旨在保護創新,同時保護社會免受人工智慧技術潛在陷阱的影響。

儘管仍處於草案階段,歐盟通用人工智慧模型的實踐準則可以為全球負責任的人工智慧開發和部署設定基準。透過解決透明度、風險管理和版權合規性等關鍵問題,該準則旨在創造一個促進創新、維護基本權利並確保高水準消費者保護的監管環境。

該草案在 2024 年 11 月 28 日之前開放接受書面回饋。

另請參閱: Anthropic 敦促人工智慧監管以避免災難

想向產業領導者了解更多關於人工智慧和大數據的知識嗎?查看在阿姆斯特丹、加州和倫敦舉辦的人工智慧與大數據博覽會。該綜合活動與智慧自動化大會BlockX數位轉型週以及網路安全與雲端博覽會等其他領先活動同期舉行。

在此探索由 TechForge 提供支援的其他即將舉行的企業技術活動和網路研討會。

歐盟推出人工智慧模型監管指南草案後,首先出現在《人工智慧新聞》

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論