
AI 快速發展下,相關風險也更受關注,不過制定政策和立法時面對各種複雜資訊難免產生混亂,MIT 研究員就製作 AI 風險儲存庫,協助清楚理解 AI 風險。
MIT FutureTech 團隊成員 Peter Slattery 表示,AI 風險儲存庫(AI Risk Repository)有超過 700 種 AI 風險,按因果因素(如意圖)、範疇(如歧視)和子範疇(如假資訊和網路攻擊)分組。這資料庫希望幫助用戶理解 AI 安全研究中的重疊與脫節部分,並填補風險框架的空白,框架往往只涵蓋儲存庫一部分風險,但遺漏可能對 AI 發展、使用和政策制定產生重大影響。有了這資料庫,制定 AI 法規如 EU AI Act 或 California 的 SB 1047 等,政策制定者就可就法規應涵蓋哪些風險達成共識。
研究員發現,第三方框架中某些風險提及的頻率遠高於其他風險,如超過 70% 框架提到 AI 隱私和安全影響,只有 44% 涵蓋假資訊。將來 MIT 研究員計劃用風險儲存庫評估各種 AI 風險處理狀況,辨識組織措施的不足之處,並對 AI 風險管理提出改善建議。
(本文由 Unwire Pro 授權轉載;首圖來源:shutterstock)