2025 年 2 月 2 日起,歐盟《人工智慧法案》(AI Act)上路,授權各國監管機構禁用有「不可接受風險」的人工智慧(AI)系統。法案 2024 年 8 月生效,現為第一階段緩衝期。
四類風險分級
《人工智慧法案》分成四風險等級規範 AI 使用:
- 最低風險:如垃圾郵件過濾器,無需監管。
- 有限風險:如客戶服務聊天機器人,受輕度監管。
- 高風險:如醫療診斷推薦系統,需嚴格監管。
- 不可接受風險:為本次重點,以下全面禁止:
- 社會評分 AI(如基於行為構建風險檔案)。
- 潛意識或欺騙性操控個人決策。
- 利用弱勢群體(如年齡、殘疾或社會經濟地位)的 AI。
- 根據外貌預測犯罪的 AI。
- 使用生物辨識技術推斷性取向等個人特徵。
- 即時收集公共場所生物辨識數據執法。
- 職場或學校推斷情緒的 AI。
- 網路爬蟲或監控錄影建立臉部資料庫。
違規後果
企業若違反法案規定,無論總部設在哪,都可能面臨高達 3,500 萬歐元或年度營收 7% 罰款(以較高者為準)。然執法罰款與細則,可能需等到下階段緩衝期 8 月後才會全面實施。
豁免條款與挑戰
但有些情況能豁免,如:
- 執法機構若需在公共場合搜尋綁架受害者或預防「具體或即時威脅」,可申請使用相關系統。
- 特定醫療或安全理由推斷情緒的系統。
此外,法案與其他現有法律(如 GDPR、NIS2 等)的交叉影響仍需梳理,是企業不小挑戰。
初步承諾與未來方向
去年 Google、亞馬遜和 OpenAI 等百餘家公司簽署《歐盟 AI 協議》,承諾提前遵守法案原則。然 Meta、蘋果及法國 AI 新創 Mistral 均未簽署。儘管如此,未簽署企業仍需遵守法規。歐盟預定今年公佈更多指導方針,協助企業遵循要求。
(本文由 Unwire HK 授權轉載;首圖來源:Flickr/Håkan Dahlström CC BY 2.0)






