歐盟公布初步 AI 道德準則,執委會副主席:只有獲得信賴,社會才能充分受益於技術

作者 | 發布日期 2019 年 04 月 10 日 16:29 | 分類 AI 人工智慧 , 尖端科技 follow us in feedly


為了因應越來越廣泛的 AI 發展,歐盟在 2018 年中召集委員會討論 AI 開發及使用的道德規範,而近日委員會也提出了由專家學者起草的試點 AI 準則,期盼未來能在與企業、學界及民間組織的合作下更加完善內容,持續促進 AI 技術該如何以人為本的國際討論。

AI 技術的應用範圍十分廣泛,包含醫療、能源、汽車安全、農業和金融管理等產業都能夠受益,AI 也能用於檢測網路安全威脅,或使執法機構更有效打擊犯罪,然而 AI 技術也帶來了許多挑戰,在法律及道德層面仍有許多疑慮留待討論。

為了協助釐清 AI 應用上的疑慮,歐盟委員會近日發布了起草的試點 AI 準則,計畫採取 3 步驟進行,除了制定值得信賴 AI 的關鍵要素,也將啟動大規模實驗來獲取利益雙方的意見反饋,同時致力建立以人為本 AI 的國際共識。

在「值得信賴 AI 的關鍵要素」上,委員會一共制定了 7 項內容用以規範,委員會表示,值得信賴的 AI 必須遵守所有適用法律及一系列要求,制定要素是為了協助驗證每個關鍵要求的應用。

  • 人類機構監督:AI 系統應該支援人類機構和基本權利來協助實現公平社會,而不是減少、限制或誤導人類自治。
  • 穩健與安全性:值得信賴 AI 的演算法必須安全、可靠且足夠強大,以便系統在任何時期都能處理錯誤或不一致。
  • 隱私和數據控管:人民應該對自己的數據有完全的控制權,數據不應該被反過來被用於加諸傷害或歧視。
  • 透明度:確保 AI 系統的可追溯性。
  • 多元化、無歧視和公平性:AI 系統應該考慮人類整體的能力、技能及要求,確保提供可訪問性。
  • 社會和環境福祉:AI 系統應該用於推動正向的社會改革、增強可持續性和生態責任。
  • 問責制度:建立相關機制,確保 AI 系統及其結果的責任範圍及其責任歸屬。

而在獲取意見反饋上,歐盟委員會計劃在 2019 年夏季與合作夥伴啟動涉及廣泛利益攸關者的大規模實驗。企業、公共管理部門和組織都可以註冊歐洲 AI 聯盟,並在試點計畫啟動時收到通知。

至於建立國際共識,由於技術、數據和演算法並不分國界,委員會將加強與日本、加拿大和新加坡等志同道合伙伴的合作,並繼續在 G7、G20 等國際場合上積極討論,好將這種概念納入管理 AI 道德的全球舞台。

歐盟執委會副主席 Andrus Ansip 表示,他非常看好委員會為相關內容所付出的努力,因為探討 AI 道德倫理並不是奢侈品或附加產物,只有獲得信賴,社會才能充分受益於技術。

「發展具有道德感的 AI 是一個雙贏的主張,這既可以成為歐洲的競爭優勢,也能夠讓我們成為人們得以信賴、以人為本 AI 的領導者。」

(首圖來源:達志影像)

延伸閱讀: