近 6 成 AI 開發人員害怕自己的產品會危害世界

作者 | 發布日期 2019 年 07 月 02 日 12:29 | 分類 AI 人工智慧 , 人力資源 , 科技政策 follow us in feedly


英國政府委派的一份調查報告指出,59% 的 AI 相關工作人員,擔心自己開發的產品可能對社會造成不良影響,並且每 6 個 AI 工程師就有一個為了道德因素而離職。

人工智慧將會改變人類的未來,這個潘朵拉的盒子已經無法再蓋上,當我們享用著 AI 從方方面面帶給我們的好處時,許多人更擔心的是 AI 可能帶來的壞處,更令人驚訝的是,這些不是其他人,而是催生人工智慧持續進化的開發者們。

英國政府的調查報告指出,在 1,010 位科技領域員工裡,AI 開發者中,高達 59% 認為他們正在開發的產品,可能會對社會有害,在其他科技業工作者中,這個比率只有 28%。並且在交叉分析後得知,有 16% 的 AI 工作者,因為良心不安而離職。

在受訪者的回應中,最主要的憂慮包括:

  • 對於人群過度的監控
  • 缺乏安全機制
  • 太著重科技而忽略人與人的溝通
  • 自動化造成的失業衝擊
  • 這項科技會讓社會更加分裂
  • 商業與財務考量遠勝於道德爭議

有趣的是,當這些高科技工作者碰到潛在有爭議性的問題時,39% 是依據自己內心的道德標準,38% 會上網搜尋相關問題,35% 選擇與同事討論,會參考公司政策與產業規範的,都不到三成。

這一部分可歸因於產品非常前端,公司政策與業界標準尚未跟上,然而更大的可能是,公司政策完全沒有在相關議題上,提出明確立場。因此有高達 78% 的工作者期望能夠有一套相關的行為準則,甚至願意參加工作坊來幫助他們面對這些問題,同時也期待有一套關於創新科技的框架,讓他們參考。

對於所有科技公司而言,最值得注意的是,在因為擔心不良後果而離職的員工中,有半數認為,公司政策與行為規範是最能夠幫助他們面對這些潛在問題的解方。

換句話說,想要留住這些頂尖人才的其中一個重點,是公司自身要對創新科技的價值、行為規範提出一套明確的說法,讓開發者在面臨道德困境時,有所依靠。

科技工作者如同一般勞工,他們當然在意薪資、工時與工作環境,然而當 AI 與更多創新科技足以對社會產生巨大影響時,這些開發者絕不希望自己成為科幻電影中的大反派,或至少不要成幫兇。

科技公司或許可以透過樹立完整的道德政策,來闡述理念並以此吸引人才,各國政府也是一樣。加拿大政府已經提出一套「演算法衝擊評估準則」( Algorithmic Impact Assessment, AIA),讓企業、工程師與社會大眾能夠用來評估一項新的 AI 的可能影響。其中包含一系列問題,例如:

  • 對於機器做出的決策,是否有人為監控機制?
  • 當產生爭議時,是否有修正方案?
  • 在產生決策的過程中是否有可能產生任何類型的歧視?
  • 這套系統是否會用到個人資料?
  • 誰負責管理所有數據?
  • 系統是否使用非結構化的數據來產出決策?

在完成所有問題後,這套系統將會獲得一個風險評估分數,讓政府單位、企業內部與社會大眾都能夠快速了解這項新科技可能產生的社會衝擊有多大。儘管這項評估沒有任何法律效力,然而卻是企圖在人工智慧人才爭奪戰中,各國政府與企業可以借鏡的一項準則。

目前包括歐盟、美國、新加坡,都已經針對「Trusable AI」(可信任的人工智慧)提出框架,並成立相關權責機構推動監管與立法,台灣目前只有國家發展委員會委託進行了一份調查報告,政府部門還在喊著 AI 發大財的「願景」;中國則是發布了一項「人工智能北京共識」,提出了 AI 開發的方針與規範,然而當此大戰之際,按照中國政府一貫的思維,肯定不會在這時候提出太過強硬的監管方案,而是繼續野蠻成長,究竟這對於全球 AI 人才的爭奪是好是壞,只能讓開發者們用腳投票來揭曉勝負了。

(首圖來源:Unsplash

延伸閱讀:

關鍵字: , ,