AI 究竟有何風險?短期假資訊風險已現,中期失業風險最痛,長期失控風險最險

作者 | 發布日期 2023 年 05 月 08 日 8:20 | 分類 AI 人工智慧 line share follow us in feedly line share


AI 人工智慧日益強大的功能有目共睹,但當前人們幾乎全被它的正面效益吸引,完全沒考慮到缺乏同理心的 AI 在毫無倫理道德考量及限制的情況下持續發展會多可怕。加拿大蒙特婁大學(University of Montreal)教授暨 AI 研究員 Yoshua Bengio 表示,我們理解強大 AI 系統可能會出現什麼問題的能力非常弱,這也是為什麼要呼籲非小心看待 AI 不可的原因。究竟 AI 會帶來什麼樣確切的風險甚至危害,以下是專家們的深入剖析。 

3 月下旬,包括特斯拉(Tesla)執行長馬斯克(Elon Musk)在內的 1,000 多名從事 AI 人工智慧的科技領袖、研究人員和其他權威專家簽署了一封由未來生命研究所(Future of Life Institute)公布的公開信,警告 AI 將帶給社會和人類深遠影響的風險,並呼籲各大 AI 實驗室務必在 6 個月內停止開發最強大系統,直到我們確信一切風險可控且影響性是正面積極的情況下再繼續開發。自此以後,有愈來愈多的 AI 專家露骨地表達對未來 AI 系統的擔憂。

40 年來,Yoshua Bengio 致力開發驅動 GPT-4 等系統的技術,他和被譽為「AI教父」並在上個月離開 Google 的 Geoffrey Hinton,以及現任 Meta 首席科學家的 Yann LeCun 在 2018 年一同獲得「計算機界諾貝爾獎」的圖靈獎,以表彰他們在神經網路方面的貢獻。

大約 5 年前,Google、微軟和 OpenAI 等公司開始建立能從大量數位文字中學習的神經網路,並稱之為大型語言模型(LLM)。隨後,LLM 學會了對話並自我生成部落格文章、詩詞及電腦程式的能力。但 Bengio 及其他專家警告指出,這些系統有可能產生不真實、有偏見甚至有害的資訊。像 GPT-4 之類的系統會出現偏離事實、編造資訊的「幻覺」(hallucination)現象。

濫用 AI 系統散播假資訊將成趨勢

不論如何,AI 的短期風險(假資訊)已經顯現,中期風險(失業)也已漸漸開始開始發酵,但最令專家擔憂的是,如果繼續聽任 AI 無限制的發展,恐怕未來會引發全面性 AI 失控的長期風險。先就短期假資訊風險而言,由於當前 AI 對於自我生成的文字資訊展現出全然自信的模樣,這也讓 AI 生成資訊的真假之辨成為既困難又激烈的拉鋸戰。Bengio 表示,我們現在有了能透過自然語言與我們互動的 AI 系統,這讓我們更難以區分真假。許多專家因此擔心,有心人會濫用這些系統散播假資訊。

重複性高的機械性作業恐將最先消失

隨著 GPT-4 的推出,愈來愈多人擔心,AI 可能成為就業殺手。儘管目前 AI 還無法勝任律師、會計師或醫生的工作,但已漸漸展現取代律師助理、秘書和翻譯等工作的能耐。據一篇由 OpenAI 研究人員撰寫的論文推估,在美國 8 成的勞動人口中,至少有 10% 的工作會受到 LLM 的影響,同時有 19% 的員工會看到自身至少 50% 的工作受到影響。目前最昔遍的共識是,舉凡重複性高的機械性作業恐怕最先消失。

AI 將持續獲得意想不到的能力、產生意想不到的風險

再就長期風險而言,一些參與簽署前述公開信的人認為,AI 可能會脫離我們的控制,甚至毀滅人類,當然有許多專家對此嗤之以鼻。未來生命研究所警告,由於 AI 經常從他們所分析的大量資料中學習到意想不到的行為,因此可能帶來意料之外的嚴重問題。更令人擔心的是,因為 LLM 具備自我編碼能力,隨著企業將 LLM 接入其他網際網路服務,這些系統可能獲得令人意外的可怕能力,進而衍生各種全新風險。

美國加大聖塔克魯茲分校(University of California, Santa Cruz)理論宇宙學家、物理學家暨未來生命研究所共同創辦人 Anthony Aguirre 指出,缺乏真正的治理,這些系統會變得比我們想像得更強大,最終事情會變得非常非常瘋狂。雖然一些風險仍屬假設,但一些風險已然真的出現,所以AI監管與立法勢在必行。

(首圖來源:shutterstock)