AI 會帶來「核彈級」災難?65% 美國人看壞 AI,近 80% 中國人看好 AI

作者 | 發布日期 2023 年 04 月 21 日 7:50 | 分類 AI 人工智慧 , 科技趣聞 , 軟體、系統 line share follow us in feedly line share


自從 ChatGPT 推出引爆全球生成式 AI 熱潮,人們對 AI 是好是壞、該支持還是反對的爭論也日趨白熱化。但到底支持的人較多,還是反對的人多,一直沒有具體數據,史丹佛大學(Stanford University)年度 AI 調查報告顯示,超過三分之一研究人員擔憂 AI 將導致「核彈級」災難。 

AI 愈來愈強大,除了正面效益,各種過去難想像的爭議也不斷出現。4 月初比利時男子與 ELIZA 聊天機器人密切交流 6 星期後自殺身亡。之前就很猖獗的 Deepfake 影片技術受生成式 AI 加持更以假亂真,3 月中旬網路瘋傳烏克蘭總統澤淪斯基(Volodymyr Zelenskyy)向俄羅斯軍隊投降的假影片。為了杜絕 AI 濫用,各國要求監管 AI 的呼聲也日漸攀升。

10 年來 AI 事件增加 26 倍,道德及風險問題猶待解決

為了探討 AI 新興技術最新發展、風險與商機,史丹佛大學「以人為本 AI 研究院」(Stanford Institute for Human-Centered Artificial)月初發表《2023 年人工智慧指數報告》(2023 AI Index Report)。雖然肯定 AI 超越水準的亮麗表現,但也認為讓人們更容易出現錯覺或偏見,甚至讓人們變成為虎作倀的犯罪工具,都使人們部署 AI 時面對複雜的道德倫理挑戰。

3 月馬斯克(Elon Musk)與蘋果共同創辦人沃茲尼克(Steve Wozniak)等 1,300 人連署公開信呼籲暫停訓練 AI 系統 6 個月,直到確認 AI 效果正面,且風險可控,再繼續開發超越 OpenAI GPT-4 聊天機器人程度的強大 AI 系統。

由於自然語言處理(NPL)是開發 GPT-4 等聊天機器人的關鍵技術,所以這次 AI 指數報告特別去年 5~6 月間訪問 327 位 NPL 領域專家。36% 研究員表示,AI 的決定可能導致核彈級災難,73% 研究員認為,這些決定會立即啟動「革命性社會變革」。報告更指 10 年來光 AI 相關事件和爭議就增加 26 倍。

益普索市場研究公司(IPSOS)大眾調查顯示,美國人似乎對 AI 特別有戒心,只有 35% 美國人認同「使用 AI 產品或服務利大於弊」,中國受訪者認同比例更高達 78%,之後為沙烏地阿拉伯及印度受訪者分別為 76% 及 71%。

(首圖來源:shutterstock)