AI 危險性讓 OpenAI 執行長擔心到失眠!是什麼引起科技領袖恐懼?

作者 | 發布日期 2023 年 06 月 25 日 10:00 | 分類 AI 人工智慧 , 職場 , 軟體、系統 line share follow us in feedly line share
AI 危險性讓 OpenAI 執行長擔心到失眠!是什麼引起科技領袖恐懼?


2022 年底 ChatGPT 全球爆紅,各行各業都在關心如何業務導入人工智慧,全球最大管理諮詢公司埃森哲(Accenture)近日更宣布,投資 AI 30 億美元(約新台幣 920 億元),幫助建構新產業解決方案,讓所有產業客戶都有足夠能力運用人工智慧達成更高成長、效率與彈性。

埃森哲認為,雲端、數據、人工智慧生態系統,將徹底改變他們的服務性質,《財星》(Fortune)世界 500 強公司超過 75% 是埃森哲的客戶。埃森哲董事長兼執行長朱莉‧斯威特(Julie Sweet)觀察:「人們對人工智慧所有領域都產生前所未有的興趣,我們對數據和人工智慧實踐大量投資,幫助客戶從興趣轉向行動再到價值,並提供明確的業務運用案例。」

「我不在乎企業規模多大多小,都必須了解人工智慧」,科技公司創業家馬克‧庫班(Mark Cuban)日前於美國地區商會會議指出,所有企業都必須了解並思考人工智慧會怎樣影響公司經營,發展更牢固的客戶關係並挖掘新客戶。「儘管看起來很複雜,但必須要有足夠好奇心把人工智慧搞清楚,要是忽略趨勢,恐怕會嚐到苦果。」庫班認為,有效運用人工智慧的公司,可確保長期發展的穩定性。

「開發 ChatGPT 可能是非常糟糕的事!」OpenAI 執行長因 AI 危險性睡不著

然而,帶起 AI 風潮的 ChatGPT 母公司卻沒那麼樂觀,OpenAI 執行長山姆‧奧特曼(Sam Altman)近日坦言,考慮到 AI 的潛在風險,他擔心開發 ChatGPT 是件「非常糟糕的事」,還因此失眠。被問到 AI 是否該像核能受監管時,奧特曼回應,要有更好系統檢核 AI 使用方法,「這樣我們就可對審核正在做這件事的人,並部署前仔細測試安全性」。

不只奧特曼,許多科技領袖和政府官員都對人工智慧發展速度表示擔憂。3 月特斯拉創辦人馬斯克(Elon Musk)、蘋果共同創辦人史蒂夫‧沃茲尼克(Steve Wozniak)等科技領袖與生命未來研究所(Future of Life Institute)共同發表公開信警告:應該確保人工智慧有正面影響後,才繼續開發強大的人工智慧系統,讓風險可控。

人工智慧到底危險在哪?

這些顧慮都其來有自,之一是人工智慧會產生錯誤訊息,這是事實也是巨大的風險,OpenAI 研究人員報告挑明:「即使是最先進模型也容易產生假訊息,AI 面對資訊不確定時,有捏造事實的傾向。」如果使用不當,可能會給大眾負面影響。

日前奧特曼也與 350 多名科學家和技術領袖簽署聲明,表達對人工智慧背後風險的深切關注:「降低人工智慧可能造成的風險,應與流行疾病、核戰爭等其他可能危及社會的風險,一起列為全球優先事項。」

此外,當企業或政府單位賦予人工智慧系統愈來愈多自主權,並連接重要基礎設施,如電網、股票市場和軍事武器,可能引發問題。「人工智慧將有更多授權,它更自主後,可能會篡奪人類和人類管理機構的決策和思維。」生命未來研究所共同創辦人安東尼‧阿吉雷(Anthony Aguirre)警告,某些時候,運作社會和經濟的大型機器並不真的在人類控制之下,也無法關閉。

《紐約時報》(The New York Times)報導,對人工智慧悲觀的人常用簡單比喻:如果要求機器盡可能多製作迴紋針,它可能將用得到的材料(包括人類)都帶回工廠,好生產更多迴紋針。

蒙特婁大學(University of Montreal)教授兼人工智慧研究員約書亞‧班吉歐(Yoshua Bengio)表示,今日人工智慧系統要威脅到人類生存,還差得遠。「但一年、兩年、五年後,有太多不確定性,這就是問題所在。我們不確定 AI 是否會在某時刻變成災難。」

當人工智慧技術發展比人們預想還快,會造成兩種可能:跟不上趨勢的企業被商場淘汰;另一方面,倘若技術未適當控管而失控,可能如科幻電影劇情,導致人類生存危機。要如何因應人工智慧發展趨勢,只得仰賴更多科技領袖、政府做出更好決策。

(本文由 經理人月刊 授權轉載;首圖來源:Unsplash