
Google 旗下 DeepMind 實驗室發表長達 145 頁人工智慧安全報告,預測通用人工智慧(AGI)2030 年可達人類智慧水準,並警告潛在風險可能對人類構成「永久毀滅」威脅。
此議題非單一公司能獨力解決,需全社會集思廣益,並提出風險防控建議。研究人員將 AGI 風險歸納為四大類,濫用、錯位、失誤及結構性風險,特別重視預防措施與及早辨識危險能力。
AGI 風險分類與防控策略
報告將 AGI 潛在風險分為四類:濫用風險指人類蓄意利用 AI 做出危害行為;錯位風險涉及系統產生非預期的惡性行為;失誤風險源於設計或訓練瑕疵引發的意外失靈;結構性風險則因不同主體間利益衝突而起。DeepMind 推出一套以預防濫用為核心的緩解策略,強調提前辨識危險能力的重要性,並建議建立國際合作框架監管 AGI 發展。DeepMind 首席執行長 Demis Hassabis 之前也曾表示,AGI 可能十年內問世,呼籲設立類似聯合國的機構加以監督。
業界競爭與專家質疑
DeepMind 間接批評競爭對手 Anthropic 和 OpenAI 的安全策略,Anthropic 訓練及監督欠佳,OpenAI 過度專注 AI 對齊。Fortune 報導,部分專家存疑,認為 AGI 定義尚未清晰,2030 年時間表難以科學驗證。Future of Life Institute 聯合創辦人 Anthony Aguirre 指出,超智慧 AI 或引發前所未有社會動盪,人類掌控力仍不足,不少意見認為,科技進步應在創新與安全間尋求平衡,以免失控釀禍。
未來發展預測
這份報告既揭示 AGI 的潛力與隱憂,亦喚起業界對安全標準的深思。Google 投資逾 1,000 億美元研發 AI,數年內或有更多政策與技術突破。預料國際間將深化合作,制定監管框架,確保 AGI 發展造福人類而非威脅。
- Read Google DeepMind’s new paper on responsible artificial general intelligence (AGI).
- Google DeepMind 145-page paper predicts AGI will match human skills by 2030 — and warns of existential threats that could ‘permanently destroy humanity’
- AI Could Achieve Human-Like Intelligence By 2030 And ‘Destroy Mankind’, Google Predicts
(本文由 Unwire HK 授權轉載;首圖來源:AI)