Google:AGI 2030 年可有人類智商,但有機會「永久毀滅人類」

作者 | 發布日期 2025 年 04 月 10 日 7:40 | 分類 AI 人工智慧 , Google line share Linkedin share follow us in feedly line share
Loading...
Google:AGI 2030 年可有人類智商,但有機會「永久毀滅人類」

Google 旗下 DeepMind 實驗室發表長達 145 頁人工智慧安全報告,預測通用人工智慧(AGI)2030 年可達人類智慧水準,並警告潛在風險可能對人類構成「永久毀滅」威脅。

此議題非單一公司能獨力解決,需全社會集思廣益,並提出風險防控建議。研究人員將 AGI 風險歸納為四大類,濫用、錯位、失誤及結構性風險,特別重視預防措施與及早辨識危險能力。

AGI 風險分類與防控策略

報告將 AGI 潛在風險分為四類:濫用風險指人類蓄意利用 AI 做出危害行為;錯位風險涉及系統產生非預期的惡性行為;失誤風險源於設計或訓練瑕疵引發的意外失靈;結構性風險則因不同主體間利益衝突而起。DeepMind 推出一套以預防濫用為核心的緩解策略,強調提前辨識危險能力的重要性,並建議建立國際合作框架監管 AGI 發展。DeepMind 首席執行長 Demis Hassabis 之前也曾表示,AGI 可能十年內問世,呼籲設立類似聯合國的機構加以監督。

業界競爭與專家質疑

DeepMind 間接批評競爭對手 Anthropic 和 OpenAI 的安全策略,Anthropic 訓練及監督欠佳,OpenAI 過度專注 AI 對齊。Fortune 報導,部分專家存疑,認為 AGI 定義尚未清晰,2030 年時間表難以科學驗證。Future of Life Institute 聯合創辦人 Anthony Aguirre 指出,超智慧 AI 或引發前所未有社會動盪,人類掌控力仍不足,不少意見認為,科技進步應在創新與安全間尋求平衡,以免失控釀禍。

未來發展預測

這份報告既揭示 AGI 的潛力與隱憂,亦喚起業界對安全標準的深思。Google 投資逾 1,000 億美元研發 AI,數年內或有更多政策與技術突破。預料國際間將深化合作,制定監管框架,確保 AGI 發展造福人類而非威脅。

(本文由 Unwire HK 授權轉載;首圖來源:AI)

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》