OpenAI:10 年內將出現超級 AI,輕鬆輾壓 AGI 與專家

作者 | 發布日期 2023 年 05 月 25 日 8:20 | 分類 AI 人工智慧 , 科技政策 line share follow us in feedly line share
OpenAI:10 年內將出現超級 AI,輕鬆輾壓 AGI 與專家


人工智慧發展一日千里,OpenAI 官方部落格文章指出,未來 AI 可輕鬆輾壓 AGI 通用人工智慧,專業能力甚至 10 年內讓各領域專家相形見拙。之前便有許多專家呼籲建立監管 AI 的機制,以防止潛在失控風險。如今看到 AI 進展神速的 OpenAI 也認為已到推動超級 AI 治理的關鍵時刻。 

22 日 OpenAI 執行長 Sam Altman、總裁 Greg Brockman 及首席科學家 Ilya Sutskever 共同撰寫的部落格文章警告,鑑於 AI 進展速度,很快會出現能力超越 AGI 的超級 AI,不出 10 年,專業技能程度將超越各領域專家。換言之,我們已進入有必要治理與監管超級 AI 的關鍵時刻,否則人類可能面臨不受控的災難。

OpenAI 三巨頭概述超級 AI 管理策略的三大支柱。首先,為了創新與控制間取得平衡,人類必須推動達成社會共識協議,唯有如此,才能確保安全前提下,讓超級 AI 系統順利與人類社會融合。

其次,三位專家一致擁護打造專門系統檢查、稽核執法、安全標準合規測試,以及設定部署與安全限制的「國際權威」機構。仿照國際原子能機構提出全球性 AI 監管機構的可能架構與樣貌。最後強調需能控制超級 AI 並確保安全的「技術能力」。

基本上,上述想法最終目的是為了確保超級 AI 與訓練者意圖一致,以避免 AI 超出人類控制的成長。文章強調,AI 系統飛速成長趨勢不可逆,唯一避免它失控的解決之道是建立全球性監控體制,但即使如此也不能保證一定奏效。

可確定的是,面對「如何確保超級 AI 安全的技術能力」大哉問,世界還沒有明確答案,但即使如此,持續找到解答,無疑是 OpenAI 及所有 AI 生態系廠商的首要課題。

(首圖來源:Sam Altman