ChatGPT 之父警告 AI 可能滅絕人類,350 名 AI 權威連署盡速監管

作者 | 發布日期 2023 年 05 月 31 日 10:57 | 分類 AI 人工智慧 , 科技政策 , 科技生活 line share follow us in feedly line share
ChatGPT 之父警告 AI 可能滅絕人類,350 名 AI 權威連署盡速監管


AI 界又出現重要連署,「ChatGPT 之父」Sam Altman 等 350 位 AI 權威都加入呼籲行列,擔憂開發中 AI 可能對人類構成生存威脅。

這封信主旨為:Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.(降低人工智慧滅絕風險,應與流行病和核戰等其他社會規模風險一樣為全球優先事項)。

發起人為三家領先 AI 企業高層:OpenAI 首席執行長 Sam Altman、Google DeepMind 首席執行長 Demis Hassabis、Anthropic 首席執行長 Dario Amodei。其他重要名單還有人工智慧「教父」Geoffrey Hinton 和 Yoshua Bengio。

超過 350 名人工智慧高層、研究員和工程師都參加這由非營利組織 Center for AI Safety 發起的連署,認為人工智慧可能導致人類滅絕的風險,應視為與流行病和核戰同等的社會風險。如今人們越來越擔心 ChatGPT 等人工智慧模型可能對社會和工作造成威脅,很多人呼籲完整規範 AI 業,否則將對社會造成不可挽回的破壞。

AI 不斷狂飆,但監管審查法規還未跟上,代表沒人能確保 AI 工具及使用 AI 工具時是否安全。上週 Sam Altman 和 OpenAI 兩位高層提出應建立類似國際原子能機構的國際組織監管 AI,呼籲國際領先人工智慧企業應合作,並要求政府強化監管尖端人工智慧企業。

其實 3 月就出現停止 AI 研究 6 個月的連署信,由馬斯克帶頭,呼籲所有 AI 實驗立即暫停研究比 GPT-4 更先進的 AI 模型至少 6 個月,因 AI 進步速度太驚人,但監管審查法規還未跟上,代表沒人能保證 AI 工具和使用時的安全,這封信獲 2018 年圖靈獎得主 Yoshua Bengio、蘋果聯合創辦人史蒂夫‧沃茲尼亞克、Skype聯合創辦人、Pinterest 聯合創辦人、Stability AI CEO 等多位知名科技大頭支援,截稿前連署數達 1,125 人。連署信翻譯如下,供讀者參考這些科技大頭在擔心什麼。

人工智慧有與人類競爭的智慧,可能造成社會和人類深刻風險,已透過大量研究證實,並取得頂級 AI 實驗室認可。正如阿西洛馬人工智慧原則(Asilomar AI Principles)指出,先進 AI 可能代表地球生命重大變革,應以同等關注和資源規劃管理。

即使最近幾個月,AI 實驗室開發部署越來越強大數位思維陷入失控競爭,沒人能理解、預測或可靠控制這些數位思維,即使創造者也無法做到。現代 AI 系統的通用任務有與人類競爭的能力,我們必須問自己:

  • 應該讓機器充斥資訊管道,傳播宣傳和說謊嗎?
  • 應該將所有工作自動化,包括讓人有滿足感的工作嗎?
  • 應該發展可能最後超過取代我們的非人類思維嗎?
  • 我們應該冒失控文明的風險嗎?

這些決策不該由非選舉產生的科技領導人負責。只有當我們確信 AI 系統影響是積極、風險可控,才開發強大的 AI 系統。這種信心必須有充分理由,並隨著系統潛在影響增加而強化。OpenAI 最近人工智慧聲明指出:「某些時候,可能需要開始訓練系統前取得獨立審查,對於先進科技的努力,需要限制創建新模型的計算增長速度。」我們同意,現在就是那個時刻。

呼籲所有 AI 實驗室立即暫停開發至少 6 個月,不要訓練比 GPT-4 更強大的 AI 系統。暫停應公開和可驗證,包括所有關鍵參與者。如果無法快速暫停,政府應介入並施行暫禁令。

AI 實驗室和獨立專家應利用暫停時間共同制定先進 AI 設計和開發安全協定,再由獨立外部專家嚴格審核和監督。協定應確保遵守系統在合理懷疑範圍以外也安全。這不代表暫停 AI 發展,只是在不斷邁向更大更不可預測的黑箱模型及突現能力的危險競賽中往後退。

AI 研究和開發應聚焦提高現有先進系統的準確性、安全性、可解釋性、透明度、強健性、可信度和忠誠度。

同時 AI 開發者必須與政策制定者合作,加速 AI 管理系統發展。至少要有以下條件:

  • 專門負責 AI 的新強力監管機構
  • 監督追蹤強大 AI 系統和大型計算能力池
  • 區分真實與合成內容、追蹤模型來源和浮水印系統
  • 健全審查和認證系統;AI 造成損害如何承擔責任
  • AI 安全研究有充足公共資金
  • 處理 AI 造成巨大經濟和政治變動(特別是民主制度)的資深機構

人類可受 AI 幫助享受燦爛的未來。成功創造強大 AI 系統後,我們現在可以享受「AI 盛夏」,收穫回報,並將這些系統用於造福所有人,並讓社會有機會適應。

面臨可能造成災難性影響的其他技術,社會已按下暫停鍵。我們也能這樣做,讓我們享受漫長的 AI 盛夏,而不是毫無準備衝向秋天。

(本文由 愛范兒 授權轉載;首圖來源:Center for AI Safety

延伸閱讀: