
Google 前執行長施密特近日與其他兩名專家共同發表人工智慧論文,其中將 AI 與當年核武相提並論,並呼籲美國避免在 AI 領域進行「曼哈頓計畫」,以免造成局勢急速惡化,最終讓全球陷入危機。
這篇名為《超級智慧戰略》(Superintelligence Strategy)的論文由施密特(Eric Schmidt)、人工智慧安全中心(Center of AI Safety)主任翰崔克斯(Dan Hendrycks)以及 Scale AI 公司執行長 Alexander Wang 共同撰寫。
作者群們認為目前各國在人工智慧發展,與冷戰時期開發核武情況類似,若政府在人工智慧領域試圖追求軍事優勢時,會讓其他大國紛紛加速投入 AI 軍事化,讓現今大國競爭的地緣政治情勢更容易失去控制。
施密特指出,若美國開始追求 AI 領域的軍事優勢,如同二戰期間開發核武的「曼哈頓計畫」,中國絕對不會坐以待斃,勢必會全力發展 AI 軍事化進行對抗,就像 1950~1960 年代做法。
論文認為美國目前在 AI 領域的領先,已經與當年曼哈頓計畫後的情況類似,而中國近日發表 Deepseek 顯示北京追趕速度,當雙方 AI 領域實力相近,就會出現與核武器「相互保證毀滅」(Mutal Assured Destruction,MAD)類似的對峙。
施密特將 AI 領域的 MAD 形容為「AI 相互保證癱瘓」(Mutal Assured AI Malfunction,MAIM),在各國 AI 技術進步並開始深入人類生活,包括醫療、社福、武器等各種領域後,若有國家試圖先發制人,則 MAIM 屆時將會重創依賴 AI 的各個國家。
為了避免 MAIM,論文提出三項建議,一是美國應該撤除所有對 AI 研究的限制(Hands-off),讓所有國家、所有學術、企業和個人都能不受限的取得任何開發 AI 的軟硬體,已開放透明制度減少猜忌。
二是全球共同協議減緩 AI 領域的發展速度,無論是立刻或是在發現 AI 將觸及某些危險領域,例如自動化武器或自動駭客系統等。
三是考慮成立類似歐洲核子研究組織(CERN)的全球統一 AI 研發管理組織,所有國家都參與其中,共同管控人工智慧的開發進展,避免出現不可控制或意外結果。
三名作者則認為美國最有可能採取的策略是 hands-off 策略,畢竟人工智慧距離想像中的「超級智慧」(Superintelligence)還非常遙遠。
(首圖來源:Flickr/Collision Conf CC BY 2.0)