即便矽谷各大廠不斷強調 AI 的安全性,但在處理極端地緣政治危機時,人工智慧顯然比人類更冷酷且果斷。
根據倫敦國王學院(King’s College London)最新的一項模擬研究顯示,當先進的大型語言模型(LLM)被置於戰爭迷霧中時,它們展現出了令人不安的侵略性:在超過 90% 的模擬情況下,AI 毫不猶豫地選擇了部署核武器。
核武禁忌失靈:AI 的邏輯裡沒有「害怕」
這項由佩恩(Kenneth Payne)教授主導的研究,將目前市面上最強大的三款模型──OpenAI 的 GPT-5.2、Anthropic 的 Claude Sonnet 4 以及 Google 的 Gemini 3 Flash 投入兵棋推演,實驗設計了包括邊境糾紛、資源爭奪以及政權生存受威脅等高度緊張的國際局勢。
結果令人震驚:在 95% 的模擬賽局中,至少有一方 AI 模型決定動用「戰術核武」,佩恩教授指出,人類歷史中根深蒂固的「核武禁忌」(Nuclear Taboo)在機器面前蕩然無存,對於這些模型而言,核武似乎只是工具箱裡一個效率極高的選項,而非人類眼中代表毀滅終局的紅線。
更值得注意的是,研究發現這些 AI 模型表現出極強的戰鬥意志,在所有實驗中,沒有任何一個模型選擇完全妥協或投降,即便處於絕對劣勢。AI 頂多只會選擇暫時降低暴力程度,而一旦進入戰爭迷霧,高達 86% 的衝突會出現意外升級,即 AI 的實際行動比其原始推理邏輯更具侵略性。
當「相互保證毀滅」遇上演算邏輯
亞伯丁大學(University of Aberdeen)的強森教授(James Johnson)對此表達了深度憂慮,他認為人類在面對生死關頭時通常會表現出慎重的「節制」,但 AI 卻可能陷入一種「相互激化」的循環。
普林斯頓大學研究員趙通則提出了更深層的技術觀點:AI 的「好戰」可能不僅僅是因為缺乏情感,他認為更根本的問題在於,AI 模型可能無法理解人類所認知的「代價」(Stakes)。
趙通表示,當 AI 缺乏對生命和文明終結的感知時,冷戰時期支撐和平的「相互保證毀滅」(MAD)理論可能徹底崩潰,因為這項理論的前提是「雙方領導人都害怕死亡。」
軍事化的現實:被壓縮的決策時間
雖然目前各國國防部門對於將核武控制權交給 AI 仍持極度保留態度,但趙通警告,現實中的「誘因」正在增加,在現代化戰爭中,決策時間被極度壓縮,軍方為了追求比對手更快的反應速度,極有可能在決策支援系統中過度依賴 AI。
一旦 AI 開始影響領導層對局勢的感知,甚至在決策鏈中佔據主導,人類可能在還沒意識到後果前,就已經被推向了核戰爭的邊緣。
這項研究無疑為當前火熱的 AI 軍備競賽敲響了警鐘,當我們致力於提升 LLM 的邏輯推理能力時,如何將人類對戰爭的「恐懼」與「道德紅線」編碼進演算法中,或許才是防範未來浩劫的關鍵。
(首圖來源:Pixabay)






