AI 戰略地位使權力結構洗牌,美國政府不容 Anthropic 干預軍事紅線

作者 | 發布日期 2026 年 03 月 03 日 18:59 | 分類 AI 人工智慧 , Claude , 軍事科技 line share Linkedin share follow us in feedly line share
Loading...
AI 戰略地位使權力結構洗牌,美國政府不容 Anthropic 干預軍事紅線

當全世界屏息靜觀伊朗局勢發展時,科技圈另有一場激烈的辯論如火如荼進行中,一方同樣是手握軍權的美國政府,另一方則是矽谷 AI 公司 Anthropic,雙方合作與衝突浮上檯面,背後凸顯 AI 讓權力結構洗牌,美國政府則要拿回決策權。

美國總統川普下令停止與 Anthropic 合作,並將這家公司列為「供應鏈風險」;幾乎同一時間,OpenAI 宣布與美國戰爭部達成協議,軍方允許其模型部署至機密網路系統。

當 Anthropic 執行長阿莫迪(Dario Amodei)聲明表示,AI 可能被用於大規模國內監控與自主殺傷武器,並拒絕在這兩個領域鬆綁限制的同時,隱含著試圖以企業倫理界定國家安全的邊界,甚至挑戰整個權力秩序。

湯普森(Ben Thompson)撰寫的科技電子報 Stratechery 專文談到,阿莫迪在今年世界經濟論壇(World Economic Forum)受訪直言,向中國出口高階 AI 晶片「就像把核武賣給北韓」。這個比喻或許聳動,卻揭示一個關鍵前提:如果 AI 的戰略意義接近核武,那麼掌握 AI,等同握有改變全球權力平衡的槓桿。

核武的存在,讓北韓即使國力有限,在國際舞台上仍有談判籌碼,核武讓小國成為難以被動武的對象。如果 AI 真如科技領袖所言,未來深刻影響情報判讀、自主作戰、軍事決策以及經濟命脈,那麼一家私人企業所開發、控制的模型,戰略地位達到準國家級武力,這是美國政府與 Anthropic 衝突的核心。

對美國而言,國家安全最終決策理應掌握在政府手中,而不是企業董事會,阿莫迪沒有義務需要對全民負責。當 Anthropic 主張,某些用途即便合法也不應被允許,實際上等於說企業高層有權對軍事政策設下紅線,美國政府難以接受這種邏輯。

美國或許能容忍企業拒絕某些商業交易,卻無法容忍一個左右軍事力量的技術平台,發展成獨立權力中心。從這個角度看 Anthropic 被列為「供應鏈風險」,不只是懲罰,更是美國政府的權力宣示,在國家安全領域,最終決策權必須回到政府手上。

值得一提的是,Anduril 創辦人拉奇(Palmer Luckey)近日在 X 平台撰文,拋出關鍵提問「你相信民主嗎?軍隊應受民選領袖監督,還是聽命於企業高層?」也是直指爭議核心。

這次阿莫迪有一貢獻是,讓這個關鍵問題躍上媒體版面,讓政府、國會及社會大眾有機會好好思考。

(首圖來源:Air Force Staff Sgt. John Wright, DOD, CC BY 4.0, via Wikimedia Commons)

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》