人工智慧新創公司 Anthropic 去年獲得美國國防部一項價值高達 2 億美元的合約,旨在將其「Claude」模型整合至國防作業。然而,多位知情人士透露,雙方因技術使用規範產生嚴重分歧,導致談判陷入停滯,該合約甚至面臨取消風險。這場爭端成為矽谷能否影響美軍 AI 部署方式的關鍵測試案例。
爭議核心在於 Anthropic 堅持的道德護欄。該公司條款禁止將其 AI 用於「國內監控」及「自主致命行動」,這直接限制了聯邦調查局(FBI)與移民及海關執法局(ICE)等機構的使用權限,並要求武器瞄準必須有人類監督。對此,五角大廈官員認為私人公司不應限制合法的軍事活動。根據 1 月 9 日發布的戰略備忘錄,美國國防部主張只要符合美國法律,應能不受限地部署商用 AI。
這種緊張關係也延伸至政治層面。美國國防部部長皮特·赫格塞斯(Pete Hegseth)在宣布與馬斯克的 xAI 合作時意有所指地表示,不會採用「不允許你打仗的 AI 模型」。此外,Anthropic 執行長達里奧·阿莫迪(Dario Amodei)雖強調支持國防,但也警告 AI 不應讓美國變得像「專制對手」,並公開批評國內執法行動及川普政府的晶片出口政策。這使該公司被白宮官員大衛·薩克斯(David Sacks)貼上「AI 末日論者」的標籤。
儘管面臨川普政府(已將國防部更名為「戰爭部」)的壓力及 xAI、OpenAI 等對手的競爭,Anthropic 仍表示正與當局進行「富有成效的討論」,致力於協助國家安全。由於該公司正尋求以 3,500 億美元估值融資並籌備上市,這場關於 AI 倫理與軍事需求的拉鋸戰,將對其未來發展產生關鍵影響。
- Exclusive: Pentagon clashes with Anthropic over military AI use, sources say
- Anthropic-Pentagon Clash Over Limits on AI Puts $200 Million Contract at Risk
(首圖來源:Touch Of Light, CC BY-SA 4.0, via Wikimedia Commons)






