就在上週五(2/27)五角大廈宣布將 Anthropic 列為「供應鏈風險」(supply-chain risk)的同一天,五角大廈也宣布與 OpenAI 達成允許美國軍方部分系統可以使用 OpenAI AI 模型的協議。在承受了外界倫理方面的質疑之際,OpenAI 執行長奧特曼(Sam Altman)在週二的會議中告訴員工,該公司無法控制五角大廈在軍事行動中如何使用其 AI 產品。
「你們無法做出作戰決策,」奧特曼在會議中對員工表示。「也許你覺得打擊伊朗是對的,而入侵委內瑞拉是錯的。但你沒有權利對此做出權衡。」
近幾週來,隨著五角大廈要求 AI 公司移除模型中的安全防護機制,以允許更廣泛的軍事應用後,AI 產業便陷入激烈的爭辯之中。據報導,AI 賦能系統已經被用於美國軍方抓捕委內瑞拉領導人馬杜洛(Nicolás Maduro)的行動,以及在其攻擊伊朗行動中的打擊目標決策上。
在 Anthropic 拒絕與五角大廈達成使用其 Claude 聊天機器人在軍事用途上的協議後,美國國防部長赫格塞斯(Pete Hegseth)竟然破天荒地對該公司貼上「供應鏈風險」的標籤,在此之前,這樣的認定從未實施在一家美國公司身上。
就在同一天,五角大廈也宣布與 OpenAI 達成一項協議,該協議似乎旨在取代 Claude 的使用。外界因此擔心 OpenAI 會同意跨越 Anthropic 拒絕的倫理界線,進而引發公眾與 OpenAI 內部員工的反彈聲浪。
奧特曼和 OpenAI 此後試圖堅稱其技術將在合法情況下使用,並展開危機處理,但奧特曼也承認該協議的達成有些倉促,這讓公司看起來有點「投機且草率」。
(首圖來源:Air Force Staff Sgt. John Wright, DOD, CC BY 4.0, via Wikimedia Commons)






