美國戰爭部(Department of War)與 Anthropic 的軍事合作未取得共識,美國總統川普(Donald Trump)下令聯邦機關禁用 Anthropic 的 AI 技術,Anthropic 列為與國家安全有關的供應鏈風險。戰爭部火速改與 OpenAI 達成協議,將其 AI 模型部署至軍方機密網路系統,引發更多議論。
OpenAI 聲明指出,與戰爭部合作有三條重要底線:
- 不得將 OpenAI 技術用於大規模國內監控。
- 不得將 OpenAI 技術用於直接指揮自主武器系統。
- 不得將 OpenAI 技術用於高風險的自動化決策(例如所謂「社會信用」系統)。
在合約中,OpenAI 強調透過多層次方法維護 AI 系統的底線,包含以雲端方式部署、保留對安全堆疊(safety stack)的決定權、讓經過安全審查的 OpenAI 人員參與流程,並設有嚴格的合約保護。
具體來說,AI 系統部署架構僅限雲端,安全堆疊由 OpenAI 運行與更新,並且不會向戰爭部提供解除道德護欄或未經安全訓練的模型,也不會在邊緣裝置部署模型(是因那些裝置可能用於自主致命武器)。
OpenAI 將派遣通過安全審查的工程師協助戰爭部,並讓通過審查的安全與對齊(alignment)研究人員加入流程。戰爭部可將 AI 系統用於合法目的,不得在法律或部門政策要求人類控制下,讓 AI 系統獨立指揮自動武器,也不得承擔高風險決策。
戰爭部過去一年已與 Anthropic、OpenAI、Google 在內的開發商簽署價值高達 2 億美元的合約,並希望在軍事應用上能有更多彈性,不受限於以不可靠 AI 驅動武器的警告。
OpenAI 相信最終合約比先前協議(包含 Anthropic 原本合約)提供更好的保證與更負責任的防護措施,設下的三條底線足以執行。「我們不知道 Anthropic 為何無法達成相同協議,我們也希望戰爭部與更多 AI 實驗室能夠考慮接受這樣的條款」,OpenAI 表示。
美國政府若違反合約恐怕觸發終止條款,OpenAI 補充說「我們不預期會發生這種情況。」
OpenAI 還強調,Anthropic 不應被列為「供應鏈風險」,並指出「已向政府明確表達我們的立場。」
(首圖為 OpenAI 執行長 Sam Altman,來源:shutterstock)






