OpenAI 提三底線與戰爭部簽署協議,反對 Anthropic 成供應鏈風險

作者 | 發布日期 2026 年 03 月 02 日 18:59 | 分類 AI 人工智慧 , Claude , OpenAI line share Linkedin share follow us in feedly line share
Loading...
OpenAI 提三底線與戰爭部簽署協議,反對 Anthropic 成供應鏈風險

美國戰爭部(Department of War)與 Anthropic 的軍事合作未取得共識,美國總統川普(Donald Trump)下令聯邦機關禁用 Anthropic 的 AI 技術,Anthropic 列為與國家安全有關的供應鏈風險。戰爭部火速改與 OpenAI 達成協議,將其 AI 模型部署至軍方機密網路系統,引發更多議論。

OpenAI 聲明指出,與戰爭部合作有三條重要底線:

  1. 不得將 OpenAI 技術用於大規模國內監控。
  2. 不得將 OpenAI 技術用於直接指揮自主武器系統。
  3. 不得將 OpenAI 技術用於高風險的自動化決策(例如所謂「社會信用」系統)。

在合約中,OpenAI 強調透過多層次方法維護 AI 系統的底線,包含以雲端方式部署、保留對安全堆疊(safety stack)的決定權、讓經過安全審查的 OpenAI 人員參與流程,並設有嚴格的合約保護。

具體來說,AI 系統部署架構僅限雲端,安全堆疊由 OpenAI 運行與更新,並且不會向戰爭部提供解除道德護欄或未經安全訓練的模型,也不會在邊緣裝置部署模型(是因那些裝置可能用於自主致命武器)。

OpenAI 將派遣通過安全審查的工程師協助戰爭部,並讓通過審查的安全與對齊(alignment)研究人員加入流程。戰爭部可將 AI 系統用於合法目的,不得在法律或部門政策要求人類控制下,讓 AI 系統獨立指揮自動武器,也不得承擔高風險決策。

戰爭部過去一年已與 Anthropic、OpenAI、Google 在內的開發商簽署價值高達 2 億美元的合約,並希望在軍事應用上能有更多彈性,不受限於以不可靠 AI 驅動武器的警告。

OpenAI 相信最終合約比先前協議(包含 Anthropic 原本合約)提供更好的保證與更負責任的防護措施,設下的三條底線足以執行。「我們不知道 Anthropic 為何無法達成相同協議,我們也希望戰爭部與更多 AI 實驗室能夠考慮接受這樣的條款」,OpenAI 表示。

美國政府若違反合約恐怕觸發終止條款,OpenAI 補充說「我們不預期會發生這種情況。」

OpenAI 還強調,Anthropic 不應被列為「供應鏈風險」,並指出「已向政府明確表達我們的立場。」

(首圖為 OpenAI 執行長 Sam Altman,來源:shutterstock)

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》