Anthropic 拒 AI 軍事用途遭列國安風險,法官憂政府違憲

作者 | 發布日期 2026 年 03 月 26 日 10:00 | 分類 AI 人工智慧 , Claude , 軍事科技 line share Linkedin share follow us in feedly line share
Loading...
Anthropic 拒 AI 軍事用途遭列國安風險,法官憂政府違憲

聯邦法官 25 日質疑政府報復人工智慧(AI)公司 Anthropic 的行動。Anthropic 因軍事應用爭議被列為國家安全風險,隨後提起訴訟。

Anthropic本月在舊金山提起訴訟,尋求推翻這項認定。該類認定通常僅針對不友善的外國組織,且可能嚴重影響其熱門AI模型Claude的發展。

Anthropic拒絕讓五角大廈將Claude用於執行自動化致命戰爭及對美國人進行大規模監控,但政府拒絕了Anthropic提出的安全保障建議。

Claude是國防部目前部署最廣泛的前沿人工智慧模型,也是唯一在其機密系統中運作的同類模型。

法官瑞塔‧林(Rita Lin,譯音)表示,她將在「幾天內」做出裁決。她指出,政府這些反應「令人擔憂」,因為這些反應「似乎不是真正針對所聲稱的國安問題」。她表示,如果軍方不滿與Anthropic的合約,「政府大可直接停用Claude」。

她補充道:「看來被告的做法不僅於此,他們試圖因Anthropic在媒體上批評政府發包立場而加以懲罰,這種行為毫無疑問地違反了憲法第一修正案。」

她還對美國政府律師在聽證會上的說法表示質疑;該律師聲稱Anthropic的倫理顧慮可能增加其干預軍事行動的風險。

林法官說:「我只是在想,為什麼有人對運作方式提出質疑,就會被懷疑可能會植入後門。」

(譯者:鄭詩韻;首圖來源:Unsplash

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》