Anthropic 延攬武器專家,為防堵自家 AI 遭惡意濫用

作者 | 發布日期 2026 年 03 月 17 日 14:40 | 分類 AI 人工智慧 , Claude , 人力資源 line share Linkedin share follow us in feedly line share
Loading...
Anthropic 延攬武器專家,為防堵自家 AI 遭惡意濫用

美國人工智慧公司 Anthropic 近日開放新職缺,為化學武器及高能炸藥專家(一名),以防止自家產品遭「災難性濫用」。Anthropic 擔心 AI 工具可能製造化學或放射性武器,希望有專家協助,確保安全防護措施夠健全。

LinkedIn徵才公告,Anthropic表示,申請者需具備至少五年化學武器和或炸藥防護經驗,並需了解放射性擴散裝置,即所謂的髒彈。Anthropic回覆BBC,此職位與其他敏感職位類似。Anthropic並非唯一這樣做的AI公司,OpenAI也有徵招類似職位,職稱為「生物和化學風險」研究員,年薪高達45.5萬美元,幾乎是Anthropic薪資兩倍。

但有些專家還是擔憂,稱這可能使AI工具接觸到武器資訊,即使有指示AI不使用這些資訊。科技研究員Stephanie Hare博士表示「以AI系統處理敏感化學和炸藥資訊,包括髒彈和其他放射性武器,是否安全?」這類工作的國際條約或其他規範尚未建立,所有任務都是暗中進行。

美伊戰爭及委內瑞拉軍事行動後,AI用於軍事的問題緊迫性日益增加。Anthropic已提告美國戰爭部,因堅持自家系統不得用於完全自主武器或大規模監控美國人,被戰爭部列入供應鏈風險名單。

Anthropic共同創辦人Dario Amodei在2024年2月表示,他認為AI尚未成熟,不應用於軍事目的。白宮則表示,軍方不受科技公司管控。此風險標籤使Anthropic與中國電信公司華為處於同等地位,後者因國安問題被列入黑名單。

OpenAI雖贊同Anthropic立場,但轉頭就與美國政府達成合作協議,不過合約還未開始。Anthropic的AI模型Claude仍在營運,嵌入Palantir系統,已於美國與以色列的伊朗戰爭部署。

(首圖來源:Anthropic

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》