美國人工智慧公司 Anthropic 近日開放新職缺,為化學武器及高能炸藥專家(一名),以防止自家產品遭「災難性濫用」。Anthropic 擔心 AI 工具可能製造化學或放射性武器,希望有專家協助,確保安全防護措施夠健全。
LinkedIn徵才公告,Anthropic表示,申請者需具備至少五年化學武器和或炸藥防護經驗,並需了解放射性擴散裝置,即所謂的髒彈。Anthropic回覆BBC,此職位與其他敏感職位類似。Anthropic並非唯一這樣做的AI公司,OpenAI也有徵招類似職位,職稱為「生物和化學風險」研究員,年薪高達45.5萬美元,幾乎是Anthropic薪資兩倍。
但有些專家還是擔憂,稱這可能使AI工具接觸到武器資訊,即使有指示AI不使用這些資訊。科技研究員Stephanie Hare博士表示「以AI系統處理敏感化學和炸藥資訊,包括髒彈和其他放射性武器,是否安全?」這類工作的國際條約或其他規範尚未建立,所有任務都是暗中進行。
美伊戰爭及委內瑞拉軍事行動後,AI用於軍事的問題緊迫性日益增加。Anthropic已提告美國戰爭部,因堅持自家系統不得用於完全自主武器或大規模監控美國人,被戰爭部列入供應鏈風險名單。
Anthropic共同創辦人Dario Amodei在2024年2月表示,他認為AI尚未成熟,不應用於軍事目的。白宮則表示,軍方不受科技公司管控。此風險標籤使Anthropic與中國電信公司華為處於同等地位,後者因國安問題被列入黑名單。
OpenAI雖贊同Anthropic立場,但轉頭就與美國政府達成合作協議,不過合約還未開始。Anthropic的AI模型Claude仍在營運,嵌入Palantir系統,已於美國與以色列的伊朗戰爭部署。
- AI firm Anthropic seeks weapons expert to stop users from ‘misuse’
- How Anthropic may benefit from its fight with Trump
(首圖來源:Anthropic)






