美國五角大廈 5 日正式將人工智慧(AI)實驗室 Anthropic 列為「供應鏈風險」企業,限制其技術在軍事行動的使用。有消息人士稱,該技術被用於針對伊朗的軍事行動。
《路透社》報導,Anthropic在聲明中證實,「供應鏈風險」標籤將立即生效,並禁止政府承包商在執行美國軍事任務時,使用Anthropic的技術。
但Anthropic執行長阿莫戴(Dario Amodei)在聲明中寫道,企業仍可在與五角大廈無關的其他專案中使用Anthropic的Claude模型。他還說,這些限制僅適用於在五角大廈合約中使用Anthropic AI的行為。
此次列入風險名單源於雙方長達數月的爭議。Anthropic堅持在技術中加入安全護欄,但戰爭部則認為這些限制過於極端。阿莫戴在聲明中重申,Anthropic將就該風險標籤提出訴訟。
阿莫戴在聲明中指出,Anthropic近日已與五角大廈討論停止使用Claude模型的可行計畫。他表示,雙方也探討如何在不拆除安全防護機制的情況下,讓Anthropic繼續與軍方合作。
阿莫戴也對4日由科技新聞網站The Information披露的內部備忘錄致歉。他在這份於2月27日撰寫的備忘錄中直言,五角大廈官員不喜歡該公司的部分原因在於「我們沒有像對待獨裁者那樣,對川普極盡讚美。」
就在投資人忙著為Anthropic與五角大廈鬧僵後的殘局止血時,這份內部備忘錄的曝光無疑是雪上加霜。
戰爭部尚未立即回應置評請求。
(譯者:陳昱婷;首圖來源:Anthropic)






