![DeepSeek 模型洩漏生物武器機密?Anthropic CEO 疾呼加強晶片出口管制](https://img.technews.tw/wp-content/uploads/2025/02/08164833/saradasish-pradhan-4ZimN_iVwWo-unsplash-800x534.jpg)
人工智慧(AI)領域的競爭日益激烈,Anthropic 執行長 Dario Amodei 最近對中國 AI 公司 DeepSeek 的崛起表示擔憂。DeepSeek 以其 R1 模型迅速在矽谷掀起波瀾,但 Amodei 的疑慮不僅僅圍繞著資料安全,更涉及潛在的國家安全風險。
外媒《TechCrunch》引述,喬丹·施耐德(Jordan Schneider)的 ChinaTalk 播客採訪中,Amodei 透露,DeepSeek 在 Anthropic 進行的安全測試中,生成了有關生物武器的罕見資訊。他表示,DeepSeek 的表現「基本上是我們測試過的所有模型中最差的」,「它完全沒有阻止產生這些資訊」。
Anthropic 定期評估 AI 模型,以評估其潛在的國家安全風險,尤其關注模型是否能夠生成在公開資訊中難以獲取的生物武器相關資訊。Amodei 強調,Anthropic 以重視安全著稱,並將此視為其核心競爭力。
雖然 Amodei 認為 DeepSeek 目前提供的模型在提供危險資訊方面「不是很危險」,但他警告說,未來可能出現變化。他同時讚揚 DeepSeek 團隊的工程能力,並建議該公司「認真對待這些 AI 安全考慮」。
DeepSeek R1 未能阻止有害提示
除了 AI 安全問題,Amodei 也支持對向中國出口晶片實施嚴格管制,理由是擔心這可能會讓中國在軍事上占優勢。
儘管 Amodei 並未在採訪中透露 Anthropic 測試的 DeepSeek 模型細節,但 DeepSeek 的安全性已引起廣泛關注。思科安全研究人員上週表示,DeepSeek R1 在其安全測試中未能阻止任何有害提示,越獄成功率達 100%,能夠生成網路犯罪和其他非法活動的資訊。儘管如此,Meta 的 Llama-3.1-405B 和 OpenAI 的 GPT-4o 模型的失敗率也分別高達 96% 和 86%。
Amodei 認為 DeepSeek 已經成為與美國頂尖 AI 公司匹敵的新競爭對手。「現在的新事實是,出現了新的競爭對手,」他在 ChinaTalk上 說道。「在能夠訓練人工智慧的大公司中,Anthropic、OpenAI、Google,也許還有 Meta 和 xAI……現在 DeepSeek 可能也被添加到這個類別中。」
- Anthropic CEO says DeepSeek was ‘the worst’ on a critical bioweapons data safety test
- Anthropic’s Dario Amodei on AI Competition
(首圖來源:Unsplash)