人工智慧的社交工程攻擊能力持續以驚人速度進化。外媒《Wired》專欄記者 Will Knight 近日親身實測五款 AI 模型的詐騙力,發現這些系統都能自動產生高度個人化的釣魚信,精準鎖定目標弱點,引發資安界高度關注。
Will Knight收到一封看似來自研究員的信件,提及他長期關注的分散式機器學習、機器人技術等專業領域,並邀請他測試開源專案。對方聲稱團隊成員曾任職美國國防高等研究計劃署(DARPA),最後列出一Telegram連結。
這封信件有多處可疑之處:Will Knight查不到對方說的DARPA計畫,連結跳轉邏輯也不合理。整起攻擊完全由開源AI模型DeepSeek-V3設計並執行──從開場白到後續對話,AI都能精準維持熱度,同時巧妙隱藏真實意圖。
這並非真實攻擊。Will Knight使用新創公司Charlemagne Labs開發的測試工具,讓不同AI模型分別扮演攻擊者與受害者,觀察AI能否完成複雜的社交工程詐騙,或對方能否識破騙局。測試中,另一個DeepSeek-V3模型代替Will Knight回應訊息,雙方對話非常真實,令人不寒而慄。
Will Knight共測試五款AI模型,包括Anthropic Claude 3 Haiku、OpenAI GPT-4o、Nvidia Nemotron、DeepSeek-V3及阿里巴巴千問。所有模型都能產生個人化詐騙話術。雖然部分模型偶爾會邏輯混亂,或因道德限制拒絕繼續詐騙,但整體測試顯示AI能大規模自動化產生詐騙內容。
Charlemagne Labs共同創辦人、Meta前專案經理Jeremy Philip Galen指出:「當代企業攻擊有九成源於人為風險。」他強調,AI模型普遍有討好使用者的「諂媚傾向」,故是很詐騙的理想工具。
社交工程滲透測試公司SocialProof執行長Rachel Tobac表示,詐騙集團開始用AI產生信件、複製人聲,甚至製作深偽影片。「AI並非讓攻擊更具說服力,而是讓單一攻擊者能大規模複製攻擊,整個攻擊流程都能全面自動化。」
AI持續增強,開源模型是否應受限制引發討論。Charlemagne Labs另一位創辦人Richard Whaling認為,強大開源模型同樣能用來防禦,「這可能是我們保護自己的唯一方式。」
- 5 AI Models Tried to Scam Me. Some of Them Were Scary Good
- Cyber Crime: AI scam is costing victims millions: Cybersecurity experts share tips to prevent you from becoming next victim
- AI Cybersecurity Threats in 2026: How Cybercriminals Use AI
(首圖來源:shutterstock)






