AI 詐騙信攻擊驚人逼真,專家警告社交工程威脅又升級

作者 | 發布日期 2026 年 04 月 27 日 7:40 | 分類 AI 人工智慧 , 資訊安全 , 開放資料 line share Linkedin share follow us in feedly line share
Loading...
AI 詐騙信攻擊驚人逼真,專家警告社交工程威脅又升級

人工智慧的社交工程攻擊能力持續以驚人速度進化。外媒《Wired》專欄記者 Will Knight 近日親身實測五款 AI 模型的詐騙力,發現這些系統都能自動產生高度個人化的釣魚信,精準鎖定目標弱點,引發資安界高度關注。

Will Knight收到一封看似來自研究員的信件,提及他長期關注的分散式機器學習、機器人技術等專業領域,並邀請他測試開源專案。對方聲稱團隊成員曾任職美國國防高等研究計劃署(DARPA),最後列出一Telegram連結。

這封信件有多處可疑之處:Will Knight查不到對方說的DARPA計畫,連結跳轉邏輯也不合理。整起攻擊完全由開源AI模型DeepSeek-V3設計並執行──從開場白到後續對話,AI都能精準維持熱度,同時巧妙隱藏真實意圖。

這並非真實攻擊。Will Knight使用新創公司Charlemagne Labs開發的測試工具,讓不同AI模型分別扮演攻擊者與受害者,觀察AI能否完成複雜的社交工程詐騙,或對方能否識破騙局。測試中,另一個DeepSeek-V3模型代替Will Knight回應訊息,雙方對話非常真實,令人不寒而慄。

Will Knight共測試五款AI模型,包括Anthropic Claude 3 Haiku、OpenAI GPT-4o、Nvidia Nemotron、DeepSeek-V3及阿里巴巴千問。所有模型都能產生個人化詐騙話術。雖然部分模型偶爾會邏輯混亂,或因道德限制拒絕繼續詐騙,但整體測試顯示AI能大規模自動化產生詐騙內容。

Charlemagne Labs共同創辦人、Meta前專案經理Jeremy Philip Galen指出:「當代企業攻擊有九成源於人為風險。」他強調,AI模型普遍有討好使用者的「諂媚傾向」,故是很詐騙的理想工具。

社交工程滲透測試公司SocialProof執行長Rachel Tobac表示,詐騙集團開始用AI產生信件、複製人聲,甚至製作深偽影片。「AI並非讓攻擊更具說服力,而是讓單一攻擊者能大規模複製攻擊,整個攻擊流程都能全面自動化。」

AI持續增強,開源模型是否應受限制引發討論。Charlemagne Labs另一位創辦人Richard Whaling認為,強大開源模型同樣能用來防禦,「這可能是我們保護自己的唯一方式。」

(首圖來源:shutterstock)

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》