AI 程式資安問題激增,Claude Code 為最大安全漏洞來源

作者 | 發布日期 2026 年 03 月 27 日 10:20 | 分類 AI 人工智慧 , 資訊安全 line share Linkedin share follow us in feedly line share
Loading...
AI 程式資安問題激增,Claude Code 為最大安全漏洞來源

人工智慧(AI)程式助理迅速普及全球開發者社群,安全隱憂也日益突顯。喬治亞理工學院系統與軟體安全實驗室(SSLab)最新追蹤數據,截至 2026 年 3 月 20 日,研究員確認至少 74 起 CVE(常見漏洞與披露)漏洞直接源於 AI 產生程式。

這項研究自 2025 年 5 月 1 日開始記錄,數據顯示 AI 漏洞近期呈爆發式增長。僅 3 月研究員就認出 35 起新 AI 相關 CVE(27 起為 Claude Code 產生,四起為 GitHub Copilot 產生,兩起由 Devin 產生,Aether 與 Cursor 各一起)。Anthropic 的 Claude Code 因近期使用量激增尤其突出,共與 49 起漏洞(11 起為嚴重等級)有關;GitHub Copilot 為 15 起(兩起為嚴重等級)。此外,Aether、Google Jules、Devin、Cursor、Atlassian Rovo 及 Roo Code 等工具也均有漏洞紀錄。

研究員指出,目前數據只是冰山一角。SSLab 研究員 Hanqing Zhao 表示,這 74 起案例是有明確證據顯示 AI 參與開發的「下限」,而非實際比例。許多 AI 痕跡在程式提交前會抹除,團隊估算實際漏洞量可能是偵測到 5~10 倍。以開源專案 OpenClaw 為例,雖有超過 300 項安全建議,但僅能確認約 20 起有清晰 AI 訊號。

開發模式轉變加劇風險。過去開發者多用 AI 自動補全,但現在「Vibe Coding」興起,開發者傾向讓 AI 產生整個專案,且未仔細審查就發表。目前 Claude Code 在 GitHub 公共提交紀錄佔比超過 4%,若 AI 程式真如數據所示安全,安全性應比人類程式高數級,研究員認為現在顯然不符事實,低數據反映出偵測盲點而非程式品質更佳。

喬治城大學安全與新興技術中心早期研究(2024 年 11 月發表)也支持這觀察。測試顯示,GPT-3.5-turbo、GPT-4、Code Llama 7B Instruct、WizardCoder 7B 與 Mistral 7B Instruct 等模型寫程式片段,約 48% 雖可編譯,但含安全漏洞,僅約 30% 程式能通過嚴格安全驗證。

(首圖來源:shutterstock)

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》