「養龍蝦」小心變資安破口,資安署提醒應落實五項資安防護

作者 | 發布日期 2026 年 03 月 25 日 10:06 | 分類 AI 人工智慧 , 科技政策 , 科技生活 line share Linkedin share follow us in feedly line share
Loading...
「養龍蝦」小心變資安破口,資安署提醒應落實五項資安防護

具備自主執行能力的 AI 代理工具(AI Agent)已被廣泛應用於日常自動化任務,如近期廣受關注的開源專案 OpenClaw(俗稱龍蝦)。數位發展部資安署提醒,此類工具在提升作業效率的同時,因具備極高的系統權限與 24 小時自主運作特性,若未妥善設定防護機制,極易成為駭客入侵個人主機與企業網路的破口,可能導致使用者個資、機敏資訊如帳號密碼及金融資料等外洩,引發身分冒用與財產損失風險。

提醒使用者導入 OpenClaw 時,應落實資安防護與環境隔離。資安署提醒導入相關工具的單位與民眾,AI 代理的資安風險並非單一漏洞問題,而是涉及架構層面的系統性風險。例如近期 Oasis Security 的研究人員揭露的 ClawJacked 漏洞(CVE-2026-25253),攻擊者僅需誘導使用者瀏覽惡意網頁,就能在不觸發瀏覽器安全警報的情況下,對 AI 代理的管理員權限進行暴力破解(該漏洞已於 2026 年 1 月 29 日修補)。

在評估AI代理工具的風險時,應特別注意以下幾類資安威脅情境:

  • 惡意指令可能出現在外部網頁:AI 代理在瀏覽外部網頁或讀取真實世界的社群留言時,若內容中暗藏攻擊者預埋的惡意指令,AI 代理有可能執行刪除檔案、竄改系統設定等危險操作。
  • 第三方技能包暗藏惡意程式:AI 代理可以安裝名為「技能」(Skill)的擴充來執行訂票、製作影片等複雜任務。網路上已有開放平台供使用者分享自製的擴充包,攻擊者可將惡意行為指令寫入其中並偽裝成正常的 Skill 上架,一旦安裝即可能被植入後門或惡意程式。
  • 長時間運作導致安全守則遺失:AI 代理能處理的資訊量有限,長時間運作後會自動壓縮早期內容以騰出空間。在此過程中,原本設定好的安全規則與權限設置可能被刪減,導致 AI 代理逐漸「忘記」哪些事不該做,產生失控行為。

資安署建議,各界在評估與導入此類新型的 AI 代理工具時,應提高警覺並落實下列實務措施:

  • 落實環境隔離:避免將 AI 代理安裝於存放機密資料或日常作業的環境。應將其部署於全新、已格式化的獨立電腦,或是專屬的虛擬機(Virtual Machine)或容器(Container)中,以此進行有效的風險管控。
  • 外部帳號權限最小化:為 AI 代理註冊專屬的獨立帳號(包含專用電子郵件及社群平台帳號),避免將個人日常使用的帳號與密碼直接提供給 AI 代理。若 AI 代理必須登入外部服務,建議設定具有時效性的臨時授權憑證,時間一到權限即自動失效,避免日後因疏於管理而導致帳號遭竊。
  • 設置人類審核機制:針對高風險操作(如存取憑證、發送郵件或執行系統指令),應於系統設定中強制啟用人工審核,要求每次執行前必須經由人員手動確認方可放行。
  • 親自審查 Skill 擴充套件:在安裝任何第三方技能擴充套件前,應先對其內容說明與程式碼進行完整的安全掃描。若發現內容中有要求下載不明檔案、連線至不明網站等可疑行為,應立即停止安裝並向平台檢舉,同時企業用戶應於組織內部進行資安通報。
  • 將安全守則寫入「長期記憶」:定期審閱且備份 AI 的長期記憶檔。務必將重要的安全限制(例如刪除郵件前必須經過人員同意)直接寫入「核心記憶檔案」(如 OpenClaw 的 MEMORY.md)中,確保每次運作時都會強制載入安全守則,避免因記憶壓縮而遺忘設定好的防護設定。

數位發展部資安署強調,AI 代理技術能帶來顯著的創新效益,但須在「環境隔離」、「人工審核」的前提下進行測試與應用,方能兼顧數位發展與資訊安全。

(首圖來源:AI 生成)

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》