隨著人工智慧(AI)代理的迅速普及,麻省理工學院(MIT)計算機科學與人工智慧實驗室(CSAIL)最近發布的 2025 年 AI 代理指數揭示了這些系統的發展現狀。該指數分析了 30 個 AI 代理,發現儘管這些代理的能力不斷增強,但在行為標準和安全披露方面卻缺乏共識,這引發了對網路互動和安全的重大風險。
根據報告,這30個AI代理中有24個在2024至2025年間進行了重大更新,但開發者更關注產品功能而非安全性。僅有4個具備高度自主性的代理(如ChatGPT代理、OpenAI Codex、Claude Code、Gemini 2.5 Computer Use)披露了安全評估,25個代理未提供任何安全測試細節,23個則缺乏第三方數據。這些代理往往無視網站協議、如robots.txt,這使得現有的網絡行為規範面臨挑戰。
報告指出,AI代理的安全和治理缺口加劇潛在威脅。大多數代理依賴於來自Anthropic、Google或OpenAI的基礎模型,並附加了額外的支撐層,但只有15個非中國代理提及了安全框架,如Anthropic的負責任擴展政策或OpenAI的準備框架;而10個則完全沒有安全框架的文檔。相較之下,中國的代理在安全框架和合規標準方面表現更差,僅有1個擁有安全框架,1個擁有合規標準。
根據Cisco的2026年報告,83%的組織計劃在2025年初部署AI代理,但只有29%感到安全準備就緒,這使得它們在追求速度的過程中忽視了必要的審核,暴露出如提示注入、越獄、脆弱的供應鏈和模型上下文協議(MCP)漏洞等安全隱憂。最佳實踐強調應對數據洩露或劫持的防範措施,包括基於角色的訪問控制、最小特權、持續監控和人類監督。
在政策方面,2025年美國優先考慮創新而非新規範,依賴現有法律;歐盟簡化了AI法案的規則以促進投資;中國則保持關注,但代理的安全採用情況不一。至今尚未出現普遍的行為標準或對用戶披露AI性質的要求。
這個現狀凸顯了在AI代理快速增長的背景下,建立標準的緊迫性,因為不受控制的部署可能導致開源項目中的AI生成代碼污染等風險。
- AI agents abound, unbound by rules or safety disclosures
- Most AI bots lack basic safety disclosures, study finds
(首圖來源:pixabay)






