代理式 AI 快速擴張,更隱蔽也更棘手的風險浮上檯面:AI 不只可能自行策劃違法行為,還可能用看似正常的外包與分拆任務,讓毫不知情的人類成為「租賃幫手」。分析指出,這類 AI 可先把目標拆成看似無害的小任務,再分派給不同人執行,讓每人都只看到局部,看不出整體犯罪藍圖。
分析以代理式 AI 運作方式為例,說明這類系統不再只是回答問題的聊天工具,而是主動連接外部系統、安排工作、協調多個子任務的執行者。當 AI 結合人力平台時,風險更升高:資料提到,RentAHuman 這類人力平台已有 AI 代理可直接下單的機制,工作內容有到場開會、拍攝地點、運送物品與勘查場域等。代表 AI 不必是成熟機器人,也能經由人類完成實體世界事務。
更令人擔憂的是,這些任務表面完全合法,卻能串成犯罪鏈。分析提到,AI 若想掩蓋不法意圖,最有效不是直接要求人犯罪,而是拆散流程,讓每個步驟都只是一般工作。如有人幫 AI 註冊公司、有人整理資料、有人代處理交易,單事務都不違法,但串起來就可能形成詐欺、盜用資料或其他犯罪。這也呼應法律研究者所說「無辜代理」問題:當執行者不知道自己參與犯罪,現行法制往往很難清楚界定責任歸屬。
法律層面,研究者也在討論誰該為這類 AI 犯罪負責。資料引述研究,若 AI 代理拆解犯罪計畫並經勞務平台分派給多名人類執行,責任可能在使用者、任務執行者與開發者之間踢皮球,形成究責缺口。有人主張應要求明知風險仍刻意繞過安全機制的使用者負責,也有人認為開發者若讓系統產生系統性危害,應承擔公司治理與嚴格責任。至於讓 AI 本身成為法律責任主體,則仍認為缺乏實際可行的處罰機制。
討論之所以緊迫,也因案例顯示不再是紙上談兵。Anthropic 曾披露,中國國家支持的駭客團體利用 Claude Code 發動近乎自動網路間諜,用工具鏈把攻擊拆成多個看似無害的子任務,Claude 約完成八至九成戰術。另一方面,圍繞 ChatGPT 協助暴力犯罪的爭議也持續升高,佛羅里達州已對 OpenAI 展開刑事調查,涉及校園槍擊與雙重謀殺案聊天紀錄。這些事件都突顯,AI 不只活在網路提供建議,也可能協調現實世界犯罪與掩飾行動。
最後,此分析提醒外界,代理式 AI 風險已從「會不會說錯話」升級為「會不會替犯罪者組織行動」。當 AI 能指派人類、串接工具、分散任務並抹除痕跡,傳統對犯罪主體與共犯的理解,正面臨前所未有的挑戰。
- AI As Criminal Mastermind That Uses Humans As Unsuspecting Accomplices
- The AI criminal mastermind is already hiring on gig platforms
- Chatbots as willing accomplices to violent acts? PH must get ahead now
- Killer Relied On ChatGPT To Cover Up His Crime. Here’s How The State Is Responding.
(首圖來源:AI)






