近來生成式人工智慧(AI)「幻覺」引發的法庭文件爭議,使法律界不得不面對尖銳質疑:是否有律師文件出錯或偽造引文,然後以「是 AI 的錯」當借口,將人為疏失包裝成技術失誤?
富比士專欄作者 Lance Eliot 提出兩種可能性:一是律師確實因過度依賴 AI 而未盡查證責任,導致 AI 產生的虛構引文流入訴狀;二是某些律師根本沒用 AI,而是時間壓力下以隨便湊出看似合理的引用與引述,事後若被發現便直接聲稱都是 AI 的錯。
AI 成為方便好用的代罪羔羊,部分原因在社會普遍知道 AI 模型有幻覺,法院早期案例對這類失誤多採寬容態度:有時僅口頭或書面警告,偶爾伴隨小額罰款。這種寬容與法院通常不深入調查 AI 使用細節(如是否有操作紀錄或實際證據)共同構成「風險計算」:查獲機率偏低,即便被發現,也可不用舉整就說是 AI 幻覺來減輕責任。
Eliot 警告,若真有律師蓄意以 AI 為藉口掩飾人為疏失,一旦法官查明實情,後果恐較單純 AI 犯錯更嚴重,因涉及律師的誠信與職業道德責任。為遏止此類問題,Eliot 提出若干建議,包括:提高被查獲的機率、加重處罰、強制驗證 AI 來源、要求提交第三方驗證或操作紀錄,以及將 AI 幻覺視為律師未盡查核義務的人為錯誤之一。
Eliot 結論強調,無論工具如何演進,律師對提交法院的內容仍負有不可轉讓的專業判斷與勤勉查核義務。也提醒監管機構與法院,應檢討現行處理方式,考慮建立更嚴謹的驗證與問責機制,以避免 AI 被當成遮掩人為疏失的藉口。
- Are There Attorneys Crying Wolf About AI Hallucinations When Human Lawyer Slop Is Really To Blame?
- S&C admits AI hallucination in court filing — Every firm should take note
(首圖來源:AI)






