法庭不再需要人類?英美加速引入 AI 仲裁,專家:人機協作將成司法新常態

作者 | 發布日期 2026 年 01 月 29 日 7:10 | 分類 AI 人工智慧 , 科技政策 line share Linkedin share follow us in feedly line share
Loading...
法庭不再需要人類?英美加速引入 AI 仲裁,專家:人機協作將成司法新常態

美國法律系統長期飽受案件壅塞、訴訟費用高昂之苦,不少中小企業甚至無力取得基本法律協助。為此,American Arbitration Association(AAA)在 2025 年推出名為「AI Arbitrator」的人工智慧仲裁系統,希望透過 AI 加速爭議解決流程、降低成本,並計劃自 2026 年起將服務擴展至更多產業與高價值案件。這套系統由 AAA 與 QuantumBlack, AI by McKinsey 合作開發,也再度把「AI 是否適合涉入法律決策」的爭議推上檯面,尤其是在生成式 AI 容易產生虛假資訊的前提下。

目前,美國法院已在多個環節導入 AI 技術,包括處理與分類法庭文件等行政工作,以及基本的民眾諮詢與客服。部分法官或其團隊更會使用生成式 AI 協助整理案件時間軸、搜尋文字與影音證據,甚至進行初步法律分析與條文詮釋。密西根州最高法院近期便與 AI 法律推理平台 Learned Hand 簽約,對方自稱是「法律助理的法律助理」,反映司法體系對 AI 工具的實際需求正在增加。

然而,AI 在法律場域的應用也暴露出明顯風險。2024 年至少有兩名聯邦法官,因依賴生成式 AI 起草判決或命令,導致文件中出現虛構事實與錯誤引用,事後不僅必須公開道歉,相關法院也被迫制定新規範,限制在未經查證前直接採信 AI 內容。早在生成式 AI 普及前,法院便已使用演算法評估被告再犯風險,但 2016 年 ProPublica 調查顯示,這類系統的預測不僅準確度有限,還傾向不成比例地將黑人被告評為「高風險」,即使控制犯罪紀錄與年齡等變項後,偏差依然存在。

在法律詮釋層面,爭議更為細膩。聯邦第 11 巡迴上訴法院法官 Kevin Newsom 曾於 2024 年公開表示,法官可以考慮借助大型語言模型(LLM),來分析爭議條文中關鍵字詞的一般語義。他以一件保險理賠案為例,爭點在於地下蹦床是否算作「園景美化」(landscaping),認為 ChatGPT 與 Google Gemini 的回答有助於掌握該詞在日常語言裡的用法。

不過,史丹佛大學教授 Daniel Ho 等學者警告,這種作法建立在過度簡化的假設之上。LLM 的訓練會受多種因素影響,包括負責微調模型人員所在地區的語言習慣,導致輸出結果可能帶入外國法概念(而美國部分大法官認為這不應用於詮釋憲法),或反映的是「精英言論」而非真正的大眾語言。此外,LLM 容易出現「幻覺」(hallucination)問題,在法律情境中憑空捏造判例或條文尤其危險。2024 年一項測試四款 LLM 的研究發現,法律事實被幻覺扭曲的情況「普遍存在」;即便 LexisNexis、Westlaw 等專業法律檢索平台已採取抑制機制,2025 年的研究仍指出,幻覺依舊是「不容忽視的重大風險」。

在這樣的背景下,AAA 推出的 AI Arbitrator 一方面被視為改善司法效率的創新實驗,另一方面也讓「由 AI 參與裁決」的正當性與風險管理,成為法律界與科技界必須共同面對的新課題。

AI 仲裁員的運作模式

由 AAA 總裁兼行政總裁、前密西根州最高法院首席法官 Bridget Mary McCormack 領導開發的 AI Arbitrator,目前只處理建築業的純文件案件,例如承包商與業主之間基於合約的爭議。該系統以 AAA-ICDR 建築案件中實際仲裁員的推理為基礎進行訓練,並經由人類仲裁員輸入進行校準。

系統運作流程如下:雙方提交各自立場與相關文件後,AI 會總結提交內容、整理索賠與反索賠清單、建立案件時間表,並列出關鍵爭議點。此階段雙方可就 AI 的理解是否準確提供回饋。之後,人類仲裁員介入,閱讀材料並驗證或編輯每個關鍵問題。AI 會就每個問題提供分析,仲裁員可再加入回饋。最後,AI 草擬裁決及理由書,由人類仲裁員負責編輯、驗證並簽署。

這類案件通常需時 60 至 75 天,協會預計使用 AI 仲裁員可將時程縮短至約 30 至 45 天,並節省至少 35% 成本。

AI 仲裁引發的實際爭議

AI 在仲裁中的應用已引發實際法律爭議。在 LaPaglia v. Valve Corp. 一案中,申請人向美國加州南區地方法院提出撤銷仲裁裁決的請求,理由是仲裁員「將裁決職責外包給人工智慧」。申請人指出,仲裁員曾談到自己如何使用 ChatGPT 撰寫航空俱樂部文章以節省時間。

申請人認為,此舉違背雙方對「由人類仲裁員提供經過充分推理的決定」之合理期待。案件結果尚未塵埃落定,但已提出一個關鍵問題:仲裁員在多大程度上可以依賴 AI,而不會被視為放棄自身應負的裁決職責。

全球 AI 法官的實踐

部分國家已在實務運作中試驗「AI 法官」。中國的網上法院系統允許雙方同意由 AI 法官處理涉及貸款或域名所有權的案件,如對結果不滿,仍可申請人類法官審查。愛沙尼亞也已將 AI 法官概念付諸實踐。

哥倫比亞大學法律學者 Tim Wu 則提出一種仿照 Facebook 審核系統的法律架構:由 AI 法官處理簡單、標準化案件,而那些測試既有規則界限、揭示內部矛盾的「棘手案件」,則交由人類法官處理。

人類判決的不可取代性

儘管 AI 帶來效率提升,專家普遍認為某些司法工作仍需要人類參與。美國最高法院首席大法官 John Roberts 在 2023 年報告中指出,像是判斷被告在量刑時是否真誠悔改,或處理牽涉特定事實的「灰色地帶」等工作,仍屬人類法官的獨特職責。

前聯邦法官 Paul Grimm 也強調:「這些工具的設計目的不是得出正確答案,而是根據查詢與訓練數據預測最可能的回應。」他認為,法官絕不應該「只是」檢查 AI 的工作成果,更關鍵的是要牢記 AI 工具不會宣誓。

有趣的是,2025 年一項研究發現,黑人受訪者比白人與西班牙裔參與者更傾向認為,AI 輔助的保釋與量刑決定較為公平,「顯示他們可能將 AI 視為透過限制司法酌情權來提升公平性的一種工具」。

效率與準確性的平衡

McCormack 認為,AI 有機會解決法律專業 250 年來未真正更新的「作業系統」問題。她指出:「我們經歷了四次工業革命,卻從未更新法律系統的作業系統。當這套系統建立時,市場樣貌完全不同,一對一服務模式可以適用於所有人。但這早已不再是事實,而且已經不是很多年了。」

不過,美國公民自由聯盟(ACLU)高級政策顧問 Cody Venzke 提醒:「如果你想要更有效率的司法系統,讓法官能在每宗案件上花更多時間……最簡單的答案不是 AI,而是任命更多聯邦法官。」

他強調:「當你談的是像司法程序這種直接影響人民權利的領域時,你不會滿足於 95% 或 99% 的準確度,而是需要極度接近 100%。在 AI 系統達到那一點之前,它們真的沒有地方可以運作,尤其是獨立運作。」

(本文由 Unwire HK 授權轉載;首圖來源:pixabay

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》