AI 撰寫判決書,會不會「製造」更多有罪的人?

作者 | 發布日期 2023 年 12 月 04 日 8:20 | 分類 AI 人工智慧 , 科技政策 , 科技生活 line share follow us in feedly line share
AI 撰寫判決書,會不會「製造」更多有罪的人?


前陣子司法院預計將 AI 導入判決系統,試圖去減輕司法負擔。法官與檢察官背負的案量日漸遽增,大部分是詐騙案件,而生成式 AI 能否協助減輕撰寫判決書的工作?的確初期是以無法安全駕駛、詐欺等大量且形式雷同的案件做起,或是支付命令這些較少人為判斷的案件,但我們關心的是,能否減少冤案,還是持續「複製」判決?

首先,我們要擔心的是「複製偏誤」。積非成是這成語大多人聽過,但對於司法冤案的產生,卻不是每個人都了解的,除非他遭遇到司法困境。

而在開發的前期,大多參考了司法院既有的查詢系統與判例做為AI學習的樣本;但司法是與時俱進的,例如通姦除罪化、刪除了刑法239條,而早期的判例可能會偏向某種歸因,而欠缺了對於當事人的其他考量。例如貧窮、被脅迫、被教唆等,或大量複製了過往的偏誤,如種族歧視、性別歧視、多元性別等近幾年才被平反的觀念,司法院有評估過這樣累積的風險嗎?

審理案件是個複雜的判斷與推敲的過程,例如未成年的孩子去當運毒的車手,就法條解釋上它的確是有罪,但未能考慮當事人經濟條件、受困於無可奈何的困境,不是閱讀文字與卷宗就能夠理解的,況且每個法官的判準與裁量也不盡相同,同樣一條罪名還是有不同程度的判決結果,不能被歸因或者標準化。且一旦民眾得知司法系統使用AI判決,就跟汽車自動駕駛技術類似,這並無法屏除人為介入做最後的判斷,最後造成司法的公信力喪失。

雖然司法院非常迅速的提出了回覆,認為科技進步使然,也有限定使用範圍、使用的程式語言為TMT5語言模型架構,且主機不對外連線等防護措施,且目前只採用例稿撰寫。而在民間團體召開記者會提出各項質疑後,司法院也從善如流暫緩了開發。在尚未確認判例與資料引用的範圍、判決產生的偏誤以及風險之前,我們對於AI撰寫的文字仍要保持懷疑的態度。而包含後續的著作權、文字產生效益的責任歸屬等,都是未知的領域。

一方面也有法官持樂觀態度,認為若能減輕司法負擔,何嘗不是一件好事?前陣子因為案量與人力負擔過重,有三十幾位法官與檢察官相繼離職;筆者認為,增加法官助理,分案到不同的層級與法院,將案件分流,例如行政命令或是一定裁罰的量,或非重大刑案等,也許可以分給AI做為初階的卷案與判例的生成,但審判與法條的引用,目前AI似乎還是無法完全取代人類,畢竟憐憫、虛假意思表示、翻供、脅迫等非難之罪,豈能單靠經驗做判決?AI生成的出現,的確帶來便利,但我們仍要小心,不能錯殺無辜。

(首圖來源:Image by Freepik

延伸閱讀: