
隨著科技大廠如 Google 和微軟推動自主 AI 系統的發展,關於當 AI 代理(AI agents)出錯時,誰應該負責的問題愈發引人關注。資深軟體工程師 Jay Prakash Thakur 在過去一年中,致力於開發能夠獨立執行任務的 AI agents,這些功能能夠自動化處理客戶查詢或付款等工作。儘管能力令人驚訝,但它們也引發了許多法律問題,尤其是在錯誤發生時,責任的歸屬成為焦點。
AI agents的設計目的是讓它們能夠自主運作,這使得當它們的錯誤導致財務損失時,責任的界定變得複雜。Thakur指出,當不同公司的代理在一個大型系統中互相溝通時,確定誰負責可能會變得非常棘手。他形容,檢查不同代理的錯誤日誌就像是根據不同人的筆記重建對話,往往難以確定責任所在。
OpenAI的高級法律顧問Joseph Fireman在最近的一次法律會議上表示,受害方通常會追究資金最雄厚的公司責任,這意味著即使是因為用戶的錯誤而導致的損害,技術公司也可能需要承擔部分責任。隨著AI聊天機器人問題的保險方案逐漸推出,企業也開始尋求保障。
Thakur的實驗中,他設計了多個代理系統,在於減少人類干預。他的一個項目是開發一個能夠接受客製化義訂單的餐廳系統,然而在測試中,代理有時會錯誤解讀訂單,這在現實情況下可能導致食物過敏等嚴重後果。為了分散風險,保險業已經開始推出涵蓋AI聊天機器人出錯的相關保險,協助企業因應潛在損失。
隨著AI技術的進步,開發者們希望能夠設計出一種裁決代理(judge agent),來監控和糾正錯誤,防止問題擴大。不過,這也帶來系統過度複雜化的疑慮,反而可能影響運作效率。法律專家建議,使用這些系統的用戶應簽署合約,將責任轉移給技術廠商,但這對於普通消費者來說,實際上難以實現。
在這個快速發展的技術環境中,當AI agents出錯時,責任的界定仍然是一個需要解決的問題。業界專家呼籲在推出這些系統之前,必須確保其準確性,以免對用戶造成傷害。
(首圖來源:AI 生成)