AI 涉車禍工程師被起訴?簡立峰:沒有說不可能

作者 | 發布日期 2019 年 06 月 25 日 11:23 | 分類 AI 人工智慧 follow us in feedly


身為 Google 台灣員工及技術人員,Google 台灣董事總經理簡立峰博士常有機會在不同場合演講,但在學術場合,仍難以避免被問及新技術造成的法律與道德問題。簡博士提到關於 Alphabet 子公司 Waymo 工程師開發自駕車,是否會有被起訴的可能,簡博士無奈的回應,沒說過不可能。

簡博士在訊號處理年會 AI 主題演講後回答聽眾問題,談到 AI 的法律問題,目前還沒有定論。前幾日簡立峰與杜奕謹在醫學相關場合回答類似問題,醫療領域 AI 面臨類似自駕車出事的責任歸屬,法律責任仍無定論。

演講時簡博士談到機器比人類有原則,像是路口號誌黃燈,人類駕駛不少會想直接闖過去,機器控制的車就會停下來。機器必須學習人類可能的行為模式,設計成偶爾違規,避免因與人類互動,但人類的潛在危險性造成車禍的可能。

自駕車領域,責任歸給工程師、車廠或沒開車的乘客都不恰當,若工程師要負責就沒人要做 AI,車廠要負責則車子不用賣了,沒開車的乘客要負責更會覺得干卿底事。

未來的狀況,簡博士認為,技術最終被社會接受,需要取得平衡,例如保險理賠能計算可能性,推算出對應的保險風險。演算法工程師大概不會被怪罪,但要做好準備,需要上法庭做證。

最後簡博士舉 Waymo 台灣籍工程師的例子:常要設計不同情境,訓練自駕車 AI 避免做某些事,結果太浸淫其中,造成常做惡夢。看來發展 AI 要被社會接受,並於日常應用,仍需要各方努力。

(首圖來源:科技新報)

關鍵字: ,