MIT 推道德測驗,讓你體會自駕車的兩難──煞車失靈時救乘客還是路人?

作者 | 發布日期 2016 年 10 月 04 日 8:33 | 分類 汽車科技 , 自駕車 follow us in feedly

如果你能設定自動駕駛系統,當自動駕駛車煞車失靈時,會選擇撞上路人還是路障?又或者,你會選擇撞上小孩還是老人?麻省理工學院(MIT)Media Lab 發布線上測驗「Moral Machine」,讓人選擇在不同情境下,煞車失靈的自動駕駛車應該撞上哪一側,希望當自動駕駛車面臨生死攸關的兩難抉擇時,能做出更具有人性的選擇。



MIT Moral Machine

▲ 你會選擇撞上一群小孩(左),還是撞上一群老人(右)?(Source:MIT Moral Machine)

在測驗中,自動駕駛車可選擇直行或轉彎,不過不論選擇哪種都會造成死亡,可能是乘客、路人或動物。測驗中也將人細分為男女、小孩或老人、身材胖或瘦、動物或人類、罪犯或守法人士、社經地位高或低等,這些都會影響判斷,人數多寡也列入考慮。

MIT Moral Machine

▲ 你會選擇撞上闖紅燈的成人(左),還是撞上一名守法的兒童(右)?(Source:MIT Moral Machine)

MIT Moral Machine

▲ 你會選擇撞上 3 名路人(左),還是選擇直行讓車內的動物死亡(右)?(Source:MIT Moral Machine)

最後,測驗會將個人結果和其他人的平均結果比較,看你的道德觀是否和其他人相仿。結果顯示,比起男性,多數參與調查的人會傾向救女性;比起動物,更傾向救人類;比起老人,更傾向救年輕人;比起竊盜,更傾向救社經地位更高的人;不過當面臨該救乘客還是行人的問題時,結果顯示各半。

MIT Moral Machine

▲ 測驗結束可和其他人的測驗結果相比。(Source:MIT Moral Machine)

MIT 在結果頁面下方提醒,這份測驗只是參考用,「我們的目標不是去評斷任何人,而是希望幫助反映出大眾對重要且困難的議題態度為何。」

多數人希望自動駕駛車可將傷亡減到最低,但卻希望他們的汽車不計成本來保護他們。MIT 教授 Iyad Rahwan

過去,Gizmodo 曾報導,儘管多數人希望自動駕駛車應該預設為「盡可能減低傷亡人數」,不過,當詢問自己是否願意搭乘這種自動駕駛車時,多數人卻不願意。進行這份調查的 MIT 教授 Iyad Rahwan 表示:「多數人希望自動駕駛車可將傷亡減到最低,但卻希望他們的汽車不計成本來保護他們。」

或許這項測驗現在看來像是個小遊戲,但在自動駕駛車普及的將來,自動駕駛系統的程式碼就是判斷行人或乘客的生命孰輕孰重的依據。道德議題對人類來說始終是難解的問題,尤其當生死攸關時更是如此,而這卻是自動駕駛系統開發者需要正視的問題。

(本文由 數位時代 授權轉載;首圖來源:shutterstock) 

關鍵字:

發表迴響