德研究團隊將賦予自駕車道德準則:事故時,以人類安全為優先

作者 | 發布日期 2017 年 07 月 07 日 9:10 | 分類 AI 人工智慧 , 尖端科技 , 自駕車 follow us in feedly

在討論自動駕駛技術時,安全性總是許多人關注的重點,近日德國有團隊研究出一組數學模型(Mathematical Model),將有望賦予自駕車「道德準則」,讓自駕車在事故發生時,將人的安全放在首位。



印度經濟時報報導,這項研究是由德國歐斯納布魯克大學(Osnabruck)認知科學研究所的團隊所進行,研究人員 Leon Sutfeld 表示,直到目前為止,人們都假定道德判斷與當下的環境因素強烈相關,因此不能透過演算法模擬或描述,「但是我們發現正好相反」。

研究團隊透過沉浸式虛擬實境(immersive VR),在模擬的交通場景中研究人類的行為與道德判斷,詳細論文內容被刊載在學期開《行為神經科學尖端》(Frontiers in Behavioral Neuroscience)。

在這次的研究中,研究人員讓參與者當駕駛,在一處典型的郊區社區開車,而外面充滿大霧,當碰到沒有預期且無可避免的兩難處境時,他們必須決定在無生命的物體、動物和人類之間,哪個是可以獲得倖免的。

在測試結束後,團隊將統計模型進行概念化後設計成規則,能夠具有相關的解釋能力,來解讀觀察到的行為。

研究人員發現,人類在困境中的行為可以透過一個相當簡單、僅以生命為基礎的模型來建模,這個模型可以套用在每一個人、動物或無生命的物體,這意味著人類的道德行為可以被機器使用的演算法描述。

研究人員 Gordon Pipa 認為,從現在的情況看來,未來機器的確有機會能被編程到像人類一樣進行道德決定,但更重要的是,社會應該儘快對此進行認真討論。

「究竟自駕車是否該採用道德判斷?如果是,它們該模仿人類的判斷方式來進行道德決議嗎?如果它們由始至終都遵照道德理論的規定,但事情的結尾還是不如預期,誰或是什麼該負責呢?」

自駕車只是個開始,未來手術機器人或其他人工智慧(AI)系統都有可能使用到道德判斷,研究團隊認為,人們正處在一個新時代的開端,必須儘快訂出明確的規範,否則機器可能會開始自行做決定。

(首圖來源:Stocksnap.io)