啟動自駕又要保持專注,專家:高估人類能力根本是自找麻煩

作者 | 發布日期 2023 年 02 月 21 日 10:57 | 分類 交通運輸 , 自駕車 , 軟體、系統 line share follow us in feedly line share
啟動自駕又要保持專注,專家:高估人類能力根本是自找麻煩


自動駕駛技術雖然很神,但包括車廠自己,都聲稱主控權還是在人類,如果切換成自動駕駛,人類最好還是保持專注,雙手放在方向盤上。但安全專家直言,這項要求本身就違反人類天性,高估人類的反應能力。

這兩年美國特斯拉事故有 600 多起,啟動自動駕駛功能似乎特別容易撞上靜止車輛,如道路救援車、消防車等,往往造成嚴重傷亡。最近美國又發生一起引人注目的事故,特斯拉撞上停在加州高速公路的消防車,還不清楚這輛車是在駕駛控制下,還是使用輔助駕駛或 FSD Beta 系統。

由於事故太頻繁,最近特斯拉被美國國家公路交通安全管理局 (NHTSA) 盯上,逼特斯拉召回近 36 萬多輛車 OTA 更新到最新自動駕駛軟體 FSD Beta。特斯拉最新自動駕駛軟體 FSD Beta 2020 年推送給少數經特斯拉審核駕駛。2021 11 月特斯拉向所有有 FSD 的駕駛推送。FSD Beta 目前要價高達 15,000 美元,特斯拉車主必須購買並安裝高級 FSD 軟體才能試用 Beta 版,特斯拉讓駕駛在美國道路測試並提供數據,約 40 萬名車主有安裝 FSD Beta

FSD Beta 主要吸引力是稱為城市街道自動駕駛,讓駕駛可干預有限也能在城市行駛,特斯拉聲稱即使 FSD Beta 也比人類更安全。特斯拉季安全報告稱使用 Autopilot 的車發生碰撞的可能性低於普通車輛,Autopilot  FSD 功能較弱的前身。但專家質疑報告沒有考慮外部變數,如道路位置或車型和車齡,一般來說,交通事故在城市地區及新型和豪華車都較少見。

特斯拉將 FSD 視為公司未來,但安全紀錄仍令人懷疑。除了最近美國監管單位警告 FSD Beta 在十字路口有違反道路法規造成事故的隱憂,以及特斯拉自駕技術對靜止車輛的判斷可能有問題,目前自動駕駛最大問題在於它並非無人值守狀態。

特斯拉也認為軟體程式只是輔助或支援,人類還是必須全程注視道路,雙手放在方向盤上。美國國家公路交通安全管理局指出,駕駛啟用自動駕駛類功能時應對車輛操作負責,必須不斷監督功能執行並據需要干預以維持交通安全。

從理論講,這可讓駕駛準備好複雜或危險時馬上接管控制權,但問題是人類根本做不到交出控制權後還保持警戒。尤其道路危險可能幾分之一秒出現,人類幾乎沒有時間發現、準備和反應,何況當駕駛處於鬆懈狀態。簡言之,如《富比士》訪問安全專家所言,「告訴駕駛他們的車可自己應付路況,同時警告駕駛得保持警戒,這只是自找麻煩。」

(首圖來源:特斯拉)