自動駕駛技術雖然很神,但包括車廠自己,都聲稱主控權還是在人類,如果切換成自動駕駛,人類最好還是保持專注,雙手放在方向盤上。但安全專家直言,這項要求本身就違反人類天性,高估人類的反應能力。
這兩年美國特斯拉事故有 600 多起,啟動自動駕駛功能似乎特別容易撞上靜止車輛,如道路救援車、消防車等,往往造成嚴重傷亡。最近美國又發生一起引人注目的事故,特斯拉撞上停在加州高速公路的消防車,還不清楚這輛車是在駕駛控制下,還是使用輔助駕駛或 FSD Beta 系統。
由於事故太頻繁,最近特斯拉被美國國家公路交通安全管理局 (NHTSA) 盯上,逼特斯拉召回近 36 萬多輛車 OTA 更新到最新自動駕駛軟體 FSD Beta。特斯拉最新自動駕駛軟體 FSD Beta 於 2020 年推送給少數經特斯拉審核駕駛。2021 年 11 月特斯拉向所有有 FSD 的駕駛推送。FSD Beta 目前要價高達 15,000 美元,特斯拉車主必須購買並安裝高級 FSD 軟體才能試用 Beta 版,特斯拉讓駕駛在美國道路測試並提供數據,約 40 萬名車主有安裝 FSD Beta。
FSD Beta 主要吸引力是稱為城市街道自動駕駛,讓駕駛可干預有限也能在城市行駛,特斯拉聲稱即使 FSD Beta 也比人類更安全。特斯拉季安全報告稱使用 Autopilot 的車發生碰撞的可能性低於普通車輛,Autopilot 是 FSD 功能較弱的前身。但專家質疑報告沒有考慮外部變數,如道路位置或車型和車齡,一般來說,交通事故在城市地區及新型和豪華車都較少見。
特斯拉將 FSD 視為公司未來,但安全紀錄仍令人懷疑。除了最近美國監管單位警告 FSD Beta 在十字路口有違反道路法規造成事故的隱憂,以及特斯拉自駕技術對靜止車輛的判斷可能有問題,目前自動駕駛最大問題在於它並非無人值守狀態。
特斯拉也認為軟體程式只是輔助或支援,人類還是必須全程注視道路,雙手放在方向盤上。美國國家公路交通安全管理局指出,駕駛啟用自動駕駛類功能時應對車輛操作負責,必須不斷監督功能執行並據需要干預以維持交通安全。
從理論講,這可讓駕駛準備好複雜或危險時馬上接管控制權,但問題是人類根本做不到交出控制權後還保持警戒。尤其道路危險可能幾分之一秒出現,人類幾乎沒有時間發現、準備和反應,何況當駕駛處於鬆懈狀態。簡言之,如《富比士》訪問安全專家所言,「告訴駕駛他們的車可自己應付路況,同時警告駕駛得保持警戒,這只是自找麻煩。」
- Tesla Fatal Crash With Fire Truck Draws US Regulator Inquiry
- Tesla Recall Hits Nearly 363,000 Cars With “Full Self-Driving” Software
(首圖來源:特斯拉)