特斯拉自動駕駛導致三人死亡車禍,NHTSA 成立專案小組調查

作者 | 發布日期 2022 年 05 月 20 日 11:57 | 分類 AI 人工智慧 , 交通運輸 , 汽車科技 line share follow us in feedly line share
特斯拉自動駕駛導致三人死亡車禍,NHTSA 成立專案小組調查


美國加州上週發生一起死亡車禍,疑似因為特斯拉自動駕駛出問題,導致三人死亡。美國高速公路交通安全局今日表示,已經成立特殊調查小組,針對這起意外深入追查原因。

5 月 12 日美國加州新港海灘的高速公路上,發生一起交通事故,一輛 2022 年版特斯拉 Model S 撞擊路邊護石之後,再撞上旁邊的工程設備,車上兩男一女當場死亡,現場工人也有多位輕傷,當地警方已經出動重大交通事故調查組介入,不過這還不夠。

NHTSA(國家高速公路交通安全管理局)從 2016 年以來,就不斷在關注自動駕駛帶來的風險,號稱市售最強 Level 2 的特斯拉 Autopilot 尤其是他們的調查重點。

這次意外不僅跟自動駕駛有關,而且導致三名乘客在車上死亡,這對於特斯拉相關車禍來說實屬罕見。過去 6 年來,在 NHTSA 派員調查的 34 起自動駕駛相關車禍中,特斯拉占了 28 件,而導致死亡的人數為 14 人。

去年 6 月,NHTSA 注意到越來越多車廠開始推出 Level 2 以上的輔助駕駛功能,因此發出公告要求所有車廠,必須將所有涉及自動駕駛的車禍數據,全數回報給 NHTSA。不管是已經很常見的 ACC 自動跟車或是車道維持,又或是還在測試階段的全自動駕駛和無人計程車隊,相關車禍資訊都必須上傳 NHTSA。

車禍的詳細原因目前仍在調查中,特斯拉也尚未給出官方回應,我們只能再次提醒所有駕駛人,現階段所有「輔助駕駛」功能,仍然要求駕駛將手放在方向盤上,而且需專注於前方路況,車廠不會因電腦輔助導致的車禍負任何責任,駕駛人務必要小心為上。

以全世界來看,日本和德國已經有限度的開放部分車款,在速限之內可以放開雙手駕駛,通常是作為高速公路上的塞車救星;而中國和美國則在部分城市,開放無人計程車隊試營運。至於效果強大的 Tesla FSD Beta,儘管能夠做到非常多看似 Level 4 以上的事情,但在法規上它依然是 Level 2,萬一出事,駕駛仍需負全責。

(首圖來源:Tesla