美國政府擴大調查特斯拉自動駕駛,多達 80 萬輛車可能需召回

作者 | 發布日期 2022 年 06 月 13 日 15:53 | 分類 AI 人工智慧 , 交通運輸 , 汽車科技 line share follow us in feedly line share
美國政府擴大調查特斯拉自動駕駛,多達 80 萬輛車可能需召回


美國高速公路安全局將擴大對特斯拉自動輔助駕駛功能的調查,他們希望了解 Tesla Autopilot 是否降低了駕駛的警覺度而導致意外,同時還扯出一些案外案。

由美國交通部管轄的 NHTSA(國家高速公路安全局),從特斯拉啓用自動輔助駕駛(Autopilot)以來,就一直緊盯著這項新科技,並成立長期調查小組,了解每一次涉及 Autopilot 的車禍原因。

NHTSA 最近宣佈,根據他們長期調查結果,他們懷疑特斯拉的自動輔助駕駛功能,會讓駕駛降低警覺性因而導致意外,為了釐清因果關係,調查的範圍從原先的 70 多萬輛車,擴大到 83 萬輛,總共四款車型都包含在內,如果調查結果證實了 NHTSA 的懷疑,就會要求特斯拉全面召回修正。

不僅調查範圍擴大,調查內容也從原本的「初步評估」,升級為「工程分析」,他們希望找出自動駕駛「是否」以及「如何」改變駕駛人行為,而可能導致車禍發生。

「工程分析要讓我們在原本的車禍基礎資料分析外,進一步評估更多參數,並進行車輛模擬評估。」NHTSA 指出,透過這個分析,他們將能夠理解 Autopilot 和其他特斯拉軟體,如何弱化駕駛意識,並導致更高風險。

根據他們目前的調查結果,在大多數事故發生前,特斯拉的前方撞擊警告系統都能夠發揮作用,而且在半數以上的事故中,自動緊急煞車都有成功作動。「然而平均來說,特斯拉的 Autopilot 會在初次撞擊的一秒前解除。」

具體來說,在 NHTSA 掌握的 100 起特斯拉 Autopilot 相關車禍中,有 16 次電腦都在撞擊前一秒,發出解除警告,並提示駕駛並未全神注意控制車輛。

這其中的因果關係並不好解釋,陰謀論者認為特斯拉為了要避免讓 Autopilot 背鍋,因此刻意在車禍發生前解除,來撇清責任。反過來說,當駕駛啓用了 Autopilot 後就開始分心做別的事,確實會導致車禍事故增加,單從目前的數據來說,並沒有足夠的說服力。

最後的疼痛是手放開

但有一點是肯定的,NHTSA 最想要證明,也最想要達成的,就是逼迫特斯拉放棄 Autopilot 這個名稱,因為這會讓駕駛者誤認車輛真的會「自動駕駛」,而忘了這只是「自動輔助駕駛」。而更為浮誇的 FSD(Full Self-Driving)誤導力道就更大了,但因為這是付費功能,因此相對影響人數比較少。

特斯拉執行長馬斯克(Elon Musk)肯定會很不爽,自從拜登政府上任之後,就處處跟他作對。NHTSA 上週公佈,在 2021 年美國的公路死亡人數為 42,915 人,是過去 16 年來的新高,諷刺的是,過去三年來,包括特斯拉在內,各大車廠都推出新銳尖端的輔助駕駛功能,究竟科技是讓道路更安全還是更致命,是 NHTSA 接下來要證明的。

我們必須不厭其煩的提醒所有車主,無論你駕駛的是哪一款車,現階段市售車都不存在 Level 4 或更高的自動駕駛能力,也就是說駕駛人必須要保持全神專注,緊盯路況,否則反而會讓你陷入更大的危險。

(首圖來源:shutterstock)