NHTSA 發現特斯拉自駕軟體偷偷違規,將召回 36 萬輛車更新

作者 | 發布日期 2023 年 02 月 17 日 8:38 | 分類 交通運輸 , 汽車科技 , 自駕車 line share follow us in feedly line share
NHTSA 發現特斯拉自駕軟體偷偷違規,將召回 36 萬輛車更新


由於特斯拉 FSD 存在「安全疑慮」,美國高速公路交通安全委員會要求召回受影響的 36 萬輛車,特斯拉將透過軟體更新修復這項瑕疵。

特斯拉應 NHTSA(國家高速公路交通安全委員會)要求,將召回 2016~2023 Model S 和 Model X,以及 2017~2023 Model 3 和 2020~2023 的 Model Y,共 362,758 輛車,修復自動駕駛軟體瑕疵。雖然說是召回,但特斯拉車主並不需要真的回廠,只需透過軟體更新就能修復瑕疵。

NHTSA 工程師在測試 FSD Beta 時發現,特斯拉電腦可能學會了某些人類的壞習慣,偶爾會做出違規駕駛,造成週遭人車的安全疑慮。

「FSD Beta 可能會在轉彎車道直行,看到停車再開標誌時不會完全停止,或是搶黃燈通過路口。」NHTSA 公告中指出,FSD Beta 還會偷偷超速,有時候甚至會超過車主設定的速度上限。

▲ NHTSA 對 36 萬輛特斯拉車輛的召回令。(Source:NHTSA

雖然官方測試表示,這些狀況只在特定而且罕見的情形發生,但依然會對交通安全產生潛在危險,因此要求車廠召回修復。特斯拉與 NHTSA 溝通後,預訂將在 4 月發佈相關軟體更新,修正這項問題。

特斯拉的軟體更新頻率相當高,能夠不斷修正問題,但關於自動駕駛違規這件事,其實茲事體大。假設有一套自動駕駛軟體會 100% 嚴格遵守交通法規,相信很快就會被市場淘汰,因為道路狀況詭譎多變,有太多需要依現場判斷的決策。

舉例來說,當行經一條雙向車道中間畫有雙黃線,但車道上卻因為工程、消防、救護倒垃圾或是最常見的並排違停擋住車道,最理想的狀況是判斷對向沒有來車後,跨越雙黃線超車,這時就需要 AI 能夠違規駕駛,否則就得脫手給人類判斷。

從輔助駕駛的觀點出發,這個問題只要解除輔助駕駛,丟回給人類就好,但對於特斯拉、Waymo 這些想要達成 Level 5 真自動駕駛的公司來說,如何判斷馬路上千奇百怪的狀況,並做出合適的對策才是一大難題。

試想一下,假設車廠真的具備了 Level 5 能力,你的「夥計」自動開到公司接你下班,但因為你公司門口畫滿紅線,電腦在「絕不違規」的條件下,要在下班時間的市區找到一個可以合法暫停上下客的空間,不知道要等多久。至於上車後,想要去買一份晚餐回家,又是另一個故事了。

(首圖來源:特斯拉