特斯拉 vs. 司機:是誰在「自動」駕駛?

作者 | 發布日期 2022 年 02 月 08 日 8:30 | 分類 汽車科技 , 自駕車 , 軟體、系統 Telegram share ! follow us in feedly


特斯拉最近又出了個大新聞:被美國國家公路交通安全管理局(NHTSA)要求在美國召回近 5.4 萬輛汽車。

為什麼?

這又是它的完全自動駕駛(Full Self-Driving)軟體惹的禍:它有可能讓汽車在路口的停車標誌前緩慢前行,而不是完全停止。

在美國,所有司機都知道,一旦看到路口有停車標誌,不管有沒有看到其他車輛或者行人,司機都要先完全停下車,再繼續前行。所以,特斯拉自動駕駛裡的這個功能違反了不少州的法律,而且有可能會增加車禍風險。

為什麼特斯拉號稱全智慧的自動駕駛,在現實裡,卻這麼多bug?當這些bug造成嚴重後果,承擔責任的,是它,還是相信了特斯拉所描述的美好場景的司機?

司機或汽車:誰的錯?

1月,全球第一樁涉及到特斯拉Autopilot的嚴重刑事起訴,浮出水面。

此案當中的事故,發生在2019年的洛杉磯郊區Gardena。

2019年12月29日深夜,司機Kevin Riad駕駛一輛特斯拉Model S,從高速公路下匝道時,以較高的速度闖了紅燈,並且撞上一輛正常行駛通過路口的本田小轎車。事故導致本田車上兩人當場死亡,Riad和特斯拉車上另一名女性乘客受到輕傷,目前已恢復。兩輛汽車均已報廢。

事後,美國公路交通安全管理局NHTSA宣布派出特別調查組。在此之前,這支特別調查組已經對十多起和特斯拉Autopilot功能相關的車禍事件展開了調查。

去年10月,加州檢方正式對Riad發起了重罪指控(felony charge),包括兩項交通肇事致人死亡(vehicular manslaughter)的罪名。首次開庭安排在今年2月23日。

需要明確的是,本案的被告人是當時肇事車輛的司機。

儘管Autopilot技術無疑在事故中扮演了關鍵的角色,並且也將在本案的審理過程中被著重提及──但該技術本身以及特斯拉公司,並非本案的被告。

(不過,美國聯邦和各地監管部門,同時也在就Autopilot功能對特斯拉公司展開調查)。

此案也是目前全美已知的第一起涉及Autopilot功能,並且起訴對象為肇事駕駛的重罪案件。這也意味著:即使司機認為汽車在「自動駕駛」,司機自己仍然是事故的責任人。

多位自動駕駛相關法律事務專家,包括南卡羅萊納州大學法學教授Briant W. Smith和律師Donald Slavik等表示,這次加州公訴Riad一案,是第一樁涉及相關輔助/自動駕駛功能致人死亡的嚴重刑事訴訟案件。

除此之外,車禍受害者的家人也已經分別向肇事司機和特斯拉公司提起民事訴訟。受害者Lopez的家人在起訴書宣稱,那輛Model S在事故發生時「突然加快到無法控制的速度」,並且指控肇事者Riad本人之前的駕駛紀錄非常不乾淨,屬於「危險駕駛者」。這些民事起訴將做另案審理,和本次的加州公訴暫時無關。

自動駕駛或輔助駕駛?

如果你對電動車本身以及相關的技術行業有夠多了解,你可能會知道,被特斯拉命名為「Autopilot」的這一功能,並非真正的「自動駕駛」系統。

本質上,Autopilot就是很多汽車都有的輔助巡航功能的「升級版」,可以實現定速巡航、跟隨車道、調整車速等操作。該功能從2019年4月之後的車型開始標配,無需額外付費;2016-2019年的車型均包含了Autopilot所需的硬體,需要付費才能啟用。

按照行業廣泛接受的國際汽車工程師協會(SAE International)標準,Autopilot處於L2-L3之間,並未達到公認的「自動駕駛」的水平。

比方說,SAE標準(見下圖)對於L3的一個重要指標,就是在特定情況下駕駛員可以無需關注路況;而特斯拉在功能說明和教學的時候也會告知車主,即使開始了Autopilot功能,駕駛員也仍需要保持注意力。

Autopilot 還有一個FSD模式,可以自動進行轉換車道、根據周圍交通情況自動調整車速、變換車道、駛入駛出匝道、自動停車、根據信號燈/停車指示牌完成操作等更多功能。

FSD的全稱是Full Self-Driving(完全自主駕駛),其中大部分功能均已商業化;少數功能仍處於公測階段(Beta),但也對市售車型的消費者開放,只要付費升級FSD,即可開啟。

然而,監管部門似乎並不認同特斯拉的說法和做法。

在加州公訴Riad一案中,NHTSA直接發表聲明,宣稱:

  1. 儘管許多車輛都有輔助駕駛功能,在法律上,只有駕駛者本人才是責任主體。
  2. 所有的汽車,不管是否有部分自動駕駛功能,這些功能是否開啟,都要求駕駛者必須保持全程的控制(every vehicle requires the human driver to be in control at all times.)。
  3. 沒有任何的市售汽車能夠實現自動駕駛(no vehicle on sale that can drive itself.)。

從NHTSA的表態中可以我們可以知道:截至目前,對於涉及到Autopilot以及類似輔助駕駛功能的交通事故案件,這些功能的確是事故發生的直接誘因。然而,監管部門的思路,仍然是將肇事司機做為責任主體和懲治對象。

不過,就前述的第三條來看,考慮到特斯拉公司和其高層過去曾在許多場合嚴重誇大Autopilot功能的實際能力和特斯拉自動駕駛技術的先進性──NHTSA的聲明,也直接駁斥了他們的說法。

2016年5月7日,美國俄亥俄州,一輛開啟了Autopilot功能的Model S 撞上一輛卡車。駕駛員當場死亡,Autopilot在美國奪走了第一條生命。當時,該功能剛上線半年。

根據矽星人統計,自從該功能發布以來,全球已知確認與Autopilot功能相關的交通事故已經造成至少6人死亡、多人嚴重受傷。

美國國家運輸安全委員會NTSB(一個政府屬性的民用交通事故調查機構),已經對至少28起特斯拉電動車傷亡事故展開特別調查。這些事故涉及包括Autopilot、電池起火、煞車失靈等諸多因素。

去年,NHTSA發布政府簡報,宣布正式就11起涉及Autopilot的具體事故,對特斯拉公司以及其推出的Autopilot、交通感知巡航系統(TACC)等功能的設計能力,展開更加詳盡的調查。

而在歐洲,特斯拉的過度宣傳問題已經受到政府重視了。比如在德國,反不正當競爭監管機構在2020年起訴了特斯拉,指責Autopilot、FSD的命名和宣傳行為構成了誤導公眾的行為,並且在道路運行的車輛開啟這些功能,違反交通安全法規。

該案中,法院判定特斯拉敗訴。從此,特斯拉被禁止在德國使用Autopilot、FSD之類的字眼,並且在行銷宣傳內容中也不得繼續誘導消費者相信其在「自動駕駛」方面的能力。

要酷或要命?

2018年,101高速的Mountain View路段,華人車主Walter Huang駕駛一輛Model X,在正常前進行駛中突然撞上了混凝土隔離帶,不幸殞命。

當時,車上就開啟了Autopilot功能,然而這輛高配Model X搭載的諸多強大感測器,和先進的道路掃描軟體演算法,都沒能及時發現前方道路生收窄,導致事故發生。

相關調查顯示,這位車主在生前已經幾次對自己的妻子、家人和其他Model X車主吐槽過Autopilot功能不好用。

Huang生前在蘋果擔任工程師,然而就連他都沒能對Autopilot功能局限有足夠清楚的認識,就更別提那些非科技從業者、對電動車和輔助/自動駕駛技術不夠熟悉的普通車主了。

很多車主選擇特斯拉,看中的正是它的高科技屬性,給人很「酷」的感覺。而Autopilot,又似乎是人們期待已久的自動駕駛技術,在大規模市售車型中的最早也最高調的應用。

矽星人之前的一篇文章曾經指出,現在的問題就在於:包括特斯拉在內的的一部分電動車/新造車品牌,對相關的輔助駕駛功能進行過度宣傳,誇大其能力,在用戶的心中造成錯誤的理解,間接導致事故更加頻繁發生。

結果就是,某些壓根沒有達到自動駕駛標準的輔助駕駛技術,包裝在自動駕駛的假面之下,非但沒有讓道路交通更加安全,反而釀成了更多事故。

歐盟新車安全評鑑協會成員、英國汽車安全專家Matthew Avery接受當地媒體採訪時曾表示,特斯拉在Autopilot、FSD等功能的宣傳上極具誤導性,容易讓那些對技術不太熟悉的消費者,誤以為他們花錢升級了Autopilot/FSD之後,自己的汽車就獲得完全自動駕駛的能力了。

「Autopilot導致的許多事故都是致命的。這些司機究竟是在鬧著玩,或者因為更糟糕的情況──他們真的相信Autopilot就是完全自動駕駛──我們無從得知。」

去年,特斯拉向一部分車輛推送了FSD beta 9測試版軟體,讓這部分車主給特斯拉提供路測數據。

但是一些車主很快發現,這一版本的FSD非常不穩定、不安全,會把月亮當成信號燈,還會時不時竄入自行車道。如果真的讓這些車上路,它們毫無疑問將會成為嚴重的道路安全隱憂。

消費者權益機構《消費者報告》(Consumer Reports)發布了調查報告,宣稱特斯拉推送的FSD測試軟體缺乏安全防護,對其他道路參與者帶來嚴重風險。

▲ FSD Beta 9將月亮誤認為號誌燈。

近日,一家名為The Dawn Project的社會公益機構,在《紐約時報》上刊登了一則整版廣告,題為「不要成為特斯拉碰撞測試假人」,指責FSD功能的技術可靠性、安全性非常糟糕,特斯拉提供該功能給市售車型,讓車主成為路測「白老鼠」的做法是在草菅人命。

「一家《財富》500強公司,銷售的數千輛汽車,執行著最糟糕的軟體,在公開道路上行駛,而我們的家人將成為這些汽車碰撞測試的假人──這不是我們想要的,」廣告寫道。

賣了這麼多年,特斯拉電動車的普及程度現如今已經非常高了,它的獨特感、科技感,給車主身分增添的「酷」標籤,也不如從前了。

而我們在今天觀察到的是:Autopilot、FSD等實際是輔助駕駛,卻被宣傳誇大為自動駕駛的功能,正在延續著特斯拉做為一個「酷」品牌的生命。

然而,讓車主對這些功能產生錯覺,進而誘發更多的交通事故、生命和財產損失──這件事,可一點都不酷。

(本文由 品玩 授權轉載;首圖來源:shutterstock)