人類駕駛難以監督接管,到底什麼才是自動駕駛測試的衡量標準?

作者 | 發布日期 2019 年 06 月 12 日 11:13 | 分類 汽車科技 , 自駕車 follow us in feedly

Uber 測試車的致命事故過去一年多了,雖然 Elaine Herzberg 的死讓自動駕駛業泛起一波接一波漣漪,但在日新月異的科技世界,這起事故已成舊聞,被大多數人淡忘了。



不過,還是有人一直惦記著這場悲劇,卡內基美隆大學教授兼 Edge Case Research 聯合創始人 Phil Koopman 就是其中之一。在他看來,Herzberg 之死引領自己進入新的研究領域。現在,Koopman 開始懷疑,各家自動駕駛公司在測試車輛時是否使用高效的安全測試平台。

「我們真的從這次事故學到什麼正確經驗嗎?」Koopman 發問。

在 SAE 世界體驗大會,Koopman 聯合 Beth Osyk 發表名為《自駕車公用道路測試安全論證》論文,深入探討「影響自駕車公路測試安全性的因素。」Koopman 想透過這篇論文為業界提供新養分,讓自己的思考為自動駕駛路測項目穩固的起跑線,防止悲劇再次發生。

「沒有大效用」的反思

雖然事故發生後有大量文章著墨於 Uber 測試車到底犯了什麼錯,但透過研究 Koopman 卻指出,其中一些反思對提升自駕車路測安全根本無濟於事。

比如:

  1. 認為延遲自駕車的部署是不負責任的行為,這波人堅信即使上路的是半調子自駕車,拯救的生命也比殺掉得多。
  2. 決定這次事故到底哪個人的錯更多。是被撞身亡的 Herzberg?還是 Uber 的安全駕駛員?
  3. 找到自動駕駛出問題的原因。

說起第三點,Koopman 更是直接表示:「誰不知道現在的自駕車不成熟?要不我們還測試幹麼!自駕車出問題一定是常有的事。」

搭建安全案例

「一直以來,電腦模擬、封閉道路測試和路測比率到底該如何規範是困擾整個自動駕駛業的大問題。不過可以肯定的是,路測必不可少。」因此,Koopman 主張自動駕駛業應將精力集中在「如何把測試車威脅其他道路參與者的風險降到最低」。

論文中,他強調自動駕駛測試作業員應該搭建安全案例,這案例「必須架構清楚且有證據來論證」。

在 Koopman 看來,這樣的安全案例必須包括以下幾點:

  1. 測試員及時回應。
  2. 測試員適當減壓。
  3. 合適的自動駕駛故障分析。

Koopman 認為,自動駕駛公司採集路測車輛效能表現資料相當關鍵,因為人類保持精神高度集中也就 15~30 分鐘,且掌管監督大權後,人很容易感覺無聊並開小差。

需要注意的是,在這裡採集資料並不困難,困難的是確定哪些才是正確資料。

被神化的「接管」概念

熟悉自動駕駛的你肯定聽過「接管」這個概念,它的誕生與加州政府的自動駕駛測試法規分不開。加州車管所(DMV)規定,凡是在其地盤測試自駕車的公司,都需要定期披露測試里程,以及安全駕駛員在危險情況下接管車輛控制權的頻率。

DMV 的詞典裡,所謂「接管」指的是「當系統出現故障或車輛執行安全受到威脅時,安全駕駛員手動結束自動駕駛模式並接管車輛控制權」。

由於有官方站台,因此「接管」這個概念成了大家判斷自動駕駛技術成熟與否的衡量標準。

是不是覺得挺科學的?Koopman 卻認為這個概念被神化了。他指出,「接管率是一種錯誤的衡量標準」,因為這會在潛意識裡鼓勵操作員減少介入次數,這對測試安全有百害而無一利。

現實是,由於自動駕駛業起步較晚,因此測試車的資料相對較少。Koopman 表示:「現在的自動駕駛測試衡量標準主要看某家公司的後勤實力,比如部署測試車的數量以及累積測試里程,量化這些資料後得到的就是接管報告。不過,接管報告無法提升各家廠商的技術,反而成了排名專屬資料。顯然,這樣的概念無法夯實自動駕駛測試的安全基礎。」

Koopman 甚至認為,「早期測試中,接管頻率越高反而越好,因為這樣你才能辨識自家系統的設計缺陷。」在他看來,每次接管都能反映出機器錯誤或人類失察,無論接管原因是大危機還是小 Bug。

換句話來說,你得事無巨細的掌握每個故障細節。「辨識並修復所有引發安全問題的根本原因相當關鍵,只解決表面症狀根本發揮不了作用。」Koopman 寫道。

人的因素

最後,我們還得認真考慮人的因素。

Koopman 認為,這點可以繼續拿上面的「接管」概念舉例。假設一輛自駕駛試車行駛在路況一致的熟悉路線,為了降低接管率,安全駕駛員會不斷學習車輛的「習性」,不到迫不得已不去碰方向盤,而這樣的操作方法必然會有風險。Koopman 指出,「安全駕駛員恐怕難以在大腦中建立正確的模型,預測自動駕駛系統的下一步動作。」

畢竟我們是人類,無法診斷出系統還沒發生的潛在故障,而這次沒惹出大禍的小 Bug,下次可能就會帶來大麻煩。

簡言之,人類無法完美執行監督自動駕駛系統這個工作。

可以肯定的是,即使是經過特訓且每天被灌輸要提高警惕的安全駕駛員也不可能 100% 完全投入。因此,各家公司要做的就是儘量減少人為因素造成的安全風險並完成可靠的安全論證。

回看 Uber 那場事故,你就會發現,大眾拋出的問題不應該是什麼時候 L4 自動駕駛能真正落實,而是這些自動駕駛公司到底有沒有自己的路測安全案例。

(本文由 雷鋒網 授權轉載;首圖來源:shutterstock)

延伸閱讀:

關鍵字: , ,