特斯拉 10 月發表最新車輛安全報告,無疑是公關策略的重點:報告指出,啟動 Autopilot,特斯拉車輛平均每行駛 636 萬英里才會發生一起碰撞事故。為了強化這數據的說服力,特斯拉官方帳號在社群媒體發表一系列圖表,展示了自 2018 年以來的安全趨勢,試圖構建一個技術不斷更新、安全性穩步提升的「研究」。
特斯拉將自身的 636 萬英里數據,直接與美國國家公路交通安全管理局(NHTSA)及聯邦公路管理局(FHWA)的最新統計資料進行了並列對比。根據官方資料,美國平均每 70.2 萬英里就會發生一起車禍。簡單粗暴比較,特斯拉得出強力的行銷口號:使用 Autopilot 的駕駛,安全性是全美平均 9 倍。
Autopilot & FSD Supervised safety data
In Q3 2025, we recorded 1 crash for every 6.36 million miles driven in which drivers were using Autopilot technology
By comparison, the most recent data available from NHTSA & FHWA (from 2023) shows that in the United States there was an… pic.twitter.com/8isNe7X4vg
— Tesla (@Tesla) October 22, 2025
然而,這種「統計」忽略了統計學中最重要的原則:可比性。當我們深入探究計算分母與分子的構成時,會發現一個被稱為「基準謬誤」的統計問題,這個粗暴的比較方式,讓特斯拉掩蓋了這「安全性數字」的主要成因。
基準謬誤:蘋果與橘子的錯誤類比
卡內基美隆大學自動駕駛安全專家菲爾·庫普曼(Philip Koopman)教授,長期對特斯拉的比較方式提出嚴厲批評。他認為特斯拉將 Autopilot 的行駛里程、與全美平均駕駛里程進行直接對比,是一種典型的「蘋果比橘子」的錯誤。
Autopilot 與 FSD(特別是早期版本)的使用場景是有侷限性的:絕大多數的 Autopilot 里程累積於高速公路上。高速公路雖然車速較快,但其交通環境相對單純,根據美國聯邦公路管理局的統計,高速公路的每百萬英里事故率,本就遠低於市區道路或鄉間雙向車道。
相比之下,特斯拉拿來比的全國平均值包含了所有類型的駕駛場景:從擁擠混亂的曼哈頓街頭、視線不佳的鄉間小路,到惡劣暴風雪中的行駛。將一個在安全路況下運行的系統資料,拿去比對包含所有「危險路況」的全國平均值,自然會得出誤導性的結論(現在已經不同了)。
駕駛人接管與事故歸屬的盲點
另一個更為隱蔽的統計漏洞在於「事故歸因」如何判定:特斯拉的統計僅計算「系統啟動時」發生的碰撞,然而 L2 自駕的設計邏輯是:當系統遇到無法處理的複雜狀況、或是駕駛眼睛離開路面等問題時,會發出警示並解除運作,要求人類立即接管。
如果系統偵測將發生的碰撞前幾秒鐘解除控制,將方向盤交還給人類,而隨後發生的碰撞可能被計入「人類駕駛」的帳上,而非系統失誤,這將極大程度地「淨化」自駕系統的安全紀錄。雖然特斯拉曾聲稱會將碰撞前 5 秒內的解除納入計算,但由於缺乏獨立第三方審查,外界很難驗證這一標準是否被嚴格執行,或者是否存在邊緣案例被排除在統計之外。
被操弄的對照組
如果說庫普曼的批評主要集中在理論層面,那麼維吉尼亞大學交通安全研究員諾亞·古德(Noah Goodall),則是對特斯拉數據進行了深度解析。他曾詳細分析特斯拉自 2018 年至 2023 年的安全報告方法論變更,揭露了數據背後更深層的操作痕跡。
古德發現,特斯拉在 2023 年 1 月悄然修改了報告的分類方式,並回溯修訂了過去所有的數據。在此之前,特斯拉將數據分為三類:
- 開啟 Autopilot。
- 未開啟 Autopilot 但開啟主動安全功能(如自動緊急煞車、車道維持輔助)。
- 完全未開啟相關功能。
但在修訂後,分類被簡化為兩類:「使用 Autopilot」與「未使用 Autopilot」。這種簡化看似無害,實則隱藏了關鍵的對照組資訊。古德的分析指出,修訂後的「未使用 Autopilot」類別,其事故率數據異常地高,與之前「完全未開啟安全功能」的數據高度重合。這意味著,特斯拉在進行對比時,可能將那些關閉了所有主動安全系統的極端案例權重放大,做為主要對照組。
然而,根據公路損失資料協會(HLDI)的研究,現實世界中絕大多數(約 93%)的駕駛人,並不會主動關閉自動緊急煞車等出廠預設的主動安全功能 。
換言之,特斯拉可能正在將 Autopilot 的表現,與一個在現實中極少見、人為製造出來的「不安全人類駕駛群體」(即關閉所有輔助系統的裸駕者)進行對比。這種對照組的選擇,在學術上是極具爭議的。它人為地拉低了人類駕駛的表現基準,從而放大了 Autopilot 的相對優勢。古德對此直言不諱:「因為特斯拉過去的欺騙行為,我對這些數字幾乎沒有信心。」。
AI 硬體算力成長與演算法不斷更新,自動駕駛終將比人類更安全,這幾乎是歷史的必然。但在此之前,社會需要回答一個艱難的問題:為了抵達那個「零事故」的烏托邦,我們願意在當下承擔多少「不透明」的代價?
(首圖來源:Unsplash)






