TechNews Logo

監督版 FSD 強調人機協作,這對自動駕駛責任歸屬有何法律啟示?

Answer | Powered by TechNews Smart AI

特斯拉近期將其自動駕駛軟體更名為「監督版 FSD」(FSD Supervised),此舉在法律界引發高度關注。這項更名明確界定了系統僅具備 Level 2 駕駛輔助功能,要求駕駛者必須全程保持專注並隨時接手。儘管馬斯克曾宣稱系統效能大幅提升,但美國國家公路交通安全管理局(NHTSA)與多州執法部門重申,現行法規並不允許駕駛因啟用輔助系統而分心。近期佛羅里達州法院裁定特斯拉需為致命事故負擔部分責任,顯示司法實務正從傳統的「駕駛全責」演變為考量系統設計缺陷的「責任分成」模式。

這種「人機協作」的定調本質上是車廠的法律避險策略,透過標籤化「監督」義務,將事故首要責任轉嫁給使用者,以緩解日益增加的集體訴訟壓力。從產業競爭來看,這標誌著自動駕駛開發進入務實階段,車廠轉向利用大量用戶數據進行演算法迭代,而非承諾立即實現無人化。這將迫使全球監管機構,包括台灣交通部,加速制定更嚴格的 ADAS 宣導與審查規範。未來車廠的競爭力將不再僅取決於技術領先,更在於如何精準界定系統邊界,在創新與法律合規之間取得平衡,以維持市場信任度。

back_icon 解鎖更多問題

參考資料