道路安全元老怒控特斯拉:「數十年來最危險而不負責任的車廠」

作者 | 發布日期 2022 年 08 月 11 日 9:53 | 分類 汽車科技 , 自駕車 Telegram share ! follow us in feedly


美國道路安全元老級人物,今日強烈指控特斯拉的自動駕駛軟體,導致多起死亡案件,要求監管單位召回相關功能。

特斯拉自駕系統被某些人認為是世界最先進的軟體,也被另一群人視為最危險的人體實驗,過去幾年引起美國交通安全單位高度重視,現在道路安全元老級人物,也出面指責特斯拉。

「特斯拉的 FSD 功能,是幾十年來車廠所做過最不負責也最危險的行為之一」,美國總統前參選人、消費者權益倡議者奈德(Ralph Nader)表示,他要求監管單位立刻做出回應,阻止這個軟體導致更多人死亡。

早在 1965 年,奈德撰寫的《Unsafe at Any Speed》,詳述道路設計、車輛功能與行車安全的原則,堪稱美國交通安全半世紀來的天書,他同時也是消費者權益的積極倡議者。他透過車輛安全中心發表聲明,怒指特斯拉的缺陷。

根據美國高速公路安全局專案調查小組數據,目前已有 16 起特斯拉車主使用 Autopilot 功能後,撞上靜止的緊急救援車輛事件,造成 15 人受傷和 1 人死亡。這些事件多數發生在天黑之後,特斯拉系統無法辨識現場交通管制,像是緊示燈、交通錐、閃光燈和反光箭頭告示,而直接撞上救援車輛。

這項調查已經升級到「工程分析」階段,如果確認為軟體瑕疵,就會發出正式的召回要求。

特斯拉 Autopilot 致死人數:19

隨著輔助駕駛功能越來越進步,監管單位也成立 SCI 特別車禍調查組,針對輔助駕駛系統介入的事件,收集比傳統車禍更多的資訊。至今年 7 月底,SCI 調查 48 起車禍,39 件與特斯拉 Autopilot 有關,導致 19 人死亡。

新科技必然伴隨著批評與疑慮,相較於其他車廠,監管單位特別針對特斯拉的原因,是因為宣傳方式,會讓車主誤以為自己的車有更高性能,疏於注意路況導致事故。

「特斯拉都說他們的車,可能會在錯誤的時間做錯的事,國家不能容許有缺陷的車,開在孩子走路上學的街道。」奈德指出,美國監管單位面對股價高昂、執行長又是超級紅人的車廠,就放鬆心態,尤其人命關天之事,沒有人可以凌駕法律之上。

特斯拉追求自動駕駛的初衷,是希望創造更安全的用路環境,卻遭道路安全大師抨擊。此情此景,正如同 SpaceX 在發展初期,也遭到登月英雄 Neil Armstron 反對。但回到消費者本身,我們還是要再次提醒,現階段市售所有的車輛,都不具備真正自動駕駛能力,開車時請務必注意路況,集中精神,否則只能讓自己成為 SCI 名單的下一人。

(首圖來源:影片截圖)