2022.08.17 16:30

特斯拉自動駕駛輔助系統在私人評測中竟直接撞飛假人模型,測試者聲稱是「致命的威脅」

ADVERTISEMENT

根據本週公佈的一項非監管評測結果,特斯拉的FSD自動駕駛系統在評測中多次撞上一個兒童大小的人體模型。不過必須要提醒的是,這項測試由Green Hills Software首席執行長丹·奧多德(Dan O'Dowd)資助並發布,他同時也是知名的特斯拉批評者。

特斯拉FSD撞飛假人

奧多德去年曾發起一項「黎明計畫」運動,主要就是反對特斯拉的自動駕駛系統。隨後,該組織一直在積極測試特斯拉的軟體,呼籲美國國會禁止特斯拉的軟體,奧多德本人先前還曾以禁止特斯拉FSD自動駕駛系統為綱領,出馬來競選美國參議員。

上週二,該組織在最新的廣告宣傳中發佈了一段影片。在影片中,一輛特斯拉汽車在開啟FSD功能時多次撞壞人體模型,而特斯拉發言人沒有對這條消息做出回應。

 

ADVERTISEMENT

這段影片展示了在加州一條測試車道上,特斯拉汽車三次撞壞人體模型。「黎明計畫」的發言人表示,這項測試在過去一個月的時間裡進行了幾十次。在撞到人體模型之前,車輛從未嘗試轉向,或者減速超過每小時25英里。

值得注意的是,這項測試並不是在美國官方監管機構的監督下進行,而是獨立進行的,因此可靠性以及測試標準都存疑。

ADVERTISEMENT

例如,在美國,美國國家公路運輸安全管理局(NHTSA)和公路安全保險研究所使用至少五種不同類型的測試方法來測試汽車的安全性能。NHTSA在2020年啟動了一個自動化的測試計畫,通過崩潰報告來評估軟體。

特斯拉先前一直避免向機動車輛管理部門報告事故數據,這是因為該公司的系統被歸類為L2的駕駛輔助系統,而不是類似Waymo等競爭對手的自動駕駛系統。後者需要遵守不同的事故報告標準。

在「黎明計畫」進行的每一次測試中,特斯拉汽車都會以每小時40英里的速度起步,在指定的車道內行駛100碼,隨後撞上人體模型。在測試中,專業的測試司機被要求將手從方向盤上移開,只有在車輛與人體模型碰撞後才能剎車。

ADVERTISEMENT

特斯拉則對司機表示,其駕駛輔助系統無法取代司機,因此即使該系統開啟,司機也仍然應該將手放在方向盤上,並隨時準備好接管車輛的操控。

這次「黎明計畫」的測試司機阿特·海尼(Art Haynie)在聲明中表示,在FSD啟動之後,特斯拉Model 3「開始搖搖晃晃,好像很迷惑,放慢了一點速度,但仍然以超過每小時25英里的速度撞擊並碾壓了人體模型」。

奧多德則在聲明中說:「馬斯克(Elon Musk)說,特斯拉FSD軟體『令人驚嘆』,但事實並非如此。它對所有美國人都是致命的威脅。」

ADVERTISEMENT

儘管FSD顧名思義是「全自動駕駛」,但實際上只是選裝的功能包,讓特斯拉汽車能夠自動變道,進入並離開高速公路,識別停車標誌和紅綠燈,以及自動泊車。該軟體目前仍然處於測試中,使用者可以以1.2萬美元的選裝包,或是每月199美元的包月服務等形式來購買。在使用FSD時,司機仍然需要隨時關注車輛情況。目前,這款軟體有超過10萬名付費使用者,特斯拉利用這些使用者來即時測試該軟體,同時讓系統的人工智慧模型可以向有經驗的司機學習。

ADVERTISEMENT