特斯拉222件事故遭討伐純視覺方案再引發黑暗場景無法辨識障礙物
特斯拉智慧駕駛的安全性,又一次受到了質疑。日前,外媒《華爾街日報》發布了一段針對特斯拉Autopilot事故的深度調查影片。其中,《華爾街日報》列舉了特斯拉自2021年以來的數千次碰撞事故中的222起。 《華爾街日報》透過對這些影片的逐幀解讀以及向專家諮詢,認為特斯拉的自動駕駛系統導致的碰撞和特斯拉的純視覺方案有關。
▲影片中特斯拉Autopilot系統導致的事故
不過,要注意的是,Autopilot是特斯拉輔助駕駛系統中最入門的版本,本質上屬於L2級自動駕駛,在使用過程中,仍需要使用者去關注道路交通狀況。
在特斯拉的輔助駕駛產品體系中,從功能的豐富度來看,共有AP、EAP和FSD三個版本,國內用戶可以使用的主要是AP和EAP兩個版本,FSD目前正在海外進行測試。
根據馬斯克的說法,FSD版本預計將在今年進入國內。
01 .
已提交1000多起事故專家表示有嚴重缺陷
自2021年6月以來,NHTSA要求美國汽車製造商必須通報涉及L2級或更高等級自動駕駛系統所導致的所有嚴重事故。
據報道,特斯拉已向NHTSA提交了與使用Autopilot有關的1000多起事故,但據《華爾街日報》稱,由於特斯拉認為這些數據是專有的,因此大部分數據對公眾隱藏。
然而,《華爾街日報》透過收集各州的報告並與特斯拉提交給NHTSA的事故數據進行交叉引用,繞過了特斯拉刻意的隱藏。
在《華爾街日報》的報告中列舉的222起事故中,有44起事故為在使用Autopilot功能的特斯拉突然轉向,有31起事故是在未能識別出障礙物做出反應而導致的。
報告中指出,因為使用特斯拉Autopilot產生的這些事故導致了嚴重的傷害或死亡。 《華爾街日報》讓專家分析了一起致命事故,一輛正在使用Autopilot功能的特斯拉未能識別出高速公路上一輛側翻的卡車,直接撞了上去導致了嚴重事故。
▲影片中特斯拉與側翻卡車的事故
接受《華爾街日報》採訪的一些專家表示,這是特斯拉目前的Autopilot功能有嚴重缺陷的證據。
與其他一些擁有光達感測器來偵測物體的汽車製造商不同,特斯拉的Autopilot功能主要依賴基於攝影機的純視覺方案,只在少部分型號上將雷達作為備份。
▲特斯拉與擁有光達感測器的車輛對比
2022年因發布特斯拉Autopilot功能失效影片而被特斯拉解僱的約翰·貝納爾告訴《華爾街日報》,他發現一些特斯拉車型上使用的攝影機沒有正確校準,導致不同的攝影機識別到的東西不一樣。而當不同攝影機辨識到的東西不一樣時,Autopilot就可能在辨識障礙物上出現問題。
《華爾街日報》從一名匿名駭客那裡獲得了一組罕見的特斯拉因使用Autopilot功能導致撞車事故原始數據,而數據驗證了約翰·貝納爾的說法。
當一輛被撞壞的車出現在路上時,特斯拉Autopilot系統中的其中一個攝影機識別到了它,但另一個攝影機沒有識別。然後,隨著障礙物越來越近,特斯拉的Autopilot系統沒有做出動作,全速的撞了上去。
▲《華爾街日報》從匿名駭客那裡獲得的事故原始數據
02 .
審查主要為入門版本
特斯拉已經重構產品程式碼
事實上,特斯拉輔助駕駛系統一直飽受爭議,美國國家公路交通安全管理局(NHTSA)也對特斯拉的輔助駕駛系統進行了多次審查,但目前並沒有實質的結果。
不過,《華爾街日報》所調查的主要是特斯拉的AP系統,而這系統並不代表特斯拉最新的技術實力。
多家外媒的報道,特斯拉已經更新了FSD V12.5.1版本,這系統採用了端對端技術,底層程式碼和AP系統完全不同。
▲特斯拉FSD
根據海外媒體介紹,FSD V12.5.1版本與車輛的2024.20.15軟體一起推出,已於近期開始向部分用戶的車輛推送。
與先前的版本相比,該版本包含多項改進,包括更及時、更自然的車道變更,並首次支援Cybertruck車型。
馬斯克曾表示這個版本可以大幅降低用戶的接管頻次,此外,新版本還允許駕駛員在啟用FSD輔助駕駛時佩戴墨鏡,而之前的版本會誤以往駕駛員沒有註意觀察,而提示駕駛員保持注意力。
目前這版本主要向搭載HW4硬體的車款更新,之後才會向其他車款推送。
03 .
結語:自動駕駛安全為王
隨著自動駕駛技術的發展,其安全性問題一直是公眾關注的焦點。 《華爾街日報》的調查揭示了特斯拉自動駕駛系統在實際使用中存在的潛在風險,特別是其對攝影機的過度依賴可能導致的嚴重後果。
這項發現不僅對特斯拉公司提出了挑戰,也對整個自動駕駛產業敲響了警鐘。同時,這也提醒了消費者在使用這些技術時需要保持警惕,正確理解並使用自動駕駛功能,以避免可能的風險。
此外,業界的合作、對倫理和法律問題的解決,以及對消費者教育的重視,都是推動自動駕駛技術健康發展的關鍵。展望未來,我們期待自動駕駛技術能帶來更多的便利性和變革,但這一切必須建立在安全的基礎上。