那麼醒目的橫躺大貨車,只有Model 3不減速撞上去
SpaceX載人發射剛成功,馬斯克儼然人類希望。但剛剛發生的這起事故,又讓不少網友驚掉了下巴:馬斯克了不起,但特斯拉的AutoPilot,也實在辣雞到扶不起。這不,開啟AutoPilot的特斯拉,又撞了。還是在一個所有人都能清晰看到的側翻大貨車事故車道,特斯拉Model 3,幾乎毫不減速地撞了上去。
事情發生在台灣。上午6點44,光線條件算不上極端,高速路上,一輛貨車側翻在地,後續來車紛紛避讓。
但當監控鏡頭里出現了一輛白色特斯拉Model 3,畫風就變得詭異了起來——
這輛行駛在快車道上的Model 3,以110公里的時速,直直撞向瞭如此明顯的貨車障礙物!
一陣白煙,Model 3的車頭整個都扎進了貨車車廂裡。
網友們都驚呆了:這麼明顯的障礙物,竟然完全不帶減速的嗎?!
事故為什麼發生?依然AutoPilot
所幸,事故沒有造成人員傷亡。
但如此離奇的特斯拉事故,老司機一看都猜測——又是AutoPilot的鍋。
果然,警方調查證實了這一點。
據CNA報導,特斯拉車主向警方表示,事故發生時,車輛處於AutoPilot開啟狀態,時速定速在110公里。
他本以為,特斯拉偵測到障礙物會自動剎車。
而且從視頻來看,他似乎完全放心地把車輛的控制權,交給了特斯拉的高級輔助駕駛系統。
所以當他發現前方有障礙物,Model 3卻完全沒有減速……等他想要接管——緊急踩下剎車時,事故已經沒法兒避免。
貨車司機還向警方解釋稱,當時他在分隔島等待救援,看到特斯拉快速駛來,還試圖揮手示意,讓司機減速避讓。
但特斯拉毫無反應,“嘣”地就扎進了貨車車身。
特斯拉車主全責?
還沒明確結果,但事故認定大概率如此。
因為有“前車之鑑”。
去年5月,美國國家交通安全委員會(交委會)曾對一起特斯拉事故案披露了調查結果。
也是一起車主開啟AutoPilot狀態遭遇的車禍,不同的是車主直接在事故中喪生。
但最終在調查和特斯拉的官方說明中,給出的結論讓外界“無話可說”:
車主對AutoPilot使用不當。
特斯拉官方還補充說:特斯拉所有的司機在使用AutoPilot系統的情況下行駛了超過10億英里,我們的數據顯示,如果一位細心的司機使用得當,如果他隨時準備控制局面,那麼由自動駕駛系統支持的司機比那些沒有幫助的司機更安全。
言外之意:使用AutoPilot的時候,車主要保持高度專注。
AutoPilot很安全,出了車禍都是車主沒有按要求“保持高度專注”造成的。
所以特斯拉真就絲毫沒有責任?
當時外媒《連線》就直接質問特斯拉了:為啥一輛大卡車橫在前面,AutoPilot的系統“看不見”?
更滑稽的是,在特斯拉的AutoPilot和“全自動駕駛”方案中,一直宣稱使用視覺為主的方案就足夠安全。
然而事實並非如此。
包含台灣這起Model 3的事故在內,特斯拉的車禍事故,宛如出自一個模子。
2018年3月,在美國加州山景城發生的一起致命事故中,特斯拉表示,車輛日誌顯示,司機收到了需將手放在方向盤上的警告,但司機在事故發生前沒有採取任何行動。事故發生時,這輛Model X車處於自動駕駛模式。
2016年5月,一名特斯拉Model S司機在佛羅里達州威利斯頓附近被撞死,當時他啟動了自動駕駛系統,車輛撞上了一輛拖拉機拖車,電動車車頂被掀開。
更早之前,被稱為特斯拉首例死亡車禍的事故中,也是AutoPilot狀態下的特斯拉,沒有識別白色外觀的大卡車,於是不減速撞擊, 車毀人亡。
但即便如此,馬斯克為了節省成本,始終堅持不用激光雷達,不搞多傳感器冗餘。
甚至還明確放話:視覺方案已經足夠安全,用激光雷達的自動駕駛方案都是大傻X。
激進的特斯拉自動駕駛策略
一直以來,馬斯克和特斯拉,就是自動駕駛實踐中最激進的玩家。
之前為了突出賣點,很長一段時間裡,特斯拉都是把AutoPilot——高級輔助駕駛系統,當成“自動駕駛”來對外宣傳的。
後來事故頻發,輿論譴責“宣傳誤導”,這才改口並明確:Autopilot自動輔助駕駛功能需要駕駛員進行主動監控。
另外,也有外界猜測,其實對AutoPilot的改口,只是因為FSD——完全自動駕駛方案對外發布了。
然而即便在專門計算硬件FSD加持的完全自動駕駛方案裡,傳感器方案卻沒有變。
依然堅持攝像頭(8個)+ 超聲波傳感器(12個)為主。
馬斯克還聲稱,這套方案足夠實現“完全自動駕駛”:
“完全的意思是,汽車能夠從家中開車去工作,在途中幾乎不需要駕駛員操作。”
目前,特斯拉也確實在自動駕駛能力上,提供了量產的體驗,比如自主泊車、主動召喚、環路和高速上的車道保持和定速,甚至還有自主變道等能力……很多特斯拉車主,也樂於秀出各種場景下的表現。
只是那些出事的“小白鼠”,卻再也沒有機會發聲了。
因為AutoPilot和FSD代表的自動駕駛落地路線,本身就有根植於人性的悖論。
特斯拉的小白鼠們
自動駕駛分級中,共分5級,級別越高,人類參與駕駛的程度就越低。
特斯拉的AutoPilot,雖然特斯拉長期以“自動駕駛”對外宣傳,但業界始終認為處於L2-L3之間,屬於高級輔助駕駛。
這種高級輔助駕駛可以幫助人類提升駕駛體驗,但依然需要人類在駕駛中處於主導地位。
矛盾之處也正是如此。
一方面,AutoPilot可以代人在一些場景下駕駛,但另一方面又要求司機在緊急情況下接管汽車。
這就要求一個長時間放鬆的人,必須還要時刻專注在車程中。
換一個更多人有過的經驗,上課允許走神,但只要老師點名提問,就能馬上給出答案。
很多特斯拉車主的血淚經歷說明,處於放鬆狀態的司機,會看視頻、會睡著,而且過度信任特斯拉視覺感知系統的能力。
於是當“老師點名提問”來臨,他們往往措手不及。
當然,特斯拉也並非完全沒有針對性方案。
比如監測到司機雙手沒有握著方向盤,就會提醒,但後來也出現很多攻略,比如一個橘子就能“騙”過特斯拉的系統。
而且現在特斯拉FSD全自動駕駛硬件已經發布,依然依靠現有視覺為主的感知方案,馬斯克就認為足夠開啟全自動駕駛了。
該能力甚至都無需特斯拉車主握住方向盤,就能實現特斯拉從家中車庫到公司車路的全自動駕駛。
馬斯克還放話說要推出RoboTaxi,推動100萬輛特斯拉成為無人駕駛出租車。
至於安全準備,馬斯克不以為意。
在RoboTaxi的落地推進中,Waymo實際路測到2000萬公里,還小心翼翼在中西部城市鳳凰城郊區保守體驗。
而馬斯克認為,每一輛上路的特斯拉,或多或少都在陰影模式下參與了特斯拉自動駕駛路測。
什麼叫陰影模式,就是在特斯拉提供車主使用一些最新自動駕駛功能,並在後台通過“陰影模式”幫助特斯拉後台迭代自動駕駛算法。
很多特斯拉車主,也對此覺得併無不妥。
如外界評論的那樣,很多特斯拉車主並不會意識到自己當了馬斯克的小白鼠,直到車禍發生。
然而,一旦有車禍發生,特斯拉不會像Uber無人車那樣被直接追責,特斯拉官方和其他車主會異口同聲說:AutoPilot很好,使用不當是當事車主的錯。
你說,這樣的小白鼠哪裡找?
所以,每一次這樣的事故後,只能給特斯拉車主送上老生常談的提醒:
道路千萬條,安全第一條,行車不規範,親人兩行淚。
原標題:
特斯拉自動駕駛有多坑?那麼醒目的橫躺大貨車,只有Model 3不減速撞上去來源:量子位