蔚來又惹禍! 輔助駕駛的鍋到底誰來背?
輔助駕駛又出事了。 昨天,名為「美一好」的公眾號發佈訃告稱:上善若水投資管理公司創始人、意統天下餐飲管理公司創始人、美一好品牌管理公司創始人林文欽(暱稱”萌劍客”),駕駛蔚來 ES8 汽車啟用自動駕駛功能(NOP 領航狀態)後,在沈海高速涵江段發生交通事故,不幸逝世,終 31 歲。
半個月前,蔚來似乎也陷入了道路安全事故疑雲。 一時間,蔚來被推上風口浪尖。
有人語重心長喊話蔚來汽車:”宣傳的時候照著上限吹,出事的時候按照下限來”
有人現身說法:”只有寫代碼的人才知道自動駕駛水有多深”
還有人二話不說,直接搞了個總結:”總的來說,自動駕駛就是不靠譜”
先不討論這次事故誰對誰錯,但從技術的角度出發,雷鋒網有必要站出來說句公道話:
輔助駕駛(本次事件中的蔚來 NOP 功能)的鍋,真的別讓自動駕駛來背。
畢竟,老百姓對於某項技術的正確認知非常重要,尤其是這項技術不僅關乎生命安全,甚至還能夠直接影響相關政策的制定,直接決定相關行業的未來走向。
輔助駕駛≠自動駕駛/無人駕駛
輔助駕駛
常見的輔助駕駛功能包括自適應巡航、前碰撞預警、自動緊急剎車、車道保持輔助、換道輔助等。
儘管這些功能看似紛繁複雜,但重點在於「輔助」二字,在一定程度上分擔駕駛壓力,其核心並非旨在控制汽車。
在感測器配置方面,眼下的輔助駕駛只使用了相機視覺的數據,並不能完全精確感知周圍的環境,相機在遇到強光的環境上 容易出現誤檢,仍需要駕駛員對車輛進行控制。
也就是說,輔助駕駛的場景下,駕駛員仍然是駕駛的主體。 相信在購置配有輔助駕駛功能的車輛時,工作人員也會一再叮囑不可掉以輕心,時刻保持專注,手握方向盤。
包括蔚來的 NOP、特斯拉的 NOA、小鵬汽車的 NGP 都遠遠沒有達到完全自動駕駛的效果。
比如,在小鵬汽車此前啟動的”小鵬 NGP3000 公里遠征挑戰”中,雷鋒網受邀參與泉州至溫州路段的試乘,路線全長 570km,其中 NGP 功能開啟路段超 400km。
在長達一天的駕駛體驗中,人工也主動接管了兩次:一次是過環形匝道,因為下雨,下匝道時受前方車輛濺起大量水汽退出一次;另一次也是左側修路,無序堆放了很多防撞桶。
對此,小鵬汽車明確表示:
NGP 高速自主導航駕駛功能依然屬於輔助駕駛範疇,我們希望通過該功能的實現,能幫助駕駛員更輕鬆更安全的完成旅途,絕非替代駕駛員。
看到這裡,就有小夥伴會問了,輔助駕駛系統為何總是折戟防撞桶,識別到了繞路行駛不就萬事大吉了嗎?
某業內工程師向雷鋒網解釋道,輔助駕駛系統通常感知精度和準確度不夠。 另外,規劃演算法能力不足,自動跨線繞行比較危險,目前”最省事”的方式就是人工接管。
自動駕駛
自動駕駛,原則上是不需要駕駛員介入的,但出於法律法規以及安全的需求,現階段自動駕駛車輛的駕駛座上需要有安全員(出現意外情況,可人工接管)。
另外,在技術方面,自動駕駛比輔助駕駛的要求更嚴格。
在自動駕駛車輛上路前,系統裡會導入相關區域的高精度地圖;在車輛上路時,車身搭載的鐳射雷達、攝像頭等感測器即時搜集周圍資訊,更精確的演算法系統對路面上的靜態/動態障礙物進行識別,並對其行動軌跡進行精確預測。
結合多方面的資訊,自動駕駛車輛會進行智慧決策,規劃新的路線,並控制車輛的行駛軌跡——這是輔助駕駛所不具備的能力。
這時候,車輛已經成為了駕駛的主體。
無人駕駛
總體上來說,無人駕駛的等級最高,相當於把開車這件事完全交給了無人駕駛系統,駕駛座可以沒有安全員,甚至可以沒有方向盤。
不過,目前要實現完全的無人駕駛還有很漫長一段路要走。
珍愛生命,理性對待輔助駕駛
目前市面上所能買到的量產車,無論宣傳頁上的表述是 L2 級自動駕駛,還是 L2.5/L2+ 自動駕駛,嚴格意義上都算是輔助駕駛——與自動駕駛/無人駕駛壓根不是一回事兒。
然而,美國汽車協會研究表明,在真實世界中行駛 4000 英里的過程中,配備輔助系統的車輛平均每 8 英里就會遇到某種類型的問題。
也就是說,這些輔助駕駛系統並不是 100% 的安全可靠。
同時,隨著新車輔助駕駛系統搭載率快速提升,在輔助駕駛系統開啟時發生交通事故的情況也已經屢見不鮮。 包括上文提到的蔚來事故。
即便是業內公認的新造車領跑者特斯拉,也時不時陷入失控疑雲,儘管特斯拉認為自己的Autopilot 能夠挽救無數生命。
每個季度,特斯拉都會公佈自家電動車隊的安全記錄數據,特別是開啟 Autopilot 和關閉 Autopilot 時事故率的對比。
特斯拉在去年第三季度的報告中寫道:
開了 Autopilot 的特斯拉每 459 萬英里才發生一起事故,只用到我們主動安全功能的特斯拉事故率則變成了每 242 萬英里一次。 那些不開 Autopilot 也不開主動安全功能的特斯拉則每 179 萬英里就會出一次事故。 與其相比,NHTSA 的美國車輛事故頻率為每47.9萬英里每次。
看起來 Autopilot 很厲害,不過,這些數據的誤導性可不小。
據 MIT 的研究顯示,Autopilot 能如此強悍主要是因為它大多數用在高速路上,比例高達 94%。 但在高速公路之外,事故率是高速道路的3倍有餘。
儘管特斯拉官方語境里 Autopilot 只能用在高速上,但高速好開,事故率低,出了事可就是大事。
在輔助駕駛還不成熟的當下,盲目追求”自動駕駛”體驗非常危險。
責任界定的難點
事實上,在發生類似事故的時候總有一個難題:責任怎麼來界定?
2016年,一位特斯拉車主駕駛在京港澳高速邯鄲段行駛時,與前方的道路清掃車發生追尾事故身亡。 經交警認定,這起事故中,駕駛特斯拉的車主負主要責任。
然而,受害者的父親對特斯拉提起訴訟,稱特斯拉誇大宣傳的自動駕駛功能致使受害者在駕駛時放鬆警惕,才是這起車禍真正原因——特斯拉在自動駕駛系統尚不完善、不能保證安全的情況下,仍然通過宣傳誘導使用者去信任這套系統,應該承擔相應的法律責任。
同年,一名北京特斯拉車主在開啟 Autopilot 模式時,因未能避過停在左側的汽車,導致兩輛汽車損毀。
車禍發生后,該名特斯拉車主在網路平台詳述了車禍發生的過程,並投訴特斯拉公司誇大自動駕駛功能誤導買家。
此後,特斯拉中國官網上才將”自動駕駛”這個詞替換成了”自動輔助駕駛”,並且發佈《車主使用手冊》,要求車輛必須由有駕駛執照的人駕駛,而且要一直把手放在方向盤上。
在去年 9 月的一次事故後,理想汽車則在官方網站上將原先的”自動輔助駕駛”更改為了”輔助駕駛”。
理想汽車還給出了官方微博聲明:
“目前理想 ONE L2 級別輔助駕駛還是以駕駛員為主來控制車輛,不能完全替代駕駛員做決策”,並呼籲駕駛員安全使用該系統。
儘管技術在不斷進步,但整個行業的發展還遠遠稱不上是成熟。
一些灰暗的時刻固然不會阻擋世界繼續向更高級的自動駕駛未來進發,但這些事故確實給了我們一個重要的機會,想想這起事故為何會發生,我們又能從中學到什麼以防止事故重演?
藉由此,車主清晰正確地認識、並使用輔助駕駛功能,可能是一個成本最小,收益最大的答案。