復旦教授深夜預警:不要嘗試L2以上自動駕駛特定條件下必撞
關於自動駕駛是否安全的爭論,似乎永遠都不會過時。李想剛剛發文總結自家NOA智能駕駛2021年成績單。後腳就有復旦大學教授給李想澆了一盆冷水:自動駕駛安全性沒有想像的那麼香,不要嘗試L2級以上功能,特定條件下必然發生碰撞。並且還拿出自研自動駕駛安全測試平台測試結果為證。
有圖有真相,冷峻而悲觀。
事情來龍去脈?
復旦大學教授,國家973計劃項目首席科學家楊珉,昨天半夜微博發文,公開質疑當前車企智能駕駛的安全性。
而且還表明是看了理想汽車創始人李想的最新感慨,引發的不吐不快。
楊珉教授在微博中稱,現在造車新勢力智能駕駛普遍L2起步。
有的據稱已經達到L4級別。
但是對於智能駕駛是否真的可以大規模使用?
楊珉教授在微博中表達了否定態度: 我們的安全研究人員覺得自動駕駛安全性沒有想像的那麼香。
並且還著重指明,這個論斷出自他們自動駕駛安全測試團隊針對市面上某L4級別系統進行安全測試。
楊珉教授表示,在復旦自研的自動駕駛安全測試平台對無人駕駛車輛進行安全測試時發現:
在滿足某種特定條件的場景下,L4級無人駕駛必然發生車輛碰撞。
對此還在微博中貼出測試動圖以自證其說。
可以看出在測試過程中,測試車輛無人接管的情況下,面對旁邊車道車輛突然加塞時沒有選擇減速,而是徑直撞了上去。
而且這樣的結果並不是孤例。
在測試系統僅一周時間的測試中,就發現數百個車輛碰撞的案例。
對於這種結果,楊珉教授用團隊人員的表現自己的態度: 團隊小伙伴們紛紛倒吸一口零度以下涼氣,表示不要嘗試L2以上功能。
雖然碰撞發生的條件設定在現實中都是小概率事件,但在最後中,楊珉教授用一句極富哲理的話感慨:
“時代的每一片雪花,落在個人身上都是一座山”。
那麼問題來了。
究竟是什麼原因,讓教授深夜對自動駕駛表達出這樣冷峻而悲觀的態度?
這事兒得從李想最近在微博中感慨2021年理想汽車智能駕駛的變化說起。
在微博中,李想先肯定了對智駕的重視,但最初造車確實不夠錢,直到上市後才開始有自研能力,之後就開始細數理想汽車2021年智能駕駛成績單。
比如理想成為繼特斯拉和小鵬之後全球第三家具備完整NOA和AEB全棧自研能力的品牌。
AEB測試在懂車帝年度測試中成為冠軍。
NOA導航輔助駕駛激活和使用超過6萬台,超過中國市場上其他品牌導航輔助駕駛之和。
……
本來只是李想一次年終盤點和感慨,順帶改變一下人們對於理想汽車不智能的刻板印象。
卻不想招來了復旦教授親自下場,用研究測試結果反擊。
但也有人說,楊珉教授的測試結果,終究還是安全測試平台的模擬測試。
現實中可能會有例外?
有意思的是,教授指出的問題,現實中確實已經發生。
有沒有現實事例?
而且還不止一次。
比如因為自動駕駛出現事故而被推上風口浪尖的特斯拉。
曾經就有國內特斯拉Model 3車主,在開啟Autopilot系統時,面對旁邊加塞的渣土車不僅沒有選擇減速,反而加速直接懟在渣土車上。
事後這位車主表示刷新認知,為什麼號稱自動駕駛系統,連渣土車這麼大的目標都沒有識別到。
經歷類似事故的特斯拉車主不止一位。
一位國內最早一批特斯拉車主就曾表示買的Model X,4年2次自動駕駛事故。
其中一次同樣是面對變道加塞,車輛完全沒有減速,與變道車輛發生碰撞。
不僅是特斯拉,國內造車新勢力同樣爆出過類似事故。
去年年初就有車主曝出蔚來NIO Pilot在高速上沒有及時識別路邊停靠的五菱宏光,高速行駛狀態下發生碰撞。
還是在去年,一位知名企業家在使用蔚來NOP領航輔助駕駛時撞上高速路政車輛導致死亡的事件鬧的沸沸揚揚。
這件事還引起業界關於自動駕駛標準的討論。
理想也有過,與並道車輛發生“自動駕駛事故”的案例。
之前,最早時有青島理想ONE車主,在打開理想輔助駕駛系統的情況下,與前方變道車輛相撞。
不過需要說明,那時候的理想ONE,用的還是Mobileye,還不是李想發微博感慨的與地平線的深度自研。
值得注意的是,以上的事故案例,還是僅涉及L2級別的輔助駕駛功能。
在大規模應用的情況下,發生事故的情況不能說普遍。
但是在自動駕駛還未大規模應用的情況下,每一起事故都會掀起一場爭論和不信任。
也正因此,楊珉教授微博之下,網友也是反應強烈。
網友怎麼說?
業界的意見交鋒下沉到普羅大眾。
站隊操作就成了常有的事。
對於楊珉教授“自動駕駛沒那麼香”的表態,網友大致分為3派。
最大的意見集合,是對當下自動駕駛表達不信任。
表示能實現L4級自動駕駛的車企不過是宣傳造勢。
也有從技術路線和製度層面出發,探討自動駕駛落地的可能性。
當然,這屆網友的反諷技能也是MAX,比如下面這幾位:
所以最後留一個小問題,你認為自動駕駛是不是比人類開車更安全呢?