福布斯分析:存在嚴重問題或使無人駕駛技術進入“寒冬”
據福布斯網站報導,科恩實驗室研究人員日前成功入侵特斯拉自動駕駛系統Autopilot這一事件表明,當前在事故發生後給漏洞打補丁的方式對自動駕駛汽車來說並不足夠安全。從波音防失速系統出現漏洞而暴露出問題的嚴重性,不難看出自動駕駛汽車的可靠性是其關鍵核心。
通過在路上貼上幾乎難以察覺的小貼紙,科恩實驗室研究人員誘導特斯拉Autopilot將這些貼紙誤判為車道標記,從而控制車輛轉入反向車道。因此,對於自動駕駛汽車而言,在大部分情形下,在問題發生後進行漏洞修補顯然不是可靠的最佳方式,因為這關係到人的生命,而這也正是汽車行業的安全和可靠性標準高於矽谷的大多數產品的原因之一。
這也突出了使用深度學習模型駕駛汽車的主要問題之一。深度學習更擅長處理數據集有限且穩定的情況,在此前提下可以確保模型能夠真實地顯示每個數據點,並且這些數據點不會改變。然而,實際路況並不具備這樣的條件,這意味著僅依靠深度學習算法推動自動駕駛汽車達到足夠高的安全標準的可能性不高。
按照傳統的矽谷思維模式“打地鼠”(whack-a-mole),這意味著每次系統崩潰時都要對其進行修補,但自動駕駛意味著系統漏洞或將以生命為代價,“打地鼠”顯然不是確保自動駕駛安全可靠性的最佳方式。這與一些人員研究的觀點不謀而合,該研究強調了深度學習的局限性,並可能導致人工智能出現第三個“寒冬”。
最終的結果是,當前需要用一種不同的方法來實現自動駕駛,而重新思考這個系統將需要時間。雖然美國Radio Free Moblile機構目前仍堅持自動駕駛汽車到2028基本可以進入商業應用階段,但能否成為現實還有待時間來驗證。