美國一位特斯拉Model Y車主在體驗FSD測試版系統時發生事故
近日,美國國家公路交通安全管理局(NHTSA)收到了一份與特斯拉”全自動駕駛”(FSD)測試功能有關的事故報告。 可知 11 月 3 號的時候,一輛處於 FSD 測試模式的特斯拉 Model Y 車型,於洛杉磯東南部城市 Brea 發生了一起交通事故。 雖然車子受損嚴重,但慶幸的是無人在事故期間受傷。
(圖自:Tesla 官網)
作為特斯拉打造新版駕駛輔助系統過程中發生的一起早期事故,相關報導也引發了外界的高度關注。
NHTSA 對特斯拉 Autopilot 系統展開了多重細緻的調查,但事故報告似乎由 Model Y 車主本人撰寫,且 NHTSA 發言人沒有立即回應外媒的置評請求。
● 事故發生時,這輛 Model Y 處於 FSD Beta 測試模式。 但在該左轉時,車子意外駛向了錯誤的車道,導致其被另一輛車撞到。
● Model Y 在轉彎到一半時發出了警報,車主試圖轉動方向盤以避免駛入錯誤車道,但系統還是強行控制車子犯下了錯誤。
● 這起事故造成的不安全操控,讓所有交通參與者都陷入了風險之中,且 Model Y 單側遭遇了嚴重的碰撞損傷。
TheVerge編輯 Andrew J. Hawkins 指出,此前特斯拉決定讓未經培訓的車主在公共道路上測試其”FSD”駕駛輔助軟體。 儘管引發了大量的批評和審查,但該公司還是決定強行推進。
從推出至今,該公司已推出並撤回了幾版本該更早推出的系統軟體更新,但期間顯然還有不少軟體錯誤未得到及時修復。
在互聯網上,我們見到過許多特斯拉車主高調分享的 FSD 測試版體驗視頻片段。
一些剪輯顯示駕駛輔助系統能夠自信地處理複雜的駕駛場景,但也有許多剪輯描繪了汽車漂移到錯誤的車道、或犯下其它嚴重的錯誤。
總結:
(1)現階段的 Autopilot 不該被直譯理解為 L5 級別的”自動駕駛”,而是 L2 級別的”自動輔助駕駛”。
(2)現階段的”Full Self-Driving”也不該被直譯理解為”全自動駕駛”,車主仍需注意隨時接管車輛的控制。