特斯拉承認Autopilot不如人需要“司機持續監控和關注”
日前特斯拉在寫給美國國會參議員的信中為公司高級輔助駕駛系統Autopilot以及FSD的安全性進行辯護,但承認這些系統在車輛行駛中需要“司機的持續監控和關注”。
2月8日,美國民主黨參議員理查德·布盧門撒爾(Richard Blumenthal)和埃德·馬基(Ed Markey)致信特斯拉首席執行官埃隆·馬斯克(Elon Musk),對公司Autopilot和FSD等高級駕駛輔助系統表示“嚴重擔憂”。在此之前,這些系統已因為涉及多起車禍引發安全監管機構的審查。
特斯拉公共政策和業務發展部高級主管羅漢·帕特爾(Rohan Patel)在3月4日寫給參議員們的一封信中表示,這些系統提高了客戶的駕駛能力,使他們“比美國普通司機駕駛更安全”。
帕特爾指出,這兩種系統“都需要司機的持續監控和關注。”他補充說,相比於人類駕駛員,特斯拉汽車只能夠執行“部分但不是全部的動態駕駛任務”。
特斯拉官網稱,Autopilot可以讓車輛自動轉向、加速和剎車,“需要駕駛員的主動監督,並不是讓車輛自動駕駛。”
布盧門撒爾和馬基在一份聲明中表示,這封信“只是印證特斯拉在逃避和轉移重點。儘管公司的安全記錄令人擔憂,而且發生了致命車禍,但特斯拉似乎總是希望一切如常。”
特斯拉沒有回應置評請求。
帕特爾在信中表示,特斯拉“知曉對車主進行有關Autopilot和FSD功能培訓的重要性。”
Autopilot系統有時允許司機的手離開方向盤。但帕特爾表示,基於扭矩的方向盤手握檢測功能有助於確保司機在車輛行駛中保持注意力。
一年多以前,特斯拉推出測試版FSD系統,使其車輛能夠在城市街道上進行自動駕駛相關功能的測試。特斯拉已將FSD系統部署到6萬多名用戶,這引發了大量批評,稱公司讓未經訓練的司機在公共道路上測試其技術會危及交通安全。
目前特斯拉麵臨著多項調查。這些參議員在信中表示,“投訴和調查描繪出這樣一幅令人不安的畫面:特斯拉在沒有充分考量風險和影響的情況下多次發佈軟件,給道路上的所有參與者都造成嚴重危險。”
在監管機構的壓力下,特斯拉今年1月份同意召回大約5.4萬輛美國電動汽車,通過修改軟件來防止車輛無視停車標誌。