侵權(quán)投訴
訂閱
糾錯
加入自媒體

特斯拉,又被調(diào)查!這次是FSD

作者 | 章漣漪

編輯 | 邱鍇俊

美國汽車安全監(jiān)管機構(gòu)又對特斯拉展開了調(diào)查,這次是針對FSD。

當(dāng)?shù)貢r間10月19日,美國國家公路交通安全管理局(NHTSA)公開的文件顯示,該機構(gòu)已經(jīng)正式對特斯拉FSD(Full-Self Driving,完全自動駕駛)啟動調(diào)查。

NHTSA表示,在接到四起事故報告(包括2023年的一起致命事故)后,他們決定展開調(diào)查。“這些事故發(fā)生時,道路能見度都較低(如陽光刺眼、起霧或空中揚塵),且FSD系統(tǒng)都處于運行模式。”

因此,NHTSA缺陷調(diào)查辦公室(ODI)將評估FSD的工程控制檢測和適當(dāng)應(yīng)對道路能見度降低情況的能力。此次調(diào)查涉及約241萬輛汽車,包括2016-2024年款Model X、Model S;2017-2024年款Model 3;2020-2024年款Model Y等

NHTSA正式對特斯拉FSD啟動調(diào)查

在這次調(diào)查之前,NHTSA已經(jīng)與特斯拉的駕駛輔助系統(tǒng)Autopilot“糾纏”了多年。今年4月,在對特斯拉進行了長達三年的調(diào)查后,NHTSA剛剛宣布,特斯拉Autopilot存在關(guān)鍵安全缺口,并進行新一輪的調(diào)查。

在特斯拉想要推廣“自動駕駛”的路上,NHTSA始終“伴”其左右。

01

ODI已對特斯拉FSD進行了初步評估

FSD是特斯拉完全自動駕駛系統(tǒng)的簡稱,于2020年推出,目前處于測試版階段,部分用戶可以參與特斯拉的“FSD Beta計劃”,該計劃允許有限的用戶在實際駕駛中使用FSD功能,但駕駛員需要始終保持對車輛的控制和注意力。

根據(jù)特斯拉的描述,該系統(tǒng)通過車載攝像頭、傳感器陣列等設(shè)備實現(xiàn)對周圍環(huán)境的實時解析、道路與障礙物的精準識別,以及路徑規(guī)劃和行駛決策。最終目標是實現(xiàn)車輛在沒有人為干預(yù)的情況下,自主識別路況、規(guī)劃路線、控制速度和方向,完成從起點到終點的行駛。

馬斯克乘坐Cybercab入場

而就在不久前的10月11日,在特斯拉“WE,ROBOT”發(fā)布會上,特斯拉創(chuàng)始人馬斯克剛剛表示,Model 3以及Model Y的無人駕駛技術(shù)會大幅提升,將實現(xiàn)無人駕駛的完全自動駕駛技術(shù),預(yù)計在明年,所有新車型將在加利福尼亞州和德克薩斯州上路,并配備無人監(jiān)督的全自動駕駛軟件。

馬斯克對FSD的自動駕駛水平表現(xiàn)出了高度自信,并表示FSD的安全水平可以超過人類駕駛十倍左右。

但顯然,NHTSA對其并不認可,至少目前還不認可。

NHTSA的缺陷調(diào)查辦公室發(fā)現(xiàn)了四起交通事故報告,這些案例都是特斯拉車輛在啟用FSD功能后發(fā)生的事故。事故中,特斯拉汽車在道路能見度降低的情況下未能有效應(yīng)對環(huán)境,導(dǎo)致了碰撞事故的發(fā)生。

其中一起事故甚至造成了人員死亡。2023年11月,一名行人在美國亞利桑那州被一輛2021款特斯拉Model Y撞死。

這不是唯一的一起涉及FSD技術(shù)的致死事故。今年4月,在美國西雅圖地區(qū),一輛特斯拉Model S汽車在FSD模式下撞死了一名28歲的摩托車手。

據(jù)悉,ODI已經(jīng)對特斯拉FSD進行了初步評估,并將評估該技術(shù)在道路能見度降低的情況下進行檢測和適當(dāng)響應(yīng)的能力。

今年以來,特斯拉在全球銷量表現(xiàn)疲軟,馬斯克正試圖通過自動駕駛技術(shù)和Robotaxi來獲得市場進一步認可,如果一旦被認為FSD存在風(fēng)險,無論是對其技術(shù)的推進,還是市場價值都會有比較大的負面影響。

02

NHTSA認為特斯拉Autopilot有安全缺口

這不是NHTSA第一次對特斯拉智能駕駛進行調(diào)查。

正如開頭所言,NHTSA曾對特斯拉Autopilot進行過調(diào)查

特斯拉Autopilot是L2級別自動駕駛,在車輛智駕時需要駕駛員“始終監(jiān)控交通環(huán)境”,并隨時準備接管控制權(quán)。由于產(chǎn)品的名字里有自動(Auto)一詞,使得不少特斯拉駕駛員認為這車能“自動”開。

2021年8月中旬,NHTSA對外表示,已經(jīng)對特斯拉的自動輔助駕駛系統(tǒng)啟動正式調(diào)查。調(diào)查涉及大約76.5萬輛特斯拉Model Y、Model X、Model S、Model 3車輛。NHTSA稱,這一問題此前已引發(fā)11起事故或火災(zāi),導(dǎo)致17人受傷和1人死亡。

2021年8月一輛特斯拉Model 3在奧蘭多撞上佛羅里達州公路巡邏車

同年,8月底,隨著美國佛羅里達州奧蘭多市“第12起事故”的發(fā)生,NHTSA又給特斯拉發(fā)送了一封長達11頁的信件,要求其給出所有車輛信息,并具體闡述自動駕駛模式下車輛如何應(yīng)對緊急事故。

據(jù) NHTSA 稱,在這11 起事故中,特斯拉汽車均啟用了自動駕駛儀或交通感知巡航控制系統(tǒng)。大多數(shù)事件發(fā)生在天黑后,涉及急救人員燈光、照明彈、發(fā)光箭頭板或路錐。

它希望弄清楚,Autopilot缺陷或設(shè)計問題是否與一系列撞車事故有關(guān),甚至是直接原因。

然而當(dāng)時特斯拉并沒有給出相應(yīng)回應(yīng),反而于2021年9月通過無線軟件更新方式向客戶推送了“應(yīng)急燈檢測更新”。

緊接著,當(dāng)年10月中旬,NHTSA在官網(wǎng)又發(fā)布“致特斯拉的一封信”,要求其就上述采取的行動提供更多信息。

有意思的是,信件發(fā)布后不久,特斯拉沒有回應(yīng)置評請求,反而在Twitter上發(fā)文表示:“安全將通過無線更新繼續(xù)提高。”

與此同時,圍繞11起事故展開的PE21020升級成了正式的EA22002號工程分析(engineering analysis)。

NHTS認為,“關(guān)鍵安全缺口”造成467起事故

雙方的“拉鋸戰(zhàn)”一直持續(xù)到今年4月底,算是階段性的結(jié)束。NHTSA宣布,調(diào)查結(jié)果顯示,在涉及的956起事故中,“關(guān)鍵安全缺口”造成了467起事故。

其中,在211起事故中,特斯拉車輛在有足夠反應(yīng)時間的情況下,正面撞上其他車輛或障礙物;另外還有256起事故與駕駛員誤操作Autosteer(自動轉(zhuǎn)向)系統(tǒng),或該系統(tǒng)在雨天等低摩擦力環(huán)境下被錯誤激活有關(guān)。

與車企強調(diào)“沒有輔助駕駛馬路上也會有大量致死事故”不同,NHTSA的視角則是這些系統(tǒng)的設(shè)計,是否會造成駕駛員“過分自信”,從而導(dǎo)致一系列本可以避免的事故。

在NHTSA看來,目前自動駕駛系統(tǒng)的發(fā)展水平,并不值得人類完全的信任,而特斯拉的設(shè)計可能導(dǎo)致“可預(yù)見的錯誤使用和可避免的碰撞”。

盡管此次探查結(jié)束,但NHTSA透露,它正在啟動一項新調(diào)查,以評估特斯拉去年12月對超過200萬輛汽車實施的召回修復(fù),是否確實足以解決圍繞其Autopilot駕駛員輔助系統(tǒng)的安全問題。

實際上,去年10月,特斯拉也曾表示,美國司法部發(fā)出了與其FSD和Autopilot系統(tǒng)相關(guān)的傳票。

03

純視覺或是多起事故的“元兇”

無論是特斯拉的Autopilot,還是FSD,采用的都是純視覺方案,有業(yè)內(nèi)人士認為,純視覺在光照條件不好的時候,比如逆光、黑夜、大霧或者是攝像頭遭到遮擋,會出現(xiàn)感知能力下降的問題,導(dǎo)致事故的發(fā)生。

今年7月底,《華爾街日報》也曾發(fā)布一段針對特斯拉Autopilot事故的深度調(diào)查視頻,通過對這些視頻的逐幀解讀以及向?qū)<易稍儯?/strong>認為特斯拉的自動駕駛系統(tǒng)導(dǎo)致的碰撞和特斯拉的純視覺方案有關(guān)。

視頻中特斯拉與側(cè)翻卡車發(fā)生事故

《華爾街日報》指出,在一些情況下,特斯拉的Autopilot系統(tǒng)在面對障礙物時表現(xiàn)不佳,并暗示該系統(tǒng)在啟用時,車輛可能會偏離道路。“這些事故中,不少案例顯示特斯拉車輛在使用Autopilot時撞上了已經(jīng)亮起警示燈的緊急車輛”。

它認為,這些事故中的細節(jié)似乎被隱藏了起來,特斯拉和NHTSA都未公開一些關(guān)鍵信息,包括“事故描述”以及事件發(fā)生的具體日期等細節(jié)。原因是特斯拉認為,這些數(shù)據(jù)是專有的,因此大部分數(shù)據(jù)對公眾隱藏。

報道采訪了2022年因發(fā)布特斯拉Autopilot功能失效視頻而被特斯拉解雇的約翰·貝納爾,后者發(fā)現(xiàn)一些特斯拉車型上使用的攝像頭沒有正確校準,導(dǎo)致不同的攝像頭識別到的東西不一樣。而當(dāng)不同攝像頭識別到的東西不一樣時,Autopilot就可能在識別障礙物上出現(xiàn)問題

《華爾街日報》從一名匿名黑客那里獲得了一組罕見的特斯拉因使用Autopilot功能導(dǎo)致撞車事故原始數(shù)據(jù),而數(shù)據(jù)驗證了約翰·貝納爾的說法。

《華爾街日報》從匿名黑客處獲得事故原始數(shù)據(jù)

當(dāng)一輛被撞壞的車出現(xiàn)在路上時,特斯拉Autopilot系統(tǒng)中的其中一個攝像頭識別到了它,但另一個攝像頭沒有識別。然后,隨著障礙物越來越近,特斯拉Autopilot系統(tǒng)沒有做出動作,全速撞了上去。

今年以來,伴隨著體驗的升級,特斯拉FSD在北美已經(jīng)開始廣泛推送,甚至傳出即將落地中國。

盡管最新消息顯示,據(jù)《中國日報》報道,中國政府支持其在遵循現(xiàn)有法律法規(guī)的前提下,先行先試部分FSD功能,但FSD入華尚未得到監(jiān)管部門批準,相關(guān)評估工作還在進行中

但顯然,特斯拉FSD入華是遲早的事情。在新技術(shù)落地上車,涉及人身安全的時刻,有NHTSA對特斯拉不斷敲打,也不失為一件幸事。-END-

       原文標題 : 特斯拉,又被調(diào)查!這次是FSD

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號