侵權(quán)投訴
訂閱
糾錯
加入自媒體

自動駕駛中的極端案例

最愛做edge-case挑戰(zhàn)的傳感器公司Aeye又發(fā)布了新測試視頻。

邊緣交通場景往往是檢驗自動駕駛系統(tǒng)能力的標準之一,有這么一家傳感器公司就喜歡設(shè)計多種極限案例來挑戰(zhàn)自己。

比如:1.前方載著貨物的P卡突然停車,后方車輛的感知能力是否能否準確分辨伸出的貨物,并避免碰撞;

2.夜晚在迎面車輛車燈前有橫穿馬路的行人,耀眼的白光幾乎干擾了視覺系統(tǒng),車輛是否能夠避免撞傷行人;

再比如,我們之前報道過車輛感知系統(tǒng)對氣球的識別等等。

這些挑戰(zhàn)盡管看似很苛刻,但生活中確實會出現(xiàn)的案例,而最近Aeye公司又發(fā)布了新的極限案例挑戰(zhàn)視頻,難度又加大了。這次場景是在一個耀眼的中午,一輛左轉(zhuǎn)彎的平板拖車緩慢地完成橫向變道來考驗車輛的感知能力,瘦長的拖車在炫目的陽光下幾乎看不到了。

配備先進駕駛員輔助系統(tǒng)(ADAS)的車輛在四車道上以時速45英里行駛,該車道穿過人煙稀少的城鎮(zhèn)。依靠車輛進行導(dǎo)航,ADAS駕駛員已基本停止關(guān)注前方。一輛卡車拖著平板拖車緩慢地橫穿馬路。隨著車輛與拖車之間的距離迅速縮小,取決于感知系統(tǒng)來檢測和分類拖車,并測量其速度和距離。在SAE 3級及更高級別(假設(shè)汽車處于控制狀態(tài)),車輛的路徑規(guī)劃軟件必須做出關(guān)鍵的決定,以決定是否轉(zhuǎn)向剎車或提前剎車。

當今的高級駕駛輔助系統(tǒng)(ADAS)在識別這種威脅或做出適當反應(yīng)是非常困難的。根據(jù)其傳感器配置和感知訓(xùn)練,系統(tǒng)可能由于其非常薄的外形而無法注意到掛車。

按照目前系統(tǒng)不同的方案分析:①基于攝像頭傳感器的感知系統(tǒng)很可能會誤解威脅,造成誤報或完全忽略威脅。在遠處,拖車在道路上看起來像個二維的線條。如果車輛在轉(zhuǎn)彎,這些相同的像素也可能被識別為護欄。為了保證在所有情況下都是準確的,必須結(jié)合所有顏色和尺寸排列,在每種可能的光照條件下訓(xùn)練感知系統(tǒng)。這會帶來巨大的挑戰(zhàn),因為還會有尚未預(yù)見到的實例,這會給主要依賴相機數(shù)據(jù)的感知系統(tǒng)帶來潛在的致命威脅。

②雷達。從側(cè)面看,平板拖車的輪廓非常薄。雷達的角分辨率限制設(shè)備去檢測出如此狹窄的水平物體。在這種情況下,大多數(shù)雷達的無線電波都會錯過拖車的纖細輪廓。

③相機+雷達。僅依靠攝像頭和雷達的感知系統(tǒng)可能無法檢測到平板拖車并及時做出反應(yīng)。攝像機數(shù)據(jù)的詳細程度不足以對掛車進行分類,并且可能導(dǎo)致感知系統(tǒng)將掛車分類為幾種常見道路特征之一。由于雷達也不太可能準確地檢測到拖車的全長,因此也會誤導(dǎo)感知系統(tǒng)。在這種情況下,攝像頭和雷達的結(jié)合幾乎無法提高準確分類拖車的幾率。

④ 激光雷達。當今的常規(guī)LiDAR產(chǎn)生非常密集的水平掃描線以及非常差的垂直密度。當物體處于水平,細和窄的狀態(tài)時,這種掃描模式會給檢測帶來挑戰(zhàn),LiDAR的激光鏡頭也很容易完全錯過它們。某些LiDAR會掃描出大致的輪廓。但是,也需要花費一些時間來收集必要的檢測次數(shù)才能分辨任何目標。根據(jù)車輛的速度,此過程可能會花費太多時間來防止碰撞。

Aeye使用的是什么方法呢?該公司使用iDAR成功解決挑戰(zhàn),而不是Lidar。iDAR是一種人工感知平臺,旨在適應(yīng)新技術(shù)和算法,并不斷發(fā)展以最小化成本,并最大限度地提高相機/ LiDAR組合的性能。

iDAR比LiDAR更智能,橫向進入場景的車輛很難追蹤。iDAR通過將LiDAR鏡頭有選擇地分配給感興趣區(qū)域(ROI),一旦LiDAR感知了對掛車的單次檢測,iDAR就會動態(tài)更改LiDAR的時間和空間采樣密度,以全面搜集掛車,從而獲得關(guān)鍵信息,例如其尺寸和前方距離。

iDAR可以安排LiDAR以在幾微秒到幾毫秒的時間內(nèi)重新訪問感興趣的區(qū)域。這意味著與傳統(tǒng)的LiDAR系統(tǒng)相比,iDAR可以更快地查詢到一個物體,而傳統(tǒng)的LiDAR系統(tǒng)通常需要數(shù)百毫秒才能重新訪問一個物體。因此,iDAR具有前所未有的能力來計算有價值的屬性,包括物體距離和速度(橫向和徑向),比其他任何系統(tǒng)都快。

iDAR將2D攝像頭像素與3D LiDAR點云結(jié)合在一起,以創(chuàng)建動態(tài)像素。此數(shù)據(jù)類型可幫助系統(tǒng)的AI完善拖車邊緣周圍的LiDAR點云,從而有效消除所有不相關(guān)的點。因此,iDAR能夠?qū)⑼宪嚺c其他道路特征(例如護欄和標牌)區(qū)分開來。

為了安全起見,對障礙物進行分類也至關(guān)重要,為了生成足夠豐富的數(shù)據(jù)集以應(yīng)用感知算法進行分類,LiDAR一旦檢測到一個物體,它將提示AI攝像頭對其顏色,大小和形狀進行更深入的實時分析。然后,攝像頭將檢查像素,并運行算法來定義對象的可能身份。為了獲得更多見解,相機會提示LiDAR以獲得其他數(shù)據(jù),從而分配更多的鏡頭。

當算法需要來自傳感器的其他數(shù)據(jù)時,將觸發(fā)反饋環(huán)路。在這種情況下,將在相機和LiDAR之間觸發(fā)反饋環(huán)路。攝像機可以提示激光雷達,而激光雷達可以提示其他詢問點或動態(tài)感興趣區(qū)域,以確定掛車的真實速度。該信息被發(fā)送到域控制器,以便它可以決定是剎車還是轉(zhuǎn)向以避免碰撞。

整個過程就像是在模仿人類視覺皮層在概念上如何聚焦并評估車輛周圍的環(huán)境,駕駛條件和道路危險等。

當前的LiDAR傳感器依賴于一組獨立的傳感器,這些傳感器共同產(chǎn)生大量數(shù)據(jù),并且需要較長的處理時間和大量的計算能力,才能通過對齊,分析,校正,下采樣并將其轉(zhuǎn)換為可用于安全引導(dǎo)車輛的可行信息來收集和組裝數(shù)據(jù)集。在Aeye看來這些系統(tǒng)缺乏智能,并且會不加選擇地收集有關(guān)環(huán)境的信息。沒有考慮條件如何演變或不知道如何平衡相互競爭的優(yōu)先級,而常常通過為每個像素分配相同的優(yōu)先級來對復(fù)雜或危險情況做出較差的響應(yīng)。

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號