侵權(quán)投訴
訂閱
糾錯(cuò)
加入自媒體

自動(dòng)駕駛相機(jī)-激光雷達(dá)深度融合綜述及展望

4)深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì):

要回答這個(gè)問題,我們首先需要回答點(diǎn)云的最佳深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)是什么。對(duì)于圖像處理,CNN是最佳選擇,并已被廣泛接受。但點(diǎn)云處理仍然是一個(gè)開放的研究問題。同時(shí)沒有點(diǎn)云深度學(xué)習(xí)網(wǎng)絡(luò)的設(shè)計(jì)原則,被廣泛的接受或被證明是最有效的。當(dāng)前大多數(shù)傳感器融合網(wǎng)絡(luò)都是基于對(duì)應(yīng)的圖像的網(wǎng)絡(luò)結(jié)構(gòu),或者是基于經(jīng)驗(yàn)或?qū)嶒?yàn)來進(jìn)行設(shè)計(jì)的。因此,采用神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索(NAS)[95]的方法可能會(huì)帶來進(jìn)一步的性能提升。

5)無監(jiān)督或弱監(jiān)督的學(xué)習(xí)框架:

人工標(biāo)注圖像和點(diǎn)云數(shù)據(jù)既昂貴又耗時(shí),這限制了當(dāng)前多傳感器數(shù)據(jù)集的大小。采用無監(jiān)督和弱監(jiān)督的學(xué)習(xí)框架,可以使網(wǎng)絡(luò)在更大的未標(biāo)記/粗標(biāo)簽的數(shù)據(jù)集上進(jìn)行訓(xùn)練,從而提升性能。 

B.與可靠性相關(guān)的開放研究問題

1)與傳感器無關(guān)的融合框架:

從工程角度來看,自動(dòng)駕駛汽車的冗余設(shè)計(jì)對(duì)其安全至關(guān)重要。盡管將LiDAR和攝像頭融合在一起可以改善感知性能,但是它也會(huì)帶來信號(hào)耦合問題。如果在工作時(shí)有一條信號(hào)路徑失效,那么整個(gè)流程都可能會(huì)發(fā)生故障,并影響下游模塊。這對(duì)于在安全關(guān)鍵環(huán)境中運(yùn)行的自動(dòng)駕駛汽車是不可接受的。這一問題可以通過加入能接受不同傳感器輸入的多個(gè)融合模塊,或異步多模數(shù)據(jù)、多路徑的融合模塊來解決。但最佳解決方案仍有待進(jìn)一步的研究。 2)全天候/光線下的工作能力:

自動(dòng)駕駛汽車需要在所有天氣和光照條件下工作。然而,當(dāng)前的數(shù)據(jù)集和方法主要集中在具有良好照明和天氣條件的場(chǎng)景上。這會(huì)導(dǎo)致在現(xiàn)實(shí)世界中表現(xiàn)不佳,因?yàn)槠涔庹蘸吞鞖鈼l件更加復(fù)雜。

3)(Adversarial Attacks and Corner Cases)對(duì)抗攻擊和極端案例:

針對(duì)基于圖像的感知系統(tǒng)的對(duì)抗已被證明是有效的,這對(duì)自動(dòng)駕駛汽車構(gòu)成了嚴(yán)重的危險(xiǎn)。在這種情況下,可以進(jìn)一步探索如何利用LiADR的準(zhǔn)確3D幾何信息和圖像來共同識(shí)別這些攻擊。

由于自動(dòng)駕駛汽車需要在不可預(yù)測(cè)的開放環(huán)境中運(yùn)行,因此也必須考慮感知中的(edge cases)極端案例。在設(shè)計(jì)感知系統(tǒng)時(shí),應(yīng)該考慮到不常見的特殊障礙物,例如奇怪的行為和極端的天氣。例如,打印在大型車輛上的人和物體(車體廣告)以及穿著怪異服裝的人。利用多模數(shù)據(jù)來識(shí)別這些極端情況,可能會(huì)比用單模傳感器更為有效、可靠和簡單。在這個(gè)方向上的進(jìn)一步研究可以幫助提高自動(dòng)駕駛技術(shù)的安全性和加快其商用

C.與工程有關(guān)的開放研究問題

1)傳感器在線自校準(zhǔn):

相機(jī)和LiDAR融合的前提和假設(shè)是相機(jī)和LiDAR之間的精確校準(zhǔn),其中包括相機(jī)內(nèi)部參數(shù)和相機(jī)與LiDAR之間的外部參數(shù)。但在實(shí)際上做到校準(zhǔn)參數(shù)一直準(zhǔn)確很難。即使在對(duì)相機(jī)和LiDAR進(jìn)行了完美的校準(zhǔn)之后,在車輛機(jī)械振動(dòng),熱量等因素的影響下,其校準(zhǔn)參數(shù)也會(huì)隨時(shí)間變化而變得不準(zhǔn)。由于大多數(shù)融合方法對(duì)校準(zhǔn)誤差極為敏感,因此這會(huì)嚴(yán)重削弱其性能和可靠性。此外校準(zhǔn)過程大多需要從頭進(jìn)行,所以不斷的人工更新校準(zhǔn)參數(shù)既麻煩又不切實(shí)際。然而此問題受到的關(guān)注較少,因?yàn)檫@個(gè)問題在已發(fā)布的數(shù)據(jù)集中不太明顯。盡管如此,仍然有必要研究相機(jī)和LiDAR在線自校準(zhǔn)的方法。最近的一些研究采用了運(yùn)動(dòng)引導(dǎo)[96]和無目標(biāo)[97]自校準(zhǔn)。在這個(gè)重要方向上進(jìn)行更多的研究是有必要的。

2)傳感器時(shí)間同步:

明確來自多個(gè)傳感器數(shù)據(jù)幀的確切時(shí)間對(duì)于實(shí)時(shí)傳感器融合至關(guān)重要,這將直接影響融合結(jié)果。但在實(shí)踐中,我們很難保證完美的時(shí)間同步。首先,LiDAR和相機(jī)具有不同的刷新率,并且每個(gè)傳感器都有自己的時(shí)間源。此外,感知系統(tǒng)的許多部分(數(shù)據(jù)傳輸,傳感器曝光時(shí)間等)都可能發(fā)生不可控制的時(shí)間延遲。幸運(yùn)的是,有幾種緩解該問題的方法。首先可以增加傳感器刷新率以減少時(shí)間偏差。也可以使用GPS PPS時(shí)間源與主機(jī)保持同步,并且由主機(jī)將時(shí)間戳同步請(qǐng)求發(fā)送到每個(gè)傳感器,以使每個(gè)傳感器都在同一時(shí)間軸上。此外如果傳感器可以由外部信號(hào)觸發(fā),則帶有晶振的特定電路硬件可以記錄精確的時(shí)間戳,該時(shí)間戳可用于在幾乎同時(shí)觸發(fā)每個(gè)傳感器。該方法被認(rèn)為是目前最有效的。

03.深度補(bǔ)全

激光點(diǎn)云的稀疏性極大地制約了3D感知算法并使之復(fù)雜化。深度補(bǔ)全旨在通過將稀疏的,不規(guī)則的深度數(shù)據(jù),上采樣為密集的規(guī)則的數(shù)據(jù)來解決此問題;谙鄼C(jī)-激光雷達(dá)融合的方法通常利用高分辨率圖像來引導(dǎo)深度上采樣,并采用(encoder-decoder)編碼器-解碼器架構(gòu),這也意味著pixel-wise fusion。圖2是深度補(bǔ)全模型的發(fā)展時(shí)間軸和其對(duì)應(yīng)的數(shù)據(jù)融合層級(jí)。表I列出了KITTI深度補(bǔ)全基準(zhǔn)測(cè)試中各模型的結(jié)果比較和對(duì)應(yīng)的數(shù)據(jù)融合的層級(jí),并在圖3中繪制成散點(diǎn)圖。

圖3. 深度補(bǔ)全模型的發(fā)展時(shí)間軸和其對(duì)應(yīng)的數(shù)據(jù)融合層級(jí)

表II. KITTI深度補(bǔ)全基準(zhǔn)測(cè)試中各模型的結(jié)果比較和對(duì)應(yīng)的數(shù)據(jù)融合的層級(jí)

當(dāng)前大多數(shù)研究使用單目圖像來引導(dǎo)深度補(bǔ)全。這些方法認(rèn)為圖像的顏色,材質(zhì)等信息包含著幾何信息,故可以將其作為深度上采樣的參考。與單目圖像相比,由立體相機(jī)的視差計(jì)算得到的幾何信息更豐富,更精確。在深度補(bǔ)全任務(wù)上,立體相機(jī)和激光雷達(dá)在理論上更具互補(bǔ)性,應(yīng)該能從中計(jì)算出更密集,更準(zhǔn)確的深度信息。但在實(shí)際應(yīng)用中,立體攝像機(jī)的有效距離范圍有限(與激光雷達(dá)的有效距離不匹配),且其在高遮擋,無紋理的環(huán)境中不可靠(如部分城市道路),這使其目前不太適用于自動(dòng)駕駛。

圖4. KITTI深度補(bǔ)全基準(zhǔn)測(cè)試中各模型的結(jié)果散點(diǎn)圖

各模型介紹與對(duì)比的詳細(xì)內(nèi)容見原文。

04.3D目標(biāo)識(shí)別

3D目標(biāo)檢測(cè)旨在3D空間中定位,分類并估計(jì)具備方向性的(bbox)目標(biāo)邊界框。當(dāng)前有兩種主要的目標(biāo)檢測(cè)流程:(Sequential/ two-stage)多階段和(single-shot/one-stage)單階段;诙嚯A段的模型大體由(proposal stage)候選框階段和3D邊界框(3D bbox regression)回歸階段組成。在候選框階段,檢測(cè)并提出所有可能包含感興趣對(duì)象的區(qū)域。在(bbox)目標(biāo)邊界框回歸階段,根據(jù)候選的區(qū)域的特征對(duì)區(qū)域進(jìn)行進(jìn)一步甄別。但是,該模型的性能受到每個(gè)階段的限制。在另一方面,single-shot模型只包含一個(gè)階段,其通常以并行的方式處理2D和3D信息。3D對(duì)象檢測(cè)模型的發(fā)展時(shí)間軸和其對(duì)應(yīng)的數(shù)據(jù)融合層級(jí)如圖4所示。表II和圖6展示了在KITTI 3D目標(biāo)檢測(cè)基準(zhǔn)測(cè)試中各模型的性能對(duì)比和對(duì)應(yīng)的數(shù)據(jù)融合的層級(jí)。


圖5.3D對(duì)象檢測(cè)模型的發(fā)展時(shí)間軸和其對(duì)應(yīng)的數(shù)據(jù)融合層級(jí)

A. 基于(2D Proposal)2D候選區(qū)域的多階段模型:

這部分模型首先基于2D圖像語義生成2D候選區(qū)域,這使其能利用現(xiàn)成的圖像處理模型。更具體的來說,這些方法利用2D圖像目標(biāo)檢測(cè)器生成2D候選區(qū)域,并將其投影回3D點(diǎn)云空間中,形成3D搜索空間,并在這些3D搜索空間內(nèi)進(jìn)一步完成3D bbox的回歸檢測(cè)。這其中有兩種將2D候選區(qū)域轉(zhuǎn)換到3D點(diǎn)云空間的投影方法。第一個(gè)是將圖像平面中的邊界框投影到3D點(diǎn)云,從而形成一個(gè)錐形的3D搜索空間。而第二種方法將點(diǎn)云投影到圖像平面,將點(diǎn)云逐點(diǎn)與對(duì)應(yīng)的2D語義信息聯(lián)系起來。但在點(diǎn)云中,遠(yuǎn)處的或被遮擋的物體通常只由少量的稀疏點(diǎn)組成,這增加了第二階段中3D bbox回歸的難度。

表III. KITTI 3D目標(biāo)檢測(cè)基準(zhǔn)測(cè)試中各模型的性能對(duì)比和對(duì)應(yīng)的數(shù)據(jù)融合的層級(jí)。

B. 基于(3D Proposal)3D候選區(qū)域的多階段模型:

基于3D候選區(qū)域的模型直接從2D或3D數(shù)據(jù)中生成3D候選區(qū)域。其通過消除2D到3D轉(zhuǎn)換,極大地縮小了3D搜索空間。用于3D候選區(qū)域生成的常見方法包括(multi-view)多視角方法和(point cloud voxelization)點(diǎn)云體素化方法;诙嘁暯堑姆椒ɡ命c(diǎn)云的鳥瞰(BEV representation)圖來生成3D候選區(qū)域。鳥瞰圖避免了透視遮擋,并保留了對(duì)象的方向信息和x,y坐標(biāo)的原始信息。這些方向和x,y坐標(biāo)信息對(duì)于3D對(duì)象檢測(cè)至關(guān)重要,且鳥瞰圖和其他視角之間的坐標(biāo)轉(zhuǎn)換較為直接。而基于點(diǎn)云體素化的模型,將連續(xù)的不規(guī)則數(shù)據(jù)結(jié)構(gòu)轉(zhuǎn)換為離散的規(guī)則數(shù)據(jù)結(jié)構(gòu)。這讓應(yīng)用(standard 3D discrete convolution)標(biāo)準(zhǔn)3D離散卷積,并利用現(xiàn)有網(wǎng)絡(luò)模型來處理點(diǎn)云變得可能。其缺點(diǎn)是失去了部分空間分辨率,細(xì)粒度的3D結(jié)構(gòu)信息以及引入了(boundary artifacts)邊界痕跡。

圖6. KITTI 3D目標(biāo)檢測(cè)基準(zhǔn)測(cè)試中各模型的性能散點(diǎn)圖。 

C. 單階段模型單階段模型將候選區(qū)域生成和bbox回歸階段融合為一個(gè)步驟,這些模型通常在計(jì)算效率上更高。這使它們更適合于移動(dòng)計(jì)算平臺(tái)上的實(shí)時(shí)應(yīng)用。

各模型介紹與對(duì)比的詳細(xì)內(nèi)容請(qǐng)見原文。

05.2D/3D語義分割

本節(jié)回顧了用于2D語義分割,3D語義分割和實(shí)例分割的現(xiàn)有Camera-LiDAR融合方法。2D / 3D語義分割旨在預(yù)測(cè)每個(gè)像素和每個(gè)點(diǎn)的類型標(biāo)簽,而實(shí)例分割還關(guān)心單個(gè)實(shí)例。圖6給出了3D語義分割網(wǎng)絡(luò)的時(shí)間順序概述和對(duì)應(yīng)的數(shù)據(jù)融合的層級(jí)。詳細(xì)內(nèi)容請(qǐng)見原文。

圖7. 3D語義分割網(wǎng)絡(luò)的發(fā)展時(shí)間軸和其對(duì)應(yīng)的數(shù)據(jù)融合層級(jí)

06.跟蹤

多目標(biāo)跟蹤(MOT)對(duì)于自動(dòng)駕駛汽車的決策是不可或缺的。為此,本節(jié)回顧了基于相機(jī)-激光雷達(dá)融合的對(duì)象跟蹤方法,并在表III中的KITTI多對(duì)象跟蹤基準(zhǔn)(汽車)[47]上比較了它們的性能。

A. Detection-Based Tracking (DBT)/Tracking-by-Detection

檢測(cè)跟蹤框架包括兩個(gè)階段。在第一階段為目標(biāo)檢測(cè)。第二階段在時(shí)間軸上將這些目標(biāo)關(guān)聯(lián)起來,并計(jì)算軌跡,這些軌跡可被表示成線性程序。

表IV. KITTI 跟蹤基準(zhǔn)測(cè)試中各模型的性能對(duì)比和對(duì)應(yīng)的方法。

<上一頁  1  2  
聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長度6~500個(gè)字

您提交的評(píng)論過于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評(píng)論

暫無評(píng)論

文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)