訂閱
糾錯(cuò)
加入自媒體

傳統(tǒng)計(jì)算機(jī)視覺融合深度學(xué)習(xí) 助力AI發(fā)展

機(jī)器學(xué)習(xí)不斷推動(dòng)視覺物聯(lián)網(wǎng)應(yīng)用變革,將經(jīng)典的計(jì)算機(jī)視覺與深度學(xué)習(xí)相結(jié)合進(jìn)行的研究,則顯示出了更好的成果。

計(jì)算機(jī)視覺是物聯(lián)網(wǎng)(IoT)廣泛應(yīng)用的基礎(chǔ)。家庭成員通過安裝了攝像頭的家庭監(jiān)控系統(tǒng)就能了解家里的所有情況。機(jī)器人和無人機(jī)使用視覺系統(tǒng)映射環(huán)境并避免行進(jìn)中的障礙物。增強(qiáng)現(xiàn)實(shí)眼鏡使用計(jì)算機(jī)視覺來覆蓋用戶視圖上的重要信息;汽車通過來自安裝在車輛上多個(gè)照相機(jī)捕捉的圖像,向駕駛員提供有助于防止碰撞的環(huán)繞或“鳥瞰”視圖。各種應(yīng)用案例數(shù)不勝數(shù)。

多年來,設(shè)備功能(包括計(jì)算能力、內(nèi)存容量、功耗、圖像傳感器分辨率以及光學(xué)系數(shù))的指數(shù)式演變提高了物聯(lián)網(wǎng)應(yīng)用中計(jì)算機(jī)視覺的性能和成本效益。伴隨這些而來的是精密軟件算法的發(fā)展和完善,例如人臉檢測(cè)和識(shí)別、物體檢測(cè)和分類以及同步定位和映射等。

機(jī)器學(xué)習(xí)的興起和面臨的挑戰(zhàn)

近年來,人工智能(AI),尤其是深度學(xué)習(xí)的發(fā)展,進(jìn)一步加快了物聯(lián)網(wǎng)視覺應(yīng)用的激增。與傳統(tǒng)的計(jì)算機(jī)視覺技術(shù)相比,深度學(xué)習(xí)為物聯(lián)網(wǎng)開發(fā)人員在諸如目標(biāo)分類等任務(wù)方面提供了更高的準(zhǔn)確性。由于深度學(xué)習(xí)中使用的神經(jīng)網(wǎng)絡(luò)是“通過訓(xùn)練”而不是“編程”實(shí)現(xiàn)的,使用這種方法的應(yīng)用通常更易進(jìn)行開發(fā),從而更好地利用當(dāng)前系統(tǒng)中可用的大量圖像和視頻數(shù)據(jù)。深度學(xué)習(xí)還提供了卓越的多功能性,這是因?yàn)榕c針對(duì)性更強(qiáng)的計(jì)算機(jī)視覺算法相比,神經(jīng)網(wǎng)絡(luò)研究和框架的用途更廣。

但是,深度學(xué)習(xí)的優(yōu)勢(shì)并非沒有權(quán)衡和挑戰(zhàn)。深度學(xué)習(xí)需要大量的計(jì)算資源,用于訓(xùn)練和推測(cè)階段。最近的研究表明,不同的深度學(xué)習(xí)模型所需的計(jì)算能力與深度學(xué)習(xí)技術(shù)的精度之間存在緊密的關(guān)系。在基于視覺的應(yīng)用程序中,從75%到80%的精度轉(zhuǎn)變可能需要不少于數(shù)十億次額外的數(shù)學(xué)運(yùn)算。

使用深度學(xué)習(xí)的視覺處理結(jié)果也取決于圖像分辨率。例如,為了在目標(biāo)分類過程中獲得最充分的表現(xiàn)需要高分辨率的圖像或視頻,從而提升了需要處理、存儲(chǔ)和傳輸?shù)臄?shù)據(jù)量。圖像分辨率對(duì)于需要在遠(yuǎn)處探測(cè)和目標(biāo)分類的應(yīng)用尤為重要,例如企業(yè)安防攝像頭。

計(jì)算機(jī)視覺與機(jī)器學(xué)習(xí)結(jié)合以獲得更佳性能

傳統(tǒng)的計(jì)算機(jī)視覺和深度學(xué)習(xí)方法之間有明顯的折中。傳統(tǒng)的計(jì)算機(jī)視覺算法已經(jīng)成熟,經(jīng)過驗(yàn)證,并且在性能和功率效率方面進(jìn)行了優(yōu)化;而深度學(xué)習(xí)能提供更高的精度和多功能性,但是需要大量的計(jì)算資源。

那些希望快速實(shí)施高性能系統(tǒng)的用戶發(fā)現(xiàn),將傳統(tǒng)計(jì)算機(jī)視覺和深度學(xué)習(xí)相結(jié)合的混合方法可以提供兩全其美的解決方案。例如,在安防攝像頭中,計(jì)算機(jī)視覺算法可以有效地檢測(cè)場(chǎng)景中的人臉或移動(dòng)物體。然后,通過深度學(xué)習(xí)來處理檢測(cè)到的面部或目標(biāo)圖像的較小片段,以進(jìn)行身份驗(yàn)證或目標(biāo)分類。與整個(gè)場(chǎng)景、每幀深度學(xué)習(xí)相比,節(jié)省了大量的計(jì)算資源。

充分利用邊緣計(jì)算

就像使用純粹的深度學(xué)習(xí)一樣,用于視覺處理的混合方法可以充分利用邊緣的異構(gòu)計(jì)算能力。異構(gòu)計(jì)算架構(gòu)有助于提高視覺處理性能和能效,為不同的工作負(fù)載分配最高效的計(jì)算引擎。當(dāng)深度學(xué)習(xí)推斷是在DSP上執(zhí)行而不是在CPU上執(zhí)行時(shí),測(cè)試結(jié)果顯示目標(biāo)檢測(cè)延遲降低了10倍。

與云計(jì)算相比,在物聯(lián)網(wǎng)設(shè)備本身上運(yùn)行算法和神經(jīng)網(wǎng)絡(luò)推斷也有助于降低延遲和帶寬要求。邊緣計(jì)算還可以通過減少云存儲(chǔ)和處理要求來降低成本,同時(shí)通過避免在網(wǎng)絡(luò)上傳輸敏感或可識(shí)別的數(shù)據(jù)來保護(hù)用戶的隱私和安全。

深度學(xué)習(xí)創(chuàng)新正在推動(dòng)物聯(lián)網(wǎng)突破,以及將這些技術(shù)與傳統(tǒng)算法相結(jié)合的混合技術(shù)的發(fā)展。視覺處理只是一個(gè)開始,因?yàn)橄嗤脑瓌t可以應(yīng)用于其他領(lǐng)域,如音頻分析等。隨著邊緣設(shè)備變得更加智能和強(qiáng)大,創(chuàng)新者可以開始構(gòu)建此前無法實(shí)現(xiàn)的產(chǎn)品和應(yīng)用。

聲明: 本網(wǎng)站所刊載信息,不代表OFweek觀點(diǎn)?帽菊靖寮瑒(wù)經(jīng)書面授權(quán)。未經(jīng)授權(quán)禁止轉(zhuǎn)載、摘編、復(fù)制、翻譯及建立鏡像,違者將依法追究法律責(zé)任。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評(píng)論

暫無評(píng)論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號(hào)
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)