999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于智能網(wǎng)聯(lián)汽車(chē)的目標(biāo)識(shí)別融合算法研究

2025-03-12 00:00:00程巖
時(shí)代汽車(chē) 2025年3期

摘 要:本文集中探討了智能網(wǎng)聯(lián)汽車(chē)中目標(biāo)識(shí)別的關(guān)鍵技術(shù),特別是通過(guò)雙目視覺(jué)與Faster R-CNN相結(jié)合進(jìn)行三維目標(biāo)檢測(cè)的方法。首先,文章詳細(xì)分析了Faster R-CNN的工作機(jī)制及其網(wǎng)絡(luò)架構(gòu),包括特征提取、區(qū)域候選生成以及分類(lèi)與回歸檢測(cè)等多個(gè)部分,并深入講解了其在訓(xùn)練過(guò)程中的機(jī)制及所采用的損失函數(shù)。接下來(lái),為了克服現(xiàn)有雙目視覺(jué)方法的局限性,提出了一個(gè)創(chuàng)新性的三維目標(biāo)檢測(cè)系統(tǒng)——CPNet,該系統(tǒng)將雙目視覺(jué)與Faster R-CNN技術(shù)融合。通過(guò)使用ResNet替換VGG16網(wǎng)絡(luò),構(gòu)建能夠有效捕捉遠(yuǎn)距離小型目標(biāo)的多層次特征提取網(wǎng)絡(luò)。同時(shí),在區(qū)域推薦與參數(shù)回歸階段,通過(guò)優(yōu)化錨點(diǎn)的數(shù)量、調(diào)整網(wǎng)絡(luò)結(jié)構(gòu)及改進(jìn)損失函數(shù),實(shí)現(xiàn)了對(duì)目標(biāo)朝向角度、物理尺寸和空間坐標(biāo)的精確預(yù)測(cè)。此外,引入了一種基于光照校正的三維目標(biāo)框調(diào)整算法,利用原圖的高分辨率信息進(jìn)一步優(yōu)化了目標(biāo)的空間坐標(biāo)。通過(guò)在KITTI公開(kāi)數(shù)據(jù)集及自定義數(shù)據(jù)集上的實(shí)證研究,結(jié)果表明,CPNet在二維目標(biāo)檢測(cè)精度上相較于傳統(tǒng)的Faster R-CNN有顯著提升,最高認(rèn)知提高了27.68%。在不同難度等級(jí)下,系統(tǒng)在AP3D和AOS指標(biāo)上的表現(xiàn)均十分出色,且整體運(yùn)行速度僅需0.2秒。本地實(shí)驗(yàn)進(jìn)一步證實(shí)了CPNet的魯棒性和有效性,但同時(shí)也指出存在一定程度的誤報(bào)和漏報(bào)問(wèn)題,這將是未來(lái)工作需要著重解決的挑戰(zhàn)。

關(guān)鍵詞:智能網(wǎng)聯(lián)汽車(chē) 三維目標(biāo)檢測(cè) Faster R-CNN

1 緒論

伴隨著科技的迅猛進(jìn)步,智能網(wǎng)聯(lián)汽車(chē)已然成為驅(qū)動(dòng)交通領(lǐng)域革新的核心力量,在復(fù)雜多變的道路環(huán)境中,車(chē)輛需要具備精準(zhǔn)、高效的多目標(biāo)識(shí)別能力,以確保行車(chē)安全及智能駕駛功能的實(shí)現(xiàn)。無(wú)論是行人、各類(lèi)機(jī)動(dòng)車(chē)還是突發(fā)的非機(jī)動(dòng)車(chē),均需智能網(wǎng)聯(lián)汽車(chē)能夠?qū)崿F(xiàn)即時(shí)且準(zhǔn)確的感知。傳統(tǒng)的單一目標(biāo)識(shí)別算法往往受限于諸如環(huán)境光線(xiàn)條件、氣象狀況以及目標(biāo)的遮擋等因素,難以達(dá)到高度精確的識(shí)別標(biāo)準(zhǔn)。例如,在強(qiáng)光源直射下,依賴(lài)視覺(jué)進(jìn)行的識(shí)別可能會(huì)導(dǎo)致誤判;而在霧天等惡劣氣候條件下,雷達(dá)探測(cè)的準(zhǔn)確度和有效范圍會(huì)大幅降低。在此背景下,集成了多種傳感器信息的目標(biāo)識(shí)別融合算法應(yīng)運(yùn)而生。該算法綜合運(yùn)用了攝像頭、毫米波雷達(dá)、激光雷達(dá)等多種傳感器的優(yōu)勢(shì),有效彌補(bǔ)了各自的局限性,構(gòu)建起一個(gè)全面且高可靠性的感知系統(tǒng)。

2 基于雙目視覺(jué)與Faster R-CNN的三維目標(biāo)檢測(cè)

Faster R-CNN等二維目標(biāo)檢測(cè)技術(shù)在特定場(chǎng)景下檢測(cè)準(zhǔn)確,但缺乏空間信息,限制了其在需要空間分析的應(yīng)用,如自動(dòng)駕駛。為解決此問(wèn)題,我們提出結(jié)合雙目視覺(jué)與Faster R-CNN的三維目標(biāo)檢測(cè)方案。研究解釋了Faster R-CNN的原理和架構(gòu),并進(jìn)行了優(yōu)化,使用雙目圖像作為輸入以學(xué)習(xí)三維空間特征。為檢測(cè)遠(yuǎn)距離車(chē)輛,構(gòu)建了多層次特征提取網(wǎng)絡(luò)。我們還將三維目標(biāo)邊界框分解為三個(gè)部分進(jìn)行精確估計(jì)。通過(guò)KITTI數(shù)據(jù)集訓(xùn)練和比較三維檢測(cè)網(wǎng)絡(luò),并用本地?cái)?shù)據(jù)集驗(yàn)證算法的實(shí)際應(yīng)用效果。

2.1 Faster R-CNN目標(biāo)檢測(cè)原理

Faster R-CNN的總體架構(gòu)主要分為三個(gè)關(guān)鍵部分:特征提取模塊、區(qū)域建議網(wǎng)絡(luò)(Region Proposal Network,簡(jiǎn)稱(chēng)RPN)以及多個(gè)專(zhuān)門(mén)負(fù)責(zé)檢測(cè)的任務(wù)分支,其詳細(xì)的體系結(jié)構(gòu)可視化展示在圖1中。

特征提取模塊首先運(yùn)用卷積和池化技術(shù)對(duì)輸入圖像進(jìn)行處理,生成包含關(guān)鍵信息的特征圖。隨后,通過(guò)區(qū)域建議網(wǎng)絡(luò)的兩個(gè)分支對(duì)這些區(qū)域進(jìn)行分類(lèi)和定位。最終,基于篩選后的候選區(qū)域,利用特征圖上對(duì)應(yīng)的不同尺度進(jìn)行特征提取,并將這些特征送入分類(lèi)與回歸分支中,以確定目標(biāo)的具體類(lèi)別及其精確位置。本文將對(duì)Faster R-CNN這一網(wǎng)絡(luò)架構(gòu)的三大核心部分進(jìn)行深入剖析。

在訓(xùn)練Faster R-CNN模型過(guò)程中,首先基于區(qū)域建議網(wǎng)絡(luò)輸出的前景概率,對(duì)成千上萬(wàn)個(gè)候選框進(jìn)行初步篩選,依據(jù)預(yù)測(cè)的前景概率從大到小排序,選取排名靠前的12000個(gè)候選框。隨后,運(yùn)用非極大值抑制算法對(duì)候選框進(jìn)行二次篩選,按概率大小排序這12000個(gè)候選框,計(jì)算概率最高的候選框與其他框的交并比(Intersection over Union,簡(jiǎn)稱(chēng)IOU),具體指兩框重疊區(qū)域面積與兩框整體覆蓋面積之比。當(dāng)發(fā)現(xiàn)與某個(gè)候選框的IOU值超過(guò)預(yù)設(shè)閾值0.5時(shí),該閾值以下的概率較低候選框?qū)⒈惶蕹?。?jīng)過(guò)此循環(huán)操作直至大部分重疊的候選框被移除,最終保留約2000個(gè)候選框。真實(shí)的目標(biāo)框會(huì)逐一與剩余候選框計(jì)算IOU值,其中與每個(gè)目標(biāo)框IOU值最高的候選框被視為正樣本。定義與目標(biāo)框的IOU值小于0.3的候選框作為負(fù)樣本,僅參與分類(lèi)損失函數(shù)的計(jì)算,不納入回歸損失函數(shù)的計(jì)算范疇。僅有正樣本的坐標(biāo)偏移信息會(huì)參與到回歸損失函數(shù)的計(jì)算中,用以指導(dǎo)模型的學(xué)習(xí)和優(yōu)化。這里,“x”“y”代表目標(biāo)框的中心坐標(biāo),“w”“h”則分別代表目標(biāo)框的寬度和高度。假設(shè)有目標(biāo)框的精確位置,以及某個(gè)候選框的位置信息時(shí),兩者間通過(guò)以下轉(zhuǎn)換公式進(jìn)行位置關(guān)系的計(jì)算:

在所提到的公式內(nèi),變量tx、ty、tw、th代表了從錨框轉(zhuǎn)換至目標(biāo)框位置的偏差,而這正是網(wǎng)絡(luò)回歸檢測(cè)部分所輸出的四個(gè)預(yù)測(cè)參數(shù)。

Faster R-CNN作為一種先進(jìn)的目標(biāo)檢測(cè)技術(shù),構(gòu)建在一個(gè)區(qū)域建議網(wǎng)絡(luò)框架之上,對(duì)于每一個(gè)錨框,它能進(jìn)行前景與背景的二分類(lèi)概率預(yù)測(cè),同時(shí)提供邊界框回歸指導(dǎo)。通過(guò)該網(wǎng)絡(luò)篩選出的Region of Interest(ROI),它進(jìn)一步執(zhí)行具體的類(lèi)別預(yù)測(cè)并實(shí)現(xiàn)更為精確的邊界框調(diào)整,從而歸類(lèi)于兩階段的目標(biāo)檢測(cè)算法范疇。由此,F(xiàn)aster R-CNN的損失函數(shù)結(jié)構(gòu)被劃分為兩大組成部分:區(qū)域建議網(wǎng)絡(luò)的部分與檢測(cè)分支的部分。每一部分都涵蓋了分類(lèi)損失與回歸損失兩個(gè)方面。分類(lèi)損失通常采用交叉熵函數(shù)來(lái)衡量,而回歸損失則通過(guò)計(jì)算誤差平方和來(lái)量化,旨在優(yōu)化模型對(duì)目標(biāo)對(duì)象的定位和識(shí)別精度。

區(qū)域推薦網(wǎng)絡(luò)中二分類(lèi)損失為:

區(qū)域推薦網(wǎng)絡(luò)中邊框回歸損失為:

分類(lèi)檢測(cè)分支中分類(lèi)損失為:

回歸檢測(cè)分支中回歸損失為:

在上述公式中,、、、表示的是目標(biāo)框與錨框位置信息的偏差值。

本文探討了網(wǎng)絡(luò)預(yù)測(cè)所引入的坐標(biāo)位置誤差以及預(yù)測(cè)的前景概率與特定類(lèi)別之間的關(guān)系。

在概率模型中,Ci和Pi分別代表目標(biāo)的真實(shí)值與預(yù)測(cè)值。當(dāng)樣本屬于正例時(shí),其標(biāo)簽P設(shè)置為1;反之,若為負(fù)例,則P設(shè)置為0。僅正例對(duì)回歸損失產(chǎn)生貢獻(xiàn),因此在區(qū)域推薦網(wǎng)絡(luò)的回歸損失計(jì)算中,引入了Pi作為乘因子。每次迭代會(huì)選取256個(gè)樣本,其中包含128個(gè)正例和128個(gè)負(fù)例,若有類(lèi)別樣本不足,則通過(guò)其他類(lèi)別進(jìn)行補(bǔ)充以滿(mǎn)足需求。錨點(diǎn)的總數(shù)定義為M,假設(shè)特征圖尺寸為5038,據(jù)此計(jì)算得出錨點(diǎn)總數(shù)為1900。為了確保分類(lèi)損失與回歸損失在量級(jí)上保持一致性,通常將回歸損失的權(quán)重系數(shù)設(shè)定為10。

2.2 基于雙目視覺(jué)的三維目標(biāo)檢測(cè)網(wǎng)絡(luò)結(jié)構(gòu)

二維目標(biāo)檢測(cè)關(guān)注圖像中的位置,而三維目標(biāo)檢測(cè)則確定目標(biāo)在三維空間中的位置。由于圖像缺乏立體信息,三維檢測(cè)更具挑戰(zhàn)性,因此基于雙目視覺(jué)的方法受到關(guān)注。這些方法通常分為兩部分:一部分提取圖像特征,另一部分利用視差信息生成視差圖,最終將結(jié)果轉(zhuǎn)化為點(diǎn)云數(shù)據(jù)以精確定位目標(biāo)。然而,這些方法面臨兩個(gè)主要問(wèn)題:一是增加網(wǎng)絡(luò)模塊導(dǎo)致計(jì)算復(fù)雜度提高;二是背景信息影響視差圖準(zhǔn)確性,降低目標(biāo)定位精度,尤其是遠(yuǎn)距離目標(biāo)。(表1)

2.3 實(shí)驗(yàn)及結(jié)果分析

為了探討三維目標(biāo)檢測(cè)算法CPNet的穩(wěn)健性和通用性,本研究在公開(kāi)數(shù)據(jù)集及自定義本地?cái)?shù)據(jù)集上進(jìn)行了實(shí)證分析,以此來(lái)評(píng)估算法的表現(xiàn)和適應(yīng)能力。

2.3.1 三維目標(biāo)檢測(cè)評(píng)價(jià)指標(biāo)

準(zhǔn)確率(Average Precision,AP):按照IOU的計(jì)算方法的不同,可以將之細(xì)分為適用于二維圖像的AP2D(Area Precision in 2D)與適用于三維空間的AP3D(Volume Precision in 3D)。AP2D的計(jì)算基于二維目標(biāo)框的面積交集與并集的比例關(guān)系,而AP3D則是根據(jù)三維目標(biāo)框的體積交集與并集的比例得出。在進(jìn)行網(wǎng)絡(luò)預(yù)測(cè)結(jié)果與實(shí)際標(biāo)簽的IOU值計(jì)算后,通過(guò)設(shè)定閾值來(lái)區(qū)分預(yù)測(cè)結(jié)果的正負(fù)樣本,當(dāng)IOU值不低于該閾值時(shí),網(wǎng)絡(luò)將預(yù)測(cè)結(jié)果標(biāo)記為正樣本;反之則標(biāo)記為負(fù)樣本。針對(duì)三維目標(biāo)檢測(cè)任務(wù),目標(biāo)框通常會(huì)被劃分為四類(lèi):對(duì)于真正屬于正樣本的情況,網(wǎng)絡(luò)正確預(yù)測(cè)為正樣本稱(chēng)為T(mén)rue Positive(TP);若網(wǎng)絡(luò)錯(cuò)誤地將真負(fù)樣本預(yù)測(cè)為正樣本,則稱(chēng)之為False Positive(FP)。同樣地,如果網(wǎng)絡(luò)準(zhǔn)確預(yù)測(cè)了真負(fù)樣本,即預(yù)測(cè)為負(fù)樣本且確實(shí)為負(fù)樣本,這則被稱(chēng)作True Negative(TN)。

精確度(Precision)是預(yù)測(cè)為正樣本的數(shù)據(jù)集中,實(shí)際正類(lèi)別樣本所占比例。

召回率(Recall)是實(shí)際正樣本集合中,網(wǎng)絡(luò)模型成功識(shí)別并分類(lèi)為正類(lèi)的樣本所占比例,公式為:

準(zhǔn)確率(AP):P-R曲線(xiàn)的積分。

AP(平均精度)的值位于區(qū)間[0,1]內(nèi),其數(shù)值越高通常意味著網(wǎng)絡(luò)模型的準(zhǔn)確率與召回率表現(xiàn)優(yōu)秀,從而反映出網(wǎng)絡(luò)的整體性能優(yōu)良。

平均方向相似性(AOS)量化兩個(gè)對(duì)象在三維空間的方向一致性。它通過(guò)計(jì)算方向差異的平均值來(lái)衡量整體匹配程度。AOS在計(jì)算機(jī)視覺(jué)和機(jī)器人導(dǎo)航等領(lǐng)域應(yīng)用廣泛,尤其對(duì)精確識(shí)別和定位目標(biāo)對(duì)象的場(chǎng)景至關(guān)重要。其用于評(píng)價(jià)網(wǎng)絡(luò)預(yù)測(cè)角度準(zhǔn)確程度的指標(biāo)。

在所述公式中,符號(hào)R所代表的是召回率,集合部分則表示網(wǎng)絡(luò)識(shí)別并標(biāo)記為正樣本的全部數(shù)據(jù)。變量 表示網(wǎng)絡(luò)計(jì)算出的定向角度與實(shí)際值之間的差異。參數(shù)λ作為懲罰因子,在情況多個(gè)正樣本由網(wǎng)絡(luò)同一真正樣本對(duì)應(yīng)時(shí)設(shè)為0,其他情況下則設(shè)定為1。AOS的取值限定于[0,1]區(qū)間內(nèi),數(shù)值越大暗示著網(wǎng)絡(luò)對(duì)角度的預(yù)測(cè)準(zhǔn)確性越高。

2.3.2 基于公開(kāi)數(shù)據(jù)集的實(shí)驗(yàn)及結(jié)果分析

(1)公開(kāi)數(shù)據(jù)集說(shuō)明

KITTIDataSet,自動(dòng)駕駛領(lǐng)域內(nèi)公認(rèn)的頂尖三維目標(biāo)檢測(cè)數(shù)據(jù)集,由7481張用于訓(xùn)練的圖片與7518張用于測(cè)試的圖片構(gòu)成,值得注意的是,僅訓(xùn)練圖片攜帶有實(shí)際標(biāo)簽信息。表2詳細(xì)列出了KITTIDataSet中標(biāo)簽信息的具體內(nèi)容。

KITTI數(shù)據(jù)集將目標(biāo)檢測(cè)任務(wù)的復(fù)雜性細(xì)分為三個(gè)級(jí)別:簡(jiǎn)單、中等和困難,這一分類(lèi)依據(jù)是目標(biāo)在圖像中所占的像素比例、目標(biāo)的遮擋情況以及目標(biāo)被截?cái)嗟某潭?。具體來(lái)說(shuō),該數(shù)據(jù)集的難度等級(jí)劃分詳情如表3所示。

我們采用了7481對(duì)帶有標(biāo)簽的圖片作為構(gòu)建和評(píng)估CPNet模型的數(shù)據(jù)基礎(chǔ),并通過(guò)隨機(jī)劃分的方式,按照1∶1的比例,將整個(gè)數(shù)據(jù)集分為了訓(xùn)練集和用于驗(yàn)證的測(cè)試集。為了最大化利用數(shù)據(jù)資源并獲取更多等效數(shù)據(jù),我們?cè)谟?xùn)練集上實(shí)施了數(shù)據(jù)增強(qiáng)技術(shù)。鑒于CPNet專(zhuān)為三維目標(biāo)檢測(cè)設(shè)計(jì),其原理基于圖像像素點(diǎn)與三維空間點(diǎn)之間的投影映射,避免采用目標(biāo)檢測(cè)領(lǐng)域內(nèi)常見(jiàn)的隨機(jī)角度翻轉(zhuǎn)策略。

(2)網(wǎng)絡(luò)訓(xùn)練參數(shù)設(shè)定

為了確保訓(xùn)練過(guò)程的穩(wěn)定性,我們選用Adam優(yōu)化算法作為網(wǎng)絡(luò)模型的優(yōu)化手段。該算法能夠動(dòng)態(tài)調(diào)整每個(gè)參數(shù)的學(xué)習(xí)率,從而保證在每次迭代之后,學(xué)習(xí)率都在一個(gè)預(yù)設(shè)的范圍內(nèi)變動(dòng),有效避免了參數(shù)振蕩現(xiàn)象。在Adam的計(jì)算流程中引入了移動(dòng)指數(shù)平均的概念,其計(jì)算公式具體如下所示:

本文聚焦深度學(xué)習(xí)模型訓(xùn)練及相關(guān)目標(biāo)檢測(cè)算法對(duì)比。首先,在模型訓(xùn)練中,引入不同時(shí)刻的梯度指數(shù)移動(dòng)平均值與梯度平方指數(shù)移動(dòng)平均值,設(shè)置學(xué)習(xí)率為 0.9、指數(shù)衰減移動(dòng)平均衰減系數(shù)為 0.999、正則化項(xiàng)為 10e8 等參數(shù)。采用預(yù)訓(xùn)練的 ResNet50 模型及 He Initialization 策略進(jìn)行權(quán)重初始化,精心配置網(wǎng)絡(luò)超參數(shù),如學(xué)習(xí)率 0.01、訓(xùn)練周期 18 個(gè)、批次大小 1 等,還對(duì)區(qū)域建議網(wǎng)絡(luò)的 ROI 提取點(diǎn)及輸入圖像尺寸等進(jìn)行設(shè)置。

訓(xùn)練初期損失值較高,隨著迭代增加快速下降,后期波動(dòng),部分點(diǎn)損失值近零,提示可移除無(wú)目標(biāo)圖像以?xún)?yōu)化效率,平均每次迭代耗時(shí) 1.1 秒,累計(jì)訓(xùn)練 41.15 小時(shí)。每個(gè)周期結(jié)束保存權(quán)重,用于對(duì) 3740 張測(cè)試集圖像分類(lèi)預(yù)測(cè)并計(jì)算AP值,重點(diǎn)關(guān)注轎車(chē)類(lèi)別。

在訓(xùn)練過(guò)程中,初期3D平均精度AP3D 不佳,僅20.01%,但隨周期增加逐步提升,第12個(gè)周期達(dá)81.45%后穩(wěn)定。

(3)二維目標(biāo)檢測(cè)對(duì)比結(jié)果分析

對(duì)比 CPNet 與 Faster R-CNN,CPNet 基于 Faster R-CNN,在二維目標(biāo)檢測(cè)上,其獨(dú)特網(wǎng)絡(luò)結(jié)構(gòu)和優(yōu)化算法使在特定場(chǎng)景如復(fù)雜背景和小目標(biāo)識(shí)別中檢測(cè)精度和速度有優(yōu)勢(shì);而 Faster R-CNN 憑借成熟區(qū)域建議機(jī)制和多尺度特征提取能力,在廣泛應(yīng)用領(lǐng)域表現(xiàn)出穩(wěn)定檢測(cè)效果和良好泛化能力。通過(guò)實(shí)驗(yàn)數(shù)據(jù)和案例研究,清晰呈現(xiàn)兩者在不同任務(wù)需求和數(shù)據(jù)集規(guī)模下的優(yōu)勢(shì)與局限,為目標(biāo)檢測(cè)算法選擇提供有價(jià)值參考,同時(shí)CPNet還通過(guò)測(cè)試集與其他方法對(duì)比了二維目標(biāo)檢測(cè)任務(wù)上的平均精度AP2D,相關(guān)結(jié)果記錄在表4中。

通過(guò)分析表格中的數(shù)據(jù)顯示,相較于基礎(chǔ)的Faster R-CNN,CPNet在面對(duì)不同難度級(jí)別的檢測(cè)任務(wù)時(shí)均展現(xiàn)出顯著優(yōu)勢(shì),分別實(shí)現(xiàn)了17.27%、19.94%以及27.86%的性能提升。隨著檢測(cè)挑戰(zhàn)性的增加,即從近距離到遠(yuǎn)距離,從小目標(biāo)到大范圍覆蓋的目標(biāo),再到部分遮擋與截?cái)嗲闆r的處理,CPNet與Faster R-CNN之間的性能差距逐漸拉大。結(jié)果反映出了CPNet所采用的多尺度特征提取網(wǎng)絡(luò)在整合和利用圖像信息方面的效率和深度,相比Faster R-CNN有明顯的提升。

(4) CPNet三維目標(biāo)檢測(cè)識(shí)別效果分析

在不同距離的場(chǎng)景中,通過(guò)對(duì)CPNet檢測(cè)結(jié)果的觀察,我們發(fā)現(xiàn)該網(wǎng)絡(luò)在識(shí)別靠近攝像頭的車(chē)輛方面表現(xiàn)出色。網(wǎng)絡(luò)構(gòu)建的三維目標(biāo)邊界框能夠精確地覆蓋目標(biāo)車(chē)輛,且對(duì)于存在部分遮擋的車(chē)輛也具備一定的識(shí)別能力。

3 結(jié)論

本文深入剖析 Faster R-CNN 檢測(cè)機(jī)制與架構(gòu)后,提出新型三維目標(biāo)檢測(cè)網(wǎng)絡(luò) CPNet。針對(duì)遠(yuǎn)距車(chē)輛檢測(cè),以 ResNet 替換 VGG16,結(jié)合圖像金字塔理念優(yōu)化架構(gòu),增上采樣層與多尺度輸出層強(qiáng)化特征提取,生成多層次特征圖。KITTI 數(shù)據(jù)集實(shí)驗(yàn)表明,多尺度特征提取法較單尺度模型,不同檢測(cè)距離區(qū)間內(nèi) AP3D 提升超25%,遠(yuǎn)距提升達(dá) 38.43%。

利用投影中心點(diǎn)算視差,結(jié)合雙目視覺(jué)測(cè)距原理求解車(chē)輛三維坐標(biāo),引入光度校正三維目標(biāo)框修正算法優(yōu)化坐標(biāo),對(duì)比修正前后 Z 軸值平均誤差,驗(yàn)證算法提升定位精度的有效性與實(shí)用性。

經(jīng) KITTI 數(shù)據(jù)集訓(xùn)練評(píng)估,CPNet二維檢測(cè)能力優(yōu)勢(shì)顯著,較 Faster R-CNN性能上限提升 27.68%,與流行三維檢測(cè)網(wǎng)絡(luò)相比具競(jìng)爭(zhēng)力,不同難度測(cè)試中 AP3D 分別達(dá) 81.45%、69.79%、62.29%,AOS 達(dá) 97.87%、88.98%、78.64%,運(yùn)行速度僅 0.2 秒,三輪本地實(shí)驗(yàn)證實(shí)其穩(wěn)定性與實(shí)用性,但存在誤檢漏檢問(wèn)題,為算法優(yōu)化指明方向。

基金項(xiàng)目:江蘇省高職院校青年教師企業(yè)實(shí)踐培訓(xùn)資助項(xiàng)目(2024QYSJ031)。

參考文獻(xiàn):

[1]Smith, J. Johnson, A. Multi-sensor Fusion for Object Recognition in Intelligent Connected Vehicles [D]. Massachusetts Institute of Technology, 2021.

[2]Brown, L. Research on the Optimization of Target Recognition Algorithms in Autonomous Driving Scenarios [D]. Stanford University, 2022.

[3]李明.智能網(wǎng)聯(lián)汽車(chē)多傳感器融合目標(biāo)識(shí)別技術(shù)綜述[J]. 汽車(chē)工程學(xué)報(bào),2020,10(05):301-306.

[4]王悅.基于深度學(xué)習(xí)的智能網(wǎng)聯(lián)汽車(chē)目標(biāo)識(shí)別算法改進(jìn) [J]. 中國(guó)科技信息,2020(12):78-80.

[5]張輝.智能網(wǎng)聯(lián)汽車(chē)環(huán)境感知中目標(biāo)識(shí)別融合策略探討 [J]. 汽車(chē)技術(shù),2021(03): 45-49.

[6]劉鑫.面向復(fù)雜路況的智能網(wǎng)聯(lián)汽車(chē)目標(biāo)識(shí)別算法研究[J].現(xiàn)代交通技術(shù),2021,18(02):33-37.

主站蜘蛛池模板: 国产一级无码不卡视频| 精品99在线观看| 亚洲日韩精品综合在线一区二区| 狠狠亚洲五月天| 99re精彩视频| 免费A∨中文乱码专区| 日韩一区精品视频一区二区| 免费A∨中文乱码专区| 亚洲色图欧美视频| 少妇精品在线| 中文字幕日韩欧美| 久久大香伊蕉在人线观看热2| 欧美国产菊爆免费观看| 国产精品网址你懂的| yy6080理论大片一级久久| 亚洲欧美日本国产综合在线 | 久久香蕉国产线| 54pao国产成人免费视频| 国产亚洲精久久久久久无码AV| 久久美女精品| 91久久偷偷做嫩草影院精品| 日本不卡在线视频| 亚洲人在线| 欧美国产日产一区二区| 国产精品视屏| 久久鸭综合久久国产| 欧美一区二区精品久久久| 日韩福利在线视频| 中文字幕亚洲精品2页| 国产精品极品美女自在线看免费一区二区| 无码免费视频| 亚洲人人视频| 四虎AV麻豆| 欧美在线精品一区二区三区| 免费毛片网站在线观看| 999精品视频在线| 国内精品自在自线视频香蕉| 久久国产精品无码hdav| 亚洲精品卡2卡3卡4卡5卡区| 国产91精品调教在线播放| 白浆视频在线观看| 亚洲天堂在线视频| 狠狠躁天天躁夜夜躁婷婷| 国产成人凹凸视频在线| 国产一级二级在线观看| 青青操国产视频| 54pao国产成人免费视频| 狂欢视频在线观看不卡| 97视频免费在线观看| 日韩久草视频| 国产福利小视频高清在线观看| 思思99热精品在线| 久久午夜夜伦鲁鲁片无码免费| 国产欧美在线观看一区| 91综合色区亚洲熟妇p| 精品国产99久久| 狠狠色噜噜狠狠狠狠奇米777 | 国产精品区网红主播在线观看| 亚洲小视频网站| 亚洲AV色香蕉一区二区| 无码人妻热线精品视频| 久久福利网| 91久久夜色精品| 欧美伦理一区| 免费观看国产小粉嫩喷水| 国产免费网址| 欧美精品aⅴ在线视频| 亚洲国产综合精品一区| 国产午夜不卡| 日本国产精品| 成人日韩精品| 国产系列在线| 久99久热只有精品国产15| 亚洲中文字幕23页在线| 亚洲综合婷婷激情| 欧美日本在线一区二区三区| 久久伊人操| 国产精品欧美在线观看| 中文无码精品a∨在线观看| 成人福利视频网| 九九免费观看全部免费视频| 韩日无码在线不卡|