999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進Faster R-CNN的道路目標檢測*

2022-05-10 07:27:30朱宗曉徐征宇
計算機與數字工程 2022年4期
關鍵詞:特征提取特征融合

周 康 朱宗曉 徐征宇 田 微

(中南民族大學計算機科學學院 武漢 430074)

1 引言

目標檢測作為計算機視覺領域的核心問題之一,其目的是檢測目標在圖像中的位置并確定其類型。道路目標指對車輛行駛行為有重大指示意義的目標,對其進行識別定位是實現自動駕駛的基礎環節。隨著計算機硬件性能的快速提升,研究人員開始將深度學習應用于目標檢測任務。卷積神經網絡對圖像數據進行若干層的組合操作(卷積、池化和激活函數)提取出語義特征,彌補了手工提取特征低效、泛化能力弱的缺點[1]。以YOLO[2]、SSD[3]為代表的一階段目標檢測算法直接預測圖片中包圍框的類別和偏移量。兩階段目標檢測算法如Fast R-CNN[4]首先做初步檢測,生成候選區域(包含物體大致位置)后對預測框進行詳細分類和位置微調。以Faster R-CNN為代表的兩階段算法包含生成候選區域的過程,有利于提高檢測精度,盡管相對一階段算法耗時多,但是其網絡框架更靈活,適用于復雜的車輛行駛環境。

車輛行駛時視野開闊,道路小目標數量繁多成為自動駕駛場景下的關鍵問題。針對通用目標檢測框架對弱小目標檢測效果不佳的問題,國內外學者做了大量研究。Bai等[5]提出基于GAN的目標檢測算法,使用超分重構將提取出的RoI高清化再做檢測。由于對圖片做了兩次檢測,模型檢測實時性較差,不適用于自動駕駛場景。Takeki[6]等將語義分割與目標檢測方法相結合,使用支持向量機(SVM)整合深層CNN網絡、全卷積網絡(FCN)及其變體的訓練結果以提高檢測性能。該方法在背景單一的圖像中檢測鳥類效果良好,但對于復雜背景下的多目標識別則表現不佳。Zhu等[7]提出設置anchor的新思路:采用上采樣擴大特征圖尺寸并減小anchor步長、增加小尺度anchor數量等方法使anchor與小目標的匹配度更高。Xin等[8]融合卷積神經網絡的多層特征,針對小目標本身信息量弱的特點,借助周邊像素點信息輔助模型進行判斷,但相鄰目標的漏檢率較高。Kong等[9]對淺層特征作最大池化、深層特征作反卷積,經過LRN歸一化得到圖像超特征以提升小物體檢測效果。

本文以Faster R-CNN為研究對象,針對自動駕駛場景下的目標類別復雜、弱小目標多等問題引入特征金字塔結構,融合圖像不同特征層的語義信息,提高對道路小目標的檢測精度。對數據集標簽進行分析,選擇更適合的先驗框尺寸,并且替換VGG16特征提取網絡,采用更深層的卷積神經網絡ResNet50以獲取更豐富的語義信息,改善模型檢測道路目標的各類別精度。

2 改進算法模型

2.1 Faster R-CNN基本原理

Faster R-CNN檢測流程如圖1所示,首先將輸入圖像縮放處理為統一大小,經過特征提取網絡(VGG16[10])獲得區域建議網絡(RPN)所需的全圖特征。隨后RPN利用特征圖生成若干候選區域和相應的概率得分,對所有候選區域做非極大值抑制后將得分最優的候選框送入感興趣區域池化層(ROI pooling)。候選框的特征圖經過ROI pooling縮放到7×7大小,最后經過全連接層(FC)輸出候選框的類別預測及位置回歸結果[11]。

圖1 Faster R-CNN檢測框架

2.2 改進特征金字塔結構

Faster R-CNN的骨干網絡使用多層卷積逐步提取圖像的語義信息,生成不同大小的特征圖。VGG16是Faster R-CNN常用的骨干網絡,其包含5個卷積和1個分類模塊。VGG16的網絡較淺,提取出的特征信息不全。ResNet50包含深層的特征網絡能提取出更豐富的語義信息,殘差結構的引入也有效解決了網絡層數增加導致的退化問題[12]。本文后續的實驗主要采用ResNet50作為Faster R-CNN的特征提取網絡。

原始Faster R-CNN網絡中,候選區域的特征僅由最深層的卷積層提供,經過多層卷積后的深層特征中幾乎不包含弱小目標的語義信息[13]。參考FPN[14]的思想引入多尺度特征融合,對網絡中多種尺度的特征圖分別做上、下采樣,融合后針對不同尺度的目標物在對應層的融合特征圖上生成候選區域[15]。淺層卷積神經網絡輸出的特征包含圖片中的細節信息,能幫助模型更好地識別弱小目標,特征融合的具體結構如圖2所示。

圖2 加入FPN的特征提取模塊

舉例說明,輸入224×224大小的圖片,經過卷積模塊Conv1后,特征圖尺寸變為56×56。隨后每經過一個殘差模塊輸出一種尺寸的特征圖,不同層之間按照2的整數倍進行縮放,C2~C5輸出的特征圖尺度分別為56×56,28×28,14×14以及7×7。將不同尺寸的特征圖進行融合,每個殘差模塊提取出的特征圖先經過1×1的卷積核使得各層的通道數相同(側向連接),再使用鄰近插值算法對深層的特征圖做兩倍上采樣保證兩個卷積模塊之間特征圖H、W相等。相鄰模塊輸出的特征圖經上述處理后融合(逐個元素相加)。對上采樣得到的特征圖進行3×3的卷積以消除混疊效應對后續預測結果的影響。由上至下實現特征圖的融合,C4輸出的特征圖調整通道數后與C5上采樣后的特征圖逐元素相加,經3×3卷積后得到融合后的特征圖P5。以此類推,可得到融合特征圖P4、P3、P2。C5輸出的特征圖經多次卷積后作步長(stride)為2的下采樣生成P6,進一步擴大該層感受野,以生成大尺寸錨框用來預測大尺寸的物體。

原Faster R-CNN中區域建議網絡的Anchor生成器在單尺度特征圖每個位置上生成9種不同長寬比和面積的目標框(anchor),其尺寸包含三種長寬 比(1∶1,1∶2,2∶1)和 三 種 面 積(1282,2562,5122)。加入FPN后將多種尺度的特征圖送入RPN,由于特征圖本身具有不同的尺度,anchor生成器只需生成三種不同長寬比的錨框,在不同尺度的特征圖上生成錨框就能達到生成不同面積錨框的效果。

2.3 候選區域映射

原始的候選區域映射到特征圖中進行切圖的操作在單張特征圖上進行,引入FPN結構后得到若干不同尺度的特征圖。根據候選區域面積相對原圖的比例與特征圖對應原圖的縮放比例對兩者進行匹配,以確定候選區域應在何種尺度的特征圖上切圖。具體匹配規則見式(1):

k表示使用哪一層特征圖進行切圖;backbone為ResNet的Faster R-CNN網絡中將C4作為單尺度特征圖,故k0為4;w、h分別為單個候選區域對于原圖尺寸的寬和高;s代表輸入圖片的面積。由式(1)可知,候選區域面積越小時,使用越淺層的特征圖;反之候選區域面積越大,使用越深層的特征圖。符合特征融合的核心思想,即淺層特征圖(分辨率高、感受野?。╆P注圖像細節信息,更適用于弱小目標的檢測;深層特征圖(分辨率低、感受野大)關注圖像整體語義信息,適用于大目標的檢測。

3 實驗結果與分析

3.1 實驗環境

為驗證網絡有效性,本文實驗運行及訓練基于Ubuntu20.04操作系統,實驗硬件環境包括:CPU為AMD?Ryzen 5 4600h,運行內存為16GB,GPU為NVIDIA RTX 2060,顯存為6GB。編譯環境為pytorch1.6.0、torchvision-0.7.0,CUDA10.0、cudnn 7.6.5。本文采用BDD100K數據集進行訓練并驗證模型效果。BDD100K[16]是伯克利大學于2018年發布的公開駕駛數據集,其中包含道路目標標注的圖片共十萬張,訓練、測試和驗證集的比例為7∶2∶1。標注信息包括物體類別、大?。俗⒖虻淖笊霞坝蚁陆亲鴺?、寬度和高度)等信息。數據集中物體的標簽類別包括person,rider,car,bus等十類目標。

3.2 數據分析及預處理

由于BDD100K官方未給出測試集兩萬張圖片的標注文件,本文對訓練集7萬、驗證集1萬張圖片做數據清洗后得到訓練樣本69856張、測試樣本1萬張。Faster R-CNN作為兩階段目標檢測算法,先將特征圖送入區域建議網絡生成前后景分類以及邊框回歸值,結合anchor生成器生成檢測框(先驗框)。而后將先驗框傳入后續網絡進行分類及回歸并輸出結果。一般認為,增加先驗框的數量,豐富框的長寬比及尺寸,使其與真實標簽相匹配才能達到更好的檢測效果。嘗試對數據集標簽的面積、長寬比數據進行分析,選取出合適的anchor使得其與小目標的匹配度更高,從而提升Faster R-CNN的檢測精度[17]。如圖3所示,對訓練集標注框的面積與長寬比進行分析。經計算長寬比在0.5~2之間的標注框占比75.9%,而面積在82與1282之間的標注框占比89.7%。故標注框的長寬比大多集中在0.5~2之間,面積集中在82~1282之間。

圖3 訓練集標簽長寬比及面積分布

3.3 不同anchor參數下的性能對比

默認anchor參數:Faster R-CNN中anchor基礎尺寸為16×16,經過默認的縮放倍數[8,16,32]后anchor面積為[1282,2562,5122],默認長寬比為[0.5,1,2]。根據3.2節對數據集標簽的分析,修改設置anchor的縮放倍數為[2,4,8,16,32];長寬比不變,仍為[0.5,1,2]。Faster R-CNN特征提取網絡分別采用VGG16和ResNet50時在不同anchor參數下在測試集上進行實驗,采用平均精準度mAP[18]量化模型的綜合性能。如表1所示,其中VGG16+尺度[1282,2562,5122]、VGG16+尺度[322,642,1282,2562,5122]、Res50+尺度[1282,2562,5122]、Res50+尺度[322,642,1282,2562,5122]分別對應表1中①、②、③、④,IoU閾值均設為0.5。

表1 不同Anchor尺度下各類別目標AP及mAP

默認anchor參數下backbone設置為VGG16和ResNet50的mAP分別為0.392、0.406。而采用anchor縮放倍數為[2,4,8,16,32]時mAP分別提升了8%和8.8%,這說明提升anchor與數據集標簽尺寸的匹配度能有效增強檢測效果。修改anchor參數后表中各類別AP得分均有提升,對比VGG16與ResNet50,汽車分別提高11.8%和13.1%、交通燈提高13.9%和15.4%,交通標志提高13.1%和12.7%。說明添加小尺寸anchor使得模型更加匹配數據集標簽并有效地提升檢測精度,在后續的實驗改進中依舊采用[2,4,8,16,32]的anchor縮放倍數進行實驗。

3.4 不同網絡結構的性能對比

分別采用VGG16、ResNet50、ResNet50+FPN作為Faster R-CNN的特征提取模塊,測試其在BDD100K驗證集下的檢測精度。具體實驗結果見表2。

表2 不同網絡結構下各類別目標AP及mAP

由圖4可知,相對于VGG16網絡,ResNet50網絡的mAP提高了2.1%,說明更深層的特征提取網絡能有效提升模型檢測精度;而在ResNet50網絡基礎上添加特征融合結構后,融合特征層既包含淺層特征豐富的圖像紋理、邊緣等細節信息,又包含深層特征的語義信息;mAP提高了4.9%,各類別的AP得分均有不同程度的提升,說明特征融合能有效提升網絡整體性能。

圖4 不同網絡結構的mAP

查看表2中具體類別的得分變化,加深特征提取網絡層后AP提升0.6%~4.1%,其中大型目標(卡車)提升幅度較小,小目標(交通燈)提升幅度較大。加入特征融合后各類別AP值提高了1.9%~8.8%,弱小目標的檢測精度有明顯提高。在多項測試中train類別物體檢測結果AP得分為0,數據集中目標類“train”樣本數極少(87張),說明樣本數量過少導致模型難以學習該類別特征,故檢測效果差。觀察表2,模型對于圖片中出現頻率最高的car檢測精確率最高,而對于出現頻次較少的類別(如Bike、Motor等)檢測精確率偏低。

3.5 檢測速度對比

表3對比了特征提取模塊分別為VGG16、ResNet50時采用不同anchor與ResNet50+FPN模型的檢測速度。檢測指標為FPS(Frames Per Second),即每秒檢測幀率,數值越大說明模型實時性越好。查看具體數值,添加小尺寸anchor后檢測幀率稍有下降(0.3FPS~0.8FPS)。因為RPN階段生成的anchor會經過閾值檢測后過濾,訓練時anchor數并不會大幅增加,說明增加anchor數量幾乎不會影響檢測速度。加入FPN結構后檢測速度相比原基于ResNet50的Faster R-CNN模型有所下降(0.9FPS),這是因為在多個特征層進行特征提取增加了計算量,隨之提高了模型運行時間。檢測速度略有下降,處在可接受的范圍內,anchor尺寸的修改和FPN模塊的加入使得模型檢測精度得到明顯提升。

表3 不同網絡結構下檢測速度

3.6 結果展示

分別使用VGG16、ResNet50和ResNet50+FPN算法對行駛道路圖片進行識別,各算法檢測結果對應圖5第1、2、3列。如圖所示(圖片均放大400%),第一張圖片中目標物很遠,大多為弱小目標;第二張圖片中目標物的背景復雜、遮擋嚴重;第三張圖片光線復雜,小目標較多。第一列VGG16算法對弱小目標漏檢嚴重,對于被遮擋物體,只能識別出物體的部分區域,且會誤檢背景復雜的目標,檢測準確度最低。第二列ResNet50算法對于小目標仍有漏檢(第1、2、3行圖中的汽車、行人和交通標志),但數量較少,誤檢的情況也得到改善,檢測精度有一定的提升。第三列Res50Net+FPN算法,圖片中幾乎沒有漏檢、誤檢,檢測精度提升明顯。

圖5 不同網絡結構的檢測結果

4 結語

本文提出了一種多尺度Faster R-CNN算法,用于道路場景多類別目標的檢測。在原Faster R-CNN的基礎上,引入特征金字塔結構融合不同特征層以提高小目標檢測精度;根據道路目標的尺度分布特點重新設計錨框尺度以提升錨框與目標的匹配度,使用更深層的特征提取網絡ResNet50代替VGG16,加深網絡深度以提高網絡整體性能。在BDD100K公開駕駛數據集上進行實驗,結果表明加深網絡深度檢測性能有一定的提升,重新設計anchor尺寸后平均準確度提升8.8%,引入特征金字塔后平均精確度再提升4.9%。模型僅對特征提取和錨框匹配方面做了優化,后續工作是緩解數據集中類別間樣本數量不均衡問題,提升小樣本類別的檢測精度。

猜你喜歡
特征提取特征融合
村企黨建聯建融合共贏
今日農業(2021年19期)2022-01-12 06:16:36
融合菜
從創新出發,與高考數列相遇、融合
《融合》
現代出版(2020年3期)2020-06-20 07:10:34
如何表達“特征”
基于Gazebo仿真環境的ORB特征提取與比對的研究
電子制作(2019年15期)2019-08-27 01:12:00
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
一種基于LBP 特征提取和稀疏表示的肝病識別算法
基于MED和循環域解調的多故障特征提取
主站蜘蛛池模板: 亚洲第一国产综合| 成人91在线| 国产亚洲欧美在线人成aaaa| 国产精品成人不卡在线观看 | 婷婷五月在线| a毛片在线| 999在线免费视频| 久爱午夜精品免费视频| 萌白酱国产一区二区| 国产成人精品一区二区| 欧美亚洲一区二区三区在线| 亚洲天堂日本| 精品一区二区三区水蜜桃| 亚洲国产看片基地久久1024 | 亚洲无码电影| 国产簧片免费在线播放| 欧美激情,国产精品| 亚洲人成成无码网WWW| 国产成人a在线观看视频| 亚洲色成人www在线观看| 91久久青青草原精品国产| 欧美啪啪视频免码| 美女扒开下面流白浆在线试听 | 午夜国产小视频| 欧洲亚洲欧美国产日本高清| 久久中文字幕不卡一二区| 国产精品xxx| 国产亚洲精品91| 欧美国产成人在线| 国产第一页屁屁影院| 免费看黄片一区二区三区| 一边摸一边做爽的视频17国产| 九九热视频在线免费观看| 青青操国产| 欧美一级夜夜爽www| 在线播放91| 国产成本人片免费a∨短片| 国产不卡在线看| 色噜噜综合网| 国产毛片网站| 波多野结衣一区二区三区AV| 国产精品女同一区三区五区| 在线观看亚洲成人| 91麻豆久久久| 亚洲国语自产一区第二页| 午夜视频日本| 久久国产精品娇妻素人| 国产在线视频欧美亚综合| 久久a级片| 一级毛片免费观看不卡视频| 亚洲国产精品美女| 国产精品视频公开费视频| 国产精品美女免费视频大全| 国产在线观看第二页| 色婷婷综合在线| 国产福利不卡视频| 中文毛片无遮挡播放免费| 999精品在线视频| 国产精品爽爽va在线无码观看| 國產尤物AV尤物在線觀看| 狠狠亚洲婷婷综合色香| 超清无码一区二区三区| 无码AV动漫| 欧美福利在线观看| 婷婷综合亚洲| 国产精品主播| 国产成人毛片| 亚洲永久视频| 国产精品深爱在线| 色窝窝免费一区二区三区| 国产在线拍偷自揄观看视频网站| 欧美a级完整在线观看| 青青草国产免费国产| 欧美h在线观看| 欧美一级高清免费a| 99中文字幕亚洲一区二区| 超碰精品无码一区二区| 国产97视频在线观看| aa级毛片毛片免费观看久| 麻豆精品国产自产在线| 亚洲精品国产首次亮相| 高清免费毛片|