999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進YOLOv3的行人車輛目標檢測算法

2021-04-22 03:32:10袁小平馬緒起
科學技術與工程 2021年8期
關鍵詞:特征檢測

袁小平, 馬緒起, 劉 賽

(中國礦業(yè)大學信息與控制工程學院, 徐州 221116)

據中國汽車工業(yè)協(xié)會統(tǒng)計,2019年中國汽車產銷分別完成2 572.1萬輛和2 576.9萬輛,產銷量繼續(xù)蟬聯(lián)全球第一。然而過多的汽車保有量與相對落后的城市規(guī)劃、道路建設管理產生了沖突,導致城市道路擁擠不堪,交通安全隱患巨大,交通事故頻發(fā)。在現有道路環(huán)境下,提高道路管理水平減少行人車輛聚集擁堵成為中國乃至全世界亟待解決的問題。行人和車輛作為交通系統(tǒng)的主要參與對象,對于行人車輛的目標檢測成為解決現有交通問題的基礎和重點[1-2]。

對行人車輛的檢測可以分為基于人工特征的目標檢測算法和基于深度學習[3]的目標檢測算法。基于人工特征的檢測算法首先從圖像中提取出人工設計的特征,然后利用機器學習方法作為分類器,對提取出的圖像特征進行分類。代表算法包括提取出圖像的方向梯度直方圖(histogram of gradient,HOG)[4]特征,然后將HOG特征送入支持向量機(support vector machine, SVM)[5]進行分類。

然而人工設計的特征存在計算復雜、魯棒性差等缺點,使得基于人工特征的檢測算法的應用受到很大的限制。隨著計算機硬件的發(fā)展和卷積神經網絡理論的成熟,基于深度學習的目標檢測算法在實時性和準確性方面表現出獨有的優(yōu)勢,成為了當前機器視覺領域的研究熱點。根據是否預生成候選框,基于深度學習的目標檢測算法又分為基于候選框生成的兩階段(two-stage)目標檢測算法和基于回歸的一階段(one-stage)目標檢測算法。

兩階段目標檢測算法將目標檢測分為兩步進行,首先生成包含目標的候選區(qū)域,然后對候選區(qū)域進行分類和邊框回歸。兩階段目標檢測算法的分類準確率和定位精度較高,但網絡較復雜速度慢,代表算法有SPPnet[6](spatial pyramid pooling networks)以及Faster-RCNN[7](faster Regions with CNN features)系列。與兩階段目標檢測算法不同,一階段目標檢測算法則將分類和定位都看作回歸問題,不需要生成候選區(qū)域直接對特征進行分類和邊框回歸。因此其檢測速度快,但分類準確率不高,尤其對中小目標的檢測效果不甚理想,代表算法有SSD(single shot multibox detector)[8]、RetinaNet[9]及YOLO(you only look once)[10-12]系列。

作為一階段檢測算法的代表,YOLOv3具有算法結構簡單、魯棒性好、檢測速度快、檢測精度較高等優(yōu)點,然而對于中小目標的識別準確率仍然達不到理想水平。針對此問題,在YOLOv3算法的基礎上,提出改進算法DX-YOLO,以期提高在行人車輛檢測任務中對中小目標的檢測效果。

1 YOLOv3目標檢測算法

YOLOv3以YOLOv2為基礎,使用新的卷積網絡Darknet-53進行特征提取,利用多尺度特征進行對象檢測,并且在最終的對象分類環(huán)節(jié)使用Logistic取代了Softmax。上述改進使得YOLOv3在保持速度優(yōu)勢的前提下,提升了預測精度。

與YOLOv2不同,YOLOv3使用了新的卷積網絡Darknet-53。如圖1所示,Darknet-53網絡包含 53 個卷積層,能夠提取到豐富的語義信息。由于使用了Resnet構成的殘差單元[13],通過引入shortcut短路連接,解決了網絡加深時出現的網絡性能下降的問題。為了減少參數量,沒有使用大的卷積核,而是采用1×1卷積核降低特征通道數量,3×3卷積核進行特征提取。同時隨著卷積層數的加深,神經網絡會出現過擬合現象,為了抑制過擬合Darknet-53在卷積層后添加了批量歸一化層(batch normalization)。

Type為類型;Filters為卷積個數;Size為尺寸;Output為輸出;Convolutional為卷積;Resnet unit為Resnet殘差單元;Avgpool為平均池化;Global為全局;Connected為全連接;Softmax為Softmax分類器圖1 Darknet-53特征提取網絡Fig.1 Feature extraction network of Darknet-53

不同尺度的感受野具有不同層次的語義信息,為實現不同細粒度的檢測,YOLOv3采用FPN[14](feature pyramid networks)結構,提取出不同尺度的特征圖進行對象檢測。對于輸入是416×416的圖片,網絡在79層獲得32倍下采樣13×13大小的特征圖,該特征圖的感受野大,包含抽象的語義信息,適合檢測大尺度的目標。為了檢測中等目標,對79層的特征圖作上采樣,與第61層特征圖進行拼接(concatenation),得到16倍下采樣26×26大小的特征圖。該特征圖的具有中等尺度的感受野,適合檢測中等尺度的對象。同樣的為了檢測小目標,對26×26大小的特征圖再次上采樣,并與第36層特征圖拼接(concatenation),得到8倍下采樣52×52大小的特征圖。該特征圖的感受野最小,適合檢測小尺度目標。

YOLOv3沿用了anchor錨框機制,為每種尺度的特征圖設定3種先驗框,在COCO數據集上9個先驗框的大小分別為:(10×13),(16×30),(33×23),(30×61),(62×45),(59×119),(116×90),(156×198),(373×326)。由于52×52的特征圖感受野最小,為其分配(10×13),(16×30),(33×23)3種小的先驗框。同樣地,26×26的特征圖有著中等感受野,先驗框為(30×61),(62×45),(59×119);13×13的特征圖有最大的感受野,先驗框為(116×90)、(156×198)、(373×326)。分配好先驗框,在3個尺度的特征圖上進行分類和邊框回歸。特征圖上的每個網格都會預測3個邊界框,每個邊界框包含4個坐標值,1個置信度值,以及屬于k個類別的概率。因此,每個網格會預測輸出3×(4+1+k)維的向量。與預測得到的坐標值、置信度值以及類別概率相對應,YOLOv3采用了多任務損失函數,包括坐標損失Lloss1、置信度損失Lloss2以及分類損失Lloss3,分別如式(1)、式(2)、式(3)所示,總的損失LlossYOLO為3個損失之和,如式(4)所示。為了平衡各項損失的比重,給予坐標損失更大的權重λcoord=5,而對于不含目標的置信度損失給予小的權重λnoobj=0.5。

(1)

(2)

(3)

LlossYOLO=Lloss1+Lloss2+Lloss3

(4)

2 改進的YOLOv3目標檢測算法

較深的網絡結構、多尺度特征融合以及錨框機制,使得YOLOv3在保持較高準確率的同時,具有較快的檢測速度,在MS COCO(Microsoft common objects in context)等數據集上的表現超過了SSD、RetinaNet等算法。然而,在中小目標的檢測方面,YOLOv3的準確率仍然達不到理想水平,因此提出改進算法DX-YOLO。首先改進YOLOv3的特征提取網絡,使用ResneXt[15]殘差模塊替換原有的殘差模塊,增加卷積網絡的寬度,減少網絡復雜度;然后引入DenseNet[16]密集連接,實現特征重用,提升網絡的特征利用效率和特征提取能力。

2.1 ResneXt殘差單元

圖2 Resnet殘差單元和ResneXt殘差單元Fig.2 Resnet residual unit and ResneXt residual unit

隨著網絡逐漸加深,網絡收斂會變得慢甚至無法收斂,網絡性能也會變差。為了避免上述問題,YOLOv3在特征提取網絡Darknet-53中,使用了23個Resnet殘差單元,具體結構如圖2(a)所示。Resnet殘差單元在輸入和輸出之間增加shortcut短路連接,通過多個有參層學習輸入輸出之間的殘差表示,而不像一般卷積網絡使用有參層直接學習輸入和輸出之間的關系。這種殘差表示更容易優(yōu)化,能夠避免在網絡層數加深的同時,出現無法收斂和性能下降的問題。實驗表明學習殘差比直接學習輸入和輸出間映射要容易得多,收斂速度也更快。

Resnet殘差單元在一定程度上抑制了網絡加深帶來的收斂變慢等問題,然而當網絡進一步加深時,仍然會出現梯度消失、訓練困難的情況,并且也加大了網絡設計的難度和計算開銷。為了更好地解決網絡加深帶來的問題,進一步提升網絡的特征提取能力,同時要避免網絡過于復雜,就需要設計新的網絡結構。圖2(b)為ResneXt殘差單元,它在Resnet殘差單元的基礎上,增加了多個稱為Cardinality的卷積分支,使得網絡能夠提取出更豐富的特征信息。與Inception[17]結構不同,ResneXt殘差單元中的卷積分支具有相同的拓撲結構,因此減輕了網絡設計負擔,降低了模型的復雜度,提高了網絡的運行效率。Resnet與ResneXt的性能對比如表1所示,在參數量級相同的情況下,ResneXt的Top 1和Top 5錯誤率均小于Resnet。

2.2 DenseNet密集連接網絡

隨著卷積網絡的加深,提取出的特征也由淺變深,淺層的特征包含著具體的位置信息,深層的特征則有著抽象的語義信息。為了更加充分利用各個卷積層提取出的特征,確保網絡層之間的最大信息流,將所有層直接彼此連接,每個層從前面的所有層獲得額外的輸入,并且將自己的特征映射傳遞給后面的所有層,構成了DenseNet密集連接網絡,具體結構如圖3所示。

表1 Resnet與ResneXt性能比較

圖3 DenseNet密集連接網絡Fig.3 Densely dense continuous network

DenseNet網絡中,任意兩個層之間直接相連,每層都以前面所有層的輸出作為輸入,而且前面層的輸出不是通過元素級相加的方式,而是通過在Channel維度上拼接(Concatenation)在一起作為下一層的輸入。對于網絡的第L層輸出,傳統(tǒng)網絡的輸出和DenseNet網絡的輸出分別如式(5)和式(6)所示。

xL=HL(xL-1)

(5)

x′L=HL([x0,x1,…,xL-1])

(6)

式中:xL、x′L分別表示傳統(tǒng)網絡和DenseNet網絡第L層的輸出;HL()表示非線性轉化函數(non-liear transformation),是一個組合操作,包括一系列的卷積,池化等操作。

從式(5)、式(6)可以看出,DenseNet通過引入密集連接,實現了特征重用。相比于傳統(tǒng)的卷積網絡,DenseNet不需要重新學習冗余特征圖,這種密集連接只需要更少的參數,就可以使卷積層學習到更多的特征,提升了特征利用效率。同時,密集連接也改進了網絡的信息流和梯度,使網絡易于訓練,每個層可以直接訪問來自損失函數和原始輸入信號的梯度,帶來了隱式深度監(jiān)控。

2.3 DX-YOLO算法設計

在實際的行人車輛檢測場景中,不僅存在著大中型車輛等大目標,還有許多小型機動車、自行車、行人等中小目標,尤其是行人往往會聚集在一起,產生互相遮擋的問題,給目標檢測增加了很大的難度。作為一階段目標檢測算法的代表,YOLOv3具有檢測速度快、準確率高等優(yōu)點,但對于中小目標的檢測準確率還達不到理想水平,漏檢誤檢的情況時有發(fā)生。為了提升對中小目標的檢測效果,利用ResneXt殘差單元與密集連接改進YOLOv3,構建改進算法DX-YOLO。

首先將Darknet-53網絡中的殘差單元替換為ResneXt殘差單元,可以使網絡提取出更豐富的特征信息,提升特征提取能力。當ResneXt殘差單元的分支數量增加時,網絡的寬度也相應增加,分支能夠提取出包含不同信息的特征。然而,分支數量過多時,參數量也相應增加,會使得網絡運行速度變慢,甚至出現收斂變慢、訓練困難等問題。因此,需要限制ResneXt殘差單元中卷積分支的個數,改進后的ResneXt殘差單元如圖4所示,有4個卷積分支,在幾乎不增加參數的情況下,可以有效提升卷積網絡的寬度。由于卷積分支的拓撲結構相同,便于模型移植,并且每個分支都采用了三層卷積層構成的Bottleneck結構,可以進一步減少參數量。具體的,第一層使用1×1卷積核以減少通道數量,中間層使用3×3卷積核進行特征提取,最后使用1×1卷積核恢復通道數量。

圖4 改進后的ResneXt殘差單元Fig.4 Improved ResneXt residual unit

為進一步提升網絡的特征提取能力和效率,引入密集連接,將Darknet-53網絡中用于提取52×52、26×26、13×13三種尺度特征圖的殘差塊,改造成密集連接塊。密集連接塊結構如圖5所示,是由多個相同結構的ResneXt殘差單元組成的密集連接網絡。具體的,用于提取13×13特征圖的密集連接塊,內部由4個改進后的ResneXt殘差單元以密集連接方式進行連接;用于提取52×52、26×26特征圖的密集連接塊,內部由8個改進后的ResneXt殘差單元以密集連接方式進行連接。

綜上,DX-YOLO算法的網絡結構如圖6所示。與原始的YOLOv3相比,DX-YOLO網絡使用了帶有卷積分支的ResneXt殘差單元,能夠提取出更豐富的特征,同時構建了密集連接塊,使得網絡的特征利用效率更高,特征提取能力也更強。

圖5 含有ResneXt殘差單元的密集連接塊Fig.5 Dense connection block with ResneXt unit

Type為類型;Filters為卷積個數;Size為尺寸;Output為輸出;Convolutional為卷積;ResneXt unit為ResneXt殘差單元;Conv為卷積;YOLO Detection為YOLO檢測網絡圖6 DX-YOLO網絡結構Fig.6 DX-YOLO network structure

3 實驗與結果分析

3.1 實驗平臺及數據集

軟件環(huán)境使用Ubuntu 16.04LTS操作系統(tǒng),Darknet深度學習框架。在硬件配置上CPU使用英特爾酷睿i9-7900X; GPU為英偉達GTX 1080Ti 11G顯存。

實驗選用Udacity數據集,該數據集采集自真實的道路場景,圖像中包含多種尺度的行人和車輛目標,并且有互相遮擋的目標,適合作為行人車輛檢測用的數據集,部分圖像如圖7所示。數據集含有24 420張分辨率為1 920×1 200的圖像,標注有pedestrain(行人)、biker(騎車的人)、car(汽車)、truck(卡車)、trafficlight(交通信號燈)共5個類別。為便于統(tǒng)計分析,將其中的pedestrain(行人)、biker(騎車的人)這2類合并為person(行人)類,將car(汽車)、truck(卡車)這2類合并成car(車輛)類。

圖7 Udacity數據集Fig.7 Udacity data set

3.2 網絡訓練

將Udacity數據集以7∶1∶2的比例分成訓練集、驗證集和測試集,并且利用平移、旋轉、鏡像、翻轉等方法對訓練數據進行擴充。由于算法在錨框的基礎上進行分類和回歸,因此設置的錨框數量、大小和比例,將會影響檢測效果。根據Udacity數據集的特點,采用K-means算法對數據集進行維度聚類,得到大、中、小三種尺度共計9個錨框,大小分別為(320,180),(200,136),(155,81),(103,55),(69,44),(63,140),(46,33),(28,26),(25,63)。將前3個大的錨框分配給大尺度檢測單元,中間3個中等錨框分配給中尺度檢測單元,最后3個小錨框分配給小尺度檢測單元。

分配完錨框,開始對網絡進行訓練。訓練采用Adam優(yōu)化器,使用默認參數,初始學習率設置為0.001,衰減系數設置為0.000 5,批大小設置為32,當迭代到15 000步時,將學習率衰減為0.000 1。訓練過程的損失函數曲線如圖8所示,從圖8可以看出,隨著迭代的進行損失逐漸收斂,在20 000步左右趨于穩(wěn)定。

圖8 DX-YOLO訓練損失曲線Fig.8 DX-YOLO loss curve of training

3.3 結果分析

3.3.1 不同算法實驗對比

為檢驗提出的改進算法DX-YOLO的效果,將其與SSD、Retinanet、YOLOv3算法進行對比,以相同的方法在Udacity數據集上訓練和測試。以平均精度(average precision,AP)和(mean average precision,mAP)作為評價指標,AP和mAP的值越高,說明算法對目標的檢測效果越好。實驗結果如表2所示,可以看出,對于person(行人)類別的檢測,DX-YOLO的AP值最高,達到了93.04%,比YOLOv3算法高出4.31%,比Retinanet 和SSD算法分別高出4.79%、6.06%;而對于car(車輛)類別的檢測,DX-YOLO的AP也是最高,達到 92.08%,較YOLOv3算法高出2.53%;綜合person(行人)和car(車輛)兩類目標,DX-YOLO算法有著最高92.56%的mAP,比YOLOv3算法高出3.42%。由此可見,DX-YOLO 算法對行人車輛目標的檢測效果明顯優(yōu)于YOLOv3。

3.3.2 不同尺度目標的檢測效果對比

為檢驗DX-YOLO算法對不同尺度目標的檢測效果,將測試集上的行人車輛目標按照尺度大小進行分類,劃分為large(大)、medium(中)、small(小)三個類別。實驗結果如表3所示,可以看出,對于大目標,DX-YOLO和YOLOv3都能取得很好的檢測效果,AP分別達到95.86%、94.32%。在中等目標上DX-YOLO的AP比YOLOv3高出2.74%,在小目標上比YOLOv3高出5.98%。可以看出,改進算法DX-YOLO對于中小目標的檢測比YOLOv3效果更好。

表2 不同算法的檢測結果

表3 不同尺度目標的檢測結果

圖9為YOLOv3算法和DX-YOLO算法在實際場景中檢測效果對比,可以看出對于被遮擋的行人和車輛目標,YOLOv3存在漏檢的情況;對于遠處較小的行人和車輛目標,YOLOv3也出現了漏檢。DX-YOLO算法則能正確檢測出行人和車輛目標,沒有出現漏檢的情況,檢測效果優(yōu)于YOLOv3算法。

圖9 YOLOv3與DX-YOLO實際場景檢測效果對比Fig.9 Comparison of detection results between YOLOv3 and DX-YOLO

4 結論

針對YOLOv3對中、小目標檢測效果不理想的問題,提出改進算法DX-YOLO。經過理論分析和實驗驗證,得出以下結論。

(1)使用ResneXt殘差模塊替換YOLOv3網絡中原有的殘差模塊,優(yōu)化卷積網絡結構,提升了網絡的特征提取能力。

(2)受到DenseNet的啟發(fā),引入密集連接,實現了特征重用,提高了提取特征的效率,同時密集連接也有利于網絡的訓練和收斂。

(3)在行人車輛數據集Udacity上進行實驗,結果表明DX-YOLO與YOLOv3相比,mAP提升了3.42%;在中等目標和小目標上的AP分別提升了2.74%和5.98%。可見本文算法DX-YOLO相比YOLOv3,具有更好的檢測效果。

猜你喜歡
特征檢測
抓住特征巧觀察
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
新型冠狀病毒及其流行病學特征認識
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
主站蜘蛛池模板: 国产人人乐人人爱| 亚洲狼网站狼狼鲁亚洲下载| 亚洲国产中文在线二区三区免| 欧美在线视频a| 波多野结衣在线一区二区| 精品少妇人妻无码久久| 亚洲精品桃花岛av在线| 99视频在线免费| 中文字幕永久视频| 久99久热只有精品国产15| 亚洲精品自拍区在线观看| 中文精品久久久久国产网址| 极品私人尤物在线精品首页| 国产精品第一区在线观看| 久久77777| 国产AV无码专区亚洲精品网站| 久久亚洲综合伊人| 亚洲欧洲日韩综合| 日本欧美一二三区色视频| 国产sm重味一区二区三区| 高潮爽到爆的喷水女主播视频| 亚洲欧美日韩中文字幕在线| 女同国产精品一区二区| 黄色a一级视频| 又大又硬又爽免费视频| 国产手机在线小视频免费观看| 亚洲熟妇AV日韩熟妇在线| 欧洲熟妇精品视频| 国产精品视频公开费视频| 亚洲成年网站在线观看| 亚洲天堂高清| 色婷婷成人| 欧美特黄一级大黄录像| 国产精品专区第一页在线观看| 在线播放国产99re| 国产精品99久久久久久董美香 | 亚洲国产成人在线| 国产全黄a一级毛片| 久久99热这里只有精品免费看| 亚洲无码高清免费视频亚洲| 国产精品美女网站| a级毛片免费看| 亚洲成a人片| 国产成人精品一区二区三在线观看| 久久国产黑丝袜视频| 亚洲精品成人福利在线电影| 亚洲男人天堂网址| 99热国产这里只有精品无卡顿" | 女同久久精品国产99国| 亚洲最新在线| 91小视频在线| 国产在线精彩视频二区| 天堂久久久久久中文字幕| 国产在线观看精品| 久久亚洲中文字幕精品一区| 国产真实乱子伦视频播放| 伊人成人在线视频| 在线精品亚洲一区二区古装| 免费人成网站在线观看欧美| 国产一国产一有一级毛片视频| 日本在线亚洲| 伊在人亚洲香蕉精品播放 | 亚洲一区二区约美女探花| 在线观看国产精美视频| 欧美一区二区精品久久久| 青青草原国产一区二区| 久久一本日韩精品中文字幕屁孩| 香蕉伊思人视频| 第九色区aⅴ天堂久久香| 国产拍揄自揄精品视频网站| 精品少妇人妻一区二区| 国产不卡一级毛片视频| 制服丝袜 91视频| 91精品专区| 国产亚洲精品自在线| 国产亚洲精| 自拍亚洲欧美精品| 精品国产免费观看| 毛片在线区| 麻豆AV网站免费进入| 日本成人福利视频| 国产精品片在线观看手机版|