999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于多尺度卷積神經(jīng)網(wǎng)絡(luò)的交通標(biāo)示識別研究

2022-01-01 00:00:00劉萬軍李嘉欣曲海成

摘 要:

交通標(biāo)示識別在自動(dòng)駕駛領(lǐng)域有著廣泛的應(yīng)用前景。在實(shí)際場景中,光照、地理位置、檢測方法等因素會對較小交通標(biāo)示識別產(chǎn)生影響,導(dǎo)致識別精度降低。針對這些問題,提出一種新型多尺度融合卷積神經(jīng)網(wǎng)絡(luò)模型(SF-RCNN)。首先在基礎(chǔ)特征提取網(wǎng)絡(luò)中加入多尺度空洞卷積池化金字塔模塊(MASPP),在多尺度空洞卷積采樣后,不改變每一個(gè)特征下的信息量,而是通過合并通道數(shù)來實(shí)現(xiàn)特征圖的融合,這樣既減少了分辨率的損失,也可以捕捉同一圖像的上下文信息;其次在網(wǎng)絡(luò)中增加兩個(gè)快速拼接模塊(F-concat),融合模型中高層與低層的信息,既豐富語義信息,又可以實(shí)現(xiàn)不同尺度信息的重復(fù)利用;最后在每個(gè)最大池化層之前增加批標(biāo)準(zhǔn)化層(BN),轉(zhuǎn)換每一層的數(shù)據(jù)。盡管增加模塊加深了網(wǎng)絡(luò)深度,但是BN層可以加快模型收斂速度,使整個(gè)訓(xùn)練時(shí)間不發(fā)生較大改變。在CCTSDB數(shù)據(jù)集上進(jìn)行特征提取。實(shí)驗(yàn)結(jié)果表明,該模型利用新型網(wǎng)絡(luò)結(jié)構(gòu)SF-RCNN,交通標(biāo)示識別精度均值達(dá)到了87.48%,警告類別識別精度達(dá)到89.93%,禁令類別識別精度達(dá)到89.25%、方向類別識別精度達(dá)到81.08%、指示類別識別精度達(dá)到89.66%。

關(guān)鍵詞: 卷積神經(jīng)網(wǎng)絡(luò); 交通標(biāo)示識別; SF-RCNN; MASPP; F-concat

中圖分類號: TP391.4"" 文獻(xiàn)標(biāo)志碼: A

文章編號: 1001-3695(2022)05-047-1557-06

doi:10.19734/j.issn.1001-3695.2021.10.0457

Study on traffic sign recognition based on multi-scale convolutional neural network

Liu Wanjun, Li Jiaxin, Qu Haicheng

(School of Software, Liaoning Technical University, Huludao Liaoning 125105, China)

Abstract: Traffic sign recognition has a wide application prospect in the field of automatic driving. In the actual scene, ligh-ting, geographical location, detection methods and other factors will affect the identification of small traffic signs, resulting in reduced identification accuracy. To solve these problems, this paper proposed a new multi-scale fusion convolutional neural network model(SF-RCNN) . Firstly, it added multi-scale atrous spatial pyramid pooling(MASPP) to the basic feature extraction network. After multi-scale dilated convolution sampling, the amount of information under each feature was not changed. In this way, the loss of resolution could be reduced and the context information of the same image could be captured. Secondly, it increased two fast concat modules (F-concat) in the network. The fusion of high and low level information could not only enrich semantic information, but also realize the reuse of information at different scales. Finally, it increased a batch normalization layer (BN) before each maximum pooling layer. Although the addition of modules deepened the network depth, BN layer could accelerate the model convergence speed, so that the whole training time didn’t not change greatly." Feature extraction is carried out on the CCTSDB data set. The experimental results show that this paper uses the new network structure SF-RCNN, extracts the features from CCTSDB dataset, and the average accuracy of traffic sign identification reaches 87.48%. The recognition accuracy of warning category is 89.93%, prohibition category is 89.25%, direction category is 81.08% and indication category is 89.66%.

Key words: convolutional neural network(CNN); traffic sign identification; SF-RCNN; MASPP; F-concat

0 引言

自動(dòng)駕駛技術(shù)改變了傳統(tǒng)駕駛方式,將汽車變“聰明”,讓生活變得智能化,具有跨時(shí)代的應(yīng)用意義。汽車在自動(dòng)駕駛過程中需要遵守交通規(guī)則,完成對交通標(biāo)示的采集和分類,從而脫離人為控制,讓交通更便捷,因此交通標(biāo)示的準(zhǔn)確識別是自動(dòng)駕駛技術(shù)的研究熱點(diǎn)。由于交通標(biāo)示的尺寸、光線、角度、印刷版式存在差異,自動(dòng)駕駛中的交通標(biāo)示識別一直是人們研究的重點(diǎn)課題。

傳統(tǒng)圖像識別算法中,主要是利用人工提取的特征,如HOG[1](方向梯度直方圖)、SIFT[2](尺度不變特征變換)及CSS[3](顏色自相似)等,這些方法主要依賴人工設(shè)計(jì)的提取器,每個(gè)方法都要針對應(yīng)用場景,泛化能力及魯棒性都比較差,同時(shí)會有大量冗余的信息生成,學(xué)習(xí)效率降低,容易在分類中出現(xiàn)大量的假正樣本。

隨著深度學(xué)習(xí)技術(shù)的不斷提高,卷積神經(jīng)網(wǎng)絡(luò)(CNN)[4]被逐漸引入目標(biāo)檢測領(lǐng)域中。卷積神經(jīng)網(wǎng)絡(luò)可以通過對數(shù)據(jù)集的訓(xùn)練,學(xué)習(xí)淺層次到深層次的圖像特征,這些特征由簡單到復(fù)雜,表達(dá)能力更強(qiáng)。目前YOLOv3[5]、SSD[6]等模型已經(jīng)可以較精確地識別交通標(biāo)示。李旭東等人[7]提出了一種三尺度嵌套殘差結(jié)構(gòu)的交通標(biāo)志快速檢測算法,采用逐像素相加的跨層連接,增加空間分辨率預(yù)測輸出,殘差結(jié)構(gòu)嵌套的方式,在長沙理工大學(xué)中國交通標(biāo)示檢測數(shù)據(jù)集(CSUST Chinese traffic sign detection benchmark,CCTSDB)三個(gè)分類上取得了較好的識別效果。鮑敬源等人[8]提出了一種StrongTiny-YOLOv3目標(biāo)檢測模型,通過通道的變換,加入short-cut,在減少內(nèi)存占用的同時(shí)使平均精度達(dá)到85.56%。陳昌川等人[9]針對特定場景交通標(biāo)志精度低與識別速度慢的問題,提出了一種交通標(biāo)志圖像識別 T-YOLO 算法,通過融合殘差網(wǎng)絡(luò),采用多卷積層,在速度和精度上都有所提高。

基于深度學(xué)習(xí)的目標(biāo)檢測已經(jīng)有了很大的提高,但是對于不同目標(biāo),識別精度仍存在很大差異。很多網(wǎng)絡(luò)模型較深,對圖像進(jìn)行特征提取后,本身較小的目標(biāo)會丟失,這對較小交通標(biāo)示的識別產(chǎn)生了影響。同時(shí)由于天氣、拍攝角度不同導(dǎo)致提取到標(biāo)示的顏色亮度、傾斜角度存在差異;樹木建筑遮擋部分標(biāo)示等各種因素影響,導(dǎo)致交通標(biāo)示的準(zhǔn)確檢測仍存在很大困難。目前中國交通標(biāo)示數(shù)據(jù)集主要分為警示、禁令和指示三個(gè)類別,這些分類對于自動(dòng)駕駛的實(shí)際應(yīng)用是遠(yuǎn)遠(yuǎn)不夠的,準(zhǔn)確地識別施工標(biāo)示、方向標(biāo)示、輔助標(biāo)示等類別能夠讓汽車在行駛中作出準(zhǔn)確判斷。

光照、角度、遮擋等外界因素會影響尺寸較小交通標(biāo)示的識別效果。為了解決這些問題,本文在特征提取網(wǎng)絡(luò)VGG16[10]的基礎(chǔ)上,設(shè)計(jì)一種多尺度融合卷積神經(jīng)網(wǎng)絡(luò)模型(SF-RCNN)。增加一個(gè)MASPP模塊,采用不同尺度空洞卷積捕捉信息,降低局部信息損失;增加F-concat模塊,合并通道數(shù)來豐富特征數(shù)目,實(shí)現(xiàn)不同尺度特征的融合,提高識別小目標(biāo)的準(zhǔn)確率;加入batch normalization層,在加深了網(wǎng)絡(luò)深度的情況下,也加快了模型的收斂速度;最后豐富了數(shù)據(jù)集類別,新增方向類,幫助汽車在自動(dòng)駕駛過程中遵守交通規(guī)則、判斷正確的路線、準(zhǔn)確到達(dá)目的地。

1 目標(biāo)檢測模型

深度學(xué)習(xí)已經(jīng)在目標(biāo)檢測領(lǐng)域得到了廣泛的應(yīng)用,Girshick等人[11]在2014年提出應(yīng)用于目標(biāo)檢測[12]的圖像特征自動(dòng)提取的區(qū)域R-CNN。R-CNN[13]首先采用選擇性搜索算法從圖像中提取出約2 000個(gè)候選區(qū)域,經(jīng)過調(diào)整到相同大小后輸入到卷積神經(jīng)網(wǎng)絡(luò)模型中來提取對應(yīng)特征;最后利用SVM分類器[14]對每個(gè)候選區(qū)域內(nèi)的目標(biāo)進(jìn)行分類與邊框回歸。R-CNN在實(shí)驗(yàn)中有明顯的性能提升[15],但是在計(jì)算過程中步驟煩瑣,內(nèi)存占用較大。2015年,Ren等人[16]提出了Faster R-CNN檢測器,F(xiàn)aster R-CNN網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

3.4 實(shí)驗(yàn)結(jié)果與分析

首先在CCTSDB數(shù)據(jù)集上進(jìn)行不同IoU的對比實(shí)驗(yàn),實(shí)驗(yàn)采用了五個(gè)不同的閾值進(jìn)行對比,選出mAP值最高的模型SF-RCNN作為最終模型,與MF-RCNN、CF-RCNN和Faster R-CNN模型進(jìn)行對比。不同IoU對比實(shí)驗(yàn)結(jié)果如表1所示。

在IoU取值為0.7時(shí),mAP可達(dá)87.48%,同時(shí)模型danger和mandatory類別對應(yīng)的AP可以達(dá)到89.93%和89.66%。根據(jù)綜合分析對比,隨著IoU閾值的不斷增加,對候選框的篩選越來越精確,保留的候選框準(zhǔn)確率也隨之增加,但是候選框數(shù)量也會不斷降低,從而出現(xiàn)閾值過高,過濾掉一部分正確候選框的情況。表1中SF-RCNN模型在不同IoU進(jìn)行對比,當(dāng)IoU取值為0.7時(shí),mAP能達(dá)到最好的效果,模型在性能上達(dá)到最優(yōu)。SF-RCNN模型與其他幾個(gè)模型進(jìn)行對比,結(jié)果如表2所示。

本文實(shí)驗(yàn)設(shè)置其他三個(gè)模型的IoU為0.7,將SF-RCNN模型與它們進(jìn)行對比。根據(jù)實(shí)驗(yàn)結(jié)果分析,F(xiàn)aster R-CNN模型mAP可以達(dá)到85.94%,各類類別中的新分類directional方向類較其他三個(gè)分類AP較低,主要原因是類別數(shù)目劃分不夠均勻;加入BN層的MF-R-CNN對比Faster R-CNN在分類準(zhǔn)確率上沒有取得明顯的提升,但是加深了網(wǎng)絡(luò)深度后,BN層可以有效地控制輸入數(shù)值在一個(gè)規(guī)定的范圍之內(nèi),這一過程可以減少整體參數(shù)調(diào)整量,加快了模型收斂速度,從而使整體訓(xùn)練時(shí)間不發(fā)生較大改變;CF-RCNN加入了MASPP結(jié)構(gòu),模型有效提升了directional類別的AP,模型最后測試結(jié)果可達(dá)81.08%,精度照比Faster R-CNN提升了1.4%,這是由于MASPP模塊可以對傳輸進(jìn)來的不同尺寸特征圖進(jìn)行采樣,增大感受野的同時(shí),通過不同的尺度膨脹卷積捕捉特征圖上下文信息來融合。與其他類別相比,數(shù)據(jù)集中directional類別目標(biāo)尺度不一致,MASPP中并行的膨脹卷積對不同尺度目標(biāo)圖像進(jìn)行特征采樣,使輸入該模塊的信息得到充分利用,這樣明顯提高了該類別目標(biāo)識別準(zhǔn)確率。對比CF-RCNN,SF-RCNN加入了兩個(gè)F-concat模塊,其mAP達(dá)到了87.48%,對比Faster R-CNN平均精度提高了1.54%,各類別的AP都有所提升,其中danger類別精度達(dá)到89.93%。經(jīng)過分析可知,由于danger類別中小目標(biāo)數(shù)量居多,模型加入F-concat模塊雖然增加了計(jì)算量,但是有效地融合了更多尺度的信息,這樣部分較小目標(biāo)信息不會在高層的網(wǎng)絡(luò)中丟失,而是直接與高層信息融合,該模塊的加入不但減少了信息量的損失,而且融合了更多尺度的特征信息。數(shù)據(jù)集中部分目標(biāo)較小,增加融合模塊可以降低信息損失率,更有利于一些較小目標(biāo)的識別。

當(dāng)IoU取值為0.7時(shí),F(xiàn)aster R-CNN和SF-RCNN模型的P-R曲線如圖8所示。

圖8中橫坐標(biāo)表示召回率,縱坐標(biāo)表示精度。由對比圖可以看出隨著召回率的增加,模型分類的精確度有所下降,因?yàn)檫@兩者在某些情況下是有矛盾的。如果抽取標(biāo)示過多或者過少時(shí),召回率和準(zhǔn)確率會隨之變化。通過曲線整體趨勢可以看出,SF-RCNN測試各類別的精度略優(yōu)于Faster R-CNN模型。

3.5 對比實(shí)驗(yàn)

為了驗(yàn)證本文方法的實(shí)時(shí)性與有效性,將目前較好的方法與本實(shí)驗(yàn)中SF-RCNN模型作對比,對比方法分別為FSSD、StrongTiny-YOLOv3、YOLOv3-tiny,結(jié)果如表3所示。

本文實(shí)驗(yàn)對CCTSDB數(shù)據(jù)進(jìn)行了新劃分,在danger、prohibitory、mandatory三個(gè)類別的基礎(chǔ)上增加了directional類別,幫助汽車在駕駛過程中按規(guī)則行駛。表3中方法均為大型網(wǎng)絡(luò),對比結(jié)果顯示SF-RCNN的精度超越了StrongTiny-YOLOv31.92%;SF-RCNN平均精度略低于YOLOv3-tiny、FSSD,但是danger類別精度超過了FSSD,主要原因是在劃分新類別時(shí),方向性類別數(shù)量相對其他三類較少,導(dǎo)致mAP值較低,而本文方法兩個(gè)F-concat模塊有利于danger類別中許多小尺寸目標(biāo)的檢測,因此單類別精度有效提升。另外本文在YOLOv4模型上進(jìn)行實(shí)驗(yàn)并與改進(jìn)方法進(jìn)行對比,YOLOv4的檢測精度較高,但相比之下YOLOv4在同一環(huán)境下訓(xùn)練時(shí)間較長,本文方法訓(xùn)練時(shí)間每輪約0.8 s,YOLOv4每輪訓(xùn)練時(shí)間約7.5 s,由此可見本文方法減少了資源的占用。另外YOLOv4 屬于one-stage檢測模型,與本文two-stage模型對比,one-stage檢測模型無須生成候選框,可以直接回歸與分類,但是它的靈活性要更差一些,在最后分類階段參數(shù)量會明顯增多,這種計(jì)算量對單GPU的內(nèi)存是巨大的,而本文方法采用RoI pooling網(wǎng)絡(luò),可以將分辨率壓縮,計(jì)算量相比于YOLOv4減少了許多倍,更加減少成本消耗,同時(shí)RPN生成候選框時(shí)正負(fù)樣本更能平衡樣本數(shù)量,具有一定的研究意義。

3.6 測試結(jié)果展示

模型單張標(biāo)示識別對比如圖9所示。圖9中(a)表示Faster R-CNN單張圖片識別效果;(b)表示MF-RCNN單張圖片識別效果;(c)表示CF-RCNN單張圖片識別效果;(d)表示SF-RCNN單張圖片識別效果。

圖片中標(biāo)示包含了大目標(biāo)和小目標(biāo),可以看出SF-RCNN能夠克服光線、部分遮擋、模糊、亮度等問題帶來的困擾,更準(zhǔn)確地對目標(biāo)進(jìn)行識別。圖9(d)是SF-RCNN在復(fù)雜場景下單張標(biāo)示識別效果,可以看出SF-RCNN相對于其他三組模型有著較好的識別效果,該模型可以降低外界影響,精準(zhǔn)識別出部分小目標(biāo)。通過該模型的特征提取,能夠有效分離前景圖與背景圖,更準(zhǔn)確地定位與分類。

4 結(jié)束語

由于受到不同外界因素干擾,交通標(biāo)示會出現(xiàn)模糊、遮擋、褪色等問題,導(dǎo)致模型識別小目標(biāo)精確度下降。為了解決這類問題,本文設(shè)計(jì)了SF-RCNN模型,新增CCTSDB交通標(biāo)示數(shù)據(jù)集方向類別。首先加入了MASPP模塊,通過不同尺寸的濾波器對特征圖進(jìn)行采樣,將提取到的上下文信息融合到一起,解決分辨率損失的問題;其次為了解決高層信息分辨率低、低層信息語義信息弱的問題,增加兩個(gè)F-concat模塊,該模塊主要通過合并通道數(shù)來融合高低層特征,使模型可以有效地捕捉小目標(biāo);實(shí)驗(yàn)設(shè)計(jì)中增加模塊會導(dǎo)致模型訓(xùn)練時(shí)間變長,但是加入了BN層,模型收斂速度有所提升,使訓(xùn)練時(shí)間不發(fā)生較大變化。

SF-RCNN模型在CCTSDB數(shù)據(jù)集上取得了較好的效果,它能夠更好地識別尺寸較小的目標(biāo)。本文模型仍存在一些問題,如少部分相近目標(biāo)會被錯(cuò)誤識別,同時(shí)一些遮擋較大、光線較明或較暗目標(biāo)會丟失,這些問題仍有待研究。

參考文獻(xiàn):

[1]賀敏雪,余燁,程茹秋.特征增強(qiáng)策略驅(qū)動(dòng)的車標(biāo)識別[J].中國圖像圖形報(bào),2021,26(5):1030-1040.(He Minxue, Yu Ye, Cheng Ruqiu. Vehicle sign recognition driven by feature enhancement strategy[J].Chinese Journal of Image and Graphics,2021,26(5):1030-1040.)

[2]姜桂圓,張桂玲,張大坤.SIFT特征分布式并行提取算法[J].計(jì)算機(jī)研究與發(fā)展,2012,49(5):1130-1141.(Jiang Guiyuan, Zhang Guiling, Zhang Dakun. SIFT feature distributed parallel extraction algorithm[J].Computer Research and Development,2012,49(5):1130-1141.)

[3]曾接賢,李煒燁.曲率尺度空間與鏈碼方向統(tǒng)計(jì)的角點(diǎn)檢測[J].中國圖象圖形學(xué)報(bào),2014,19(2):234-242.(Zeng Jiexian, Li Weiye. Corner detection based on curvature scale space and chain code direction statistics[J].Chinese Journal of Image and Gra-phics,2014, 19(2):234-242.)

[4]周飛燕,金林鵬,董軍.卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J].計(jì)算機(jī)學(xué)報(bào),2017,40(6):1229-1251.(Zhou Feiyan, Jin Linpeng, Dong Jun. A review of convolutional neural networks[J].Journal of Computer Science,2017,40(6):1229-1251.)

[5]王志偉,普園媛,王鑫,等.基于多特征融合的多尺度服裝圖像精準(zhǔn)化檢索[J].計(jì)算機(jī)學(xué)報(bào),2020,43(4):740-754.(Wang Zhiwei, Pu Yuanyuan, Wang Xin, et al. Accurate retrieval of multi-scale clothing images based on multi-feature fusion[J].Chinese Journal of Computers,2020,43(4):740-754.)

[6]張偉康,楊鵬.基于改進(jìn)SSD算法的實(shí)時(shí)交通標(biāo)示牌檢測[J].現(xiàn)代電子技術(shù),2020,43(1):90-92,98.(Zhang Weikang, Yang Peng. Real-time traffic signs detection based on improved SSD algorithm[J].Modern Electronic Technology,2020,43(1):90-92,98.)

[7]李旭東,張建明,謝志鵬,等.基于三尺度嵌套殘差結(jié)構(gòu)的交通標(biāo)志快速識別算法[J].計(jì)算機(jī)研究與發(fā)展,2020,57(5):1021-1036.(Li Xudong, Zhang Jianming, Xie Zhipeng, et al. Fast recognition algorithm of traffic signs based on three-scale nested residual structure[J].Computer Research and Development,2020,57(5):1021-1036.)

[8]鮑敬源,薛榕剛.基于YOLOv3模型壓縮的交通標(biāo)志實(shí)時(shí)檢測算法[J].計(jì)算機(jī)工程與應(yīng)用,2020,56(23):202-210.(Bao Jingyuan, Xue Ronggang. Real-time traffic signs detection algorithm based on YOLOv3 model compression[J].Computer Engineering and Applications,2020,56(23):202-210.)

[9]陳昌川,王海寧,趙悅,等.一種基于深度學(xué)習(xí)的交通標(biāo)志識別新算法[J].電訊技術(shù),2021,61(1):76-82.(Chen Changchuan, Wang Haining, Zhao Yue, et al. A new algorithm for traffic sign re-cognition based on deep learning[J].Telecommunications Technology,2021,61(1):76-82.)

[10]張建華,孔繁濤,吳建寨,等.基于改進(jìn)VGG卷積神經(jīng)網(wǎng)絡(luò)的棉花病害識別模型[J].中國農(nóng)業(yè)大學(xué)學(xué)報(bào),2018,23(11):161-171.(Zhang Jianhua, Kong Fantao, Wu Jianzhai, et al. Cotton disease recognition model based on improved VGG convolutional neural network[J].Journal of China Agricultural University,2018,23(11):161-171.)

[11]Girshick R, Donahue J, Darrell T, et al. Region-based convolutional networks for accurate object detection and segmentation[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2016,38(1):142-58.

[12]Lu Yifan, Lu Jiaming, Zhang Songhai, et al. Traffic signal detection and classification in street views using an attention model[J].Computational Visual Media,2018,4(3):253-266.

[13]Uijlings J R R, Van De Sande K E A, Gevers T, et al. Selective search for object recognition[J].International Journal of Computer Vision,2013,104:154-171.

[14]Wan Yaonan, Yuan Xiaofang. SVM approximate-based internal model control strategy[J].Acta Automatica Sinica,2008,34(2):172-179.

[15]甄燁,王子磊,吳楓.融合密度和精細(xì)分?jǐn)?shù)的行人檢測[J].中國圖象圖形學(xué)報(bào),2021,26(2):425-437.(Zhen Ye, Wang Zilei, Wu Feng. Pedestrian detection based on fusion density and fine fraction[J].Chinese Journal of Image and Graphics,2021,26(2):425-437.)

[16]Girshick R. Fast R-CNN[C]//Proc of IEEE International Conference on Computer Vision.2015:1440-1448.

[17]Liu Jiamin, Wang D, Lu Le, et al. Detection and diagnosis of colitis on computed tomography using deep convolutional neural networks[J].Medical Physics,2017,44(9):4630-4642.

[18]Li Chaojie, Zhou Peng. Improved Faster R-CNN object detection[J].World Scientific Research Journal,2020,6(3):74-81.

[19]王粉花,張強(qiáng),黃超,等.融合雙流三維卷積和注意力機(jī)制的動(dòng)態(tài)手勢識別[J]. 電子與信息學(xué)報(bào),2021,43(5):1389-1396.(Wang Fenhua, Zhang Qiang, Huang Chao, et al. Dynamic gesture recognition based on two-stream three-dimensional convolution and attention mechanism[J].Journal of Electronics and Information Technology,2021,43(5):1389-1396.)

[20]任坤,黃瀧,范春奇,等.基于多尺度像素特征融合的實(shí)時(shí)小交通標(biāo)志檢測算法[J].信號處理,2020,36(9):1457-1463.(Ren Kun, Huang Long, Fan Chunqi, et al. Real-time small traffic signs detection algorithm based on multi-scale pixel feature fusion[J].Signal Processing,2020,36(9):1457-1463.)

主站蜘蛛池模板: 暴力调教一区二区三区| 久久午夜影院| 国产真实乱人视频| 免费无遮挡AV| 日韩无码黄色| 国内丰满少妇猛烈精品播| 国产h视频在线观看视频| 亚洲精品成人7777在线观看| 99久久精品视香蕉蕉| 中国一级特黄大片在线观看| 在线中文字幕网| 四虎国产精品永久在线网址| 女人18毛片久久| 一级爆乳无码av| 亚洲Va中文字幕久久一区| 伊人色天堂| 美女裸体18禁网站| 国产丰满大乳无码免费播放| 亚洲欧美综合在线观看| 欧美伊人色综合久久天天| 久久中文字幕2021精品| av无码一区二区三区在线| 色丁丁毛片在线观看| 亚洲A∨无码精品午夜在线观看| 综合色亚洲| 亚洲免费人成影院| 一本视频精品中文字幕| 国产97公开成人免费视频| 无码区日韩专区免费系列| 亚洲色图综合在线| 午夜限制老子影院888| 国产丝袜精品| 国产精品欧美在线观看| 国产成人精品亚洲日本对白优播| 亚洲无码高清视频在线观看| 亚洲第一色网站| 久久成人国产精品免费软件| 免费在线看黄网址| 亚洲视频a| 午夜三级在线| 97超级碰碰碰碰精品| 精品自窥自偷在线看| 免费国产黄线在线观看| 91人妻日韩人妻无码专区精品| 亚洲精品中文字幕无乱码| 日韩毛片免费视频| 久久6免费视频| 一级毛片在线免费看| 国产成人一二三| 欧美综合成人| 亚洲成人在线网| 亚洲狠狠婷婷综合久久久久| 欧美日韩午夜视频在线观看 | 亚洲高清在线天堂精品| 中文字幕va| 亚洲欧美一区二区三区图片| 亚洲精品视频免费| 四虎影视库国产精品一区| a级毛片网| 激情综合网址| 国产午夜精品鲁丝片| 中国一级特黄视频| 伊人AV天堂| 国产三区二区| 亚洲va欧美va国产综合下载| 国产精品无码在线看| 国产一区二区人大臿蕉香蕉| 国产微拍精品| 在线观看视频一区二区| 91视频99| 国产Av无码精品色午夜| 又粗又大又爽又紧免费视频| 日韩区欧美区| 无码aaa视频| 呦系列视频一区二区三区| 国产高清在线精品一区二区三区 | 中文字幕中文字字幕码一二区| www.99精品视频在线播放| 超碰91免费人妻| 亚洲a级毛片| 九色视频在线免费观看| 一级毛片免费不卡在线视频|