999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學(xué)習(xí)的鐵道塞釘自動檢測算法

2017-04-09 10:15:56杜馨瑜王勝春
中國鐵道科學(xué) 2017年3期
關(guān)鍵詞:區(qū)域檢測

杜馨瑜,戴 鵬,李 穎,程 雨,王勝春,韓 強(qiáng),王 昊

(中國鐵道科學(xué)研究院 基礎(chǔ)設(shè)施檢測研究所,北京 100081)

塞釘是安裝軌道電路軌端連接線的關(guān)鍵部件,其性能好壞直接影響到軌道電路信號的傳輸質(zhì)量,因此對塞釘?shù)娜粘z查與維護(hù)在行車安全方面有重要的意義。目前,對塞釘?shù)难矙z依賴于人工上道作業(yè)的方式,在有限的天窗時間內(nèi)檢修效率也比較有限。鑒于此,采用在巡檢車上安裝專用線陣相機(jī),對軌道圖像進(jìn)行連續(xù)采集存儲,并對采集到的鋼軌軌腰圖像序列進(jìn)行分析,實現(xiàn)對塞釘?shù)母咝z測。軌腰處線陣相機(jī)的安裝位置如圖1所示。經(jīng)大量統(tǒng)計發(fā)現(xiàn),軌腰圖像序列中有塞釘?shù)膱D像大約只占整個圖像序列的3%,且實際分布無明顯規(guī)律,因此,需要采用基于計算機(jī)視覺的目標(biāo)檢測算法實現(xiàn)對圖像序列中所有塞釘?shù)淖詣佣ㄎ唬瑥亩鴮崿F(xiàn)塞釘?shù)淖詣訖z測。

圖1 軌腰處線陣相機(jī)的安裝位置

深度學(xué)習(xí)是近年興起的高性能大數(shù)據(jù)分析方法,在人工智能的各個領(lǐng)域產(chǎn)生了巨大的影響,如Alphago采用策略網(wǎng)絡(luò)與價值網(wǎng)絡(luò)在圍棋上取得突破性成果[1]。其中,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)在圖像識別、目標(biāo)檢測以及圖像分割等計算機(jī)視覺研究方面,與傳統(tǒng)方法相比,在處理結(jié)果上得到了很大的提升[2]。在計算機(jī)視覺領(lǐng)域,目標(biāo)檢測就是給定1幅圖像或視頻幀,找出特定目標(biāo)的所在位置。已經(jīng)有較多研究應(yīng)用在人臉檢測[3]、人體檢測[4]等。因此,在軌腰圖像序列中篩選出有塞釘?shù)膱D像并準(zhǔn)確定位到塞釘,其關(guān)鍵點在于待檢測目標(biāo)的外觀,而由于類內(nèi)差異、光照條件、成像清晰度、部分遮擋等的影響使得塞釘?shù)耐庥^有可能表現(xiàn)出很大的改變,從而增加了檢測(或定位)的難度[5]。

目前,目標(biāo)檢測算法從解決思路上大致可分為兩大類。一類目標(biāo)檢測算法采取分類策略,遵循的步驟依次是:區(qū)域選擇、特征提取、分類器分類。對于區(qū)域選擇階段,可以采取基于窮舉思想的滑動窗口法,即對整個圖像進(jìn)行遍歷,其典型應(yīng)用是經(jīng)典人臉檢測算法[6]?;瑒哟翱诜ǖ膬?yōu)點是選擇合適的步長就可以包含圖像中所有目標(biāo)可能出現(xiàn)的位置,缺點是海量的冗余窗口極大增加了算法的時間復(fù)雜度,從而限制了后續(xù)算法的復(fù)雜多樣性,以及有限的固定長寬比設(shè)置增加了目標(biāo)丟失的可能性。近年出現(xiàn)的候選區(qū)域法(Region Proposal,RP)采用可變的長寬比預(yù)先找出目標(biāo)可能出現(xiàn)的位置,從而很好地解決了滑動窗口法存在的問題[7]。候選區(qū)域法利用圖像紋理、顏色、邊緣的信息,可以保證在選取與滑動窗口法相比相對較少窗口(幾千個或幾百個)的情況下維持較高的召回率,從而降低了后續(xù)算法的復(fù)雜度。有代表性的區(qū)域選擇法是Selective Search[8]和Edgebox[9]等。特征提取是對上一步得到的候選區(qū)域圖像塊進(jìn)行某種表達(dá),以克服目標(biāo)形態(tài)、光照變化以及背景表示的多樣性,使后端分類器的輸入在分類意義上達(dá)到一定的魯棒性[10]。目前常用到的經(jīng)典特征提取算子有HoG[11],LBP[12],類Haar[13]和SIFT[14]等。采用深度學(xué)習(xí)的方法,如稀疏自編碼[15],CNN[16-19]等類型的深度神經(jīng)網(wǎng)絡(luò),可以通過訓(xùn)練的方式,自動提取適合于具體場景的特征,克服了上述經(jīng)典特征提取算子手工設(shè)計的簡單方式,使特征更具有適應(yīng)性。分類器分類階段主要是采取或改進(jìn)分類器用以對上一階段提取的特征進(jìn)行分類。常用的分類器有支持向量機(jī)(Support Vector Machine,SVM)[20]、隨機(jī)森林(Random Forest,RF)[21]、Adaboost方法[22]等。另一類目標(biāo)檢測算法是采取回歸策略的方法。如文獻(xiàn)[23]提出的YOLO方法,即對待檢測圖像預(yù)先劃分固定的網(wǎng)格,然后采用特定的深度卷積網(wǎng)絡(luò)直接在不同位置的網(wǎng)格上回歸出目標(biāo)的位置和類別信息,從而大大加快了檢測速度。但由于該方法舍去了RP機(jī)制,往往不能得到精確的目標(biāo)定位。文獻(xiàn)[24]提出的SSD方法,結(jié)合了YOLO的回歸思想以及Faster R-CNN[19]的錨點(anchor)機(jī)制,可以做出更為精確的定位。不難看出,采取分類策略的目標(biāo)檢測算法是目前主流的方法,但是算法的速度仍不能較好地滿足實時性的要求。采取回歸策略的目標(biāo)檢測算法在速度上有很大的提升,但在定位精度上又有所損失。

上述目標(biāo)檢測算法的研究對象均為國際標(biāo)準(zhǔn)庫中的自然圖像,而鐵道塞釘序列圖像是由線陣相機(jī)在激光作為觸發(fā)光源下采集的特殊圖像,其具有以下5個特點:①大部分圖像的紋理結(jié)構(gòu)具有相似性;②都是灰度圖像;③因為線陣相機(jī)安裝位置固定而導(dǎo)致圖像具有單一的尺度特性;④塞釘在圖像中作為小目標(biāo)出現(xiàn);⑤對識別而言,各種干擾具有特殊性,如銹跡、人工涂畫、道岔鎖框等。因此,針對鐵道塞釘序列圖像的特點,本文在傳統(tǒng)(類Haar+adaboost)算法的基礎(chǔ)上[25]提出基于深度學(xué)習(xí)的目標(biāo)檢測算法,即先用一種新的目標(biāo)區(qū)域選擇算法——余譜區(qū)域候選(Spectrum Residual Region Proposal,SRP)算法,快速提供圖像的候選塞釘區(qū)域,再設(shè)計一種專用于塞釘檢測的CNN結(jié)構(gòu)——塞釘卷積神經(jīng)網(wǎng)絡(luò)(plug Convolution Neural Network,pCNN),實現(xiàn)對候選區(qū)域有效特征的提取,最后采用SVM分類器判斷候選區(qū)是否含有塞釘,實現(xiàn)塞釘?shù)淖詣佣ㄎ弧?/p>

1 自動檢測算法

1.1 SRP算法

根據(jù)軌腰處塞釘圖像的特點,借鑒文獻(xiàn)[26]的顯著性區(qū)域檢測算法,提出了SRP算法。鑒于顯著性檢測的目的是提取與背景區(qū)域在紋理、顏色等方面有明顯差異的前景(通常表現(xiàn)為高頻信息)[27],而塞釘圖像正好表現(xiàn)為有塞釘?shù)那熬皡^(qū)(高頻紋理信息),與較為平坦的軌腰背景區(qū)(低頻紋理信息)在紋理上存在顯著性差異,因此,這里采用顯著性檢測的思路進(jìn)行候選區(qū)域的提取。

將含有塞釘原圖像(見圖2(a))的軌腰區(qū)作為感興趣區(qū)域,即視為輸入圖像(見圖2(b))。觀察含有塞釘?shù)妮斎雸D像,發(fā)現(xiàn)塞釘凸顯于平坦軌腰區(qū),因此可以用該圖像的幅度譜減去不含塞釘軌腰區(qū)的平均圖像(用現(xiàn)有采集到的384 956張不含塞釘?shù)能壯鼒D像做疊加平均得到,見圖2(c))的平均幅度譜,并取其絕對值得到余譜圖(見圖2(e))后,再做保持相位的反傅里葉變換,得到的圖像應(yīng)該凸顯顯著性區(qū)域。最后,經(jīng)過簡單的閾值分割、各連通域中心坐標(biāo)提取等后處理流程,可以得到候選目標(biāo)區(qū)域(圖2(d)中箭頭所指小塊)。

文獻(xiàn)[26]提出的算法是建立在對自然圖像進(jìn)行顯著性檢測上,不可能得到背景圖像集,因此采用對原圖像幅度譜取滑動均值的方法,得到近似的背景圖像幅度譜圖,即圖3(a)的余譜圖。比較2種方法得到的余譜圖,發(fā)現(xiàn)SRP算法余譜圖的方差大于文獻(xiàn)[26]算法余譜圖的方差,這說明SRP算法余譜分布更為離散,統(tǒng)計差異性更強(qiáng),即反變換后圖像的顯著性候選目標(biāo)區(qū)域較多[27],不容易丟失目標(biāo)。顯而易見,塞釘候選區(qū)在圖3(b)中已經(jīng)丟失,而在圖2(d)中仍存在(箭頭所示小連通區(qū))。

圖2 SRP算法原理圖

SRP算法流程如圖4所示。

圖3 文獻(xiàn)[26]算法

圖4 SRP算法流程圖

1.2 pCNN

對采用SRP算法得到的圖像候選目標(biāo)區(qū)域方塊,采用pCNN提取相應(yīng)特征,并輸入到SVM分類器進(jìn)行分類,判斷是否為塞釘圖像塊。pCNN的基本結(jié)構(gòu)如圖5所示。

首先,輸入的圖像塊被調(diào)整為(32×32)像素大小,外周填充2像素,用于卷積。

在第1層卷積(conv1)中,感受野大小為(5×5)像素,維數(shù)為32,步長為1像素。進(jìn)而對卷積結(jié)果進(jìn)行非線性變換,變換函數(shù)為取極大值變換,相當(dāng)于1個非線性變換層(relu1,在圖5中略去),以加快收斂速度;然后,對非線性變換結(jié)果進(jìn)行局部響應(yīng)規(guī)范化[2],以提高網(wǎng)絡(luò)的泛化能力,可以認(rèn)為是1個規(guī)范化層(norm1,在圖5中略去);最后,經(jīng)池化層(pool1)取局部最大值,感受野大小為(3×3)像素,步長為2像素。

在第2層卷積(conv2)中,感受野大小為(5×5)像素,維數(shù)為64,步長為1像素,外周填充為2像素。同上,經(jīng)非線性變換層(relu2)、規(guī)范化層(norm2)和池化層(pool2)后,取局部均值,感受野大小為(3×3)像素,步長為2像素。

在第3層卷積(conv3)中,感受野大小為(5×5)像素,維數(shù)為256,步長為1像素,外周填充為2像素。同上,后面是非線性變換層(relu3)以及規(guī)范化層(norm3)。接下來是池化層(pool3),取局部均值,感受野大小為(1×1)像素,步長為2像素。

在第4層卷積(conv4)中,感受野大小為(1×1)像素,維數(shù)為1 024,步長為1像素。同上,后面是非線性變換層(relu4)以及規(guī)范化層(norm3)。

在第1全連接層(ip1)中,實現(xiàn)內(nèi)積運(yùn)算,輸出維數(shù)為4 096。后接泄漏層(drop1,在圖5中略去),泄漏率為0.5,以更好地增加網(wǎng)絡(luò)的泛化能力。

最后是全連接層(ip2),輸出判斷結(jié)果,即判斷圖像塊是否為塞釘,是塞釘時輸出“1”,不是塞釘時輸出“0”。

以含塞釘?shù)能壯鼒D像為例,采用pCNN提取特征各中間結(jié)果如圖6所示。由圖6(f)可以看出:經(jīng)采用SRP算法提取塞釘候選區(qū)及第1—第4卷積層和第1全連接層處理后,得到輸入圖像塊的特征圖具有稀疏性,可用于SVM分類。

1.3 SVM分類

pCNN提取的圖像塊具有4 096維特征,將其輸入SVM工具箱LIBSVM[29]進(jìn)行分類。因樣本數(shù)較多,該SVM采用線性核分類。最后根據(jù)得到的分類結(jié)果判斷該圖像塊是否包含塞釘。

2 試驗結(jié)果分析

因為研究對象是鋼軌的軌腰圖像,無論成像條件還是分析目的都具有行業(yè)特殊性,所以在進(jìn)行試驗測試和方法比較時,為保證自動檢測方法在行業(yè)內(nèi)應(yīng)用的有效性以及評價的客觀性,不會選擇國際通用的自然圖像目標(biāo)檢測測試庫,如PASCAL VOC 2007/2012[30],MS COCO[31]。本文試驗代碼是構(gòu)建在Ubuntu14.04與Caffe框架[32]下的,同時使用NVIDIA K4200 GPU。

圖6 pCNN特征提取圖示

2.1 訓(xùn)練階段

自動檢測算法分為2個階段訓(xùn)練,首先是對pCNN進(jìn)行訓(xùn)練,然后將該網(wǎng)絡(luò)ip1層提取的特征作為輸入,對分類器SVM進(jìn)行訓(xùn)練,具體說明如下。

對于pCNN訓(xùn)練,通過大量挑選和剪裁,找出具有代表性的各類塞釘圖像塊6 000個,縮放為(32×32)像素,作為正樣本;同理,挑出不含塞釘?shù)膱D像塊6 000個,同樣縮放為(32×32)像素,作為負(fù)樣本,如圖7所示。為了使訓(xùn)練得到的網(wǎng)絡(luò)更具有泛化性能,還挑選出驗證集,包括正樣本3 000個、負(fù)樣本3 000個。設(shè)置訓(xùn)練參數(shù)如下:基礎(chǔ)學(xué)習(xí)率(base_lr)=0.01, 動量(momentum)=0.9, 權(quán)重衰減懲罰項(weight_decay)=0.004, 衰減系數(shù)(gamma)=0.1, 衰減步長(stepsize)=20 000, 最大迭代次數(shù)(max_iter)=150 000次。

采用上述訓(xùn)練集提取的ip1層特征,用SVM進(jìn)行訓(xùn)練,設(shè)置為10重交叉驗證。采用線性核分類,懲罰因子C=2。

2.2 測試階段

因為同一巡檢區(qū)段內(nèi)的圖像大多數(shù)表現(xiàn)為無目標(biāo)(無塞釘),且具有幾乎相同的紋理與光照,但不同區(qū)段間的圖像由于檢測時段、檢測條件、檢測環(huán)境不同而有所差異,所以在現(xiàn)有工作的基礎(chǔ)上(類Haar+Adaboost算法)[25],挑選有代表性的圖像作為測試集,能更加客觀、準(zhǔn)確地反映算法的性能。本文挑選有代表性的236張圖像進(jìn)行測試,部分有代表性的測試圖像及測試結(jié)果如圖8所示。

從圖8可以看出:圖8(a)為正常條件下無塞釘?shù)能壯鼒D像,檢測結(jié)果也為無塞釘(無定位框);圖8(b)為有銹跡等干擾情況下無塞釘軌腰圖像,檢測結(jié)果為無塞釘(無定位框);圖8(c)為正常條件下有塞釘軌腰圖像,檢測結(jié)果為有塞釘且準(zhǔn)確定位(有定位框);圖8(d)為道岔區(qū)有鎖框、銹跡干擾情況下的有塞釘軌腰圖像,檢測結(jié)果為有塞釘且準(zhǔn)確定位(有定位框);圖8(e)為塞釘頭超出圖像邊界情況下的有塞釘軌腰圖像,檢測結(jié)果為有塞釘且準(zhǔn)確定位(有定位框);圖8(f)為光照不足且有銹跡、劃痕干擾情況下的有塞釘軌腰圖像,檢測結(jié)果為有塞釘且準(zhǔn)確定位(有定位框);圖8(g)為塞釘尾部人工處理并標(biāo)記后的有塞釘軌腰圖像,檢測結(jié)果為有塞釘且準(zhǔn)確定位(有定位框);圖8(h)為模糊干擾情況下的有塞釘軌腰圖像,檢測結(jié)果為有塞釘且準(zhǔn)確定位(有定位框)。

采用國際通用的定量評價指標(biāo),對本文自動檢測算法(SRP+pCNN+SVM)、文獻(xiàn)[26]顯著性檢測+本文卷積網(wǎng)絡(luò)算法(SR (文獻(xiàn)[26])+pCNN+SVM),LBP+SVM算法和類Haar+Adaboost算法[25]這4種方法進(jìn)行比較,得到根據(jù)定量評價指標(biāo)描繪出的4種算法的準(zhǔn)確率—召回率(Precision-Recall)特性曲線[33],如圖9所示。

從圖9可以看出:本文算法表現(xiàn)的性能最優(yōu),其次是SR+pCNN+SVM算法,再次是類Haar+Adaboost算法,最后是LBP+SVM算法;通過本文算法(SRP+pCNN+SVM算法)與SR+pCNN+SVM算法的比較,說明本文算法在性能上比文獻(xiàn)[26]的SR算法在性能上有所提升,而這2種算法與其余2種算法比較,又說明pCNN在特征提取方面具有優(yōu)勢,能進(jìn)一步提升目標(biāo)檢測性能。

3 結(jié) 語

傳統(tǒng)的人工智能方法已經(jīng)在鐵路基礎(chǔ)設(shè)施檢測領(lǐng)域有所應(yīng)用[34-37],深度學(xué)習(xí)是近年人工智能領(lǐng)域取得的突破性成果,本文針對鋼軌軌腰圖像的特點,將深度學(xué)習(xí)引入鐵路基礎(chǔ)設(shè)施檢測領(lǐng)域?;谏疃葘W(xué)習(xí)的鐵道塞釘自動檢測算法包括如下幾個階段:首先借鑒顯著性檢測的思路,在目標(biāo)檢測的區(qū)域選擇階段,用給出的SRP算法能更有效地提取出候選目標(biāo)區(qū)域;其次,在目標(biāo)檢測的特征提取階段,用設(shè)計的pCNN深度卷積神經(jīng)網(wǎng)絡(luò)能更準(zhǔn)確地提取相應(yīng)的目標(biāo)特征;最后由SVM進(jìn)行分類,完成目標(biāo)檢測功能。在各種成像環(huán)境和外界干擾下對采集到的軌腰圖像測試,并經(jīng)對比試驗,驗證提出的基于深度學(xué)習(xí)的鐵道塞釘自動檢測算法表現(xiàn)得比目前實際使用的傳統(tǒng)算法更為優(yōu)秀,且與深度學(xué)習(xí)在其他圖像分析領(lǐng)域的表現(xiàn)效果相一致。下一階段的目標(biāo)是使用更為有效的編程技巧和性能更為強(qiáng)勁的硬件,進(jìn)一步提升算法的計算速度。

圖9 采用不同算法得到測試集圖像的準(zhǔn)確率—召回率曲線

[1]SILVER D, HUANG A, MADDISON C J, et al. Mastering the Game of Go with Deep Neural Networks and Tree Search [J]. Nature, 2016, 529(1):484-489.

[2]KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet Classification with Deep Convolutional Neural Networks [J]. Advances in Neural Information Processing Systems, 2012, 25(2): 1097-1105.

[3]LI H, LIN Z, SHEN X, et al. A Convolutional Neural Network Cascade for Face Detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition 2015. Boston: IEEE Computer Society, 2015: 5325-5334.

[4]RIBEIRO D, NASCIMENTO J C, BERNARDINO A, et al. Improving the Performance of Pedestrian Detectors Using Convolutional Learning [J]. Pattern Recognition, 2017, 67(1): 641-649.

[5]GAL J, LEMPITSKY V. Class-Specific Hough Forests for Object Detection[C]//In Proceedings IEEE Conference Computer Vision and Pattern Recognition 2009. Miami: IEEE Computer Society, 2009: 1022-1029.

[6]VIOLA P, JONES M. Robust Real-Time Face Detection [J]. International Journal of Computer Vision, 2004, 57(2):137-154.

[7]CHAVALI N, AGRAWAL H, MAHENDRU A, et al. Object-Proposal Evaluation Protocol is ‘Gameable’ [C] //Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition 2015. Boston: IEEE Computer Society, 2015: 835-844.

[8]UIJLINGS J R R, SANDE van de K E A, GEVERS T, et al. Selective Search for Object Recognition [J]. International Journal of Computer Vision, 2013, 104(2):154-171.

[9]ZHU Gao, PORIKLI Fatih, LI Hongdong. Tracking Randomly Moving Objects on Edge Box Proposals [OL]. 2015. https://arxiv.org/pdf/1507.08085.pdf.

[10]NIXON M, AGUARDO A S. Feature Extraction and Image Processing [M]. 2nd ed. Amsterdam: Elsevier, 2010.

[11]DALAL N, TRIGGS B. Histograms of Oriented Gradients for Human Detection[C]//IEEE Conference on Computer Vision & Pattern Recognition 2005. San Diego: IEEE Computer Society, 2005: 886-893.

[12]OJALA T, PIETIKINEN M, MENPT, et al. Multiresolution Gray-Scale and Rotation Invariant Texture Classification with Local Binary Patterns [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002, 24(7): 971-987.

[13]HIROMOTO M, SUGANO H, MIYAMOTO R, et al. Partially Parallel Architecture for AdaBoost-Based Detection with Haar-Like Features [J]. IEEE Transactions on Circuits and Systems for Video Technology, 2009, 19(1): 41-52.

[14]ZHOU Huiyu, YUAN Yuan, SHI Chunmei, et al. Object Tracking Using SIFT Features and Mean Shift [J]. Computer Vision and Image Understanding, 2009, 113(3): 345-352.

[15]JIANG Jielin, ZHANG Lei, YANG Jian. Mixed Noise Removal by Weighted Encoding with Sparse Nonlocal Regularization [J]. IEEE Transactions on Image Processing, 2014, 23(6): 2651-2662.

[16]GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation[C]// IEEE Conference on Computer Vision & Pattern Recognition 2014. Columbus: IEEE Computer Society, 2014: 580-587.

[17]GIRSHICK R. Fast R-CNN[C]//Proceedings of the International Conference on Computer Vision 2015. San Diego: IEEE Computer Society, 2015: 1440-1448.

[18]HE K, ZHANG X, REN S, et al. Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(9): 1904-1916.

[19]REN Shaoqing, HE Kaiming, GIRSHICK Ross, et al. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks[C]//Advances in Neural Information Processing Systems 2015. Montréal: Curran Associates Inc., 2015: 91-99.

[20]SUYKENS J A K, VANDEWALLE J. Least Squares Support Vector Machine Classifiers [J]. Neural Processing Letters, 1999, 9(3): 293-300.

[21]LIAW A, WIENER M. Classification and Regression by Random Forest [J]. R News, 2002, 2/3: 18-22.

[22]RATSCH G, ONODA T, MULLER K R. Soft Margins for AdaBoost [J]. Machine Learning, 2001, 42(3): 287-320.

[23]REDMON J, DIVVALA S, GIRSHICK R, et al. You Only Look Once: Unified, Real-Time Object Detection[C] // IEEE Conference on Computer Vision & Pattern Recognition 2016. Las Vegas: IEEE Computer Society, 2016: 779-788.

[24]LIU W, ANGUELOV D, ERHAN D, et al. SSD: Single Shot MultiBox Detector [C] //European Conference on Computer Vision 2016. Amsterdam: Springer, 2016: 21-37.

[25]杜馨瑜. 基于計算機(jī)視覺技術(shù)的鐵道塞釘自動定位算法 [J]. 鐵道通信信號, 2016, 52(9): 68-72.

(DU Xinyu. Automatic Location Algorithms for Railway Plugs Based on Compute Vision Technology [J]. Railway Signaling & Communication, 2016, 52(9): 68-72. in Chinese)

[26]HOU Xiaodi, ZHANG Liqing. Saliency Detection: A Spectral Residual Approach[C]// IEEE Conference on Computer Vision and Pattern Recognition 2007. Minneapolis: IEEE Computer Society, 2007:1-8.

[27]ZHANG J, SCLAROFF S, LIN Z, et al. Unconstrained Salient Object Detection via Proposal Subset Optimization[C]//IEEE Conference on Computer Vision & Pattern Recognition 2016. Las Vegas: IEEE Computer Society, 2016: 5733-5742.

[28]HE Kaiming, SUN Jian. Convolutional Neural Networks at Constrained Time Cost[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition 2015. Boston: IEEE Computer Society, 2015: 5353-5360.

[29]CHANG C C, LIN C J. LIBSVM: a Library for Support Vector Machines [J]. ACM Transactions on Intelligent Systems and Technology, 2011, 2(3): 1-27.

[30]EVERINGHAM M, VAN G L, WILLIAMS C K I, et al. The Pascal Visual Object Classes (VOC) Challenge [J]. International Journal of Computer Vision, 2010, 88(2): 303-338.

[31]LIN T Y, MAIRE M, BELINGIE S, et al. Microsoft COCO: Common Objects in Context[C]//European Conference on Computer Vision 2014. Zurich: Springer, 2014: 740-755.

[32]JIA Yangqing, SHELHAMER Evan, DONAHUE Jeff, et al. Caffe: Convolutional Architecture for Fast Feature Embedding[C] //Proceedings of the 14th ACM International Conference on Multimedia 2014. Orlando: ACM New York, 2014: 675-678.

[33]DUDA R O, HART P E, STORK D G. Pattern Classification [M]. 2nd ed. Hoboken N J; Wiley, 2000.

[34]任盛偉, 李清勇, 許貴陽, 等. 魯棒實時鋼軌表面擦傷檢測算法研究[J]. 中國鐵道科學(xué), 2011, 32(1): 25-29.

(REN Shengwei,LI Qingyong,XU Guiyang, et al. Research on Robust Fast Algorithm of Rail Surface Defect Detection [J]. China Railway Science, 2011, 32(1): 25-29. in Chinese)

[35]周威, 孫忠國, 任盛偉, 等. 基于多目立體視覺的接觸網(wǎng)幾何參數(shù)測量方法[J]. 中國鐵道科學(xué), 2015, 36(5): 104-109.

(ZHOU Wei, SUN Zhongguo, REN Shengwei, et al. Measurement Method for Geometric Parameters of Overhead Contact Line Based on Multi-View Stereovision [J]. China Railway Science, 2015, 36(5): 104-109. in Chinese)

[36]李清勇, 章華燕, 任盛偉, 等. 基于鋼軌圖像頻域特征的鋼軌波磨檢測方法[J]. 中國鐵道科學(xué), 2016, 37(1): 24-30.

(LI Qingyong, ZHANG Huayan, REN Shengwei, et al. Detection Method for Rail Corrugation Based on Rail Image Feature in Frequency Domain [J]. China Railway Science, 2016, 37(1): 24-30. in Chinese)

[37]杜馨瑜. 電務(wù)軌旁設(shè)備外觀巡檢圖像增強(qiáng)算法[J]. 中國鐵道科學(xué), 2016, 37(6): 97-105.

(DU Xinyu. Algorithm for Appearance Inspection Image Enhancement of Trackside Communication and Signal Equipment [J]. China Railway Science, 2016, 37(6): 97-105. in Chinese)

猜你喜歡
區(qū)域檢測
永久基本農(nóng)田集中區(qū)域“禁廢”
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
分割區(qū)域
“幾何圖形”檢測題
“角”檢測題
小波變換在PCB缺陷檢測中的應(yīng)用
關(guān)于四色猜想
分區(qū)域
主站蜘蛛池模板: 看国产毛片| 激情午夜婷婷| 夜夜拍夜夜爽| 青草视频久久| 欧洲欧美人成免费全部视频| AV在线天堂进入| 欧美高清三区| jizz在线免费播放| 欧美日韩一区二区三区在线视频| 伊人激情久久综合中文字幕| www.亚洲一区二区三区| 99热在线只有精品| 亚洲成人在线网| 欧美伊人色综合久久天天| 97在线碰| 欲色天天综合网| 亚洲天天更新| 一级毛片免费观看不卡视频| 伊人成人在线| www.youjizz.com久久| 日本黄色不卡视频| 精品91视频| 91国内在线观看| 亚洲视频欧美不卡| 又黄又湿又爽的视频| 又猛又黄又爽无遮挡的视频网站| 国产精品无码久久久久AV| 亚洲综合一区国产精品| 一级在线毛片| 五月婷婷精品| 特级aaaaaaaaa毛片免费视频| 福利片91| 亚洲Av激情网五月天| 狠狠色噜噜狠狠狠狠色综合久 | www.91中文字幕| 黄色在线网| 青青草原国产| 亚洲欧州色色免费AV| 99精品国产高清一区二区| 国产精品丝袜视频| 免费无码在线观看| 色婷婷综合激情视频免费看| 精品一区二区三区自慰喷水| 天天干天天色综合网| 伊人天堂网| 欧美精品高清| 亚洲精品国产综合99| 国产精品蜜芽在线观看| 啪啪国产视频| 国产手机在线ΑⅤ片无码观看| 99re热精品视频中文字幕不卡| 亚洲成网777777国产精品| 91麻豆精品视频| 97超爽成人免费视频在线播放| 无码福利视频| 久久国产高清视频| 一级毛片在线免费视频| 色偷偷男人的天堂亚洲av| 欧美成人h精品网站| 国产精品久久自在自2021| 亚洲精品777| 国产二级毛片| 亚洲精选无码久久久| 精品中文字幕一区在线| 国产本道久久一区二区三区| 69免费在线视频| 2022国产无码在线| 91精品人妻一区二区| 国产精品自在在线午夜区app| 永久免费AⅤ无码网站在线观看| 色视频国产| 欧美激情视频二区三区| 国产精品久线在线观看| 亚洲性网站| 四虎永久免费地址| 999精品色在线观看| 亚洲欧美日本国产专区一区| 欧美色伊人| 特级aaaaaaaaa毛片免费视频 | 好吊日免费视频| 狠狠ⅴ日韩v欧美v天堂| 国产91无毒不卡在线观看|