999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的機器視覺目標檢測算法及在票據(jù)檢測中應用

2019-11-15 07:10:40劉桂雄劉思洋吳俊芳羅文佳
中國測試 2019年5期
關鍵詞:機器視覺深度學習

劉桂雄 劉思洋 吳俊芳 羅文佳

摘要:基于深度學習的目標檢測是機器視覺應用的重要方面。該文系統(tǒng)總結(jié)基于區(qū)域候選的目標檢測算法、基于回歸方法的目標檢測算法及其他優(yōu)化算法的算法思想、網(wǎng)絡架構、演進過程、技術指標、應用場景,指出在機器視覺系統(tǒng)應用中,應充分考慮檢測對象、檢測精度、實時性能要求,結(jié)合不同目標檢測算法特點,選擇最合適的檢測算法。最后,面向票據(jù)檢測需求,分析目標檢測算法在票據(jù)圖像位置檢測、防偽特征檢測、文本信息檢測中的應用。

關鍵詞:機器視覺;目標檢測;深度學習;卷積神經(jīng)網(wǎng)絡;票據(jù)檢測

中圖分類號:TP302一 文獻標志碼:A 文章編號:1674-5124(2019)05-0001-09

0 引言

在智能制造與裝備等產(chǎn)業(yè)中,機器視覺檢測技術因其實時性好、準確性高、適用性廣而得到廣泛應用。目標檢測作為機器視覺系統(tǒng)主要任務之一,在工業(yè)相機采集高分辨率圖像信息基礎上,實現(xiàn)多目標物體識別、位置預測,并關聯(lián)目標物體位置信息與世界坐標信息,控制視覺檢測系統(tǒng)驅(qū)動器進行相應機器檢測操作[1]。機器視覺目標檢測算法由目標特征提取器、目標分類器與目標位置區(qū)域搜索方法構成[2-5]。其中,目標特征提取器由人為設計,提取目標圖像顏色、形狀、紋理等信息,如方向梯度直方圖特征[6](histogram of oriented gradient,HOG)、尺度不變特征[7](scale-invariant feature transform,SIFT)等;目標分類器則是基于提取器得到信息進行特征計算,確定目標類別,代表性的有基于支持向量機(support vector machine,SVM)分類器[8]、adaboost分類器[9];目標位置區(qū)域搜索方法通常是采用滑動窗口(slding window)在圖像上滑動,對每個滑動區(qū)域進行特征提取與分類,判斷該區(qū)域存在目標概率及其位置[10]。機器視覺目標檢測算法的目標特征提取器、目標分類器、目標位置區(qū)域搜索方法獨立設計,實現(xiàn)目標檢測,在特定場景下檢測效果良好,但通用性較差、開發(fā)周期較長。

卷積神經(jīng)網(wǎng)絡(convolutional neural networks,CNN)具有特征學習與歸納能力強特點,深度學習采用端到端學習策略(end-to-end learning),將特征提取、目標分類、目標定位任務整合到神經(jīng)網(wǎng)絡架構中,實現(xiàn)從圖像輸入到目標分類與定位檢測結(jié)果輸出的統(tǒng)一過程[11],與經(jīng)典目標檢測算法相比,有效地簡化算法過程,提高檢測效率,以CNN為代表的深度學習方法成為目標檢測領域研究熱點[12]。目前,基于深度學習的目標檢測算法與機器視覺系統(tǒng)結(jié)合,已經(jīng)在無人機巡[13]、工業(yè)CT圖像缺陷檢測[14]、車輛檢測[15]、移動端人臉檢測[16]等領域取得較大進展,但在復雜多變的目標檢測場景中應用存在問題,如在票據(jù)檢測應用領域,目前多采用傳統(tǒng)目標檢測方法完成票據(jù)某一防偽特征檢測[17-18],而實現(xiàn)票據(jù)完整檢測涉及多光照條件票據(jù)檢測[19]、票據(jù)多防偽特征檢測[20]、票據(jù)文本信息檢測[21]等多項任務,票據(jù)在不同光照條件下又呈現(xiàn)復雜多變圖像特征,傳統(tǒng)目標檢測方法在票據(jù)多目標檢測中應用復雜、實現(xiàn)困難。基于深度學習的目標檢測算法在高特征維度中具有強大分辨能力[22],非常適合應用于票據(jù)檢測的機器視覺系統(tǒng)中。

本文系統(tǒng)總結(jié)基于深度學習的機器視覺目標檢測算法,對比各種算法在VOC2012[23]目標檢測數(shù)據(jù)集中的性能,指出不同目標檢測算法適用的機器視覺任務場景,并結(jié)合基于深度學習的票據(jù)檢測技術加以分析與應用。

1 目標檢測算法準確性評價指標

基于深度學習的目標檢測算法以經(jīng)典CNN作為骨干網(wǎng)絡,包括輸入層、卷積層、池化層、全連接層、輸出層[24]。輸入層以固定分辨率圖像作為輸入,由多層卷積層進行圖像逐層卷積運算,完成從顏色、紋理等低級特征到圖像高級語義特征提取,全連接層則根據(jù)輸出層具體任務,對高層特征進行映射,再由SVM、SoftMax等分類器輸出目標類別置信度、目標包圍框(bounding box)坐標參數(shù)。典型CNN網(wǎng)絡包括AlexNef25]、GoogleNet[26]、VGG16[27]、ResNet[28]等。算法結(jié)合目標位置區(qū)域搜索方法,采用端對端訓練策略,完成圖像從輸入到目標類別、目標位置坐標輸出的統(tǒng)一過程[29]。

在多類別目標檢測任務中,算法在一幅圖像上對某種待測目標的檢測結(jié)果存在4種情況(圖1為算法檢測結(jié)果示意圖),情況1為算法檢測得到的樣本屬于待測目標樣本TP,數(shù)量為N即;情況2為算法檢測得到的樣本不屬于待測目標樣本FP,數(shù)量為NFP;情況3為未被算法成功檢測的其他目標樣本TN,數(shù)量為NTN;情況4為未被算法成功預測的待測目標樣本FN,數(shù)量為NFN

目標檢測算法準確性評價指標可用查準率Pprection、查全率Precall表示。其中,查準率Pprection定義為算法檢測得到樣本總數(shù)NTp+N即中,待測目標樣本數(shù)NTP所占比率,即:

Pprection=NTP/NTPNFP(1)

查全率Precall定義為圖像上存在的所有待測目標樣本數(shù)NTP+NFN中,算法檢測的待測目標樣本數(shù)NTP占比率,即:

Precall=NTP/TP+NFN

在保證查全率Precall處于較高水平前提下,查準率Pprection越高,算法性能越好。以Precall為橫坐標,以Pprection為縱坐標建立曲線,曲線與坐標軸中所包圍面積即為算法在單類目標檢測中的準確性評價指標AP(average precision),對于多類別目標檢測,則求各類目標檢測結(jié)果準確性指標平均值mAP(meanaverage precision)作為算法準確性評價指標。

2 基于深度學習的機器視覺目標檢測算法

基于深度學習的機器視覺目標算法按實現(xiàn)原理可分為基于區(qū)域候選的目標檢測算法[30]、基于回歸方法的目標檢測算法[31],兩者區(qū)別主要在于是否采用區(qū)域候選方法(region proposals)。此外,一些算法從損失函數(shù)設計、網(wǎng)絡優(yōu)化人手,提高算法檢測能力[32]。

2.1 基于區(qū)域候選的目標檢測算法

基于區(qū)域候選的目標檢測算法首先為待檢測目標選取候選區(qū)域;其次,在候選區(qū)域上進行特征提取、目標分類、位置調(diào)整;最終輸出檢測結(jié)果。

1)R-CNN

Girshick(2014)將CNN引入目標檢測任務,提出R-CNN算法[33](region-convolutional neural net-work),是基于深度學習的目標檢測算法奠基之作。圖2為R-CNN算法流程,利用選擇性搜索策略(selective search)提取約2000個目標候選區(qū)域,將候選區(qū)域大小改變?yōu)榻y(tǒng)一尺寸,輸入由AlexNet作為骨干網(wǎng)絡實現(xiàn)自淺而深的圖像特征提取,由SVM分類器對每個候選區(qū)域特征向量進行分類,最后采用非極大值抑制策略(non-maximum suppression,NMS)完成目標包圍框位置修正。

R-CNN通過區(qū)域候選方法將目標檢測問題轉(zhuǎn)化為圖像區(qū)域的分類問題,相較于經(jīng)典算法,大幅度提高算法檢測性能,具有簡單、通用性強優(yōu)點,但其在2000個區(qū)域候選與特征提取中進行多次重復運算,影響算法時間性能。在ILSVRC2013數(shù)據(jù)集上,R-CNN將mAP從之前最佳算法OverFeat的24.3%提升至31.4%,在VOC2012數(shù)據(jù)集上達到53.3%。

2)SPP-Net

為彌補R-CNN對2000個區(qū)域候選區(qū)域尺寸改變、特征提取出現(xiàn)重復操作、冗余運算問題,KaimingHe等(2015)提出SPP-Net(spatial pyramid poolingnetwork),一次性完成整張圖片卷積特征提取,且無需固定圖片尺寸,極大減小R-CNN算法卷積運算量[34],圖3為SPP-Net算法流程。相較于R-CNN算法網(wǎng)絡結(jié)構,SPP-Net在卷積層最后一層與全連接層間加入空間金字塔池化層,它將選擇性搜索策略得到的候選區(qū)域?qū)辆矸e特征圖上,并全部以金字塔池化方式形成大小一致的特征圖進入全連接層進行進一步計算。

SPP-Net在R-CNN基礎上,采用空間金字塔池化方式解決候選區(qū)域歸一化問題,并在一次卷積運算基礎上實現(xiàn)所有候選區(qū)域特征提取,在檢測速度上比R-CNN提高38~102倍,準確性上略有提高。但SPP-Net對象分類與邊界框回歸兩部分任務依然是分離進行,計算空間占用率高,計算效率較低。

3)Fast R-CNN

Girshick(2015)借鑒SPP-Net空間金字塔池化層思想,提出R-CNN升級版本Fast R-CNN[35](fastregion-convolutional neural network),圖4為Fast R-CNN算法流程圖,其在卷積層之后引入ROIPooling層,與空間金字塔池化層產(chǎn)生相同效果,保證在不同分辨率候選區(qū)域輸入下得到相同維度特征向量,滿足網(wǎng)絡輸出對圖像分辨率的要求,并可使用反向傳播(back propagation,BP)[36]實現(xiàn)網(wǎng)絡端對端學習。同時,F(xiàn)ast R-CNN構造多任務損失函數(shù),將分類與邊界框回歸統(tǒng)一于一個損失函數(shù)中,實現(xiàn)分類與定位結(jié)果的統(tǒng)一輸出。此外,F(xiàn)ast R-CNN采用VGG16作為骨干網(wǎng)絡,更為優(yōu)異的特征提取網(wǎng)絡一定程度上提高目標檢測準確率。

Fast R-CNN作為R-CNN升級版本,在VOC2012數(shù)據(jù)集上mAP達到66.0%,同時,端對端的統(tǒng)一學習架構使得Fast R-CNN的訓練時間、檢測時間有效縮短,在不包括區(qū)域候選過程條件下,單張圖片檢測時間為0.3s。但選擇性搜索這一區(qū)域候選方法仍然嚴重影響Fast R-CNN的實時性能,是Fast R-CNN的工業(yè)應用瓶頸。

4)Faster R-CNN

SPP-Net與Fast R-CNN均從特征提取、候選區(qū)域尺寸歸一化角度提升目標檢測算法性能,而Girsh-ick(2017)提出的Faster R-CNN(faster region-con-volutional neural network則從算法另一瓶頸——區(qū)域候選策略改進算法[37],F(xiàn)aster R-CNN提出RPN網(wǎng)絡(region proposal network)代替選擇性搜索作為區(qū)域候選方法。圖5為Faster R-CNN算法流程圖,RPN網(wǎng)絡在圖像卷積特征圖上通過滑動窗口方法,采用預設尺度為特征圖上每個錨點生成9個錨點框并映射至圖像原圖,即為候選區(qū)域。其中,RPN與全連接層共享輸入卷積特征圖,極大降低運算量。

Faster R-CNN采用RPN代替選擇性搜索方法完成區(qū)域候選任務,充分利用骨干網(wǎng)絡提取的圖像特征。Faster R-CNN在VOC2012數(shù)據(jù)集上mAP達到75.9%,時間性能達到5f/s,即is內(nèi)可檢測5張圖像(包括區(qū)域候選過程);但算法在小目標檢測任務中效果較差,這是由于選取的錨點框經(jīng)過多次下采樣操作,再返回至原圖時,對應于原圖中區(qū)域較大部分,使得小目標的定位準確性下降。

綜合以上分析,基于區(qū)域候選的目標檢測算法采用區(qū)域候選方法預測目標位置,通過合并有效區(qū)域、去除冗余區(qū)域策略實現(xiàn)目標位置調(diào)整,實現(xiàn)目標高精度定位,但區(qū)域候選方法耗費較長時間,適用于檢測精度要求高、檢測實時性要求不高場合。

2.2 基于回歸方法的目標檢測算法

基于回歸方法的目標檢測算法不同于基于區(qū)域候選的目標檢測算法“區(qū)域候選+分類”思路,將目標檢測過程簡化為端到端的回歸問題,通過網(wǎng)格劃分、像素合并等操作減少圖像處理操作,直接獲得目標類別與位置信息,提高算法實時性。

1)YOLO系列

針對基于區(qū)域候選的目標檢測操作繁復、實時性不佳的缺點,Redmon J等(2016)提出YOLO(youonly look once)算法[38]。圖6為YOLO算法流程圖,其將圖像劃分為S×S網(wǎng)格(cel1),在提取卷積特征圖基礎上,若目標中心落在某網(wǎng)格中,則該網(wǎng)格為目標預測若干個目標邊界框與置信度,最后通過邊界框交并比IOU(intersection over union)等指標去除、合并邊界框,最終獲得檢測結(jié)果。

YOLO采用以網(wǎng)格劃分為基礎的多尺度區(qū)域代替區(qū)域候選步驟,以犧牲部分檢測精度為代價提高檢測速度,實現(xiàn)在線實時檢測,檢測時間性能達到45f/s,在VOC2012數(shù)據(jù)集上mAP為57.9%。YOLO受檢測精度影響,其目標定位較為粗糙,小物體檢測效果差,易出現(xiàn)漏檢情況。

Redmon J等(2017)在YOLO算法基礎上研究YOL09000算法[39]。針對YOLO檢測精度問題,YO_L09000在卷積網(wǎng)絡架構上進行優(yōu)化,設計DarkNet-19網(wǎng)絡并引入批歸一化層[40](batch normalization,BN),一定程度上解決訓練過程過擬合問題,從圖像特征提取質(zhì)量角度提高檢測精度。在小目標檢測效果不佳問題上,YOL09000采用多尺度訓練策略(multi-scale training),即網(wǎng)絡訓練過程中調(diào)整輸入圖像分辨率,使得網(wǎng)絡具有不同分辨率圖像的檢測能力。YOL09000在45f/s檢測速度下達到mAP值為63.4%的檢測效果。由于YOL09000算法僅使用最后一層特征圖作為特征輸入,特征信息多樣性不足,限制其檢測效果。

Redmon J等(2018)再次研究YOLO系列新算法YOLOv3[41],CNN研究結(jié)果表明,具備深度、寬度的特征提取網(wǎng)絡在特征多樣性、層次性表達效果更好[42]。YOLOv3借鑒該思想,設計更深的特征提取網(wǎng)絡DarkNet-53,以及面向工業(yè)應用的輕量化網(wǎng)絡Tiny-DarkNet,進一步彌補YOLO系列算法在檢測精度上的缺陷。

2)SSD

Liu Wei等(2015)在以POLO為代表的目標檢測算法思路基礎上,借鑒Faster R-CNN在提高檢測精度方面采取的方法,提出SSD(single shot multiBoxDetector)目標檢測算法[43]。圖7為SSD算法核心思想示意圖,SSD算法與YOLO系列算法思想一致,將原始圖像劃分為若干個網(wǎng)格,同時借鑒FasterR-CNN關于錨點框設置方法,為每個網(wǎng)格設置特定長寬比先驗框,以適應目標形狀與大小,減少訓練難度。另外,SSD采用多尺度訓練策略,大尺度特征圖用于檢測小目標,小尺度特征圖用于檢測大目標,提高目標檢測精度。

SSD算法結(jié)合YOLO算法、Faster R-CNN算法優(yōu)點,兼具實時性與準確性,在當時是最先進算法之一,在VOC2012數(shù)據(jù)集上達到72.4%檢測精度及59f/s檢測速度。同時,SSD采用多尺度訓練策略,使得SSD在小目標檢測上取得重大突破,適用于小目標檢測場景。

基于回歸方法的目標檢測算法與基于區(qū)域候選的目標檢測算法相比,減少區(qū)域候選步驟,直接在原圖圖像上劃分網(wǎng)格、分類、位置調(diào)整,提高檢測速度,但由于網(wǎng)格劃分不具備目標位置的任何先驗信息,導致該類算法在檢測精度上略有欠缺,適用于在線、實時檢測場合。

2.3 其他相關改進算法

除基于區(qū)域候選、基于回歸方法的目標檢測算法思想外,一些目標檢測算法從損失函數(shù)優(yōu)化、神經(jīng)網(wǎng)絡加速等方面進一步提高算法檢測準確性與實時性。

1)RetinaNet

T.Lin等(2017)指出目標檢測算法精度難以進一步提升主要由類別不平衡問題導致,即在算法生成的大量目標邊界框中,大部分邊界框包含的是圖像背景類別,只有少部分邊界框包含待測目標。若分類器將所有邊界框分類為背景類別,將導致分類器往錯誤方向訓練學習,檢測效果下降。在此問題分析基礎上,T.Lin等設計新?lián)p失函數(shù),提出RetinaNet目標檢測算法[44],它在損失函數(shù)設計中加入損失權重參數(shù),當檢測結(jié)果為背景時具有較小損失權重值,當檢測結(jié)果為待測目標時具有較大損失權重值,達到背景類別、待測目標類別整體樣本損失值平衡。

2)RefineDet

S.Zhang等(2018)指出CNN在執(zhí)行下采樣步驟時,將丟失目標邊界等細節(jié)信息且在高特征維度中無法恢復,產(chǎn)生目標定位誤差,從多卷積特征融合角度對算法完成改進,提出RefineDet(refinementneural network for object detection)目標檢測算法[45],借鑒ResNet卷積層跳躍連接(short connection)思路,引入特征融合模塊transfer connection block),將網(wǎng)絡中多個卷積層輸出特征圖進行連接,實現(xiàn)從底層輪廓、邊界特征到高層語義特征融合。此外,RefmeDet引入樣本過濾機制,對于屬于圖像背景類別且置信度高的樣本,算法直接舍去該樣本,以緩解樣本不平衡問題,提高訓練速度。在VOC2012數(shù)據(jù)集上,RefmeDet在24.1f/s的時間性能下達到80.1%的mAP值。

表1為各種目標檢測算法及其效果比較表。可以看出,基于區(qū)域候選的目標檢測算法在檢測精度上表現(xiàn)優(yōu)異,基于回歸方法的目標檢測算法在時間性能上效果良好,在工業(yè)應用中,應根據(jù)應用場景、任務要求選擇算法。

3 目標檢測算法在票據(jù)檢測中的應用

在用于票據(jù)檢測的機器視覺系統(tǒng)中,系統(tǒng)首先由工業(yè)相機獲取包含票據(jù)目標的高分辨率圖像,檢測票據(jù)目標在圖像上位置并確定其票據(jù)類別、光源激發(fā)條件信息;其次,完成票據(jù)目標所有局部防偽特征檢測,并與該光源條件下標準票據(jù)防偽特征比對,判定票據(jù)真?zhèn)蝃48];最后,系統(tǒng)采用圖像文本檢測方法讀取票據(jù)票號、數(shù)額等信息,完成票據(jù)信息檢測。在票據(jù)檢測過程中,涉及目標檢測算法的應用包括多光源激發(fā)條件下圖像位置、防偽特征、文本信息等檢測。

3.1 票據(jù)圖像位置檢測

在開放式票據(jù)防偽鑒別儀器中,票據(jù)圖像在視覺系統(tǒng)視野中位置存在偏移、旋轉(zhuǎn)情況,其在視野中位置影響票據(jù)局部防偽特征檢測。傳統(tǒng)方法采用檢測票據(jù)圖像局部角點、顏色特征等實現(xiàn)票據(jù)圖像位置檢測。Young P等(2015)采用SURF(speeded-up robust features)角點特征檢測方法定位票據(jù)特征位置,在可見光條件下實現(xiàn)票據(jù)識別[49];Liu X W等(2014)首先利用模糊集理論對紙幣目標與背景進行對比度增強,然后用最小二乘法擬合出紙幣像素邊緣,根據(jù)像素邊緣線角度校正紙幣圖像,完成紙幣位置區(qū)域檢測[50]。該類方法在特定檢測條件下的票據(jù)位置檢測效果良好,但在不同檢測條件下通用性較差,而票據(jù)完整檢測要求在自然光、紫外光、透光、紅外光條件下分別檢測(見圖8),要求票據(jù)圖像位置檢測方法具有通用性。

票據(jù)圖像位置檢測是在高分辨率圖像中對票據(jù)目標的粗定位,是票據(jù)局部防偽特征檢測基礎。因此,票據(jù)圖像位置檢測精度要求不高,只需獲取票據(jù)目標的邊緣、類別信息,允許一定位置誤差,但要求算法時間性能佳,檢測速度快。基于回歸方法的目標檢測算法既滿足多光源條件下票據(jù)位置檢測算法通用性要求,又具備實時性檢測特點,是該任務場景下首選算法。

3.2 票據(jù)防偽特征檢測

票據(jù)防偽特征檢測是票據(jù)檢測的核心內(nèi)容,是通過視覺方法鑒別票據(jù)真?zhèn)蔚年P鍵手段[51]。票據(jù)在不同光源下呈現(xiàn)不同防偽特征(如圖8所示),如紫外光下的熒光圖案特征、透光下的油墨特征、紅外光下則隱去大部分特征,僅保留某些文字、編碼特征,復雜多變的票據(jù)特征為所有防偽特征檢測增加難度。傳統(tǒng)圖像算法針對票據(jù)一種或某幾種防偽特征設計相應檢測鑒別算法[52],Roy A等(2015)將熒光特征、安全線特征作為檢測目標,結(jié)合閾值分割等圖像處理方法完成特征檢測,并計算檢測特征與標準特征的圖像歐式距離,判定真?zhèn)蝃53];Bruna A等(2013)研發(fā)紅外光下歐元偽幣檢測系統(tǒng),系統(tǒng)利用紅外相機獲取的鈔票圖像,通過圖像降噪、SIFT特征提取,SVM分類方法評判紅外光下整張紙幣真?zhèn)吻闆r[54]。

以Faster R-CNN為代表的基于區(qū)域候選的目標檢測算法在多目標檢測任務中表現(xiàn)優(yōu)異,檢測精度高,適用于票據(jù)多防偽特征檢測任務場景。

3.3 票據(jù)文本信息檢測

票據(jù)文本信息檢測完成票據(jù)編碼、數(shù)額、類型等關鍵信息檢測與讀取,是實現(xiàn)票據(jù)信息自動保存記錄的基礎。圖9為基于深度學習的票據(jù)文本信息檢測流程,在輸入票據(jù)圖像基礎上,采用目標檢測算法預測票據(jù)信息文本框位置,其次在文本框內(nèi)對字符序列進行分割,依次對每個字符內(nèi)容進行分類識別,最終合并字符序列,輸出票據(jù)文本信息。

票據(jù)文本信息處于票據(jù)圖像很小區(qū)域范圍內(nèi),屬于小目標檢測任務范圍,應選用類似SSD在小目標檢測中又快又準的算法[55]。

在面向票據(jù)檢測的目標檢測算法應用中,根據(jù)票據(jù)檢測不同階段、不同任務場景,結(jié)合不同類別目標檢測算法特點,選用最為合適算法。基于回歸方法的目標檢測算法用于票據(jù)圖像快速定位,基于候選區(qū)域的目標檢測算法用于票據(jù)防偽特征精準檢測,票據(jù)文本信息檢測則使用SSD等小目標檢測算法。

4 結(jié)束語

目標檢測是機器視覺檢測的一部分,實現(xiàn)圖像上目標的分類與定位,可分為基于區(qū)域候選的目標檢測算法、基于回歸方法的目標檢測算法、其他改進算法。其在票據(jù)檢測領域具有廣泛應用前景,總結(jié)如下:

1)基于區(qū)域候選的目標檢測算法采用“區(qū)域候選+分類”的實現(xiàn)思路,區(qū)域候選策略為目標檢測提供先驗定位,降低算法在目標定位選擇的盲目性,然后通過位置精修獲得目標準確位置,其特點是檢測精度高,適用于圖像精密檢測場景;

2)基于回歸方法的目標檢測算法則將目標檢測視為回歸問題解決,減少區(qū)域候選步驟,簡化算法流程,直接在圖像特征提取基礎上輸出目標類別置信度與位置信息,有效提高檢測實時性,適用于動態(tài)在線檢測場景;

3)一些目標檢測算法研究基于深度學習的目標檢測機理,從圖像特征提取網(wǎng)絡優(yōu)化、訓練損失函數(shù)設計、多層卷積特征融合等方面實現(xiàn)目標檢測算法優(yōu)化,提高檢測精度;

4)在票據(jù)檢測的機器視覺系統(tǒng)中,包括圖像位置、防偽特征、文本信息等檢測,在應用過程中,應結(jié)合不同場景檢測需求與目標檢測算法特點,選擇適用算法,提高票據(jù)檢測精度、實時性能,構建面向票據(jù)檢測應用的智能檢測系統(tǒng)。

參考文獻

[1]尹仕斌,任永杰,劉濤,等.機器視覺技術在現(xiàn)代汽車制造中的應用綜述[J].光學學報,2018,38(8):11-22.

[2]GUO Y,LIU Y,OERLEMANS A,et al.Deep learning forvisual understanding:A review[J].Neurocomputing,2016,187:27-48.

[3]FELZENSZWALB P F,GIRSHICK R B,MCALLESTER D,et al.Object detection with discriminatively trained part-basedmodels[J].IEEE Transactions on Pattern Analysis andMachine Intelligence,2010,32(9):1627-1645.

[4]REN X,RAMANAN D.Histograms of sparse codes for objectdetection[C]//Proceedings of the IEEE Conference onComputer Vision and Pattern Recognition,2013.

[5]FELZENSZWALB P,GIRSHICK R,MCALLESTER D,et al.Visual object detection with deformable part models[J].Communications of the ACM,2013,56(9):97-105.

[6]DALAL N,TRIGGS B.Histograms of oriented gradients forhuman detection[C]//International Conference on ComputerVision&Pattern Recognition(CVPR'05),2005.

[7]LOWE D G.Distinctive image features from scale-invariantkeypoints[J].International Journal of Computer Vision,2004,60(2):91-110.

[8]CHEN P,LIN C,SCHOLKOPF,B.A tutorial on v-supportvector machines[J].Applied Stochastic Models in Business&Industry,2005,21(2):111-136.

[9]WANG P,SHEN C,BARNES N,et al.Fast and robust objectdetection using asymmetric totally corrective boosting[J].IEEE Transactions on Neural Networks and Learning Systems,2012,23(1):33-46.

[10]尹宏鵬,陳波,柴毅,等.基于視覺的目標檢測與跟蹤綜述[J].自動化學報,2016,42(10):1466-1489.

[11]方路平,何杭江,周國民.目標檢測算法研究綜述[J].計算機工程與應用,2018,54(13):11-18,33.

[12]于進勇,丁鵬程,王超.卷積神經(jīng)網(wǎng)絡在目標檢測中的應用綜述[J].計算機科學,2018,45(S2):17-26.

[13]張明江,李紅衛(wèi),趙衛(wèi)虎,等.深度學習在軍用光纜線路無人機巡檢中的應用[J].光通信研究,2018(6):61-65.

[14]常海濤,茍軍年,李曉梅.Faster R-CNN在工業(yè)CT圖像缺陷檢測中的應用[J].中國圖象圖形學報,2018,23(7):129-139.

[15]王衛(wèi)東,程丹.監(jiān)控場景下的實時車輛檢測方法[J].電子測量與儀器學報,2018(7):83-88.

[16]魏震宇,文暢,謝凱,等.光流估計下的移動端實時人臉檢測[J].計算機應用,2018,38(4):1146-1150.

[17]張玉杰,張媛媛.便攜式票據(jù)數(shù)字水印檢測系統(tǒng)的研究[J].自動化儀表,2013,34(3):41-43.

[18]陶銳,孫彥景.金融票據(jù)混沌水印加密算法研究與實現(xiàn)[J].電子器件,2017,40(5):1297-1303.

[19]PHAM T D,NGUYEN D T,KINI W,et al.Deep leaming-based banknote fitness classification using the reflectionimages by a visible-light one-dimensional line imagesensor[J].Sensors,2018,18(2):472.

[20]LEE J,HONG H,KIM K,et al.A survey on banknoterecognition methods by various sensors[J].Sensors,2017,17(2):313.

[21]PHAM T,LEE D,PARK K.Multi-national banknoteclassification based on visible-light line sensor andconvolutional neural network[J].Sensors,2017,17(7):1595.

[22]LECUN Y,BENGIO Y,HINTON G.Deep learning[J].Nature,2015,521(7553):436.

[23]EVERINGHAM M,ESLAMI S M A,VAN GOOL L,et al.The PASCAL visual object classes challenge:aretrospective[J].International Journal of Computer Vision,2015,111(1):98-136.

[24]陳超,齊峰.卷積神經(jīng)網(wǎng)絡的發(fā)展及其在計算機視覺領域中的應用綜述[J].日算機科學,2019,46(3):63-73.

[25]KRIZHEVSKY A,SUTSKEVER I,HINTON G E.Imagenetclassification with deep convolutional neural networks[C]//Advances in Neural Information Processing Systems,2012.

[26]SZEGEDY C,LIU W,JIA Y,et al.Going deeper withconvolutions[C]//Proceedings of the IEEE Conference onComputer Vision and Pattern Recognition,2015.

[27]SIMONYAN K,ZISSERMAN A.Very deep convolutionalnetworks for large-scale image recognition[C]//2015International Conference on Learning Representations,2015.

[28]HE K,ZHANG X,REN S,et al.Deep residual learning forimage recognition[C]//Proceedings of the IEEE Conference onComputer Vision and Pattern Recognition,2016.

[29]張榮,李偉平,莫同.深度學習研究綜述[J].信息與控制,2018,47(4):385-397,410.

[30]吳帥,徐勇,趙東寧.基于深度卷積網(wǎng)絡的目標檢測綜述[J].模式識別與人工智能,2018,31(4):335-346.

[31]昊加瑩,楊賽,堵俊,等.自底向上的顯著性目標檢測研究綜述[J].日算機科學,2019,46(3):48-52.

[32]ZHAO Z Q,ZHENG P,XU S,et al.Object detection withdeep learning:A review[C]//IEEE Transactions on NeuralNetworks and Learning Systems,2019.

[33]GIRSHICK R,DONAHUE J,DARRELL T,et al.Richfeature hierarchies for accurate object detection and semanticsegmentation[C]//Proceedings of the IEEE Conference onComputer Vision and Pattern Recognition.2014.

[34]HEK,ZHANG X,REN S,et al.Spatial pyramid pooling indeep convolutional networks for visual recognition[J].IEEETransactions on Pattern Analysis and Machine Intelligence,2015,37(9):1904-1916.

[35]GIRSHICK R.Fast R-CNN[C]//Proceedings of theIEEEInternational Conference on Computer Vision,2015.

[36]RUMELHART D E.Learning representations by back-propagating errors[J].Nature,1986,323(6088):533-536.

[37]REN S,HE K,GIRSHICK R et al.Faster R-CNN:Towardsreal-time object detection with region proposal networks[C]//Advances in Neural Information Processing Systems,2015.

[38]REDMON J,DIVVALA S,GIRSHICK R,et al.You onlylook once:Unified,real-time object detection[C]//Proceedingsof the IEEE Conference on Computer Vision and PatternRecognition,2016.

[39]REDMON J,F(xiàn)ARHADI A.YOL09000:better,faster,stronger[C]//Proceedings of the IEEE Conference onComputer Vision and Pattern Recognition,2017.

[40]IOFFE S,SZEGEDY C.Batch normalization:acceleratingdeep network training by reducing internal covariateshift[C]//International Conference on Machine Learning,2015.

[4]]REDMON J,F(xiàn)ARHADI A.Yolov3:An incrementalimprovement[J].CoRR,2018.abs/1804.02767.

[42]SZEGEDY C,VANHOUCKE V,IOFFE S,et al.Rethinkingthe inception architecture for computer vision[C]//Proceedingof the IEEE Conference on Computer Vision and PatternRecognition,2016.

[43]LIU W,ANGUELOV D,ERHAN D,et al.Ssd:Single shotmultibox detector[C]//European Conference on ComputerVision,2016.

[44]LIN T Y,GOYAL P,GIRSFIICK R,et al.Focal loss for denseobject detection[C]//Proceedings of theIEEE InternationalConference on Computer Vision,2017.

[45]ZHANG S,WEN L,BIAN X,et al.Single-shot refinementneural network for object detection[C]//Proceedings of theIEEE Conference on Computer Vision and PatternRecognition,2018.

[46]葛動元,姚錫凡,向文江,等.面向齒廓偏差等精密檢測的機器視覺關鍵技術[J].機械傳動,2019,43(2):171-176.

[47]郭雪梅,劉桂雄,黃堅,等.面向標準件裝配質(zhì)量的PI-SURF檢測區(qū)域劃分技術[J].中國測試,2017,43(8):101-105.

[48]廣州市銀科電子有限公司.一種基于紅外油墨標志智能識別的票據(jù)防偽鑒別方法:CN201710536627.2[P].2017-11-10.

[49]YOUNG P,SEUNG K,TUYEN P,et al.A high performancebanknote recognition system based on a one-dimensionalvisible light line sensor[J].Sensors,2015,15(6):14093-14115.

[50]LIU X W,LIU C Y.Paper currency CIS image fuzzyenhancement and boundary detection[J].Applied Mechanicsand Materials,2014,651-653:2356-2361.

[51]廣州市銀科電子有限公司.基于防偽材料光譜特性的票據(jù)鑒偽方法及裝置:CN201710516001.5[P].2017-10-24.

[52]廣州市銀科電子有限公司一種智能識別水印特征的票據(jù)防偽鑒別方法:CN201710337615.7[P].2017-09-05.

[53]ROY A,HALDER B,GARAIN U,et al.Machine-assistedauthentication of paper currency:an experiment on Indianbanknotes[J].International Journal on Document Analysisand Recognition(IJDAR),2015,18(3):271-285.

[54]BRUNA A,F(xiàn)ARINELLA G,GUARNERA G,et al.Forgerydetection and value identification of Euro banknotes[J].Sensors,2013,13(2):2515-2529.

[55]LIAO M,SHI B,BAI X,et al.Textboxes:A fast text detectorwith a single deep neural network[C]//Proceedings of theThirty-First AAAI Conference on Artificial Intelligence,2017.

(編輯:李剛)

收稿日期:2019-03-29;收到修改稿日期:2019-04-15

基金項目:廣州市產(chǎn)學研重大項目(201802030006);廣東省現(xiàn)代幾何與力學計量技術重點實驗室開放課題(SCMKF201801)

作者簡介:劉桂雄(1968-),男,廣東揭陽市人,教授,博導,主要從事測控技術及儀器研究。

猜你喜歡
機器視覺深度學習
全自動模擬目標搜救系統(tǒng)的設計與實現(xiàn)
有體驗的學習才是有意義的學習
基于機器視覺的自動澆注機控制系統(tǒng)的研究
科技視界(2016年26期)2016-12-17 17:31:58
電子商務中基于深度學習的虛假交易識別研究
MOOC與翻轉(zhuǎn)課堂融合的深度學習場域建構
大數(shù)據(jù)技術在反恐怖主義中的應用展望
大場景三維激光掃描儀在研究生實踐教學培養(yǎng)中的應用
科教導刊(2016年25期)2016-11-15 17:53:37
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
基于機器視覺的工件鋸片缺陷檢測系統(tǒng)設計
軟件工程(2016年8期)2016-10-25 15:55:22
基于深度卷積網(wǎng)絡的人臉年齡分析算法與實現(xiàn)
軟件工程(2016年8期)2016-10-25 15:47:34
主站蜘蛛池模板: 亚洲成av人无码综合在线观看| 亚洲国产成人在线| 免费毛片全部不收费的| 欧美国产综合色视频| 婷婷开心中文字幕| 免费无码AV片在线观看国产| 国产精品美女在线| 久操线在视频在线观看| 啦啦啦网站在线观看a毛片| 欧美日本中文| 囯产av无码片毛片一级| 极品国产一区二区三区| 国产在线一区视频| 天堂久久久久久中文字幕| 国产精品极品美女自在线| 99热这里只有成人精品国产| 国产国语一级毛片| 亚洲天堂视频网站| 无码国产偷倩在线播放老年人 | 婷婷综合色| 一本色道久久88| 色综合久久88色综合天天提莫 | 国产成人综合久久精品下载| 1024你懂的国产精品| 五月天福利视频| 国产精品吹潮在线观看中文| 亚洲精品无码AⅤ片青青在线观看| 中文字幕永久视频| 欧美成一级| 99无码中文字幕视频| 日本五区在线不卡精品| 亚洲男人的天堂在线观看| 亚洲国产精品日韩专区AV| 91尤物国产尤物福利在线| 伊人丁香五月天久久综合 | 国产a v无码专区亚洲av| 麻豆精选在线| 欧美www在线观看| 中文字幕2区| 国产在线一区二区视频| 亚洲国产看片基地久久1024| 国产网站黄| 1769国产精品视频免费观看| 97精品国产高清久久久久蜜芽| 国产91线观看| 玖玖精品在线| 国产成人久久777777| 国产精品永久久久久| 久久精品只有这里有| 色九九视频| 国模私拍一区二区| 91精品啪在线观看国产| 欧美国产视频| aⅴ免费在线观看| 免费观看男人免费桶女人视频| 伊人久久影视| 色综合天天视频在线观看| 日韩在线1| 国产乱人伦精品一区二区| 激情成人综合网| 亚洲精品男人天堂| 在线网站18禁| 久久伊伊香蕉综合精品| 欧美在线国产| 中文字幕亚洲另类天堂| 538国产视频| 国产美女精品人人做人人爽| 欧美视频免费一区二区三区| 在线毛片免费| 日韩精品一区二区三区免费在线观看| 在线播放国产一区| 免费看a毛片| 久久国产精品波多野结衣| 中文毛片无遮挡播放免费| 成年免费在线观看| 国内丰满少妇猛烈精品播| 鲁鲁鲁爽爽爽在线视频观看| 一级毛片无毒不卡直接观看| 日韩av手机在线| 亚洲欧美成aⅴ人在线观看| 免费国产高清精品一区在线| 亚洲综合激情另类专区|