999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于卷積神經(jīng)網(wǎng)絡(luò)的行人檢測技術(shù)的研究綜述

2020-12-24 08:01:42譚玉枚余長庚
軟件 2020年7期

譚玉枚 余長庚

摘? 要: 隨著深度學(xué)習(xí)方法在行人檢測領(lǐng)域的深入應(yīng)用,基于卷積神經(jīng)網(wǎng)絡(luò)的行人檢測技術(shù)在特征學(xué)習(xí)、目標(biāo)分類、邊框回歸等方面表現(xiàn)出的優(yōu)勢已愈發(fā)突出。因此,本文從對傳統(tǒng)的行人檢測方法和基于卷積神經(jīng)網(wǎng)絡(luò)的行人檢測技術(shù)進(jìn)行優(yōu)劣比較切入,概述了卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)構(gòu)架,以此引出對當(dāng)前常用的基于卷積神經(jīng)網(wǎng)絡(luò)的常見行人檢測技術(shù)及其優(yōu)缺點(diǎn),最后討論了現(xiàn)有基于卷積神經(jīng)網(wǎng)絡(luò)算法實(shí)現(xiàn)行人檢測存在的不足和指出今后發(fā)展方向。

關(guān)鍵詞: 卷積神經(jīng)網(wǎng)絡(luò);行人檢測;目標(biāo)分類;邊框回歸

中圖分類號: TP391. 41 ???文獻(xiàn)標(biāo)識碼: A??? DOI:10.3969/j.issn.1003-6970.2020.07.006

本文著錄格式:譚玉枚,余長庚. 基于卷積神經(jīng)網(wǎng)絡(luò)的行人檢測技術(shù)的研究綜述[J]. 軟件,2020,41(07):31-36+75

Review of Pedestrian Detection Based on Convolution Neural Network

TAN Yu-mei, YU Chang-geng

(College of Information and Communication Engineering, Hezhou University, hezhou 542899, China)

【Abstract】: With the in-depth application of deep learning in pedestrian detection, the advantages of pedestrian detection based on convolutional neural network have become more pronounced in the fields of feature learning, object classification, border regression and others. An overview of basic structure of convolutional neural network is done by comparing the advantages and disadvantages of the pedestrian detection based on the traditional method and convolutional neural network. On this basis, the paper introduces the common pedestrian detection technologies based on convolutional neural network and its advantages and disadvantages. At last, the present deficiencies existing in pedestrian detection based on CNN are briefly discussed and the future directions are pointed out.

【Key words】: Convolution neural network; Pedestrian detection; Target classification; Border regression

0? 引言

目前,在無人駕駛、智能視頻監(jiān)控和機(jī)器人視覺感知[1]等應(yīng)用背景下,計(jì)量機(jī)視覺研究領(lǐng)域中的行人檢測技術(shù)受到國內(nèi)外學(xué)術(shù)界的廣泛關(guān)注和深入研究。傳統(tǒng)的行人檢測方法側(cè)重于在特征提取和分類方面提升檢測準(zhǔn)確率。其中,具有代表性的方法有:HOG(histogram of oriented gradient)+SVM(support vector machine)[2]、Harr+Adaboost[3]、基于多特征融合的粒子濾波多目標(biāo)跟蹤方法[4]等。該類方法把特征提取和分類訓(xùn)練分離為兩個(gè)獨(dú)立過程,往往受限于特定環(huán)境條件(如小尺度變換處理等[5])、設(shè)定低階特征(如紋理特征等),并且不同的特征與分類器適用程度各異,導(dǎo)致特征表達(dá)能力不足、可分性較差、可移植性差。

為更好提升行人檢測技術(shù)的泛化性和魯棒性,Hinton在2006年提出了自下向上方式自動逐層學(xué)習(xí)數(shù)據(jù)高階特征的深度學(xué)習(xí)方法[6],引起了機(jī)器學(xué)習(xí)領(lǐng)域?qū)W者的廣泛關(guān)注。相對傳統(tǒng)行人檢測方法,該類方法避免了復(fù)雜的特征提取和數(shù)據(jù)分類重建過程,學(xué)習(xí)到的高階特征表達(dá)能力更強(qiáng)、更豐富。其中,卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)[7]作為常見深度學(xué)習(xí)模型,因其精度高和速度快的優(yōu)勢相比深度信念網(wǎng)絡(luò)結(jié)構(gòu)(Deep Belief Network,DBN),堆疊自動編碼器(Stacked Belief? Network,SBN)使用更為廣泛[8],已成為當(dāng)前計(jì)算機(jī)視覺領(lǐng)域研究熱點(diǎn)。該方法整合了特征提取、特征選擇、特征分類處理過程,并通過端對端訓(xùn)練和?? 權(quán)值共享結(jié)構(gòu)模擬生物神經(jīng)網(wǎng)絡(luò),自動提取圖像? 的紋理、顏色等復(fù)雜特征,較好的提升了目標(biāo)識別精度。

1 ?卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)構(gòu)架

卷積神經(jīng)網(wǎng)絡(luò)建立在認(rèn)知機(jī)(Neocognitron)[9]基礎(chǔ)上,把卷積運(yùn)算和采樣操作引入到人工神經(jīng)網(wǎng)絡(luò),使提取出的特征具備一定的空間不變性,并最

早作為分類器應(yīng)用于手寫字符、小圖片識別中,取得了不錯(cuò)成效[10-12]。因此,卷積神經(jīng)網(wǎng)絡(luò)逐漸成為當(dāng)前圖像識別領(lǐng)域的研究熱點(diǎn)之一[13]

如圖1所示,典型的卷積神經(jīng)網(wǎng)絡(luò)主要由輸入層、卷積層、池化層、全連接層和輸出層組成。首先,輸入層主要用于接收輸入圖像,并可進(jìn)行簡單預(yù)處理。其次,由多個(gè)卷積層和池化層構(gòu)成特征提取器,完成對圖像高層特征的提取。最后,由全連接層和輸出層構(gòu)成特征分類器,完成對圖像高層特征分類,并輸出用于表達(dá)當(dāng)前圖像的一維特征向量。

(1)輸入層即圖像輸入層,其大小與輸入圖像一致,可視為只有1張?zhí)卣鲌D的層。

(2)卷積層主要作用是提取圖像的低層特征,通過對輸入數(shù)據(jù)進(jìn)行卷積操作和組合運(yùn)算,并利用非線性激活函數(shù)獲取輸入數(shù)據(jù)的非線性特征圖,層數(shù)越多,特征表達(dá)能力越強(qiáng)。如圖2所示,對于卷積層任一神經(jīng)元所提取的是前一層不同特征圖中相同區(qū)域的局部特征[12]

基于回歸模型時(shí)候,以概率統(tǒng)計(jì)的方式預(yù)測目標(biāo)在待檢測圖像中的具體位置信息。這兩種方法將在下一節(jié)進(jìn)行詳細(xì)介紹。

2 ?基于卷積神經(jīng)網(wǎng)絡(luò)的常見行人檢測技術(shù)

1994年,Vaillant等人首次將卷積神經(jīng)網(wǎng)絡(luò)成功應(yīng)用于人臉檢測,并取得了較好的檢測效果[14]。但是,由于受到計(jì)算機(jī)硬件性能低、過擬合等問題的局限,基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測技術(shù)在較長一段時(shí)間沒有得到研究者的關(guān)注。直至2012年,Krizhevsky等人提出了AlexNet,運(yùn)用ReLU激活函數(shù)和Dropout策略降低了收斂速度和過擬合問題帶來的影響,提升了訓(xùn)練速度、檢測準(zhǔn)確性和泛化性[15]。自此,基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測技術(shù)逐漸成為研究熱點(diǎn),并成為目標(biāo)檢測領(lǐng)域的主流方法之一。

本文將對卷積神經(jīng)網(wǎng)絡(luò)在行人檢測領(lǐng)域的研究應(yīng)用進(jìn)行介紹,主要可分為:基于分類的卷積神經(jīng)網(wǎng)絡(luò)行人檢測技術(shù)和基于回歸模型的卷積神經(jīng)網(wǎng)絡(luò)行人檢測技術(shù)。

2.1 ?基于分類的卷積神經(jīng)網(wǎng)絡(luò)行人檢測技術(shù)

相對傳統(tǒng)的行人檢測方法,基于分類的卷積神經(jīng)網(wǎng)絡(luò)行人檢測技術(shù)通過使用候選區(qū)域提取的方法,直接應(yīng)用卷積神經(jīng)網(wǎng)絡(luò)對原始圖像或特征圖中每個(gè)滑動窗口生成的候選區(qū)域框進(jìn)行二分類檢測,以實(shí)現(xiàn)行人檢測。根據(jù)輸出圖像特征圖與卷積層的不同關(guān)聯(lián)關(guān)系,可分為單尺度特征檢測模型和多尺度特征檢測模型。

2.1.1 ?單尺度特征檢測模型

單尺度特征檢測模型選擇最后一層卷積層輸出作為圖像特征圖。典型代表模型有:RCNN(Regions with CNN features)[16]、Fast-RCNN[17]、Faster- RCCN[18]等。

RCNN是最早應(yīng)用于目標(biāo)檢測的卷積神經(jīng)網(wǎng)絡(luò)模型,如圖4所示,通過Selective Search方法取代窗口滑動獲取候選區(qū)域,使用卷積神經(jīng)網(wǎng)絡(luò)對縮放至統(tǒng)一尺寸后的候選區(qū)進(jìn)行特征提取,并運(yùn)用SVM進(jìn)行分類,實(shí)現(xiàn)行人檢測。[19]該方法利用卷積層實(shí)現(xiàn)了對圖像特征的直接提取,避免了傳統(tǒng)的行人檢測中手工提取的繁瑣,提升了識別效率。

Fast-RCNN的提出,進(jìn)一步緩解了RCNN因提取大量候選區(qū)域特征帶來的運(yùn)算壓力,利用對候選區(qū)域下采樣和SVD分解全連接層的方法,輸出特征分類和邊框回歸的結(jié)果,提升目標(biāo)檢測效率和檢測精度。如圖5所示,通過Selective Search方法獲取候選區(qū)域后,該方法直接對整張待檢圖像提取特征,將候選區(qū)域?qū)?yīng)的特征圖通過下采樣輸出固定長度的特征向量,并經(jīng)過全連接層完成分類和回歸邊框位置信息進(jìn)行修正,一定程度上提升了運(yùn)算速度。

Faster-RCNN模型的提出,進(jìn)一步優(yōu)化了提取候選區(qū)域的方式和速度。該模型主要由用于提取候選區(qū)域的區(qū)域生成網(wǎng)絡(luò)RPN(Region Proposal Network)和用于目標(biāo)檢測的Fast-RCNN,將獲取目標(biāo)候選區(qū)域、提取特征、目標(biāo)分類和回歸邊框位置等過程融合到同一個(gè)深度神經(jīng)網(wǎng)絡(luò)之中。如圖6所示,RPN代替Selective Search方法提取檢測區(qū)域,并與Fast-RCNN共享卷積特征,輸出概率最大的候選區(qū),再由Fast-RCNN對所有候選區(qū)進(jìn)行識別分類,并回歸邊框位置信息加以修正,大大提升了運(yùn)算速度。

上述的單尺度特征檢測模型以最后一個(gè)卷積層輸出的高層特征作為候選區(qū)域特征,忽略了底層特征圖中的一些局部細(xì)節(jié)特征信息,不利于對小尺度的目標(biāo)檢測。

2.1.2 ?多尺度特征檢測模型

為解決單尺度特征檢測模型對小目標(biāo)檢測中表現(xiàn)出的不足,研究學(xué)者們提出了基于多層特征融合的多尺度特征檢測模型。典型代表模型有:ION(Inside-Outside Net)[20]、FPN(Feature Pyramid Networks )[21]、Mask R-CNN[22][23]等。

ION是較早提出在目標(biāo)檢測中應(yīng)用多尺度特征融合的深度學(xué)習(xí)方法之一。如圖7所示,該方法主要融合了感興趣區(qū)域(Region Of Interest,ROI)內(nèi)外的特征信息來進(jìn)行目標(biāo)檢測,其中,Outside Net通過IRNN[24]從最后一個(gè)卷積層輸出的特征圖中提取ROI外的上下文特征信息以更好適應(yīng)目標(biāo)遮擋情況,Inside Net利用Skip-Pooling獲取ROI映射到第3-5卷積層輸出的多尺度特征信息以提升對小目標(biāo)的檢測能力,并融合這兩個(gè)特征信息來進(jìn)行目標(biāo)檢測,有效提升了目標(biāo)檢測精度。

FPN的提出,是為了更好的利用Faster R-CNN模型實(shí)現(xiàn)不同尺度的候選區(qū)域映射出不同層不同尺度的特征圖。如圖8所示,該方法為實(shí)現(xiàn)全尺度高層語義特征圖傳遞,構(gòu)建了一個(gè)自頂向下且可橫向連接的框架,并基于Faster R-CNN模型,從自底向上、自頂向下以及橫向連接等三個(gè)維度獲取多尺度融合特征,更有利于小目標(biāo)檢測。

Mask R-CNN可視為一個(gè)可實(shí)現(xiàn)精確分割的目標(biāo)檢測和語義分割的Faster R-CNN擴(kuò)展模型。如圖9所示,該方法基于Faster R-CNN模型,利用全卷積神經(jīng)網(wǎng)絡(luò)(Fully Convolutional Network,F(xiàn)CN)[25]增加了語義分割分支用于分割任務(wù)。在Faster R-CNN

模型中引入FPN完成目標(biāo)特征分類和邊框回歸任務(wù)的同時(shí),使用FCN對每個(gè)ROI進(jìn)行目標(biāo)分割,并用RoIAlign代替Faster R-CNN中RoIpooling,利用插值算法確保被提名的ROI與特征圖按像素點(diǎn)一一對齊(pixel-to-pixel alignment),以此實(shí)現(xiàn)高精度的實(shí)例分割和目標(biāo)檢測。

2.2 ?基于回歸模型的卷積神經(jīng)網(wǎng)絡(luò)行人檢測技術(shù)

由于基于分類的卷積神經(jīng)網(wǎng)絡(luò)行人檢測技術(shù)的檢測精度很大程度受到選取候選區(qū)域的準(zhǔn)確性影響,并且整體模型運(yùn)算量較大,導(dǎo)致難以滿足實(shí)時(shí)檢測要求。對此,部分研究方向逐漸轉(zhuǎn)向用目標(biāo)位置信息回歸(邊框回歸)代替目標(biāo)檢測,即直接將整幅圖像作為候選區(qū)輸入卷積神經(jīng)網(wǎng)絡(luò),以預(yù)測目標(biāo)的位置信息。典型代表模型有:YOLO(You Only Look Once)[26-27]、SSD(Single Shot MultiBox Detector[28]等。

YOLO的提出,在提升行人檢測實(shí)時(shí)性的同時(shí),較Faster R-CNN大幅度降低了對圖像背景的誤檢率。如圖10所示,該方法直接將目標(biāo)檢測轉(zhuǎn)換為預(yù)測回歸問題,對縮放至統(tǒng)一尺寸(一般為)的輸入圖像進(jìn)行網(wǎng)格劃分后,使用單個(gè)卷積神經(jīng)網(wǎng)絡(luò)對每一個(gè)網(wǎng)格預(yù)測目標(biāo)邊框置信度及其分類概率,并合并相同類別且相交的目標(biāo)邊界框,以此快速預(yù)測目標(biāo)位置。雖然該模型的端對端檢測在一定程度上提高了檢測效率,但在小目標(biāo)行人以及間距較小的多目標(biāo)行人的檢測上效果不佳,且難以應(yīng)對行人目標(biāo)形變的情況,其泛化能力有待提高。后續(xù)研究者對YOLO模型進(jìn)行了改進(jìn),提出了YOLO v2和YOLO v3模型,進(jìn)一步提升算法的魯棒性。

SSD提供了一種可快速實(shí)現(xiàn)不同尺度目標(biāo)檢測的一步檢測法。相對于YOLO,SSD增加了額外的多個(gè)卷積層用于回歸每個(gè)網(wǎng)格中的預(yù)測目標(biāo)邊框及分類的置信度,并在回歸過程中,充分利用每個(gè)網(wǎng)格不同尺度的特征圖。因此,其對小目標(biāo)的檢測效果優(yōu)于YOLO。如圖11所示,該方法直接對輸入圖像進(jìn)行卷積特征提取,只需引入較小的卷積核即可進(jìn)行檢測。其中,大尺度的特征圖(卷積層靠前的特征圖)用于檢測小目標(biāo)[29],小尺度的特征圖(卷積層靠后的特征圖)用于檢測大目標(biāo),以此實(shí)現(xiàn)對不同目標(biāo)的檢測。但該模型在實(shí)際檢測過程中,同一行人目標(biāo)容易混入不同目標(biāo)檢測框中。

2.3 ?實(shí)驗(yàn)數(shù)據(jù)分析

如圖12和表1所示,基于卷積神經(jīng)網(wǎng)絡(luò)的行人檢測技術(shù)一定程度上優(yōu)化了對目標(biāo)特征提取和目標(biāo)分類方式。因此,在特征表達(dá)的上表現(xiàn)了較強(qiáng)的魯棒性和泛化性,實(shí)現(xiàn)了較好的檢測效果。

雖然兩類方法在行人大小、姿勢相對一致的場景中都能較好的檢測到目標(biāo),但在不同環(huán)境下,兩類方法表現(xiàn)出的泛化性仍有差異。如表1所示,采用數(shù)據(jù)集Pascal VOC(Pascal Visual Object Classification)的VOC2007、VOC2012進(jìn)行訓(xùn)練,基于

分類的卷積神經(jīng)網(wǎng)絡(luò)行人檢測技術(shù)Faster R-CNN因獲取候選區(qū)域耗時(shí)影響,檢測精度和速度不如基于回歸模型的卷積神經(jīng)網(wǎng)絡(luò)行人檢測技術(shù)YOLO和SSD。其中,YOLO的檢測效果要優(yōu)于Faster R-CNN和SSD。

3? 基于卷積神經(jīng)網(wǎng)絡(luò)的行人檢測算法存在的問題及發(fā)展方向

隨著深度學(xué)習(xí)方法在目標(biāo)檢測領(lǐng)域的廣泛應(yīng)用,基于卷積神經(jīng)網(wǎng)絡(luò)的行人檢測技術(shù)已成為計(jì)算機(jī)視覺領(lǐng)域研究熱點(diǎn),行人目標(biāo)識別檢測方面取得了不錯(cuò)的效果,但還有待改善的空間:一是對于尺寸較小的行人目標(biāo)以及行人目標(biāo)交叉遮擋嚴(yán)重情況下進(jìn)行檢測,其檢測精度仍需有待提高;二是CNN網(wǎng)絡(luò)模型越深,其計(jì)算復(fù)雜度和開銷越大,精度與速度無法完全平衡,算法無法遷移應(yīng)用到移動設(shè)備中,且對于自動駕駛等應(yīng)用場景,其實(shí)時(shí)性和有效性難以滿足;三是CNN網(wǎng)絡(luò)的參數(shù)設(shè)置如學(xué)習(xí)率,步長等依賴于實(shí)踐經(jīng)驗(yàn),訓(xùn)練可靠性不穩(wěn)定;四是行人檢測數(shù)據(jù)集的多樣性不足,人工采集樣本且手動標(biāo)注樣本耗時(shí)耗力;五是模型的訓(xùn)練計(jì)算量巨大,訓(xùn)練時(shí)間長,對計(jì)算機(jī)性能要求非常高。

針對上述卷積神經(jīng)網(wǎng)絡(luò)的行人檢測算法存在的問題以及最近研究趨勢,本文對今后基于深度學(xué)習(xí)的行人檢測算法進(jìn)行分析:(1)構(gòu)建魯棒性更強(qiáng)的網(wǎng)絡(luò)的架構(gòu)。比如結(jié)合傳統(tǒng)的檢測方法,利用上下文信息以及時(shí)空特性,提升對視頻序列中小目標(biāo)行人檢測的魯棒性。(2)研究輕量級網(wǎng)絡(luò)模型,利用深度分組卷積替代傳統(tǒng)卷積算法,減少計(jì)算量且提升檢測速度,將算法應(yīng)用于小型移動設(shè)備中,推動人工智能的發(fā)展。(3)構(gòu)建弱監(jiān)督/無監(jiān)督的行人檢測的模型,提升其檢測性能。

4 ?結(jié)語

本文概述了卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)框架,并對典型的基于卷積神經(jīng)網(wǎng)絡(luò)的行人檢測技術(shù)進(jìn)行了綜述和實(shí)驗(yàn)分析,以及分析當(dāng)前的算法存在的不足和指明今后發(fā)展的方向。

總體來看,隨著計(jì)算機(jī)硬件性能和軟件的不斷優(yōu)化升級,基于深度學(xué)習(xí)的行人檢測算法已經(jīng)成為主流研究方向,并且隨著訓(xùn)練數(shù)據(jù)的不斷擴(kuò)充,以及輕量級網(wǎng)絡(luò)模型的研究應(yīng)用,該類算法具有更廣泛的實(shí)際應(yīng)用價(jià)值,在目標(biāo)檢測與分類等人工智能的應(yīng)用中,會有更大的突破。

參考文獻(xiàn)

  1. Biswas S K, Milanfar P. Linear support tensor machine with LSK channels: pedestrian detection in thermal infrared images[J]. IEEE Transactions on Image Processing, 2017, PP(99): 1-1.

  2. Tan Y M, Luo X S, Xia H Y. Real-time and reliable human detection in clutter scene[C]//Eighth International Symposium on Multispectral Image Processing and Pattern Recognition, Wuhan, Hubei, China, 2013, PP(8919): 14-18.

  3. Viola P, Michael J, Daniel S. Detecting pedestrians using patterns of motion and appearance[C]//2003 IEEE International conference on Computer Vision(ICCV) IEEE, 2003, 63(2): 153-161.

  4. 楊龍文, 黃植功. 基于多特征融合的粒子濾波多目標(biāo)跟蹤算法研究[J]. 計(jì)算機(jī)應(yīng)用與軟件, 2015, 32(04): 225-229.

  5. 張利軍, 劉勍. 圖像弱小目標(biāo)檢測方法及其進(jìn)展[J]. 自動化與儀器儀表, 2015(04): 189-190+193.

  6. Hinton G E, Osindero S, Teh Y W. A fast learning Algorithm for deep belief nets[J]. Neural Computation, 2006, 18(7): 1527-1554.

  7. Lecun Y, Bottou L, Bengio Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11): 2278-2324.

  8. CuestaInfante A, García, Francisco J, Pantrigo J J, et al. Pedestrian detection with LeNet-like convolutional networks[J]. Neural Computing and Applications, 2017.

  9. Fukushima K. Neocognitron: a hierarchical neural network capable of visual pattern recognition[J]. Neural Networks, 1(2): 119-130.

  10. Li P X, Wang D, Wang L J, Lu H C. Deep visual tracking: Review and experimental comparison[J]. Pattern Recognition. 2018.

11.徐喆, 王玉輝. 基于候選區(qū)域和并行卷積神經(jīng)網(wǎng)絡(luò)的行人檢測[J]. 計(jì)算機(jī)工程與應(yīng)用, 2019, 55(22): 91-98+162.

12.張思宇, 張軼. 基于多尺度特征融合的小目標(biāo)行人檢測[J]. 計(jì)算機(jī)工程與科學(xué), 2019, 41(09): 1627-1634.

13.Pérez H, Siham T, Alberto L, Roberto O, Hamido F, Francisco H. Object detection binary classifiers methodology based on deep learning to identify small objects handled similarly: Application in video surveillance[J]. Knowledge-Based Systems, 2020.

Vaillant R, Monrocq C, Lecun Y. Original approach for the localisa-tion of objects in images[J]. Vision, Image and Signal Processing, 1994, 141(4): 245-250.

Krizhevsky A, Sutskever I, Hinton G. Imagenet classification with deep convolutional neural networks[J]. Advances in neural information processing systems, 2012, 25(2).

Girshick R, Donahue J, Darrell T, Malik J. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition. 2014: 580-587.

Ross Girshick. Fast R-CNN[C]//2015 IEEE International Conference on Computer Vision (ICCV). IEEE, 2016.

Ren S Q, He K M, Girshick R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2015, 39(6): 1137-1149.

張明軍, 俞文靜, 袁志, 等. 視頻中目標(biāo)檢測算法研究[J].軟件, 2016, 37(4): 40-45.

Bell S, Zitnick C L, Bala K, et al. Inside-Outside Net: detecting objects in context with skip pooling and recurrent neural networks[J]. 2015.

Lin T Y, Dollár, Piotr, Girshick R, et al. Feature Pyramid Networks for Object Detection[J]. 2016.

He Kaiming, Georgia Gkioxari, Piotr Dollar, et al. Mask R-CNN[C]//2017 IEEE International Conference on Computer Vision (ICCV). IEEE, 2017.

朱繁, 王洪元, 張繼. 基于改進(jìn)的Mask R-CNN的行人細(xì)粒度檢測算法[J]. 計(jì)算機(jī)應(yīng)用, 2019, 39(11): 3210-3215.

Le, Quoc V, Jaitly, Navdeep, Hinton, Geoffrey E. A simple way to initialize recurrent networks of rectified lnear Units[J]. computer science, 2015.

Long J, Shelhamer E, Darrell T. Fully Convolutional networks for semantic segmentation[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2014, 39(4): 640- 651.

基于YOLO網(wǎng)絡(luò)的行人檢測方法[J]. 高宗, 李少波, 陳濟(jì)楠, 李政杰. 計(jì)算機(jī)工程. 2018(05).

Redmon J, Divvala S, Girshick R, et al. You only look Once: unified, Real-Time Object Detection[J]. 2015.

Liu W, Anguelov D, Erhan D, et al. SSD: single shot multibox detector[C]//European conference on computer vision. Springer, Cham, 2016: 21-37.

吳亞熙, 岑峰. 基于卷積神經(jīng)網(wǎng)絡(luò)的多層級目標(biāo)檢測方法[J]. 軟件, 2018, 39(4): 164-169.

主站蜘蛛池模板: 72种姿势欧美久久久大黄蕉| 日韩激情成人| 67194亚洲无码| 久青草免费视频| 丰满人妻久久中文字幕| 爆操波多野结衣| av色爱 天堂网| 久久久久免费精品国产| 波多野结衣在线se| 久久a级片| a级毛片在线免费观看| 婷婷99视频精品全部在线观看 | 亚洲午夜国产片在线观看| 91久久青青草原精品国产| 精品精品国产高清A毛片| 国产午夜福利亚洲第一| 国产精品成人AⅤ在线一二三四| 2020最新国产精品视频| 久草视频福利在线观看| 香蕉久久国产精品免| 99尹人香蕉国产免费天天拍| 欧美午夜在线播放| 激情无码视频在线看| 亚洲成a人片| 一区二区三区精品视频在线观看| 欧美中文字幕在线播放| 亚洲床戏一区| 亚洲日本韩在线观看| a毛片在线播放| 99久久精彩视频| www.91中文字幕| 91久久精品国产| 欧美a网站| 欧美a在线看| 性69交片免费看| 亚洲青涩在线| 久久综合伊人 六十路| 亚洲乱码在线播放| 国产一区二区三区免费观看| 老司机aⅴ在线精品导航| 日韩精品亚洲精品第一页| 欧美精品高清| 国产久操视频| 中文字幕无码av专区久久| 在线精品亚洲国产| 国产又粗又猛又爽| 免费大黄网站在线观看| 午夜国产精品视频| 国产精品久久久精品三级| 亚洲欧美在线综合一区二区三区| 久久综合五月| 欧美精品亚洲日韩a| 91亚洲视频下载| 国产一区二区三区免费| 亚洲国产欧美中日韩成人综合视频| 久久久久国产一区二区| 成人午夜网址| 日韩麻豆小视频| 青草免费在线观看| 国产欧美视频在线观看| 久久综合色视频| 亚洲日韩精品欧美中文字幕| 狠狠亚洲五月天| 欧美一级在线| 老司机午夜精品视频你懂的| 亚洲第一视频区| 中文字幕第4页| 伊人婷婷色香五月综合缴缴情| 亚洲精品麻豆| 欧美亚洲国产一区| 91在线高清视频| 日本人妻丰满熟妇区| 日本一本在线视频| 国产日韩欧美在线视频免费观看| 国产AV无码专区亚洲A∨毛片| 一本久道热中字伊人| 亚洲精品无码AⅤ片青青在线观看| 熟妇人妻无乱码中文字幕真矢织江| 亚洲精品无码不卡在线播放| 久久久久夜色精品波多野结衣| 国产成人无码综合亚洲日韩不卡| 激情综合婷婷丁香五月尤物 |