999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學(xué)習(xí)的電器目標(biāo)檢測(cè)

2020-03-03 09:47:38陳從平李游徐道猛鄧揚(yáng)何枝蔚
機(jī)械 2020年1期
關(guān)鍵詞:區(qū)域檢測(cè)模型

陳從平,李游,徐道猛,鄧揚(yáng),何枝蔚

基于深度學(xué)習(xí)的電器目標(biāo)檢測(cè)

陳從平1,2,李游1,徐道猛1,鄧揚(yáng)1,何枝蔚1

(1.三峽大學(xué)機(jī)械與動(dòng)力學(xué)院,湖北 宜昌 443002;2.常州大學(xué) 機(jī)械工程學(xué)院,江蘇 常州 213164)

針對(duì)傳統(tǒng)目標(biāo)檢測(cè)算法無(wú)法自適應(yīng)提取目標(biāo)相應(yīng)特征并完成識(shí)別的現(xiàn)象,提出一種基于快速區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Faster R-CNN)模型的電器識(shí)別方法,其優(yōu)勢(shì)在于可以自適應(yīng)獲取不同場(chǎng)景下目標(biāo)的特征,避免由于人為設(shè)計(jì)目標(biāo)的特征而帶來(lái)的主觀(guān)因素影響,具有良好的魯棒性與準(zhǔn)確性。Faster R-CNN中首先通過(guò)建立區(qū)域建議網(wǎng)絡(luò)RPN(Region Proposal Network)代替Fast R-CNN中的Selective Search方法,得到建議位置后再進(jìn)行檢測(cè)。為了解決訓(xùn)練過(guò)程當(dāng)中正負(fù)樣本失衡問(wèn)題,在Faster R-CNN中引入了難負(fù)樣本挖掘策略,增強(qiáng)了模型的判別能力,提高檢測(cè)的精度。

目標(biāo)檢測(cè);識(shí)別;深度學(xué)習(xí);神經(jīng)網(wǎng)絡(luò)

隨著電器更新速度的加快,常見(jiàn)廢舊電器如洗衣機(jī)、冰箱等進(jìn)行拆解處理后回收利用,不僅可以降低污染,還可以提高經(jīng)濟(jì)效益。因此,開(kāi)展廢舊電器整機(jī)自動(dòng)化識(shí)別方法的研究具有重要的意義[1]。目前廢舊電器主要是通過(guò)純?nèi)斯げ鸾饣蛘吡魉€(xiàn)人工拆解,存在占地大、成本高、人員需求量大等缺點(diǎn)。為提高工作效率、降低成本,擬設(shè)計(jì)一條針對(duì)常見(jiàn)廢舊電器的綜合拆解線(xiàn),并制定好各自的拆解工藝,當(dāng)拆解線(xiàn)上料時(shí),系統(tǒng)自動(dòng)識(shí)別拆解線(xiàn)上來(lái)料電器的類(lèi)型,自動(dòng)選擇相應(yīng)的拆解工藝,實(shí)現(xiàn)一線(xiàn)多用、降低設(shè)備重復(fù)建設(shè)和減少人員數(shù)量的效果,提高效率并降低成本。

為實(shí)現(xiàn)以上自動(dòng)識(shí)別的功能,本文提出一種基于Faster R-CNN[2-4]的深度學(xué)習(xí)電器識(shí)別方法。相對(duì)于傳統(tǒng)目標(biāo)檢測(cè)方法如幀差法、光流法、背景減除法[5-6]這幾類(lèi),基于深度學(xué)習(xí)[7]的目標(biāo)檢測(cè)識(shí)別方法具有學(xué)習(xí)效率高、識(shí)別速度快且識(shí)別精確度高等特點(diǎn)。基于Faster R-CNN算法對(duì)電器目標(biāo)圖像進(jìn)行了目標(biāo)檢測(cè)識(shí)別,并在Faster R-CNN的訓(xùn)練中加入難負(fù)樣本挖掘策略,提高檢測(cè)的精度。

本文提出的方法大體思路如下,首先通過(guò)學(xué)習(xí)大量的電器(主要為電視機(jī)、冰箱、空調(diào)、電扇以及洗衣機(jī)五類(lèi))圖像訓(xùn)練集,訓(xùn)練獲得一個(gè)識(shí)別準(zhǔn)確率高的檢測(cè)模型,然后將電器圖像測(cè)試集輸入到該模型,得到可能的結(jié)果。如圖1所示。

圖1 識(shí)別流程

1 數(shù)據(jù)集的收集與制作

1.1 圖片收集

本文主相關(guān)數(shù)據(jù)集為常見(jiàn)電器的圖片。在實(shí)驗(yàn)中,自建電器數(shù)據(jù)集中共有800幅圖像,包含五類(lèi)電器,每類(lèi)大約160幅,獲取方式主要包括個(gè)人拍攝或者網(wǎng)上搜索,圖2為部分電器數(shù)據(jù)集圖片。

1.2 數(shù)據(jù)集的標(biāo)定

本文數(shù)據(jù)集參照VOC2007格式制作[8]。在收集好原始樣本圖片之后,首先將圖片格式統(tǒng)一為jpg,圖片名稱(chēng)統(tǒng)一命名為6位長(zhǎng)度的數(shù)字;然后進(jìn)行圖像中目標(biāo)的標(biāo)定,即在含有目標(biāo)的圖像中人工將目標(biāo)的外接矩形框標(biāo)定出來(lái),記錄目標(biāo)的位置以及類(lèi)別,以xml文件的形式保存下來(lái),xml文件中包含標(biāo)定目標(biāo)外接矩形框的所屬種類(lèi)、外接矩形框的左下角坐標(biāo)、右上角坐標(biāo) 以及圖片存儲(chǔ)的位置等信息,在后面的算法中將被調(diào)用;生成的.xml文件會(huì)保存在預(yù)先設(shè)定好的文件夾中,并與之前的圖片名稱(chēng)命名一致,一一對(duì)應(yīng)。

圖2 采集的部分樣本

2 Faster R-CNN

2.1 Faster R-CNN算法流程

經(jīng)過(guò)R-CNN(Region Convolutional Neural Network,區(qū)域卷積神經(jīng)網(wǎng)絡(luò))和Fast R-CNN的積淀,F(xiàn)aster R-CNN將生成候選區(qū)域、特征提取分類(lèi)等統(tǒng)一到一個(gè)框架中,所有計(jì)算均沒(méi)有重復(fù),完全在GPU中完成,大大提高了檢測(cè)速度[9]。Faster R-CNN可以看成“區(qū)域建議網(wǎng)絡(luò)(RPN)+Fast R-CNN”的融合,用RPN代替Fast R-CNN中的Selective Search方法[10]。經(jīng)過(guò)多次的迭代訓(xùn)練之后,RPN網(wǎng)絡(luò)和Fast R-CNN網(wǎng)絡(luò)可以很好地融合[11]在一起構(gòu)成一個(gè)統(tǒng)一的網(wǎng)絡(luò)。本文提出基于Faster R-CNN的電器目標(biāo)檢測(cè)識(shí)別方法,流程如圖3所示。

圖3 算法流程

在訓(xùn)練過(guò)程中,由于訓(xùn)練樣本庫(kù)不是特別大,為避免產(chǎn)生過(guò)擬合現(xiàn)象,采用遷移學(xué)習(xí)的思想對(duì)網(wǎng)絡(luò)進(jìn)行預(yù)訓(xùn)練。將已學(xué)習(xí)好的模型參數(shù)遷移到新的模型中,來(lái)幫助新的模型進(jìn)行訓(xùn)練,利用在其他大的數(shù)據(jù)集中預(yù)訓(xùn)練的模型參數(shù)中進(jìn)行網(wǎng)絡(luò)初始化,然后使用自制的數(shù)據(jù)集去進(jìn)行微調(diào)。本文中的Faster R-CNN基于在ImageNet預(yù)訓(xùn)練的模型參數(shù)進(jìn)行初始化,具體訓(xùn)練步驟如下:

(1)用ImageNet已預(yù)訓(xùn)練的網(wǎng)絡(luò)參數(shù)進(jìn)行初始化,訓(xùn)練RPN網(wǎng)絡(luò);

(2)用預(yù)訓(xùn)練好的網(wǎng)絡(luò)對(duì)Fast R-CNN進(jìn)行初始化,并用上一步中的RPN網(wǎng)絡(luò)提取候選區(qū)域,訓(xùn)練Fast R-CNN網(wǎng)絡(luò);

(3)用訓(xùn)練好的Fast R-CNN網(wǎng)絡(luò)重新初始化RPN的網(wǎng)絡(luò)參數(shù),保持Fast R-CNN網(wǎng)絡(luò)和RPN網(wǎng)絡(luò)中的共享卷積層不變,單獨(dú)訓(xùn)練RPN網(wǎng)絡(luò)特有的部分;

(4)用上一步訓(xùn)練后的RPN網(wǎng)絡(luò)初始化Fast R-CNN網(wǎng)絡(luò)參數(shù),單獨(dú)微調(diào)Fast R-CNN網(wǎng)絡(luò)特有的那一部分。

2.2 RPN(區(qū)域建議網(wǎng)絡(luò))

Faster R-CNN中選擇候選區(qū)域時(shí),使用了RPN網(wǎng)絡(luò),對(duì)于低于閾值的候選區(qū)域刪除,避免了特征提取和學(xué)習(xí)階段過(guò)多的重復(fù)階段,降低了計(jì)算復(fù)雜度。RPN輸出的是一組候選目標(biāo)框,這些目標(biāo)框?qū)?yīng)輸入電器圖像的可能位置。主要流程為首先輸入一張圖片,經(jīng)過(guò)一系列卷積、池化的操作后得到一個(gè)特征圖,將這個(gè)特征圖輸入到RPN網(wǎng)絡(luò)中后,該網(wǎng)絡(luò)會(huì)對(duì)圖像中的每個(gè)位置提供9個(gè)可能的候選窗口,包含3種面積(128×128、256×256、515×512)和3種比例(1:1、1:2、2:1),這九個(gè)窗口即為anchors,如圖4所示。

圖4 Anchor選取方式示意圖

選擇3×3卷積核對(duì)候選窗口的特征圖進(jìn)行卷積操作,輸出的每個(gè)特征向量將會(huì)分別輸入到cls layer全連接層和reg layer全連接層中,其中cls layer層用于判定該proposal是前景還是背景;reg layer層預(yù)測(cè)proposal的中心錨點(diǎn)對(duì)應(yīng)的proposal的坐標(biāo)、和寬、高、,如圖5所示。在RPN訓(xùn)練過(guò)程中,將候選區(qū)域與真實(shí)區(qū)域的重疊度作為標(biāo)準(zhǔn),通過(guò)非極大值抑制的方法來(lái)消除多余的候選窗口,最終每張圖片獲得300個(gè)候選區(qū)域以及和候選區(qū)域有關(guān)的四個(gè)值(候選區(qū)域的左上角和右下角坐標(biāo))。

圖5 區(qū)域特征卷積過(guò)程圖

RPN損失函數(shù)的計(jì)算如下。

本文給出下列樣本的標(biāo)定規(guī)則:

(1)將候選區(qū)域與真實(shí)區(qū)域的最大交并比IoU(Intersection over Union)大于0.7時(shí)對(duì)應(yīng)的anchor標(biāo)記為正樣本;

(2)將最大交并比IoU小于0.3時(shí)對(duì)應(yīng)的anchor標(biāo)記為負(fù)樣本[12]。

損失函數(shù)定義為:

式中:為候選框的索引;p為當(dāng)候選框?yàn)槟繕?biāo)時(shí)的概率,如果候選框?yàn)檎龢颖荆瑢?duì)應(yīng)的真實(shí)區(qū)域標(biāo)簽p=1,否則p=0;t為預(yù)測(cè)區(qū)域框的4個(gè)參數(shù)化坐標(biāo),t為真實(shí)區(qū)域框的坐標(biāo)向量;NN為歸一化參數(shù),在實(shí)驗(yàn)中分別為256和2400;為平衡因子,在實(shí)驗(yàn)中設(shè)為10。

2.3 Faster R-CNN模型的改進(jìn)

為了使Faster R-CNN網(wǎng)絡(luò)模型能更好地應(yīng)用于電器目標(biāo)檢測(cè)識(shí)別中,本文在訓(xùn)練過(guò)程中加入了難負(fù)樣本挖掘策略來(lái)增強(qiáng)模型的性能。Faster R-CNN模型在進(jìn)行訓(xùn)練時(shí),如果目標(biāo)區(qū)域占整張圖的比例過(guò)小,正、負(fù)樣本之間會(huì)產(chǎn)生失衡,負(fù)樣本的空間會(huì)過(guò)大,從而可能導(dǎo)致將所有樣本分為負(fù)樣本,造成難以收斂的情況。原始Faster R-CNN中mini-batch設(shè)置為2,會(huì)產(chǎn)生128個(gè)候選區(qū)域,然后輸入到后面的網(wǎng)絡(luò)中進(jìn)行分類(lèi)檢測(cè)。在實(shí)際情況中,產(chǎn)生的候選區(qū)域超過(guò)128個(gè),這些候選區(qū)域從RPN產(chǎn)生的所有候選區(qū)域中隨機(jī)選擇。由于是隨機(jī)挑選,可能會(huì)挑選到無(wú)效的負(fù)樣本,對(duì)模型的性能產(chǎn)生影響。Shrivastava等[13]提出的難負(fù)樣本挖掘策略可有效解決訓(xùn)練過(guò)程中正負(fù)樣本失衡的問(wèn)題。

本文在實(shí)驗(yàn)訓(xùn)練中加入難負(fù)樣本挖掘策略,訓(xùn)練無(wú)檢測(cè)目標(biāo)的負(fù)樣本集,并收集檢測(cè)到的矩形框,用這個(gè)錯(cuò)誤分類(lèi)的負(fù)樣本形成一個(gè)難負(fù)樣本集,最后將該難負(fù)樣本集加入到訓(xùn)練集中去重新訓(xùn)練模型[14]。將最后輸出得分高于0.7且與任意真實(shí)區(qū)域包圍盒的IoU值小于0.5的候選框作為難負(fù)樣本。通過(guò)引入本文提出的難負(fù)樣本挖掘策略可以增強(qiáng)模型的判別能力和魯棒性,提高檢測(cè)的精度。

3 實(shí)驗(yàn)與結(jié)果分析

實(shí)驗(yàn)環(huán)境為Ubuntu16.04系統(tǒng),用python編程語(yǔ)言在Tensorflow深度學(xué)習(xí)框架中搭建Faster R-CNN模型,本文提出基于Faster R-CNN的常用電器目標(biāo)檢測(cè)方法,對(duì)于原始的Faster R-CNN來(lái)說(shuō),加入了難負(fù)樣本挖掘策略。選擇了VGG16[15]網(wǎng)絡(luò),VGG16網(wǎng)絡(luò)相對(duì)于ZFNet[16]和LeNet[17]而言,擁有更深的網(wǎng)絡(luò)層,更有助于提取檢測(cè)的顯著特征,得到更好的檢測(cè)效果。

實(shí)驗(yàn)中在設(shè)置迭代次數(shù)為20 000次,并在config.py文件中修改相應(yīng)參數(shù),進(jìn)行多次實(shí)驗(yàn)。五類(lèi)電器的圖像中,每類(lèi)電器的訓(xùn)練圖像為160幅,并隨機(jī)抽取30%的圖像作為測(cè)試圖像,最終得到的部分預(yù)測(cè)圖像如圖6所示。

圖6 部分預(yù)測(cè)圖像

模型訓(xùn)練結(jié)果如圖7、表1所示。

表1中,IoU是指真實(shí)區(qū)域框與預(yù)測(cè)框的最大交并比,其中0.50:0.95是指取0.50~0.95之間的十個(gè)IoU值(步距為0.05)所對(duì)應(yīng)的平均準(zhǔn)確率的平均值;Area是指不同大小的目標(biāo);maxDetections是指允許網(wǎng)絡(luò)生成最大目標(biāo)框建議個(gè)數(shù)。

通過(guò)表1可知,當(dāng)取IoU值0.50~0.95中十個(gè)值的平均值時(shí),平均準(zhǔn)確率能達(dá)到72.5%,當(dāng)降低標(biāo)準(zhǔn),IoU值取0.50和0.75時(shí),平均準(zhǔn)確率可以分別達(dá)到93.7%和93.6%。由于檢測(cè)目標(biāo)電器的外接矩形框均為大面積目標(biāo),因此無(wú)法評(píng)估小面積目標(biāo)的檢測(cè)效果,故表中Area值為small時(shí),平均準(zhǔn)確率與平均召回率均為-100.0%。本文制作的數(shù)據(jù)集中,每張圖片上檢測(cè)目標(biāo)固定且數(shù)量不多,因此當(dāng)maxDetections從100降到10時(shí),平均召回率沒(méi)有改變,均為77.1%,說(shuō)明如果減少目標(biāo)框建議個(gè)數(shù),對(duì)檢測(cè)的準(zhǔn)確率來(lái)說(shuō)并無(wú)很大影響,所以可考慮通過(guò)減少模型中目標(biāo)框建議個(gè)數(shù)來(lái)提高檢測(cè)速率。

圖7 平均準(zhǔn)確率、平均召回率隨迭代次數(shù)變化的情況

表1 模型訓(xùn)練結(jié)果

每一類(lèi)電器的檢測(cè)結(jié)果如表2所示。

表2中的漏檢率是指在目標(biāo)圖像中沒(méi)有識(shí)別出檢測(cè)目標(biāo)的概率,而誤檢率則是指錯(cuò)把其他物體識(shí)別成檢測(cè)目標(biāo)的概率。由表2可知,電扇、洗衣機(jī)識(shí)別的準(zhǔn)確率最高,漏檢率最大的是空調(diào),誤檢率最高的是冰箱。

表2 檢測(cè)結(jié)果

圖8為誤檢情況的展示。

圖8 誤檢情況

圖8(a)中的誤檢是因?yàn)殡娨暀C(jī)與相框在大小、外觀(guān)輪廓等方面比較相似,因此模型的預(yù)測(cè)錯(cuò)誤;在圖8(b)中誤將洗衣機(jī)旁邊的柜子識(shí)別成了冰箱,其原因在于柜子與冰箱的外形構(gòu)造比較類(lèi)似,產(chǎn)生誤檢情況。

漏檢的原因在于拍攝時(shí)角度、光線(xiàn)等原因,對(duì)圖像質(zhì)量造成一定影響,使得在檢測(cè)過(guò)程中無(wú)法對(duì)檢測(cè)目標(biāo)進(jìn)行準(zhǔn)確識(shí)別;通過(guò)檢測(cè)結(jié)果與分析,本文將漏檢原因主要?dú)w納為了四個(gè)方面,如圖9所示。

4 結(jié)語(yǔ)

本文提出基于Faster R-CNN的電器目標(biāo)檢測(cè)識(shí)別方法,對(duì)常用的五種電器進(jìn)行了檢測(cè)識(shí)別。首先自制五類(lèi)電器數(shù)據(jù)集,然后輸入數(shù)據(jù)集通過(guò)卷積神經(jīng)網(wǎng)絡(luò)提取特征,并使用RPN網(wǎng)絡(luò)生成區(qū)域建議,區(qū)域網(wǎng)絡(luò)與目標(biāo)檢測(cè)網(wǎng)絡(luò)共享卷積特征,從而大大縮小了選擇候選區(qū)域的時(shí)間,提升了檢測(cè)效率。同時(shí)本文在訓(xùn)練過(guò)程中加入了難負(fù)樣本挖掘策略,在一定程度上加強(qiáng)了模型的魯棒性。通過(guò)學(xué)習(xí)研究,本文所用的網(wǎng)絡(luò)模型在常用電器的檢測(cè)中有較高的識(shí)別準(zhǔn)確率。本文的實(shí)驗(yàn)中,自制的數(shù)據(jù)集樣本量不夠大,對(duì)檢測(cè)結(jié)果會(huì)有影響;制作數(shù)據(jù)集時(shí),使用相關(guān)軟件進(jìn)行人工標(biāo)注也可能會(huì)對(duì)檢測(cè)結(jié)果產(chǎn)生一定影響,后續(xù)研究中可通過(guò)擴(kuò)大樣本庫(kù)等方法來(lái)進(jìn)一步提高準(zhǔn)確率。

[1]郭漢丁,張印賢,郭偉,等. 廢舊電器回收再生利用產(chǎn)業(yè)鏈價(jià)格協(xié)同機(jī)理研究[J]. 生態(tài)經(jīng)濟(jì),2013(2):110-112.

[2]Girshick R,Donahue J,Darrell T,et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]. Proceedings of the IEEE conference on computer vision and pattern recognition,2014.

[3]Girshick R. Fast R-CNN[C]. Proceedings of the IEEE conference on computer vision and pattern recognition,2015:1440-1448.

[4]Ren S,He K,Girshick R,et al. Faster R-CNN:Towards Real-Time Object Detection with Region Proposal Networks[C]. International conference on neural information processing systems,2015:1137-1149.

[5]張玲,陳麗敏,何偉,等. 基于視頻的改進(jìn)幀差法在車(chē)流量檢測(cè)中的應(yīng)用[J]. 重慶大學(xué)學(xué)報(bào)(自然科學(xué)版),2004(5):31-33,73.

[6]李超,熊璋,赫陽(yáng),等. 基于幀間差的區(qū)域光流分析及其應(yīng)用[J]. 計(jì)算機(jī)工程與應(yīng)用,2005(31):199-201,226.

[7]LeCun Y,Boser B E,Denker JS,et al. Handwritten digit recognition with a back-propagation network[C]. Advances in neural information processing systems,1989.

[8]張書(shū)洲. 基于深度學(xué)習(xí)的Logo檢測(cè)與識(shí)別技術(shù)研究[D]. 成都:電子科技大學(xué),2018.

[9]樂(lè)國(guó)慶. 基于車(chē)載視覺(jué)系統(tǒng)的目標(biāo)檢測(cè)優(yōu)化算法研究[D]. 北京:北京交通大學(xué),2017.

[10]鄒雷. 基于深度學(xué)習(xí)的車(chē)輛重識(shí)別方法[D]. 武漢:華中科技大學(xué),2017.

[11]Tao Kong,Anbang Yao,Yurong Chen,F(xiàn)uchun Sun. HyperNet: Towards Accurate Region Proposal Generation and Joint Object Detection[C]. Proceedings of the IEEE conference on computer vision and pattern recognition,2016.

[12]項(xiàng)陽(yáng). 基于深度學(xué)習(xí)的無(wú)人機(jī)影像車(chē)輛提取[D]. 贛州:江西理工大學(xué),2018.

[13]Shrivastava A, Gupta A, Girshick R. Training region-based object detectors with online hard example mining[C]. Proc of IEEE Conference on Computer Vision and Pattern Recognition,2016:761-769.

[14]王林. Faster R-CNN模型在車(chē)輛檢測(cè)中的應(yīng)用[J]. 計(jì)算機(jī)應(yīng)用,2018,38(3):666-670.

[15]Li Jianjun,Peng Kangjian,Chang Chinchen. An Efficient Object Detection Algorithm Based on Compressed Networks [J]. Symmetry,2018,10(7): 235.

[16]Zeiler M D,F(xiàn)ergus R. Visualizing and understanding convolutional networks [C]. Proc of European conference on Computer Vision,Cham:Springer International Publishing AG,2014:818-833.

[17]Haykin S,Kosko B. Gradient based learning applied to document recognition [J]. Proceedings of the IEEE,1998,86(11):2278-2324.

Electrical Target Detection Based on Deep learning

CHEN Congping1,2,LI You1,XU Daomeng1,DENG Yang1,HE Zhiwei1

( 1.College of Mechanical & Power Engineering, China Three Gorges University, Yichang 443002, China; 2.School of Mechanical Engineering, Changzhou University, Changzhou 213164,China )

Aiming at solving the problem that the traditional target detection algorithm cannot adaptively extract the corresponding features of the target, this paper proposes an electrical detection method based on Faster Region Convolutional Neural Network (Faster R-CNN) model. The advantage of the target detection and recognition method based on deep learning is that it can adaptively acquire the features of the target in different scenarios, avoiding the influence of subjective factors due to the characteristics of the artificial design target. This method has good robustness and accuracy. The method used in this paper establishes the Regional Proposal Network (RPN) to replace the selective search method in the original Fast R-CNN, which can obtains the recommended location before detecting it. In order to solve the problem of positive and negative sample imbalance during training, this paper introduces a hard example mining strategy in Faster R-CNN, which enhances the discriminative ability of the model and improves the accuracy of detection.

target detection;identify;deep learning;the neural network

TP183;V448.25+1

A

10.3969/j.issn.1006-0316.2020.01.001

1006-0316 (2020) 01-0001-08

2019-08-26

國(guó)家重點(diǎn)研發(fā)計(jì)劃課題(2018YFC1903101,廢線(xiàn)路板器件智能拆解和分選技術(shù)研究與示范);國(guó)家自然科學(xué)基金項(xiàng)目(51475266,流體微擠出/堆積制備組織工程支架過(guò)程形態(tài)調(diào)控機(jī)理研究)

陳從平(1976-),男,湖北荊州人,博士,教授,主要研究方向?yàn)闄C(jī)器視覺(jué)、深度學(xué)習(xí)、3D打印及機(jī)電系統(tǒng)控制。

猜你喜歡
區(qū)域檢測(cè)模型
一半模型
“不等式”檢測(cè)題
“一元一次不等式”檢測(cè)題
“一元一次不等式組”檢測(cè)題
重要模型『一線(xiàn)三等角』
重尾非線(xiàn)性自回歸模型自加權(quán)M-估計(jì)的漸近分布
3D打印中的模型分割與打包
小波變換在PCB缺陷檢測(cè)中的應(yīng)用
關(guān)于四色猜想
分區(qū)域
主站蜘蛛池模板: 激情五月婷婷综合网| 91久久夜色精品国产网站| 成人一区在线| 天堂岛国av无码免费无禁网站| 永久免费无码日韩视频| 亚洲国产精品无码AV| 天堂成人av| 国产美女主播一级成人毛片| 在线观看无码av免费不卡网站| 日本道中文字幕久久一区| 亚洲a级毛片| 欧美日韩北条麻妃一区二区| 国产午夜福利亚洲第一| 精品欧美视频| 亚洲三级色| 久久香蕉欧美精品| 国内精品视频在线| 欧美天堂在线| 无码'专区第一页| 99国产精品一区二区| 40岁成熟女人牲交片免费| 中文字幕在线一区二区在线| 免费国产小视频在线观看| 色香蕉网站| 午夜爽爽视频| 亚洲天堂区| 波多野结衣中文字幕一区二区| 另类专区亚洲| 国产男女免费完整版视频| 免费AV在线播放观看18禁强制| 国产高清免费午夜在线视频| 国产精品久久久久无码网站| 亚洲综合色区在线播放2019| 欧美成人精品在线| 91成人在线观看视频| 一本色道久久88综合日韩精品| 日韩精品一区二区三区免费在线观看| 日本一区二区不卡视频| 无码av免费不卡在线观看| 国产精品第页| 日韩中文精品亚洲第三区| 亚洲精品麻豆| 精品人妻无码中字系列| 亚洲欧洲日韩综合色天使| 亚洲大尺码专区影院| 国内黄色精品| 青青草国产一区二区三区| 亚洲精品制服丝袜二区| 在线看免费无码av天堂的| 国产欧美日韩在线一区| 亚洲无限乱码| 色综合综合网| 欧美中出一区二区| 成人毛片在线播放| 2020国产精品视频| 中国一级特黄大片在线观看| 在线观看免费人成视频色快速| 国产午夜精品鲁丝片| 色综合中文综合网| 超碰精品无码一区二区| 波多野结衣一区二区三区AV| 国产啪在线91| 麻豆精品国产自产在线| 久久精品亚洲热综合一区二区| 91精品国产综合久久不国产大片| 欧美成人精品一区二区| 国产jizzjizz视频| 人妻夜夜爽天天爽| 免费网站成人亚洲| 国产一级做美女做受视频| 亚洲欧美国产五月天综合| 狠狠亚洲五月天| 人人看人人鲁狠狠高清| 色色中文字幕| 欧美色视频在线| 国产Av无码精品色午夜| 欧美视频免费一区二区三区| 无码视频国产精品一区二区| 美女被操黄色视频网站| 激情六月丁香婷婷四房播| 久久鸭综合久久国产| 成年免费在线观看|