999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

復雜大田場景中麥穗檢測級聯(lián)網(wǎng)絡優(yōu)化方法

2020-02-02 04:08:34謝元澄于增源姜海燕梁敬東
農(nóng)業(yè)機械學報 2020年12期
關(guān)鍵詞:檢測模型

謝元澄 何 超 于增源 沈 毅 姜海燕,2 梁敬東

(1.南京農(nóng)業(yè)大學信息科學技術(shù)學院, 南京 210095; 2.南京農(nóng)業(yè)大學國家信息農(nóng)業(yè)工程技術(shù)中心, 南京 210095)

0 引言

小麥是我國的主要糧食作物,其產(chǎn)量關(guān)系到國家的糧食安全[1]。對小麥產(chǎn)量的精確估計可為政府在農(nóng)村土地政策、糧食價格等方面的宏觀調(diào)控提供支撐[2]。單位面積麥穗數(shù)直接體現(xiàn)小麥種植密度,是決定小麥產(chǎn)量的關(guān)鍵因素,其數(shù)據(jù)主要在田間獲取[3],快速準確地測量這一指標可以大幅提高監(jiān)測小麥生長性狀的效率,從而為小麥產(chǎn)量及其他表型性狀提供早期預測,有利于優(yōu)化和加速育種進程。近年來,傳統(tǒng)圖像分割方法廣泛應用于農(nóng)業(yè)領(lǐng)域,基于形狀[4]、顏色[5-9]或者紋理[5-7]特征對小麥RGB圖像進行特征提取,并通過機器學習方法實現(xiàn)麥穗檢測計數(shù),在一定程度上提高了小麥估產(chǎn)效率。以上方法僅適用于灌漿期[8]等小麥生長的部分時期,這些時期小麥圖像各區(qū)域像素之間具有明顯的差異性。當麥穗存在粘連或者長勢不一時,僅僅依靠基于人工設(shè)定并提取特征的方法,其魯棒性較低。此外,特征提取方法流程也較為復雜,且對圖像采集設(shè)備具有較高的要求[10-12]。

計算能力的進步以及大量標記圖像的可用性促進了基于卷積神經(jīng)網(wǎng)絡(Convolutional neural network, CNN)的機器學習方法在計算機視覺領(lǐng)域的應用和發(fā)展[13]。在稻穗檢測計數(shù)研究中[14-16],CNN具有良好的檢測效果,但存在流程復雜、算法耗時且受噪聲干擾影響較大的問題。在將深度學習方法應用于麥穗檢測計數(shù)的研究中,張領(lǐng)先等[17]利用CNN結(jié)合非極大值壓縮(Non-maximum suppression, NMS)的方法進行冬小麥麥穗檢測計數(shù),但需要預先對小麥圖像進行手動分割,且對麥穗重疊、目標較小等復雜情況下的檢測未作說明。另外,使用Faster R-CNN等單一模型對麥穗進行檢測時[18-19],由于訓練過程中IOU(Intersection over union)閾值設(shè)定不規(guī)范以及訓練和預測時的IOU閾值不匹配,容易造成模型過擬合,導致對小麥圖像細節(jié)特征提取不足、檢測性能大幅下降。

在復雜大田環(huán)境中,小麥麥穗、麥葉與莖稈之間的顏色混疊程度極高,葉片、雜草、麥芒與麥穗之間存在嚴重的遮擋現(xiàn)象,光照強度不均勻易形成反光和逆光,同時還存在部分尺寸較小的目標隱藏在背景相似的環(huán)境中的問題。為有效解決復雜場景下的麥穗檢測計數(shù)問題,本文提出一種基于深度卷積神經(jīng)網(wǎng)絡的高效麥穗自動計數(shù)方法(FCS R-CNN),以Cascade R-CNN[20]為基本檢測模型,加入特征金字塔網(wǎng)絡,通過IOU閾值級聯(lián)的方式進行階段融合,并在訓練過程中對困難樣本進行重學習。利用改進的支持向量機(Support vector machine,SVM)[21]分類器對所有檢出框進行二分類,將FCS R-CNN方法與現(xiàn)場人工計數(shù)進行比較,以評估該方法在真實場景下的適用性。

1 樣本采集

試驗所用小麥圖像于2018年6月4日在南京市江寧區(qū)(118°55′28.9236″ E,31°53′3.3432″ N)4塊正常條播小麥種植園獲取,小麥品種為“寧麥8號”,小麥處于成熟期。圖像采集設(shè)備為美國蘋果公司生產(chǎn)的iPhone 7型智能手機,1 200萬像素。拍攝期間天氣晴朗,沒有大風,圖像采集于11:00—14:00和16:00—19:00兩個時間段,光照強度不同,且拍攝角度隨機,大部分圖像采集角度小于等于45°,涵蓋了田間麥穗計數(shù)作業(yè)時所有可能的環(huán)境條件。拍攝位置距小麥冠層頂部約1 m,每塊小麥田約獲取300幅圖像,共獲取1 079幅分辨率為4 032像素×3 024像素的小麥圖像,部分小麥圖像如圖1所示。

圖1 大田環(huán)境下小麥圖像Fig.1 Wheat images in field environment

將采集到的1 079幅小麥圖像劃分為訓練集863幅,測試集216幅,并對數(shù)據(jù)集進行5折交叉驗證。然后使用開源圖像標注工具LabelImg進行人工圖像標注。對標注完成的圖像數(shù)據(jù)進行分析,共標注麥穗邊界框(Bounding box,Bbox)56 182個,其中訓練集45 011個,測試集11 171個。然后將原始小麥圖像尺寸修改為1 333像素×800像素,并輸入到CNN網(wǎng)絡中提取特征,生成特征映射圖。

2 級聯(lián)網(wǎng)絡優(yōu)化

2.1 模型整體框架與改進

第1階段采用改進型Cascade R-CNN作為基本檢測模型,第2階段對模型中S0階段與S3階段進行基于IOU閾值的級聯(lián)提升檢出率,最終接入一個基于圓形LBP紋理特征訓練的SVM分類器,濾除誤檢框,得到最終的算法框架FCS R-CNN(圖2)。

圖2 FCS R-CNN網(wǎng)絡模型結(jié)構(gòu)圖Fig.2 Structure diagram of FCS R-CNN

Cascade R-CNN是基于Faster R-CNN的網(wǎng)絡框架(圖2)。Faster R-CNN是由HE等[22]提出的目標檢測網(wǎng)絡,作為R-CNN[23]與Fast R-CNN[24]網(wǎng)絡的改進版本,在結(jié)構(gòu)上拋棄了傳統(tǒng)的滑動窗口和選擇性搜索(Selective search)候選框生成方法,引入?yún)^(qū)域生成網(wǎng)絡(Region proposal network,RPN),并與Fast R-CNN共享特征提取網(wǎng)絡,最終在檢測速度和平均精度上有較大提高。Cascade R-CNN對Faster R-CNN網(wǎng)絡中的RPN網(wǎng)絡生成的包圍框使用三步級聯(lián),IOU閾值分別設(shè)定為0.5、0.6、0.7,級聯(lián)的過程不斷改變候選框的分布,并且通過調(diào)整閾值的方式重采樣,采樣后的每個檢測器都可以更好地適應當前閾值,提升檢測性能。

為使網(wǎng)絡能夠克服復雜背景信息的干擾,針對Cascade R-CNN中的Faster R-CNN子模塊,選取深度殘差神經(jīng)網(wǎng)絡(Residual neural network,ResNet)[25]作為基本的特征提取網(wǎng)絡,通過引入特征金字塔網(wǎng)絡(Feature pyramid network,F(xiàn)PN)[26]和在線難例挖掘(Online hard example mining,OHEM)[27]技術(shù)進行改進,改進結(jié)果如圖3所示。

另外,對Cascade R-CNN模型進行部分優(yōu)化,針對原始網(wǎng)絡中采用的批量歸一化(Batch normalization,BN)方法[28]受到Batch Size影響導致網(wǎng)絡性能下降的問題,引入群組歸一化(Group normalization,GN),將通道劃分成組,然后在每組中計算用于歸一化的均值和方差。另外,針對相鄰麥穗干擾導致的漏檢問題,選取Soft-NMS算法代替?zhèn)鹘y(tǒng)的非極大值壓縮(Non-maximum suppression,NMS)[29]方法對特征圖中提取的候選感興趣區(qū)域(Regions of interest,ROI)進行修剪,獲取候選框并輸入ROI pooling層進行池化操作。為了區(qū)分于最終的檢測模型FCS R-CNN,并方便在試驗結(jié)果中對FCS R-CNN模型效果進行遞進式的驗證,將基于Cascade R-CNN優(yōu)化后的第1階段模型稱作C R-CNN。

2.2 特征金字塔網(wǎng)絡

引入特征金字塔網(wǎng)絡提升模型對視覺場景中尺寸較小目標的檢測精度。LIN等[26]提出的特征金字塔網(wǎng)絡作為一種高效的CNN特征提取方法,由自下而上路徑、自上而下路徑以及橫向連接組成,主要解決物體檢測時多尺度情形下存在的小目標漏檢問題,通過改變網(wǎng)絡連接,在不增加原有模型計算量的前提下可大幅度提升小物體檢測的性能。如圖3所示,F(xiàn)PN使用一個1×1的卷積過濾器將C5的通道深度降至256維,得到特征圖M5。接著應用一個3×3的卷積得到特征圖P5,P5正是用于目標預測的第一個特征映射。向上進行最近鄰下采樣(×2)得到P6,然后沿著自頂向下的路徑往下,對之前的特征提取層進行最近鄰上采樣(×2)。同時,F(xiàn)PN對自底向上通路中的相應特征映射應用1×1卷積,然后進行相加。最后同樣應用3×3卷積得到目標檢測的特征映射。這一過濾器減輕了上采樣的混疊效應。

圖3 改進的Faster R-CNN子模塊Fig.3 Improved Faster R-CNN submodule

2.3 在線難例挖掘

對于復雜場景中的麥穗檢測而言,存在大量特征相似的正負樣本,這些樣本在訓練過程中造成了較大干擾,導致模型預測誤差放大,因此引入在線難例挖掘技術(shù),針對性地解決這一問題。OHEM在訓練過程中會自動選擇那些困難樣本加入訓練,這樣使得訓練更加有效和快速,同時能提升網(wǎng)絡的性能。如圖3所示,將Faster R-CNN分為2個階段,第1階段包括通過特征提取網(wǎng)絡對輸入圖像進行特征提取并輸入ROI pooling層,該階段對輸入圖像進行特征提取并收集輸入的特征圖像,提取目標特征圖(Proposal feature maps)。第2階段包括ROI pooling層之后的所有層。將第2階段作為一個單獨的ROI網(wǎng)絡,接著將該網(wǎng)絡分成2個網(wǎng)絡,ROI網(wǎng)絡1是只讀的,對所有樣本進行前向傳播得到所有ROI的損失值,接著難例取樣器(Hard ROI sampler)根據(jù)損失值排序,利用NMS選出K個難例(Hard example),并把這些難例作為ROI網(wǎng)絡2的輸入,ROI網(wǎng)絡2對ROI進行進一步的前向和反向傳播,計算K個難例的損失值,并將梯度反向傳播,從而更新網(wǎng)絡參數(shù)。通過損失值提高難例的比例,網(wǎng)絡因此可以對難例進行多次訓練,提升模型準確率。

3 試驗與結(jié)果分析

3.1 試驗設(shè)置

對采集的1 079幅小麥數(shù)據(jù)進行訓練。軟件環(huán)境為pytorch1.0.0、CUDA 9.0、CUDNN7.6.1、Ubuntu 16.04 LTS。訓練的硬件環(huán)境為Intel Xeon E5-2650 v3 CPU,128 GB存儲器,NVIDIA GTX Titan XP*2 GPU。利用隨機梯度下降法(Stochastic gradient descent,SGD)訓練網(wǎng)絡,初始學習率(Learning rate)設(shè)置為0.001,動量因子(Momentum)設(shè)置為0.9,權(quán)重衰減系數(shù)( Weight decay)設(shè)置為0.000 1,迭代次數(shù)(Epoch)設(shè)置為200。

3.2 麥穗檢測試驗

為驗證FCS R-CNN模型在復雜場景下的麥穗檢測效果,針對FCS R-CNN中的2個階段,分別設(shè)計兩部分試驗。試驗1對比Cascade R-CNN和C R-CNN兩種算法的檢測結(jié)果,驗證級聯(lián)網(wǎng)絡優(yōu)化方法對Cascade R-CNN模型檢測性能的提升效果。試驗2展示FCS R-CNN的部分麥穗檢測結(jié)果,在C R-CNN基礎(chǔ)上,利用兩階段級聯(lián)并串聯(lián)SVM分類器的結(jié)構(gòu)改進方法,驗證模型的性能提升效果。

圖4 Cascade R-CNN與C R-CNN檢測結(jié)果對比Fig.4 Comparison of Cascade R-CNN and C R-CNN detection results

試驗1隨機選取兩幅測試集圖像(圖A、B)分別輸入到Cascade R-CNN與C R-CNN網(wǎng)絡,進行麥穗檢測效果對比,具體的識別結(jié)果如圖4所示。對圖4c、4d的局部進行放大便于觀察。通過圖4可以明顯看出,C R-CNN檢出大量Cascade R-CNN漏檢的麥穗目標(圖中黃色框標記)。圖4c中4號、圖4d中1號藍色框標出的是C R-CNN誤檢的目標,該目標與正樣本擬合程度較高,但是屬于麥芒,因此屬于假陽性(False positive,F(xiàn)P)。利用Cascade R-CNN網(wǎng)絡檢測驗證集,共檢測8 523個麥穗目標,并存在大量假陰性(False negative,F(xiàn)N)目標,圖5給出了部分假陽性和假陰性樣例,其中假陰性目標周圍大多有大量麥芒、麥葉等遮擋物。對于漏檢目標(假陰性),將NMS改為Soft-NMS來減少相鄰目標重疊導致的冗余框誤刪,可以提升相鄰較近目標的檢測率,兩種方法對比結(jié)果如圖6所示。

圖5 部分假陽性和假陰性的樣例Fig.5 Examples of partial false positives and false negatives

圖6 Soft-NMS與NMS算法結(jié)果對比Fig.6 Comparison of Soft-NMS and NMS algorithm results

圖7 FCS R-CNN部分檢測結(jié)果Fig.7 Partial detection results of FCS R-CNN

試驗2針對上述廣域復雜環(huán)境下生長的小麥,利用FCS R-CNN對麥穗進行檢測。圖7展示了部分檢測結(jié)果,圖中綠框表示C R-CNN的檢測結(jié)果,藍框表示階段級聯(lián)后增加的檢出框。當麥穗密度較高時,大量麥芒遮擋周圍麥穗,也存在部分麥穗重疊現(xiàn)象,可以看出,F(xiàn)CS R-CNN能夠?qū)崿F(xiàn)多種復雜情形下的麥穗檢測,并且相對于C R-CNN有了更進一步的性能提升。

3.3 結(jié)果分析

對圖4中兩種算法結(jié)果的對比分析可知,復雜場景是影響麥穗檢測精度、造成假陰性目標產(chǎn)生的主要原因,具體包括:①小麥長勢不一,大量麥芒、麥葉的存在嚴重阻礙了麥穗識別(圖4c中1、5、6號框,圖4d中4、5號框)。②背景中存在與麥穗顏色相近的雜草等類似物,試驗前未對雜草進行單獨標注,引起干擾,從而影響麥穗檢測。③部分目標由于在視覺場景中顯示尺寸較小且密集,在背景相似的環(huán)境中,此類小尺寸目標極易受到環(huán)境噪聲的干擾(圖4c中2號框,圖4d中2、5號框)。④麥穗之間存在相互重疊遮蓋現(xiàn)象,不能正確識別(圖4c中3號框,圖4d中3、4號框)。

對圖7中FCS R-CNN的檢測結(jié)果進行分析可知,C R-CNN相對于FCS R-CNN的漏檢麥穗(圖中藍色框),是由Cascade R-CNN本身存在缺陷導致,這可能與IOU閾值的提高有關(guān)。Cascade R-CNN由3個檢測模型組成,每個檢測模型都基于不同IOU閾值來區(qū)分正負樣本,前一個檢測模型的輸出為后一個檢測模型的輸入,因此,在閾值提高的過程中,閾值較低時或處于兩個閾值中間的正樣本會出現(xiàn)遺漏,導致網(wǎng)絡在訓練過程中遺失掉部分候選區(qū)域(Region proposal)。

為了驗證FCS R-CNN模型與單一網(wǎng)絡模型的性能差異,選取相同樣本數(shù)據(jù)集分別用FCS R-CNN、C R-CNN、Cascade R-CNN、Faster R-CNN 4種模型進行訓練并將訓練后的模型應用于真實環(huán)境下的大田麥穗計數(shù)中,對模型訓練結(jié)果使用準確率(Accuracy)、精度(Precision)、召回率(Recall)和平均精度(Average precision,AP)對試驗結(jié)果進行綜合評價,計算公式為

(1)

(2)

(3)

(4)

式中Acc——準確率

P——精度

R——召回率

AP——平均精度

TP——真陽性,圖像中正確檢測出的目標麥穗數(shù)量

FP——假陽性,圖像中將背景誤識別為麥穗的數(shù)量

TN——真陰性,圖像中檢測出的負樣本數(shù)量

FN——假陰性,圖像中漏檢的麥穗數(shù)量

表1給出了4種算法在相同測試集下的檢測結(jié)果。IOU為0.5時 FCS R-CNN的平均精度取得最大值,比Cascade R-CNN高29.98個百分點,比Faster R-CNN高48.09個百分點。圖8給出了其中3種算法精度與召回率的關(guān)系曲線,用來權(quán)衡準確率和召回率的關(guān)系。由圖8可以看出,F(xiàn)CS R-CNN在召回率小于80%時精度維持在較高水平,高于另外兩種算法,進一步證明FCS R-CNN性能上的優(yōu)越性。FCS R-CNN的圖像檢測速度達到3 f/s,能夠滿足大田麥穗自動計數(shù)的需求。

表1 4種算法性能對比Tab.1 Performance comparison of four algorithms

圖8 FCS R-CNN精度與召回率關(guān)系曲線Fig.8 Relationship curves of precision and recall of FCS R-CNN

Cascade R-CNN、C R-CNN與FCS R-CNN 3種模型的麥穗計數(shù)結(jié)果如表2所示。從表2中可以看出,應用FCS R-CNN模型的麥穗統(tǒng)計精度普遍高于95%,在麥穗較少的圖像中能實現(xiàn)全檢。216幅小麥圖像中,共標注11 171個麥穗,共檢出10 373個麥穗,檢測精度達到92.9%。

表2 人工計數(shù)與算法計數(shù)的麥穗統(tǒng)計對比Tab.2 Comparison of manual counting and algorithm counting of wheat ear

不同算法統(tǒng)計結(jié)果表明,單一級聯(lián)模型的識別結(jié)果容易受到IOU的影響,這是由于IOU提升會導致部分正樣本遺漏,造成正負樣本失衡,從而影響麥穗識別效果。面對復雜場景中麥芒、枯葉、雜草等環(huán)境噪聲的干擾,會出現(xiàn)大量漏檢的麥穗,通過模型階段級聯(lián)的方法,可以進一步降低漏檢率。

4 結(jié)論

(1)針對復雜場景中麥穗檢測精度較低的問題,提出一種基于深度卷積神經(jīng)網(wǎng)絡的麥穗計數(shù)方法(FCS R-CNN)。試驗表明,在單一網(wǎng)絡模型的基礎(chǔ)上,對網(wǎng)絡進行結(jié)構(gòu)改進可以有效提高對復雜目標的檢測性能。FPN的加入提升了對淺層細節(jié)特征的利用率,OHEM技術(shù)可以降低復雜背景信息對目標分割的干擾,并提高對小目標的檢測精度;FCS R-CNN在大田環(huán)境下對麥穗的檢測精度達到92.9%,單幅麥穗圖像的檢測時間為0.357 s,具有較強的實時性和魯棒性。

(2)FCS R-CNN通過兩階段級聯(lián)并串聯(lián)SVM分類器對結(jié)果進行復驗,能夠有效解決因IOU閾值設(shè)定不規(guī)范而導致模型準確率下降的問題。算法的平均精度達到了81.22%,比Cascade R-CNN模型高21.76個百分點。IOU為0.5時平均精度為90.10%。

猜你喜歡
檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
3D打印中的模型分割與打包
小波變換在PCB缺陷檢測中的應用
主站蜘蛛池模板: 中文字幕在线一区二区在线| 亚洲一级毛片在线观播放| 国产精品三级av及在线观看| 欧美成人日韩| 国产在线精品99一区不卡| 欧美成人区| 免费在线视频a| 香蕉在线视频网站| 日本午夜三级| 97影院午夜在线观看视频| www亚洲天堂| 毛片基地美国正在播放亚洲 | 激情在线网| 天天摸夜夜操| 黄色网址免费在线| 9999在线视频| 久久精品中文字幕免费| 免费a级毛片18以上观看精品| 凹凸国产熟女精品视频| 国产美女一级毛片| 青草精品视频| 国产成人a在线观看视频| 999精品色在线观看| 91亚洲精选| 女人毛片a级大学毛片免费| 久久91精品牛牛| 色综合激情网| 日韩欧美国产精品| 国产经典在线观看一区| 亚洲永久精品ww47国产| 国产系列在线| 亚洲国产精品一区二区第一页免| 日韩毛片基地| 欧美午夜视频在线| 国产在线观看一区精品| 国产激情影院| 日本欧美一二三区色视频| 国产专区综合另类日韩一区| 国产精品3p视频| 中文字幕色在线| 欧美成人二区| 国产免费看久久久| 日韩国产欧美精品在线| 网久久综合| 色亚洲成人| 青草视频网站在线观看| 国内精品久久人妻无码大片高| 亚洲一区波多野结衣二区三区| 尤物视频一区| 午夜欧美在线| 狠狠色噜噜狠狠狠狠奇米777| 国产二级毛片| 欧美视频免费一区二区三区| 黄色网址手机国内免费在线观看| 精品中文字幕一区在线| 五月激情婷婷综合| 精品在线免费播放| 亚洲国产综合精品一区| jijzzizz老师出水喷水喷出| 中文字幕永久在线看| 在线不卡免费视频| 亚洲av无码成人专区| 亚洲IV视频免费在线光看| 五月六月伊人狠狠丁香网| 黄色在线不卡| 波多野结衣一区二区三视频| 中文字幕无码av专区久久| 国产成人h在线观看网站站| 高清久久精品亚洲日韩Av| 精品成人一区二区三区电影| 亚洲精品无码抽插日韩| 国产精品lululu在线观看| 全午夜免费一级毛片| 久久亚洲高清国产| 熟妇丰满人妻| 久青草网站| 亚洲综合18p| 国产在线专区| 久久青草免费91线频观看不卡| 国产精品对白刺激| 亚洲Va中文字幕久久一区| 亚洲中文字幕在线观看|