999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的果蠅識別

2021-09-23 10:51:03楊昊傅鈺雯楊健晟
河南科技 2021年13期
關鍵詞:深度學習

楊昊 傅鈺雯 楊健晟

摘 要:識別果蠅并根據其數量變化總結出果蠅暴發規律,在其暴發期到來前采用相應手段進行誘殺,是有效加強樹莓蟲害防控的綜合措施。但是,由于果蠅軀體小,人工識別難度大、耗時長、效率低,因此本文提出一種基于深度學習的果蠅識別方法。該方法采用YOLO v3目標檢測模型,通過建立果蠅數據集對模型進行訓練。測試結果表明,該方法對果蠅的平均識別精度為95.23%,滿足果蠅識別的要求。

關鍵詞:計算機視覺;果蠅識別;深度學習;YOLO v3

Abstract: Drosophila recognition and its population statistic analysis is a useful method for drosophila breakout modeling. Then using corresponding methods to trap and kill drosophila before the outbreak period is an effective comprehensive control measure for raspberry pest control. However, due to the small size of drosophila, manual recognition is difficult, time-consuming, and inefficient. Therefore, this paper proposed a drosophila recognition method based on deep learning. This method uses the YOL0 v3 target detection model, and trains the model by establishing a drosophila data set. The test results show that the average recognition accuracy is 95.23%, which meets the requirements for drosophila recognition.

Keywords: computer vision; drosophila recognition; deep learning; YOLO v3

樹莓果實具有高營養及高經濟價值,但易受蟲害影響。其中,果蠅影響尤甚:雌果蠅成蟲會刺破果皮,產卵于樹莓果實內部,卵孵化后幼蟲蛀食新鮮樹莓,造成樹莓加速腐敗[1]。準確掌握果蠅數量是防害的首要條件。目前,果蠅防治主要依靠田間粘蟲板誘集統計的調查方法,通過統計粘蟲板上果蠅數量,可推測出該區域實際的果蠅數量,從而預測果蠅暴發期,實現及時誘殺。但目前,粘蟲板統計方法仍然依靠人工識別,由于粘蟲板上蟲的種類多,果蠅體積相對較小,因此混雜其中難以辨認,依靠人工辨識粘蟲板上的果蠅難度大、效率低,急需一種更加精確且快速的方法對粘蟲板上的果蠅進行識別。

計算機視覺作為可替代人眼識別的技術已被應用于昆蟲識別與檢測[2]。與人工識別相比,計算機視覺識別速度更快。彭瑩瓊等提出使用BP(Back Propagation)神經網絡對果蠅翅脈特征進行識別,從而辨識果蠅[3]。陳彥彤等提出基于深度神經網絡的蠅類面部識別[4]。但目前,對果蠅的研究主要集中在從圖像數據中識別特定特征,這類研究需要高分辨率果蠅圖像作為支撐。但是,田間圖像采集分辨率較低,這類低分辨率且像素占比少的果蠅識別至今未見相關報道。

深度學習對特征不明顯的學習建模具有較好的效果。目前,基于深度學習的目標檢測算法主要分為雙步目標檢測算法和單步目標檢測算法。雙步目標檢測算法如Faster R-CNN,通常先使用區域候選網絡來提取候選目標信息,進而利用檢測網絡完成目標識別。單步目標檢測算法如YOLO、SSD等,是端到端檢測算法,可直接利用網絡對目標進行檢測[5]。在實際應用過程中,單步檢測算法具有更快的檢測速度。因此,本研究基于深度學習對果蠅進行識別,通過采集果蠅圖像建立數據樣本庫,搭建目標檢測模型,并對其進行訓練,最終完成對果蠅圖片的識別。

1 研究方案

本文以單步目標檢測算法YOLO v3為基礎,對粘蟲板上的果蠅進行識別。先采集果蠅圖像數據,并對數據集中果蠅區域逐一標注作為模型輸入。其中,果蠅數據采用樹莓蟲害常見的黑腹果蠅,通過收集果蠅幼卵,在培養皿中培養至成熟期后,將其放置到粘蟲板上,并對其進行圖像數據采集。之后,利用深度學習算法搭建模型,將標注好的果蠅數據集導入構建的模型進行訓練,最后通過調整參數尋優獲得最優模型。其中,深度學習模型采用YOLO v3。與傳統YOLO算法相比,該模型改進了網絡結構,并利用多尺度特征進行對象檢測,使用logistic回歸分析代替softmax邏輯回歸進行對象分類。YOLO v3為端到端的目標檢測算法,首先產生候選區域生成相應的錨框及預測框,將原圖劃分為多個小方塊區域,中心點為小方塊區域中心,在每個小方塊區域生成三種形狀錨框覆蓋整張圖片。而預測框可看作在錨框上進行微調,可調整中心坐標和寬度、高度。根據候選框計算生成相應預測框。通過真實框找到真實框中心點所在的小方塊區域,基于該小方塊可生成三個錨框,將這三個錨框與真實框進行對比,找出最符合的錨框。最后,利用卷積神經網絡進行特征提取,建立損失函數,多層級檢測,開啟端到端訓練,利用多層級預測輸出。

2 數據采集及數據集構建

2.1 數據采集

樣本為黑腹果蠅,數據來自用6支培養皿培養的果蠅幼卵。以培養皿內果蠅飛行為其成熟標志,當培養皿內有5只以上成熟果蠅后放出果蠅至粘蟲板上。藍色粘蟲板對果蠅有較好的引誘性,為了更貼近實際田間材料,本次樣本制作使用藍色粘蟲板作為襯底。數據采用iPhone XS專業模式進行定參數拍攝,其中焦距為4.25 mm,光圈為f/1.8,曝光時間為1/100 s,圖像尺寸為3 024×3 024。共采集466張果蠅圖片,采集的典型果蠅圖像如圖1所示。

2.2 數據集建立

本次YOLO v3數據集格式采用VOC格式,使用軟件LabelImg對圖像進行標注。標注時,為避免富有特征的部分被遺漏,框選果蠅完整軀體進行標注。本次實驗只有果蠅一個類,將其命名為drosophila,標注完成后自動生成xml文件,其中包括圖像名、圖像路徑、標注框坐標等信息。對果蠅的標注完成后,結果如圖2所示。為了看清標注效果,文中圖示進行了放大處理。所有果蠅樣本標注完成后,通過腳本文件自動分成訓練集和測試集,設置整體數據的95%作為訓練集,5%作為測試集。

3 YOLO v3模型的建立、訓練與測試

3.1 YOLO v3模型搭建

本文采用YOLO v3網絡,共106層,由殘差模塊、卷積層、上采樣層和YOLO層構成。殘差模塊解決深度神經網絡退化問題;卷積層用以提取圖像特征;上采樣層進行特征融合;YOLO層對網絡提取信息解碼。其中,骨架網絡采用Darknet53網絡結構,此網絡為全卷積網絡,融合ResNet殘差網絡,為防止有效信息丟失,用向量卷積運算步長來降采樣,以降低池化帶來的負面效果。Darknet53網絡結構中采用了大量3×3和1×1卷積,3×3卷積可增加通道數,1×1卷積可壓縮3×3卷積后的特征表示。Darknet53一共含有53層卷積層,除去最后一個全連接層,共52個卷積層。

利用YOLO v3對輸入圖像進行處理,需要將圖像大小按原圖比例設置為416×416。首先,將輸入圖像進行縮放處理,以較長邊設置為416,根據較長邊與原尺寸比例等比縮小較短邊,空余部分使用灰色填充。標注文件也根據等比例放縮xml文件中標注框坐標。YOLO v3模型損失函數為中心目標誤差函數、寬高坐標誤差函數、置信度誤差值和分類誤差函數總和的均值。整體模型使用獨立邏輯分類器代替Softmax算法,使用空間金字塔結構預測邊界框。整體網絡結構更加復雜,但準確率更高、速度更快。缺點在于雙重IOU計算標準引入,會造成模型精度不一,表明當下YOLO v3可以較好地預測出小scale的目標,但是在大scale目標上易出錯。因為果蠅體積較小,因此滿足目標要求。

3.2 YOLO模型訓練

本文采用骨架網絡為Darknet53的YOLO v3目標檢測模型,在Paddle框架中搭建YOLO v3網絡,模型利用百度AI STUDIO平臺進行訓練,其硬件平臺CPU為4 Cores,內存32 GB,磁盤100 GB,GPU為Tesla V100,顯存32 GB,運行系統為ubuntu。權值衰減速率設為0.000 5,訓練設置學習參數為0.001,由于本次實驗只有果蠅一個類,因此將類別設置為1。ignore_thresh參與計算IOU閾值大小,當預測檢測框ground true的IOU大于ignore_thresh時,參與loss計算。為保證檢測精度,避免過擬合和欠擬合,選擇ignore_thresh=0.5進行訓練。模型訓練每1 000輪保存一次權重。

3.3 測試結果

本次訓練結果以最優模型作為檢測模型,模型整體平均精確率mAP為95.23%,整體識別率較高??傮w設置訓練20 000輪,訓練過程中損失函數前期迭代快速縮減,最終loss收斂于7.8,在損失函數收斂后,結束訓練。訓練完成后,將測試集分別輸入訓練好的網絡模型中進行驗證測試,得到目標檢測算法對測試集的檢測結果,如圖3所示。從圖3中可看出,模型對圖像中不同形態果蠅各個形態識別準確,置信度為97%和98%,識別速度為2.965 s。

4 結論

為實現代替人工對粘蟲板上果蠅識別,以提高整體識別精度與效率,本文提出基于深度學習的果蠅識別方法。該方法采用骨架網絡為Darknet53的106層YOLO v3目標檢測算法,共生成466張果蠅數據集圖像及其標注文件,設置模型訓練20 000輪,每1 000輪保存一次權重,最終從所有權重中選取最優模型,mAP為95.23%。實驗證明,本文提出的基于YOLO v3目標檢測算法的果蠅識別方法,對粘蟲板上果蠅具有較高識別率,可快速且精準地識別出粘蟲板上的果蠅,滿足果蠅檢測識別要求。

參考文獻:

[1]陳哲,張群英,楊鼎元,等.貴陽地區樹莓主要蟲害的發生規律和防治措施[J].安徽農業學報,2019(2):57-58.

[2]洪金華,忻惠琴,陸海華,等.基于YOLOV3模型的卷煙廠煙蟲識別方法[J].煙草科技,2020(9):77-84.

[3]彭瑩瓊,廖牧鑫,鄧泓,等.果實蠅離線快速辨識系統的研究與實現[J].科技創新導報,2018(27):160-161.

[4]陳彥彤,陳偉楠,張獻中,等.基于深度卷積神經網絡的蠅類面部識別[J].光學精密工程,2020(7):1558-1567.

[5]REDMEN J,DIVVALA S,GIRSHICK R,et al., You Only Look Once: Unified, Real-Time Object Detection[C]// Computer Vision & Pattern Recognition.IEEE,2016.

猜你喜歡
深度學習
從合坐走向合學:淺議新學習模式的構建
面向大數據遠程開放實驗平臺構建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學習的三級階梯
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
現代情報(2016年10期)2016-12-15 11:50:53
利用網絡技術促進學生深度學習的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
主站蜘蛛池模板: 亚洲欧美另类久久久精品播放的| 美女国产在线| 久久女人网| a级毛片免费网站| 欧美日韩高清| 亚洲 日韩 激情 无码 中出| 伊人色天堂| 蜜桃视频一区| 91色国产在线| 免费国产黄线在线观看| 免费av一区二区三区在线| 国产中文在线亚洲精品官网| 四虎国产成人免费观看| 99精品国产高清一区二区| 国产精品一线天| 白浆免费视频国产精品视频| 亚洲天堂视频在线免费观看| 午夜视频www| 国产精品免费电影| 日韩欧美成人高清在线观看| 国产一区二区精品福利| 亚洲综合婷婷激情| 一区二区三区成人| 天堂va亚洲va欧美va国产| 高清欧美性猛交XXXX黑人猛交| 亚洲AV无码乱码在线观看裸奔| 国产精品久久久久久久久久98| 在线观看亚洲天堂| 九九视频免费在线观看| 国产高清在线观看91精品| 亚洲丝袜中文字幕| 极品av一区二区| 国产精品99一区不卡| 国产欧美视频在线观看| 亚洲成人精品久久| 国产在线视频导航| 国产素人在线| 特级做a爰片毛片免费69| 大香网伊人久久综合网2020| 波多野结衣爽到高潮漏水大喷| 国产无码精品在线播放| 无码精品福利一区二区三区| 国产精品尤物在线| 国产精品亚洲五月天高清| 青青草91视频| 精品久久久无码专区中文字幕| 免费观看国产小粉嫩喷水| 国产精品xxx| 国产精欧美一区二区三区| yjizz视频最新网站在线| 久久影院一区二区h| 国内精品小视频在线| 日韩在线1| 91成人试看福利体验区| 亚洲色中色| 国产精品亚洲а∨天堂免下载| 亚洲精品爱草草视频在线| 久久精品中文字幕少妇| 午夜激情福利视频| 国产视频只有无码精品| 欧美视频免费一区二区三区| 无码高潮喷水专区久久| 亚洲天堂精品视频| 日本三级欧美三级| 国产福利不卡视频| 久久性妇女精品免费| 亚洲精品麻豆| 国产人妖视频一区在线观看| jizz在线观看| 国外欧美一区另类中文字幕| 91福利免费视频| 国产成人AV男人的天堂| 精品国产Av电影无码久久久| 色婷婷亚洲综合五月| 日韩中文无码av超清| 欧美一级黄色影院| 欧美有码在线观看| 激情综合网址| 自拍偷拍欧美日韩| 青青草一区| 伊人91在线| 欧美日韩精品一区二区视频|