999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于多尺度特征實現超參進化的野生菌分類研究與應用

2022-08-16 13:43:42黃志開吳義鵬鄒家豪
圖學學報 2022年4期
關鍵詞:機制特征實驗

張 盾,黃志開,王 歡,吳義鵬,王 穎,鄒家豪

基于多尺度特征實現超參進化的野生菌分類研究與應用

張 盾1,黃志開1,王 歡2,吳義鵬1,王 穎1,鄒家豪1

(1. 南昌工程學院信息工程學院,江西 南昌 330000;2. 南昌工程學院機械工程學院,江西 南昌 330000)

在我國,因誤食不可食用野生菌而導致中毒的事件頻發(fā),尤其是云南等西南地區(qū),由于野生菌種類的類間特征差異較小,且實際場景下的圖像背景復雜,僅靠肉眼分辨困難。目前雖然有多種方法可對野生菌進行分類,且最為可靠的方法為分子鑒定法,但該方法耗時長、門檻高,不適合進行實時分類檢測。針對這一問題,提出了一種基于深度學習的方法,即使用注意力機制(CBAM),配合多尺度特征融合,增加Anchor層,利用超參數進化思想對其模型訓練時的超參數進行調整,從而提升識別精度。與常見的目標檢測網絡SSD,Faster_Rcnn和Yolo系列等進行對比,該模型能更準確地對野生菌進行分類檢測;經過模型改進后,相較于原Yolov5,Map提升3.7%,達到93.2%,準確率提升1.3%,召回率提升1.0%,且模型檢測速度提升2.3%;相較于SSD,Map提升14.3%。最終將模型簡化,部署到安卓設備上,增加其實用性,解決當前因野生菌難以辨別而誤食不可食用野生菌導致中毒的問題。

計算機應用;卷積神經網絡;多尺度特征;超參數進化;注意力機制;可食用野生菌;目標檢測

可食用野生菌因味道鮮美、營養(yǎng)豐富而深受國人的喜愛,但如何識別外觀上極為相似的可食用與不可食用野生菌對于普通人群而言成為一個待解決的問題,因其不具備鑒別的相關知識,容易誤食不可食用野生菌而發(fā)生中毒。據文獻[1]統計顯示,2011年—2017年,云南省共報告野生菌中毒事件1 789起,中毒7 966人,死亡219人。

目前在我國的傳統野生菌交易市場,還不具備專業(yè)化的野生菌檢測系統或設備,大多依賴于商家或購買者的人為分類,所以有誤判的情況出現,基于此,研究一種便攜式的野生菌識別工具就顯得十分重要。傳統野生菌的識別方法大致分為化學檢測法[2]、動物實驗檢驗法[3]、真菌分類學鑒定法[4]和形態(tài)特征識別方法[5]等,雖然方法眾多,但也存在諸多問題,如實驗器材難以獲取、耗時長、實用性差、不易推廣等。因此,基于圖像處理、深度學習的野生菌識別顯得極具優(yōu)勢,文獻[6]探討了基于Xception與ResNet50網絡進行野生菌的分類識別,其數據集來源于網絡開源數據集,大部分來自于Kaggle,但存在類別少、數據集不符合應用實際,導致泛化性能降低,通常難以達到實驗過程中在測試集上獲取的指標。文獻[7]是基于深度學習的蘑菇圖像分類研究,其數據集共計7類,但未涉及目前市場上常見的可食用野生菌種類,數據集不具備普遍適應性。文獻[8]探討了基于改進Xception遷移學習的野生菌種類識別研究,其數據集和文獻[6]存在相同問題,即大部分來自于網絡收集,存在不夠貼近實際應用場景的問題,且文獻[8]采集的數據集主要為不可食用的野生菌種類,缺乏可食用野生菌種類。

上述基于深度學習的野生菌檢測方法對可食用野生菌的識別做出了一定貢獻,但仍然有改進空間:如野生菌的生長受地域影響,其菌類繁雜,對于使用深度學習進行野生菌檢測首先應該限定區(qū)域,并對特定區(qū)域的野生菌進行收集分類;部分野生菌類之間特征差異較小,從外觀上僅表現為部分紋理的不同,因此對于數據集的圖像分辨率要求較高;野生菌識別時因背景較為復雜,在收集時應該保持數據集背景的多樣性,而非單目標的單一背景圖片;收集的數據集應盡可能避免修圖等破壞對象特征的情況存在。文獻[9]利用多尺度特征引導的細粒度野生菌圖像識別,使識別精確率得到了提升,但對實際應用未做過多探討,未解決當前野生菌市場的野生菌識別系統或設備欠缺的問題。

深度學習廣泛應用于微生物食品安全領域[10-11];在菌類測量等方面,圖像分類技術也具備良好的效果[12];在農業(yè)疾病控制方面,圖像分割技術也應用廣泛,如文獻[13-14]利用深度學習對病害孢子進行精準分割。利用深度學習實現可食用與不可食用野生菌的分類檢測是解決問題的關鍵,但仍然需要做出諸多完善。在數據集方面,收集高質量、多種類具有代表性圖片共計4 000張;在模型設計改進方面引入CBAM注意力機制,結合可食用野生菌的多尺度特征融合,增加Anchor層,利用超參數進化去優(yōu)化訓練超參數,最后結合自制數據集進行訓練獲取模型。從P-R曲線圖可知,相較于原網絡結構模型,野生菌的識別率得到明顯提升,Map提升3.7%,達到93.2%,同時準確率(Precision)提升1.3%,召回率(Recall)提升1.0%,且模型檢測速度提升2.3%;Map相較于其他目標檢測網絡如Faster_Rcnn和SSD網絡分別提升了7.5%和14.3%。在實現可食用野生菌識別精確率提升的同時,結合NCNN框架,將其部署至安卓系統上,降低深度學習使用門檻較高的問題,實現人人能方便使用的目的。

1 材料與方法

1.1 數據集構成

每年7月和8月為可食用野生菌生長旺季,通過手機實地拍攝構建可食用野生菌數據集,其為高質量、多角度、具備普遍適用性的數據集。該數據集共計4 000張圖片,包括16 000余朵野生菌對象,大部分圖像分辨率為4344×5792 px,圖片具備高清晰度。本次采集的數據集共計12類(圖1),其中可食用野生菌10類,均為在云南野生菌市場常見種類,分別為青頭菌、白牛肝菌、紅牛肝菌、黑牛肝菌、紅見手青、黃見手青、黑羊肝菌、雞油菌、雞樅菌、靈芝;2類不可食用野生菌分別為毒蠅傘和鵝膏菌。

圖1 數據集種類

圖1中,本數據集的對象并非為單一對象,其包含大量多種類對象圖片,目的在于增強模型最終的泛化性能,增強目標檢測能力,使得其在實際應用時得到較好的效果。在上述12類野生菌中,大部分為有毒野生菌,只是毒性強弱不等,且部分有毒野生菌經過適當加工后可以食用。

1.2 超參數進化

深度學習中關于模型訓練參數可分為模型參數和模型超參數。模型超參數又可分為結構超參數和運行超參數2類,結構超參數是指在模型結構中起決定性作用的配置變量,也稱為神經結構搜索(neural architecture search,NAS)[15]。如,隱藏層的層數、卷積核與池化核的大小和數量,其均為卷積神經網絡(convolutional neural networks,CNN)的結構超參數;運行超參數即運行神經網絡的超參數,如學習率、批量大小等[16],本文主要用于進化運行超參數。

文獻[17]在訓練時偶爾增大學習率而非持續(xù)地減少,雖然短期內會造成模型性能表現不佳,但最終訓練結果在測試集上表現卻比傳統的逐漸衰減策略更好,以更大地學習率進行學習能加快速度逃離鞍點,從而加速模型收斂。余弦退火可通過余弦函數來調整學習率,隨著值的增加,余弦值先緩慢下降,后加速下降,再緩慢下降。將這種模式用于學習率的調整,可產生很好的效果。

在SGDR實現中,學習率調整策略為:先確定學習率的極大值和極小值以及循環(huán)周期步長。根據式(1),確定訓練步長,然后以最大學習率進行訓練,并在每個訓練步長結束后逐漸降低學習率,直到最小學習率,然后將學習率逐步恢復到最大學習率繼續(xù)下一次訓練,即

其中,max和min分別為學習率的最大和最小范圍;T為步長。

在本文模型訓練中,超參數進化列表共有36個,超參數包括:學習率、余弦退火超參數、學習率動量、權重衰減系數、預熱學習步長、預熱學習率動量、預熱學習率等。文中超參數的進化原理為,首先根據設置的權重判斷參數的優(yōu)先級,如本文設置Map@0.5為第一參數,Map@0.5:0.95為第二參數,則權重參數設置為[0.9 0.1],然后將之前訓練所得的超參數矩陣與權重相乘,通過排列的方式將mAP@0.5參數更優(yōu)的超參數組合置頂在矩陣的首行,組成一個新的超參數矩陣;最后通過2種參數選擇方法選擇下一代超參數,其一根據權重隨機選擇,其二融合歷代超參數作為下一代超參數。

在目標檢測中,最為重要的評價指標有Precision,Recall,Map@0.5和Map@0.5:0.95。本文重點關注Map@0.5值的提升,所以預先設置權重=[0 0 0.9 0.1]。為×的一個矩陣,為超參數已迭代的次數,為超參數的個數。假設迭代次數為1,即=1,將權重與矩陣相乘,得到

若迭代次,則得到個,矩陣是一個1×的矩陣,且由組成。

將矩陣中的各項按照從大到小重新排列,以各項順序作為矩陣的索引值,并將矩陣重新排列,實現將Map@0.5更優(yōu)的參數列依次置頂,將重新排列后的矩陣稱為矩陣,其是一個×的矩陣。

為基礎,計算一個新的權重為

其中,為防止*為零,增加一個常數b,b取值為1e-6。

有了權重*后,提供2種獨立方法選擇下一代超參數。從矩陣中根據權重*隨機選擇一組超參數,利用choices函數實現;再進行*與矩陣的運算,獲得×的矩陣,即

之后對矩陣每一列進行求和,最終得到一個1×的矩陣,對其各項除以*的和,由此得到個新超參數,其為融合歷代超參數特點所得的下一代超參數,即

在超參數進化的過程中,設置權重為[0.9 0.1],再次用choices函數對2種迭代方法交替使用,以實現在繼承最優(yōu)父類的同時,保持以往的延續(xù)。進行適當次數的超參數進化后獲得了更適合于野生菌分類的參數,使用該系列參數進行模型訓練,相較于基于COCO數據集進化參數所得的模型,最終Map值提升了1.8%。

1.3 多尺度特征融合

在實際場景中應用可食用野生菌檢測,需考慮應用場景的復雜性,對可食用野生菌特征進行多尺度融合可取得良好效果。進行多尺度特征融合不僅能提高驗證集的表現,也能夠加強模型在實際應用場景中的泛化能力。其廣泛應用于,如食品安全[18]、信號分類[19]、目標跟蹤[20]等領域。

由于多尺度特征網絡結構較靈活,且沒有清晰的界限,可將網絡結構分為:多尺度輸入、多尺度特征融合、多尺度輸出。對于多尺度輸入,顧名思義就是將多個尺度的圖像輸入網絡,然后對每層圖片提取不同尺度的特征,融合后得到新的特征圖,最后對每個尺度的特征均進行單獨的預測。多尺度圖像輸入如圖2所示,本文對圖像進行最小0.5倍,最大1.6倍的縮放,最后送往網絡對其執(zhí)行訓練。

圖2 多尺度圖像輸入

本文網絡結構采用PANet作為特征融合,其為特征金字塔(feature pyramid networks,FPN)的改進版。FPN通過上采樣,與上一層特征融合,經過多層融合,其具備了多分辨率特征檢測的能力,以檢測不同大小的對象。PANet經正、反向融合,相較于FPN提升了Map值。PANet結構如圖3所示,其中的圖3(a)區(qū)域為FPN骨干部分;相較于FPN,PANet開辟新的道路,將頂層信息快速與底層信息匯合;圖3(b)區(qū)域為自下而上的特征融合。

多尺度目標檢測方法中的Bounding Box設計,利用RPN網絡生成不同尺度的Anchor,實現多尺度目標檢測。在原網絡結構中,Anchor共計3層,考慮到實際應用中的泛化性能,將3層增至4層。在骨干(Backbone)結構部分,在之前的1 024與512卷積層之間增加一個卷積層及一個C3模塊;而在PANet部分也增加與之對應的特征融合層,如圖4加粗標識所示。經過上述改動后,新模型的Map值提升2.3%。

圖3 PANet結構細化圖((a)FPN骨干;(b)特征融合)

圖4 模型總體網絡結構

1.4 添加注意力模塊

注意力機制主要是通過模擬人眼的視覺注意力,在模型訓練中主動關注感興趣的區(qū)域,以便更好地學習圖像中的重要特征,其被廣泛應用于車輛分類[21-22]和行人屬性識別[23],以及面部表情識別[24]等領域。

注意力機制通常分為通道(Channel)注意力機制以及空間(Spatial)注意力機制。本文選用常見的幾種注意力機制進行實驗,分別對比其各自的性能,以選擇更好的注意力機制進行后續(xù)的組合實驗。

本文選擇CBAM (convolutional block attention module),SE (Selayer)和CA (coord attention) 3種注意力機制以及包含自注意力機制的TR (transformer block)進行實驗,4組實驗均將模塊放于骨干網絡(Backbone)的末端,如圖4所示。

SELayer來源于SENet[25],SE模塊主要為了提升模型對通道特征的敏感性,該模塊屬于輕量級,應用于現有的網絡結構中,只需要增加較少的計算量就可以帶來性能的提升。SE模塊只考慮了通道間信息的編碼,但忽略了空間位置信息的重要性,而位置信息對于很多需要捕獲目標結構的視覺任務至關重要。

CA將通道注意力進行了分解,為2個不同方向的特征編碼過程。其好處是可以沿著一個空間方向捕獲長程依賴,沿著另一個空間方向保留精確的位置信息。然后,將生成的特征圖進行分別編碼,形成一對方向感知和位置敏感的特征圖,并可互補地應用于輸入特征圖中以增強感興趣的目標。CA通常是靈活且高效的,不會帶來更多的額外計算量,使得目標檢測更為有效。本文嘗試在Backbone中引入CA,但結果不理想。以往學者常將CA,SE以及CBAM進行注意力機制性能對比,依據文獻[26],本文嘗試加入CBAM注意力機制。

CBAM[27]是一種用于前饋CNN的簡單而有效的注意力模塊;相較于SE只關注通道注意力機制而言,CBAM結合了通道和空間的注意力機制顯得更為高效。CBAM將輸入的特征圖順序通過通道和空間模塊,即首先將輸入的特征圖經過全局最大池化(global max pooling)和全局平均池化(global average pooling),然后經過全連接層,加權后得到通道注意力特征圖;之后將通道注意力特征圖與輸入特征圖進行Element-Wise乘法操作,最終獲得空間注意力特征圖。通過實驗可知,CBAM更適合應用于野生菌分類檢測,相較于未添加CBAM的原生網絡而言,前者的Map值提升了1.5%,召回率也提升了2.0%。

將數據集輸入網絡前,對輸入圖片進行Resize操作,統一縮放為640×640大小,并送入Focus進行切片操作,然后通過Concat操作進行連接,最后進行卷積,該模塊的設計主要是減少參數量,以達到降維、提速的目的。卷積完成后送入C3模塊,其與BottleneckCSP模塊結構基本一致,在一般的CNN網絡中,卷積層、BN層、激活函數均是配套出現的,但是從YOLOV5-V4.0開始,激活函數就由LeakyReLU改為SiLU函數,而C3模塊取代了原CSP模塊,C3由3個卷積組合,而CSP模塊由4個卷積組合,通過C3替換CSP,可以起到精簡網絡結構,減少計算量及模型推理時間的作用。SPP模塊分別采用3,5,7的最大池化,進行Concat融合,提高感受野。在Backbone的最后,加入CBAM注意力機制,以便更好地學習感興趣區(qū)域,提高模型Map值。在網絡的Neck部分,采用PANet,通過增加從最底層到最上層的信息傳輸路徑,加強了FPN,使得模型泛化性能增強,提升識別對象的能力。

2 結果與分析

2.1 實驗環(huán)境及參數設置

可食用野生菌分類數據集為自建數據集,共計12個種類,4 000張高清圖像,16 000余朵野生菌對象。實驗中數據集劃分按照訓練集﹕驗證集﹕測試集=7﹕2﹕1進行劃分。

實驗操作系統為Windows 10服務器,CPU為i5 10400,GPU為3060。深度學習框架為Pytorch 1.9,編程環(huán)境選擇Python 3.8,CUDA驅動版本選擇11.1。實驗共計4組,在模型訓練時,訓練步數均為200步;在獲取模型指標時,交并比(intersection over union,IoU)和置信度閾值(Conf)等參數設置均保持一致,為0.6和0.001;關于Yolov5改進與對比部分實驗均采用Yolov5s結構;所有實驗均在COCO數據預訓練所得的模型上進行遷移學習。

2.2 實 驗

2.2.1 實驗方法分析

實驗共計4組,①將多尺度變化、使用進化所得超參數、增加Anchor層等方法單獨實驗,并與原Yolov5進行對比;②對比目前常見的注意力機制運用效果,即自帶注意力機制(self-attention)的Transformer Block,和選用的Convolutional Block Attention Module,Selayer和Coord Attention 3種注意力機制;③分別將上述注意力機制與多尺度變化、超參數進化以及增加Anchor層相結合進行實驗對比;④選擇本文中最優(yōu)模型與常見的目標檢測網絡進行對比,如歷代Yolo,SSD和Faster Rcnn等。

主要評價指標為Map,Precision和Recall,即

其中,參數有TP (true positives),FP (false positives),TN (true negatives)和FN (false negatives);Map值為確定IoU以及Precision和Recall后,繪制P-R曲線計算出AP值,再對AP取平均值。

2.2.2 實驗一

實驗一對多尺度變化、超參數進化和增加Anchor層分別進行實驗,其中增加Anchor層實驗相較于原網絡結構提升最大,Map達到91.8%,Precision達到94.1%,其P-R曲線圖如圖5所示。實驗結果及其對比見表1。

2.2.3 添加注意力機制實驗二

本文實驗中引入了CBAM,SE和CA 3種注意力機制以及包含自注意力機制的TR。對比4組實驗結果(表2),可以發(fā)現加入CBAM注意力機制對于模型的第一指標Map值有小幅提升,提升1.5%,召回率提升2.0%;對于模型的Precision而言,僅有SE注意力機制有小幅度提升。加入CBAM注意力機制訓練所的模型的P-R曲線如圖6所示。

圖5 增加Anchor層的模型P-R曲線

表1 實驗數據(%)

表2 注意力機制實驗數據(%)

圖6 加入CBAM機制的模型P-R曲線

2.2.4 組合實驗三

第3組實驗是在第1組和第2組實驗的基礎上進行組合的,即分別將幾種注意力機制與多尺度變化、超參數進化、增加Anchor層進行組合實驗的結果,見表3。由表3可知,CBAM注意力機制結合多尺度變化、超參數進化和增加Anchor層訓練所得的模型結果達到最優(yōu),相較于未進行改進的Yolov5,該模型用于評價目標檢測好壞的 3個指標均得到提升,Map值提升最大,達到3.7%;Precision提升1.3%;Recall提升1.0%。所有訓練所得模型對400張測試圖片進行檢測時,CBAM組合模型耗時最短,相較于原生Yolov5減少2 s的時長。CBAM注意力機制結合多尺度變化、超參數進化以及增加Anchor層訓練所得模型指標如圖7所示。

表3 注意力機制組合實驗數據

注:MS為多尺度變化;HE為超參數進化;FA為增加Anchor層至4層

圖7 CBAM機制組合實驗模型P-R曲線

2.2.5 與其他網絡進行對比實驗

從實驗三中可以看出,CBAM組合實驗所得的模型指標達到最優(yōu),較原生的Yolov5均得到提升,該模型即為本文推薦最優(yōu)模型。

使用該模型與目前常見的目標檢測算法One- Stage與Two-Stage所對應的代表網絡進行對比,實驗結果見表4。

表4 各網絡對比實驗數據

2.3 實驗總結

從上述4組實驗中可以看出,對于超參數進化、增加Anchor層以及添加注意力機制均對模型有不同程度地提升,且多尺度變化會影響模型應用的泛化性能,因此本文最優(yōu)模型將所述內容全部進行結合,最終訓練所得模型在Map,Precision和Recall以及模型檢測速度方面均得到提升,相較于Unchanged yolov5,Map提升3.7%,Precision提升1.3%,Recall提升1.0%,模型檢測速度提升2.3%。

使用改進后的模型與目前主流的目標檢測網絡訓練所得的模型進行對比,相較于其他Yolo系列網絡,Map提升5.0%以上,Precision提升9.0%以上;相較于Faster-Rcnn網絡,Map提升7.5%;相較于SSD網絡,Map提升14.3%。

圖8為模型實際測試效果對比圖,選用了Yolov3,SSD以及Faster-Rcnn與本文改進后的模型進行對比。測試圖片選用外觀相似的菌種,如白牛肝菌、黃見手青以及青頭菌;圖片背景選用單一以及復雜2種背景;野生菌對象數選用單一目標以及多目標2種。從圖8可以看出,其他3種模型在對復雜背景且對象數眾多的圖片進行檢測時,均出現了不同程度的誤檢。

圖8 模型測試效果圖

3 實際應用

本文致力于準確、快速地實現可食用野生菌的分類檢測。針對目前野生菌的分類檢測如分子鑒定法、化學檢測法、動物實驗檢驗法、真菌分類學鑒定法和形態(tài)特征識別方法等,通常不適合于廣大群眾??墒秤靡吧鳛橐环N常見的食物,人們在菜市場即可購得,并不會花費大量的時間和金錢去鑒別,分辨野生菌是否可食用一般通過個人認知或賣家介紹,這伴隨著巨大的安全隱患,因此本文基于深度學習,提出一種快速、準確的檢測方法,解決該問題。

NCNN是一個為手機端極致優(yōu)化的高性能神經網絡前向計算框架。在設計之初就考慮手機端的部署和使用。其無第三方依賴,手機端CPU運行的速度快于目前所有已知的開源框架。采用NCNN框架進行移動端本地部署,主要目的在于追求識別速度,因此模型的簡化是必要的,識別效果如圖9所示,其對野生菌的識別具有一定作用。

圖9 模型部署安卓測試效果圖

考慮到用戶可能需要準確度更高的識別方式,因此擬通過云端部署模型進行識別的方式解決該問題。在云端部署準確度更高的模型,通過手機拍照上傳圖片,以阿里云OSS作為圖片存儲的中轉站,最終通過云端服務器對圖片進行檢測,輸出相應檢測信息,回傳至Mysql數據庫等待手機端調用回傳。

本App設計的初衷旨在于為廣大民眾在購買野生菌時提供一定的幫助,同時也起到科普及鑒別的作用。本地部署的識別方法已有相關報道[28],考慮到識別準確性問題,本應用程序提供了2種識別方法。在各種場景中為用戶提供不同的識別方法供其選擇,以改善用戶體驗。

(1) 本地識別(無需接入互聯網)實時性好,但準確度不如云端部署模式;

(2) 云端部署模型的方法具有高精度,但由于網絡波動等因素,實時性較差。

4 結束語

本文結合多尺度特征、超參數進化以及CBAM注意力機制提出了一種針對野生菌分類檢測的網絡。通過與其他的目標檢測網絡對比,該網絡具備更準確、更快速地檢測特點,其相較于原Yolov5網絡,Map提升3.7%,達到93.2%,Precision提升1.3%,Recall提升1.0%,且模型檢測速度提升2.3%。野生菌種類繁雜,文中提及種類共計12類,增加模型能鑒別的種類將提升應用的實際意義;對于模型鑒別種類準確性的進一步提升,使用具備更強計算能力的設備完善超參數可能會取得更好的效果。

[1] 萬蓉, 劉志濤, 萬青青, 等. 2011—2017年云南省野生菌中毒情況分析[J]. 衛(wèi)生軟科學, 2019, 33(10): 84-86, 97.

WAN R, LIU Z T, WAN Q Q, et al. Analysis on wild mushroom poisoning in Yunnan Province from 2011 to 2017[J]. Soft Science of Health, 2019, 33(10): 84-86, 97 (in Chinese).

[2] GRANDSTAFF D E, TERRY D O Jr. Rare earth element composition of Paleogene vertebrate fossils from Toadstool Geologic Park, Nebraska, USA[J]. Applied Geochemistry, 2009, 24(4): 733-745.

[3] ZHAO J, CAO M, ZHANG J, et al. Pathological effects of the mushroom toxin α-amanitin on BALB/c mice[J]. Peptides, 2006, 27(12): 3047-3052.

[4] 桂明英, 何容, 郭永紅, 等. 基于形態(tài)特征和ITS序列對新疆蘆葦根蘑菇的分類鑒定[J]. 食用菌, 2014, 36(4): 14-16.

GUI M Y, HE R, GUO Y H, et al. Classification and identification of Xinjiang reed root mushrooms based on morphological characteristics and ITS sequences[J]. Edible Fungi, 2014, 36(4): 14-16 (in Chinese).

[5] 曾令奎. 毒蘑菇中毒的識別和預防[J]. 中國林副特產, 2008(1): 97-98.

ZENG L K. Recognition and Prevention of Poisonous Mushroom Poisoning[J]. Forest by-Product and Speciality in China, 2008(1): 97-98 (in Chinese).

[6] 沈若蘭, 黃英來, 溫馨, 等. 基于Xception與ResNet50模型的蘑菇分類方法[J]. 黑河學院學報, 2020, 11(7): 181-184.

SHEN R L, HUANG Y L, WEN X, et al. Mushroom classification based on xception and ResNet50 models[J]. Journal of Heihe University, 2020, 11(7): 181-184 (in Chinese).

[7] 肖杰文, 趙鋮博, 李欣潔, 等. 基于深度學習的蘑菇圖像分類研究[J]. 軟件工程, 2020, 23(7): 21-26.

XIAO J W, ZHAO C B, LI X J, et al. Research on mushroom image classification based on deep learning[J]. Software Engineering, 2020, 23(7): 21-26 (in Chinese).

[8] 陳德剛, 艾孜爾古麗, 尹鵬博, 等. 基于改進Xception遷移學習的野生菌種類識別研究[J]. 激光與光電子學進展, 2021, 58(8):245-254.

CHEN D G, AZRAGUL,YIN P B, et al. Research on identification of wild mushroom species based on improved xception transfer learning[J]. Laser & Optoelectronics Progress, 2021, 58(8): 245-254 (in Chinese).

[9] 張志剛, 余鵬飛, 李海燕, 等. 基于多尺度特征引導的細粒度野生菌圖像識別[J/OL]. 激光與光電子學進展: 2021, 1-19. http://kns.cnki.net/kcms/detail/31.1690.tn.20210823.1131.008.html.

ZHANG Z G, YU P F, LI H Y, et al. Fine-grained image recognition of wild mushroom based on multi-scale feature guidance[J/OL]. Laser and Optoelectronics, 2021, 1-19. http://kns.cnki.net/kcms/detail/31.1690.tn.20210823.1131.008.html (in Chinese).

[10] BHAT R, KIRAN K, ARUN A B, et al. Determination of mineral composition and heavy metal content of some nutraceutically valued plant products[J]. Food Analytical Methods, 2010, 3(3): 181-187.

[11] ABDULLAH M Z, MOHAMAD-SALEH J, FATHINUL- SYAHIR A S, et al. Discrimination and classification of fresh-cut starfruits (Averrhoa carambola L.) using automated machine vision system[J]. Journal of Food Engineering, 2006, 76(4): 506-523.

[12] 朱怡航, 張小斌, 沈穎越, 等. 基于圖像識別技術的金針菇表型高通量采集與分析[J]. 菌物學報, 2021, 40(3): 626-640.

ZHU Y H, ZHANG X B, SHEN Y Y, et al. High-throughput phenotyping collection and analysis of Flammulina filiformis based on image recognition technology[J]. Mycosystema, 2021, 40(3): 626-640 (in Chinese).

[13] ZHAO Y C, LIN F S, LIU S G, et al. Constrained-focal-loss based deep learning for segmentation of spores[EB/OL]. [2021-04-26].https://ieeexplore.ieee.org/document/8896836.

[14] ZHAO Y C, LIU S G, HU Z H. Focal learning on stranger for imbalanced image segmentation[J]. IET Image Processing, 2022, 16(5): 1305-1323.

[15] LUO R Q, TIAN F, QIAN T, et al. Neural Architecture Optimization[J]. Neural Information Processing Systems, 2018, 34(2): 7827-7838.

[16] 龔道慶. 深度神經網絡模型超參數進化調優(yōu)及其應用研究[D]. 南寧: 南寧師范大學, 2020.

GONG D Q. Research on hyperparameter evolutionary tuning of deep neural network mode and its application[D]. Nanning: Nanning Normal University, 2020 (in Chinese).

[17] LOSHCHILOV I, HUTTER F. SGDR: stochastic gradient descent with warm restarts[EB/OL]. [2021-05-10]. https://arxiv.org/abs/1608.03983.

[18] ANUKRISHNA P R, PAUL V. A review on feature selection for high dimensional data[C]//2017 International Conference on Inventive Systems and Control. New York: IEEE Press, 2017: 1-4.

[19] 張繁, 尹鑫, 徐宇揚, 等. 基于多尺度特征提取的多導聯心跳信號分類[J]. 圖學學報, 2021, 42(4): 581-589.

ZHANG F, YIN X, XU Y Y, et al. Multi-lead heartbeat signal classification based on multi-scale feature extraction[J]. Journal of Graphics, 2021, 42(4): 581-589 (in Chinese).

[20] 牟琦, 張寒, 何志強, 等. 基于深度估計和特征融合的尺度自適應目標跟蹤算法[J]. 圖學學報, 2021, 42(4): 563-571.

MU Q, ZHANG H, HE Z Q, et al. Scale adaptive target tracking algorithm based on depth estimation and feature fusion[J]. Journal of Graphics, 2021, 42(4): 563-571 (in Chinese).

[21] 李宇昕, 楊帆, 劉釗, 等. 基于改進殘差網絡的道口車輛分類方法[J]. 激光與光電子學進展, 2021, 58(4): 384-390.

LI Y X, YANG F, LIU Z, et al. Classification method of crossing vehicle based on improved residual network[J]. Laser & Optoelectronics Progress, 2021, 58(4): 384-390 (in Chinese).

[22] 陳錢球. 基于深度多任務學習的車輛細粒度分類方法研究[D]. 南昌: 華東交通大學, 2021.

CHEN Q Q. Research on the fine-grained classification of vehicles based on deep multi-task learning[D]. Nanchang: East China Jiaotong University, 2021 (in Chinese).

[23] 李娜, 武陽陽, 劉穎, 邢琎. 基于多尺度注意力網絡的行人屬性識別算法[J]. 激光與光電子學進展, 2021, 58(4): 290-296.

LI N, WU Y Y, LIU Y, et al. Pedestrian attribute recognition algorithm based on multi-scale attention network[J]. Laser & Optoelectronics Progress, 2021, 58(4): 290-296 (in Chinese).

[24] 史浩, 邢瑜航, 陳煉. 基于多尺度融合注意力機制的人臉表情識別研究[J]. 微電子學與計算機, 2022, 39(3): 34-40.

SHI H, XING Y H, CHEN L. Research on facial expression recognition based on multi-scale fusion attention mechanism[J]. Microelectronics and Computer, 2022, 39(3): 34-40 (in Chinese).

[25] HU J, SHEN L, SUN G. Squeeze-and-excitation networks[C]// 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2018: 7132-7141.

[26] HOU Q B, ZHOU D Q, FENG J S. Coordinate attention for efficient mobile network design[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2021: 13708-13717.

[27] WOO S, PARK J, LEE J Y, et al.Convolutional block attention module[EB/OL]. [2021-05-23]. https://arxiv.org/ abs/1807.06521.

[28] 蘭寧. 基于Android平臺的圖像識別設計方法與實現[J]. 電子技術與軟件工程, 2021(19): 61-64.

LAN N. Design method and implementation of image recognition based on Android platform[J]. Electronic Technology & Software Engineering, 2021(19): 61-64 (in Chinese).

Research and application of wild mushrooms classification based on multi-scale features to realize hyperparameter evolution

ZHANG Dun1, HUANG Zhi-kai1, WANG Huan2, WU Yi-peng1, WANG Ying1, ZOU Jia-hao1

(1. School of Information Engineering, Nanchang Institute of Technology, Nanchang Jiangxi 330000, China; 2. School of Mechanical Engineering, Nanchang Institute of Technology, Nanchang Jiangxi 330000, China)

In China, there are frequent poisoning events caused by ingestion of inedible wild mushrooms every summer, especially in Southwest China, such as Yunnan. This is due to the slight differences in inter-class characteristics of wild mushrooms and the complex image backgrounds in actual scenarios, making it difficult to distinguish only by naked eyes. At present, although there are many methods to classify wild mushrooms, and the most reliable way is molecular identification, the relevant techniques are time-consuming and require a high threshold, so they are not suitable for real-time classification and detection. To solve this problem, an approach based on deep learning was proposed. This approach employed the attention mechanism convolution block attention module (CBAM), was combined with multi-scale fusion, and added the anchor layer. The hyperparameter evolution idea was adopted to adjust the hyperparameter during the model training, so as to improve the recognition accuracy. Compared with standard target detection networks, such as SSD, Faster Rcnn, and Yolo series, the proposed model can classify and detect wild mushrooms more accurately. Compared with the original Yolov5, after the proposed model was improved, Map was improved by 3.7% and reached 93.2%, precision by 1.3%, Recall by 1.0%, and model detection speed by 2.3%. Compared with SSD, Map was improved by 14.3%. Finally, the model was simplified and deployed on Android devices to increase its practicability, thus solving the current problem of poisoning caused by eating inedible wild mushrooms because of the difficulty of identification.

computer application; convolutional neural network; multi scale features; hyperparameter evolution; attention mechanism; edible wild mushrooms; target detection

24 December,2021;

National Key Research and Development Plan of China (2019YFB1704502); National Natural Science Foundation of China (61472173); The Grants from the Educational Commission of Jiangxi Province of China (GJJ151134)

ZHANG Dun (1996–), master student. His main research interests cover image processing and target detection. E-mail:zzzd0413@163.com

TP 391

10.11996/JG.j.2095-302X.2022040580

A

2095-302X(2022)04-0580-10

2021-12-24;

2022-03-24

24 March,2022

國家重點研發(fā)計劃項目(2019YFB1704502);國家自然科學基金項目(61472173);江西省教委資助項目(GJJ151134)

張 盾(1996-),男,碩士研究生。主要研究方向為圖像處理與目標檢測。E-mail:zzzd0413@163.com

黃志開(1969-),男,教授,博士。主要研究方向為圖像處理等。E-mail:huangzhik2001@163.com

HUANG Zhi-kai (1969-), professor, Ph.D. His main research interest covers image processing, etc. E-mail:huangzhik2001@163.com

猜你喜歡
機制特征實驗
記一次有趣的實驗
如何表達“特征”
做個怪怪長實驗
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
自制力是一種很好的篩選機制
文苑(2018年21期)2018-11-09 01:23:06
抓住特征巧觀察
NO與NO2相互轉化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
破除舊機制要分步推進
注重機制的相互配合
主站蜘蛛池模板: 成人日韩视频| 美女免费黄网站| 午夜福利无码一区二区| 国产成人高清精品免费软件| 国产美女主播一级成人毛片| 国产黄在线免费观看| 国产极品美女在线| 色妞www精品视频一级下载| 蜜桃视频一区二区| 激情综合五月网| 亚洲综合激情另类专区| 亚洲天堂在线免费| 国产成人无码播放| 欧美在线视频不卡第一页| 不卡无码h在线观看| 色婷婷亚洲综合五月| 国产精品亚欧美一区二区| 中文字幕av无码不卡免费 | 国产精品亚欧美一区二区| 视频二区中文无码| 香蕉在线视频网站| 亚洲成人在线网| 亚洲精品老司机| 97精品久久久大香线焦| 综合色区亚洲熟妇在线| 精品伊人久久久大香线蕉欧美 | 国产精品hd在线播放| 亚洲乱亚洲乱妇24p| 热久久国产| 日韩欧美中文| 97在线国产视频| 国产制服丝袜无码视频| 婷婷综合亚洲| 日韩性网站| 2022国产91精品久久久久久| 久久99国产视频| 中文国产成人精品久久| 狠狠干欧美| 久久99蜜桃精品久久久久小说| 国产网友愉拍精品视频| 亚洲国模精品一区| 亚洲天堂网在线观看视频| 欧美97色| 亚洲 日韩 激情 无码 中出| 91精品免费高清在线| 欧美精品在线看| 亚洲欧美h| 一本一道波多野结衣av黑人在线| 国产精品无码一二三视频| 国产乱子伦一区二区=| 看看一级毛片| 国产二级毛片| 亚洲欧美不卡| 久久精品人人做人人| 亚洲人成影视在线观看| 99这里只有精品6| 日韩少妇激情一区二区| 国产黑人在线| 欧美一级特黄aaaaaa在线看片| 国产美女一级毛片| 九九热视频精品在线| 免费国产在线精品一区| 亚洲 欧美 日韩综合一区| 欧美va亚洲va香蕉在线| 在线日韩日本国产亚洲| 午夜性刺激在线观看免费| 欧美日韩中文国产va另类| 久久婷婷色综合老司机| 天堂va亚洲va欧美va国产| 欧美在线一级片| 国产综合网站| 伊伊人成亚洲综合人网7777| 日韩成人在线网站| 精品国产中文一级毛片在线看 | 日韩AV无码一区| 亚洲第七页| 国产 日韩 欧美 第二页| 精品亚洲麻豆1区2区3区| 亚洲bt欧美bt精品| 亚洲床戏一区| 日韩在线成年视频人网站观看| 日韩中文字幕免费在线观看|