999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于聯動擴展神經網絡的水下自由活蟹檢測器研究

2020-10-10 07:07:10趙德安孫月平阮承治
農業機械學報 2020年9期
關鍵詞:特征檢測模型

趙德安 曹 碩 孫月平 戚 浩 阮承治

(1.江蘇大學電氣信息工程學院, 鎮江 212013; 2.武夷學院機電工程學院, 武夷山 354300)

0 引言

河蟹是重要的養殖水產品,其營養豐富,經濟價值高。目前全國河蟹養殖總產值超過550億元,養殖區域以長江中下游為主,產量占全國總產量的80%以上,現已成為我國漁業生產中發展最為迅速、最具有潛力的產業[1-2]。但是,河蟹養殖嚴重依賴人工,其集約化程度低、機械化自動化水平低,由于人工粗放喂養冰魚、螺螄等飼料的隨機性,嚴重影響了河蟹養殖效益,甚至導致池塘水質惡化。因此,為了適應河蟹的養殖需求,節約占養殖總成本60%以上的餌料成本,迫切需要提高河蟹養殖的自動化及智能化水平[3]。目前,圍繞河蟹自動投餌船的導航定位和均勻投餌等方面已有相關研究[1-3]。針對自動化領域中視覺引導智能化機械進行精準作業的潛在市場[4-5],考慮到傳統投喂決策主要取決于人工經驗和簡單定時控制的局限性[6-7],采用機器視覺技術,由水下河蟹視頻、圖像來獲取并提供池塘螃蟹的形態位置和數量分布信息,以進一步指導自動投餌船進行精確的變量投喂。

河蟹一般活動于0.5~2.0 m淺水池塘的底部和水草叢生的水域,水中含有雜質,由于透射光線的衰減導致水下采集的圖像模糊、清晰度較低。同時,透射光也會由于吸收和散射隨著距離和深度的增加呈指數衰減,導致波長最短的藍光在水中傳播時間最長,從而使水下圖像主要呈現藍綠色,并且不均勻[8]。研究發現,基于稀疏表達的圖像降噪算法[9]和基于色彩理論的圖像色彩校正增強算法[10]可在無需先驗環境知識的情況下完全抽象出圖像形成過程,可保證圖像信息的可靠性,比圖像恢復技術更簡單、有效[11]。

河蟹尺寸小、肢體姿態差異大,蟹螯和蟹腿關節相似,且形狀異常,使得傳統的目標識別方法難以滿足水下自由活蟹的檢測需求[12-13]。基于方向梯度直方圖 (Histogram of oriented gradient, HOG)[14]、尺度不變特征轉換[15]等方法,已逐漸轉變為采用卷積神經網絡(Convolutional neural networks, CNN)。提取抽象的高維特征、進行更加復雜的目標檢測[16],比如在魚類[17]、貝類[18]、海參[19]、果實[20]、牲畜[21]等目標的分類、定位、檢測方面。YAO等[19]利用空洞卷積和殘留結構優化MobileNet-SSD (Single shot multibox detector)的主干網絡,將水下海參的檢測速度提高到43.65 f/s。LI等[17]通過Faster R-CNN (Regions with convolutional neural networks)共享CNN特征,以獲取幾乎免費的區域候選對象,加速了魚類的檢測和識別。MAZZIA等[16]利用“Edge AI”的云端聚合服務解決嵌入式設備野外實時蘋果檢測需求,但這對網絡通信要求較高,且云端服務價格昂貴。上述檢測目標大都是形狀相對規則的,并未涉及獨立不規則的活蟹檢測。而且,由于存儲空間和功耗的限制,上述神經網絡模型在移動設備中的存儲和計算依然存在困難。趙德安等[7]采用YOLOv3 (You only look once)在通用配置的微型計算機上實現了10.67 f/s的河蟹識別速度,但其識別模型的大小和參數量不是普通移動設備所能承受的。為了設計工業級輕量化的神經網絡模型,可以考慮在保證或略微犧牲檢測精度的前提下,從人工設計網絡計算方式、神經網絡架構搜索 (Neural architecture search, NAS)、卷積神經網絡深度壓縮和基于AutoML的自動模型壓縮4方面[22]為移動設備部署小型輕量的神經網絡模型。

根據自主開發的自動投餌船對池塘自由活蟹分布的統計需求,本文首先利用分解式并行降噪和色彩校正增強算法,對低質量圖像進行簡單有效的預處理,確保圖像信息的可靠性,使其易于理解和分析;然后,采用基于聯動擴展的EfficientNet作為活蟹檢測器的主干網絡,該主干網絡分別從人工設計的MBConv基本計算模塊、神經網絡架構搜索的網絡結構和伴隨運算量約束的深度裁剪壓縮3方面,構建能夠限制目標計算量和存儲空間的神經網絡模型;最后,引入復合縮放因子,對高效融合的特征網絡和類別/邊界框預測網絡進行全局的聯動擴展,以構建適用于有限資源的精確、高效的活蟹檢測器。

1 材料與方法

1.1 視頻采集

實驗圖像采集自江蘇省常州市長蕩湖河蟹養殖基地。為適應河蟹夜間攝食習慣,避免過早投入的餌料因水浸泡而散開,不能被河蟹充分攝取而導致餌料浪費和水體污染,本文分別于傍晚和凌晨選取3個池塘進行視頻采集。每個池塘水深0.5~2.0 m,占地面積16.7 km2,每0.7 km2投放約1 000只河蟹。圖像采集設備1為HB-HZSJC-YB型便攜式渾濁水下視頻監控系統(圖1a),配有輔助照明光源LED燈。將其安裝在自動投餌船上通過無線網絡和有線連接方式采集能夠反映池塘水下自然生活狀態的活蟹視頻(圖1b),視頻分辨率為1 920像素×1 080像素。圖像采集設備2為配備5個高亮LED輔助照明燈的便攜式水下渾濁攝像機(圖1c),主要用于從俯視視角采集處于隱匿環境的河蟹,彌補設備1的攝像頭難以進入深水區進行平視拍攝的不足。圖1e和圖1f為傍晚時刻河蟹開始活動覓食時視頻采集工作的現場。

圖1 視頻采集系統Fig.1 Video acquisition system

1.2 數據集的制作與使用

數據集在很大程度上決定了訓練的深度網絡模型識別檢測性能,其中數據的樣本數量直接影響河蟹的檢測精度。但真實的池塘環境復雜多變,使得水下河蟹圖像采集的難度很大。本文通過逐幀方式處理采集的河蟹覓食視頻,共選取4 125幅目標相對清晰且具有差異性和代表性的真實環境下的河蟹圖像,用于模型的訓練和測試。但是這樣依然難以滿足網絡訓練的需求,需要更大量的數據樣本,否則依然會出現過度擬合的“高精度假象”。所以針對特定河蟹檢測場景下數據集有限的情況,采用特定圖像處理方式(幾何角度:翻轉、旋轉、裁剪、縮放等;像素角度:亮度調節、對比度調節、噪聲添加、通道變換等)來增加數據樣本的數量與多樣性,進一步提高模型的魯棒性與泛化能力。最終建立了具有20 625幅水下河蟹圖像的樣本數據集。之后用LabelImg軟件對最終完善后的數據集進行檢測目標的矩形包圍框標注。但是考慮到螃蟹有一對特征鮮明的蟹螯和4對特征相似的蟹腿,如果將它們全部框選,會使得矩形框標注的區域包含大量復雜各異的無用背景特征,從而在一定程度上干擾模型的訓練、影響模型的性能。因此,在人工標注河蟹時,本文主要考慮河蟹的身體及一對特征鮮明的蟹螯,適當會包含部分蟹腿,標注情況如圖2所示。最后按照通用數據集劃分策略,將數據集隨機分配成訓練集(70%)、測試集(25%)和驗證集(5%)。并將它們各自轉換為只需一次性加載的TFRecord格式存儲,這樣能夠有效加速數據讀取,大幅提高數據處理效率。

圖2 河蟹鮮明特征的標記方式Fig.2 Special annotation way of river crab characteristics

1.3 活蟹檢測器系統概述

圖3 活蟹檢測器系統結構圖Fig.3 System structure of efficient live crab detector

圖3為活蟹檢測器的系統結構。首先,對呈現藍綠色且伴隨強烈不均勻色彩的輸入標簽圖像進行分解式并行降噪和色彩校正增強。然后,將預處理后的標簽圖像映射到采用聯動擴展網絡深度、寬度和分辨率方式實現精度和效率協調的EfficientNet-B0主干網絡,提取不同尺度的特征圖像。接著,選取其中5層特征圖作為堆疊雙向特征金字塔網絡(Bi-directional feature pyramid network, BiFPN) 的輸入來獲取更高級別的融合特征圖像。最后,將這些特征圖輸入堆疊三層卷積模塊的類別/邊界框預測網絡以生成各種錨框。同時利用正交Softmax預測各種尺寸和縱橫比錨框的坐標位置偏移量及其相關的置信度,從而得到預測邊界框。圖3中,P表示金字塔融合特征圖像分辨率級別,C表示MBConv Stage輸出特征圖像分辨率級別。之后再將生成的所有預測邊界框集合起來,通過設置重疊率閾值,采用非極大值抑制方法去除冗余重復的預測邊界框。最終篩選保留比閾值具有更大置信度的需要輸出的預測邊界框,從而實時準確地獲取包含河蟹類別、置信概率和邊界框坐標的檢測結果,如圖4所示。

圖4 河蟹檢測的詳細參數Fig.4 Detailed parameters of crab detection

2 圖像降噪與色彩校正

圖5 圖像通道分解及融合過程Fig.5 Image channel decomposition and fusion process

圖6 圖像降噪與色彩校正過程Fig.6 Image denoising and color-correction enhancement process

為確保圖像信息的可靠性,提高水下河蟹的識別檢測精度,對水下光學成像及照明環境特點進行分析,發現水下圖像中紋理、邊緣、細節等有用信息含有高頻分量,同時噪聲雖以高頻分量為主但也會摻雜低頻成分。 這種在頻率上的重疊特性是傳統圖像降噪方法無法有效去除噪聲的主要原因,也是傳統圖像增強方法無法避開噪聲干擾進行圖像增強的主要原因[11]。因此,本文所提算法將RGB彩色原始圖像(圖5a)分解為R、G、B三通道圖像(圖5b),逐個提取R、G、B通道圖像以進行有效去噪和顏色校正增強(圖6a)。在去噪和顏色校正增強過程中,首先應用形態成分分析[9]將一維通道圖像按照不同的能量稀疏分解為含噪高頻紋理圖像和低頻結構圖像。然后按照不同頻率圖像的信息組成特點,應用K-SVD (K-singular value decomposition)算法[9]對含有大部分噪聲的高頻紋理圖像進行有效降噪,以較好保留河蟹紋理、邊緣等有效信息。同時考慮到圖像伴隨著強烈不均勻的色彩現象,應用能夠同時針對圖像的動態范圍壓縮、邊緣增強和顏色恒常進行平衡的Retinex算法[10],對幾乎無噪的低頻結構圖像進行有效的增強和顏色校正,并且保證其目標結構不失真。對去噪和校正后的圖像進行加性還原獲得一維灰度通道分量(圖6b)。最后將處理后的R、G、B一維灰度通道圖像融合恢復獲得RGB彩色圖像(圖5c)。圖像清晰度顯著提高,從而有利于圖像理解與分析。顏色不均勻的區域相對原圖有了明顯的改善,避免了其對后續識別檢測產生的干擾。

3 兩階段聯動擴展的活蟹檢測

在計算量有限的移動嵌入式平臺上,目前先進的檢測網絡往往不能達到實時性效果。極少數類似Tiny YOLO的網絡能滿足實時需求,但這類網絡檢測精度不高,同樣不能達到需要的精度要求。本文在各類資源受限的條件下,局部聯動擴展平衡所有維度信息的輕量級EfficientNet網絡的基礎上,采用全局聯動擴展平衡檢測器的主干網絡、特征網絡和類別/邊界框網絡,構建更加高效、更加精確的可收縮擴展檢測器。

3.1 基于聯動擴展的輕量級EfficientNet主干網絡

圖7 網絡深度、寬度和分辨率的三維聯動擴展結構Fig.7 Three-dimensional compound scaling structure of network depth, width and resolution

擴展網絡的深度(卷積層的數量)、寬度(卷積層的通道數)和分辨率(輸入特征的尺寸)中的任一維度都可以提升精度(圖7),但常規擴展單一維度的模型會隨著模型的增大,精度增益變小。為了獲得協調的精度和效率,在神經網絡擴展過程中綜合平衡所有的維度信息是關鍵,所以EfficientNet[23]引入了擴展系數θ來聯動統一擴展網絡的深度、寬度和分辨率。

(1)

式中d——網絡深度

w——網絡寬度

r——網絡分辨率

α——網絡資源的深度分配系數

β——網絡資源的寬度分配系數

χ——網絡資源的分辨率分配系數

θ——用戶指定的模型資源擴展系數

圖8 MBConv基本單元架構Fig.8 MBConv architecture of basic unit

其中,α、β、χ通過網絡搜索暴力枚舉得到最優解,θ可根據模型可用資源進行調節,同時也表明資源的可用范圍。α增加一倍,浮點運算次數FLOPs隨之增加2倍;β和χ增加一倍,FLOPs隨之增加4倍。最終聯動擴展操作使FLOPs變為原來的2θ倍。之后再以MobileNetV2[24]中的反向殘差結構和壓縮-激勵優化[25]構建的MBConv(圖8)作為基本模塊。通過神經網絡架構搜索方式,在限制目標FLOPs和存儲空間的情況下,搜索得到一系列網絡EfficientNet B0~B6。本文采用EfficientNet-B0網絡作為模型的主干網絡,網絡參數如表1所示。在stem stage層考慮到小模型對前期底層特征的依賴性,未使用最大池化,而采用步長為2的卷積操作,可有效減少信息的丟失。其中多個stage都采用5×5的卷積核,這是因為MBConv 5×5的浮點運算次數FLOPs5比2個

MBConv 3×3的浮點運算次數FLOPs3小,而且大卷積核比小卷積核的效率高。

(2)

式中H——輸入/輸出特征圖的高度

W——輸入/輸出特征圖的寬度

Mi——輸入特征圖的通道數

No——輸出特征圖的通道數

最后,某些stage特征圖的分辨率和不規則的通道數都未改變,這是MnasNet[26]在搜索網絡結構時因運算量約束而形成的。

表1 輕量級EfficientNet-B0 主干網絡參數Tab.1 Lightweight EfficientNet-B0 backbone network parameters

3.2 二次聯動擴展優化的小型檢測器

EfficientNet-Detector是EfficientNet網絡的延續和發展,在各類資源受限的條件下,能構建一系列更加高效、更加精確的可擴展檢測器[27]。完整的檢測模型一般由backbone網絡、特征網絡和類別/框預測網絡組成。在一次局部聯動擴展EfficientNet主干的基礎上,又從構建高效多尺度融合的BiFPN[27]和模型全局的二次聯動擴展兩方面出發,顯著提高檢測器的準確率,協調檢測器的效率。

(1)高效多尺度融合BiFPN

圖9 BiFPN搜索的不規則拓撲結構圖Fig.9 Irregular topology map of BiFPN search

(2)檢測器模型的全局聯動擴展

為了追求更高的檢測精度,一般檢測器模型的擴展大都只關注主干網絡,往往忽略特征網絡和類別/邊界框預測網絡的擴展。為此EfficientNet-Detector引入了一個簡單的全局復合因子ψ來二次統一聯動擴展模型的3個構成部分[27]。具體而言,就是直接采用局部聯動擴展后的最小型EfficientNet-B0作為主干網絡。其次,線性增加BiFPN結構網絡的深度,指數增加BiFPN結構網絡的寬度。最后,保持類別/邊界框預測網絡的寬度與BiFPN結構網絡的寬度相一致,只線性增加類別/邊界框預測網絡的深度。本文根據實時高效的檢測需求,取全局復合因子ψ為0,即堆疊BiFPN 層2次、類別/邊界框預測網絡中的卷積模塊3次。

dbi=2+ψ

(3)

wbi=64×1.35ψ

(4)

wc/b=wbi

(5)

dclass=dbox=3+ψ/3

(6)

式中dbi——BiFPN的深度

wbi——BiFPN的寬度

wc/b——類別/邊界框預測網絡的寬度

dclass——類別預測網絡的深度

dbox——邊界框預測網絡的深度

(3)小樣本正交Softmax分類層

深度學習可以通過大規模的圖像樣本取得巨大成功,但在許多實際問題中很難獲取大規模數據。比如在池塘河蟹檢測中,獲取大規模可用于訓練的水下圖像數據不現實。所以采用小樣本分類進行檢測是最科學合理的做法,即只需要將樣本粗略預測分類為河蟹和背景。但是在類別/邊界框預測網絡之前會經過很多個非線性層,這些層組成的深層神經網絡會形成一個巨大的函數空間,在遇到小樣本數據時會導致過擬合和不穩定的問題。為了減輕小樣本分類檢測過程中的過度擬合問題,需要從小樣本數據中學習更多的區分特征。而利用正交Softmax層[31]替代完全連接的分類層,便能夠找到一個可以輕松獲取較大決策余量[32]并能學習高度區分性特征的神經網絡子空間。具體來說,就是通過在輸出分類層中減少一些連接,并在訓練和測試過程中使不同類別的權重向量保持正交來獲取較大的決策余量(圖10)。這是因為分類層中權重向量間的角度越大,泛化能力越好。最終由于減少了連接、增加了不同類間的角度,正交Softmax層可以減輕網絡的協同適用,增強網絡的辨識能力,從而有效緩解小樣本檢測的過擬合問題,大幅提高網絡的泛化能力,增強檢測器的魯棒性。

圖10 樣本分類層的網絡子空間連接的比較Fig.10 Comparison of network subspace connections in sample classification layer

4 實驗

4.1 活蟹檢測器訓練與測試

檢測模型的訓練和測試硬件環境為Intel E5 CPU, 64 GB RAM,4 NVIDIA 1080 Ti GPUs,采用Python3編程語言和PyTorch深度學習框架實現。以圖像為中心對高效活蟹檢測器模型進行訓練。檢測器的各項訓練超參數設置如表2所示,通過修改網絡類別索引將檢測器設置為僅保留河蟹類別的二分類檢測模型。在訓練過程中采用兩種訓練方式,一種是未做任何微調的直接訓練,另一種是基于Pre-training和Fine-tuning的遷移訓練。本文采用的遷移訓練方式主要分為兩階段:第1階段下載并加載Pre-training的權重,凍結主干網絡訓練;第2階段凍結批歸一化層,其余層開始訓練。在第2階段過程中,參數較大時依然可以凍結部分主干網絡不讓其全部參與訓練。對河蟹檢測器模型訓練迭代了12 900次,這意味著將損失函數反向傳播了12 900次,來調節網絡各層的權值。訓練損失值如圖11所示,從圖中可以明顯觀察到遷移訓練的損失值相較于直接訓練可以很快地趨于穩定的小值,并且損失值的毛刺波動較小。圖12進一步證明了遷移學習能提高訓練效率。最終本文采用遷移學習訓練出了精確的檢測器。

表2 檢測器的訓練超參數Tab.2 Training parameters of detector

圖11 訓練損失值曲線Fig.11 Training loss curves

圖12 兩種訓練的平均準確率Fig.12 Average accuracy of two training methods

4.2 圖像降噪與顏色校正效果分析

圖13 圖像降噪與顏色校正前后的矩形邊界框檢測結果Fig.13 Rectangular-bounding box detection results before and after image denoising and color-correction

為了驗證采用K-SVD和Retinex算法進行降噪和顏色校正增強的效果與性能,對比處理前后的圖像,發現處理后的圖像整體更加清晰,這表明所用降噪方法進行了有效降噪且未破壞紋理信息;同時圖像中河蟹與背景有了相對鮮明的對比,顏色不再呈現強烈不均勻,表明所用增強方法對圖像進行了適當的顏色校正且未造成結構失真(圖13a、13b)。另一方面,分別利用預處理前后的數據訓練檢測模型并對測試集進行檢測。兩個模型的客觀邊界框檢測數據顯示,預處理前訓練的模型針對多目標且相互遮擋的河蟹目標會出現漏檢的情況(圖13b)。而預處理后訓練的模型應用于各種場景時很少出現漏檢和誤檢的情況(圖13d)。并且表3第2行所示降噪、顏色校正增強后的平均交并比Iou相較第1行預處理前增加了8.01個百分點。單值Iou更加地接近于1,甚至出現某些矩形邊界框的檢測范圍包含于標記的真值框(圖13e)。此外,表3顯示預處理后河蟹檢測精度提高了約5個百分點,誤檢河蟹數量明顯減少。這些進一步證明了利用本文方法處理圖像后,其特征信息易于計算機理解與分析,河蟹識別準確率更高。

4.3 檢測器可靠性分析

為了測試EfficientNet-Detector對水下河蟹檢測的可靠性,利用包含2 192只河蟹的1 032幅測試圖像,分別從一次聯動擴展的EfficientNet主干網絡對特征的專注性和二次全局聯動擴展的EfficientNet-

表3 聯動擴展和正交Softmax層對檢測模型性能的影響Tab.3 Effects of compound scaling and orthogonal Softmax layer on performance of detection model

圖14 梯度加權的類激活圖Fig.14 Gradient-weighted class activation maps

Detector對檢測精度和速度的協調性兩方面進行了分析。最后驗證了正交Softmax分類層對模型泛化能力的作用。為了準確地分析、驗證檢測器的性能,需要采用多種客觀評價標準從各個方面對其進行評判。評價指標為交并比Iou,用于衡量數據集上目標檢測器的準確性,如果其值大于50%則認為檢測結果可信。之后由查準率P、查全率R和戴斯系數Dc對檢測結果進行全面評估。戴斯系數Dc是查準率P和查全率R的調和平均值,是評估檢測器檢測準確性的標準化度量。上述指標的取值范圍都在0~100%之間,并且其值越大越好。而對于檢測效率的評估除了評估圖像的平均檢測時間FPS,還從模型的FLOPs、參數量Para和模型內存Ms進行了全面評估。

(7)

(8)

(9)

(10)

式中OA——標記真值框與檢測邊界框的交集

OU——標記真值框與檢測邊界框的并集

TP——正確檢測的河蟹數量

FP——錯誤檢測的河蟹數量

FN——在規定范圍內未檢測到的河蟹數量

通過對圖14的分析發現,類激活顯著性灰度圖(圖14b)是通過河蟹全局的像素點感知圖像類別的。而由圖14c可以看出,蟹螯部分的類激活強度很高,河蟹其他部分的類激活強度平穩。這表明模型主要是通過圖像中蟹螯部分的像素點實現河蟹目標的分類,進一步驗證了矩形框標記蟹螯做法的正確性。最后圖14d驗證了在經過擴展系數θ=1聯動擴展后,參數量和FLOPs小一個數量級的情況下,EfficientNet主干模型可以更加顯著地專注于更多目標的細節和更相關目標的圖像區域。即便是相似的蟹腿也受到顯著關注,這能夠有效緩解活蟹不規則形狀特征提取困難的問題。表3展示了聯動擴展和正交Softmax層對檢測模型的性能影響。通過對比表3中第2行和第6行數據發現,當全局整體聯動擴展的復合因子ψ大于等于1時,檢測器的精度檢測指標都有約2%的提升。但也伴隨著模型內存的增大以及檢測時間的增加,不過這為具有不同有限資源的移動設備提供了靈活的選擇需求。而考慮到自動投餌船的成本效益和資源限制情況,選擇聯動擴展程度最低的EfficientNet-B0和整體聯動擴展復合因子最小的EfficientNet-Det0最合理,既適合投餌船移動端的需求又可獲得較高的檢測精度。最后對比表中數據發現,將檢測器的分類層替換為正交Softmax層后,進一步增強了小樣本網絡的辨識能力。在僅需15 MB存儲內存的情況下,檢測模型Dc為95.53%。在普通配置的GPU和CPU上,單幅圖像檢測延遲分別僅為10.6、35.0 ms,能夠滿足水產養殖系統對現代設備平臺處理頻率(10 Hz)的實時需求。

4.4 檢測器實用性分析

為了測試高效活蟹檢測器EfficientNet-Det0對水下河蟹檢測的實用性,將其與YOLOv3[7]、Faster R-CNN[17]、SSD[8,11,19]算法以及傳統的HOG+SVM (Support vector machine)[14]檢測方法進行比較,結果見表4。

表4 不同檢測算法的檢測參數比較Tab.4 Comparison of detection parameters for different detection algorithms

通過表4數據分析發現,EfficientNet-Det0采用BiFPN的拓撲快速特征融合機制,其查準率比YOLOv3高1.37個百分點。雖然與Faster R-CNN算法的查準率存在一定的差距,但EfficientNet-Det0的查準率與模型性能可以通過主干網絡EfficientNet的擴展系數θ和模型的聯動擴展復合因子ψ進行有效的優化、權衡和取舍。相較于YOLOv3算法,FLOPs減少至其1/15、運行速度是其3倍的情況下,本文算法實現了查準率96.21%和查全率94.86%。相較于SSD-VGG16和SSD-MobileNetV1算法,EfficientNet- Det0在模型存儲空間上分別約為其1/9和5/7。這是因為SSD-VGG16和SSD-MobileNetV1算法僅從多尺度特征網絡和人工設計主干網絡計算方式(深度可分離卷積)方面單一地提升網絡性能。而EfficientNet-Det0是從構成模型的3個主要部分共同提升,并且在提升的過程中采用了人工設計網絡計算方式(MBConv單元)、神經網絡架構搜索(MnasNet搜索)、卷積神經網絡深度壓縮(裁枝)3種輕量化設計思想。相較于HOG+SVM方法,EfficientNet-Det0在各方面都有著顯著的優勢,這是因為HOG+SVM方法提取的方向梯度直方圖特征僅適合規范且具有方向性的目標,而河蟹姿態各異、形狀不規則。此外,河蟹的這類特點也進一步加劇了SVM高維分類的困難。EfficientNet-Det0采用的是卷積神經網絡,能夠學習、提取輸入數據的局部區域特征,比如顏色、紋理、形狀等低維特征。最重要的是能夠學習、提取輸入數據的深層抽象特征,比如圖像中目標的屬性、輪廓、位置等高維信息。而這類深層次的特征對圖像中目標的形狀、位置、大小、姿態、方向等并不敏感,所以能夠確保面對獨立不規則的復雜河蟹目標依然可以具有很高的識別檢測率,從側面驗證了EfficientNet-Det0具有較高的魯棒性。所以綜合檢測精度、計算速度、模型內存和魯棒性來看,EfficientNet-Det0對于計算資源有限的移動設備具有很好的實用性,是一種可靠的適合搭載在自動投餌船上進行水下河蟹檢測、指導河蟹均勻投喂的算法。

5 結論

(1)利用分解式并行降噪和色彩校正算法對呈現藍綠色且伴隨強烈不均勻色彩的低質量圖像進行了簡單有效的預處理,顯著提高了圖像的清晰度,緩解了色彩不均勻性,保證了圖像信息的可靠性,使其易于分析。

(2)采用局部聯動擴展的EfficientNet-B0作為活蟹檢測器的主干網絡,采用拓撲且快速特征融合的BiFPN 作為特征網絡,采用基于錨框的類別/邊界框作為預測網絡。對模型進一步采用全局聯動擴展,構建適用于有限資源的一系列高效檢測器。通過建立的20 625幅圖像數據集對模型進行訓練和性能測試,在此過程中,針對小樣本數據的過擬合問題,采用正交Softmax層進行了優化。訓練的模型在僅需15 MB存儲內存的情況下,實現查準率96.21%和查全率94.86%,單幅圖像檢測延遲分別為10.6 ms(GPU)和35.0 ms(CPU)。

(3)實驗對比了3類6種不同的檢測算法,從檢測精度、計算速度、模型內存和魯棒性4方面驗證了所訓練的檢測器的可靠性和實用性。本文算法相較于YOLOv3算法,浮點運算次數FLOPs減少至其1/15,CPU運行速度是其3倍,戴斯系數為95.53%。

猜你喜歡
特征檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 54pao国产成人免费视频| 国产在线精彩视频二区| 亚洲国产看片基地久久1024| 欧美日韩国产一级| 国产手机在线观看| 青青青草国产| 国产三级国产精品国产普男人| 国产精品短篇二区| 午夜视频在线观看免费网站| 国产成人精品优优av| 内射人妻无套中出无码| 久久无码av三级| 久久亚洲精少妇毛片午夜无码| 亚洲精品国产自在现线最新| 亚洲精品第五页| 人妻无码中文字幕一区二区三区| 18禁色诱爆乳网站| 亚洲国产亚综合在线区| 久热re国产手机在线观看| 久久久久久国产精品mv| 日本一区二区三区精品视频| 国产精品自在拍首页视频8| 伊人精品成人久久综合| 六月婷婷激情综合| 亚洲AV无码乱码在线观看裸奔 | 四虎国产在线观看| 国产激情无码一区二区三区免费| 国产美女精品一区二区| 国精品91人妻无码一区二区三区| av在线5g无码天天| 亚洲精品第一页不卡| 国产网站免费| 亚洲精品不卡午夜精品| 中文字幕日韩欧美| 成人国产免费| 国产乱子伦视频在线播放| 国内丰满少妇猛烈精品播| 亚洲美女高潮久久久久久久| 亚洲欧洲日产无码AV| 久久伊人操| 国产男女XX00免费观看| 一级毛片网| 精品福利视频导航| 亚洲清纯自偷自拍另类专区| 久久综合色天堂av| 久久一色本道亚洲| 人人艹人人爽| 性色生活片在线观看| 国产一级毛片yw| 国产美女叼嘿视频免费看| 日韩在线永久免费播放| 在线人成精品免费视频| 久久国产亚洲偷自| 亚洲色图在线观看| 丰满人妻一区二区三区视频| 精品国产污污免费网站| 亚洲成人一区二区三区| a级毛片免费播放| 国产精品手机在线播放| 欧美午夜理伦三级在线观看| 99久久精品无码专区免费| P尤物久久99国产综合精品| 91探花国产综合在线精品| 日韩a在线观看免费观看| 99伊人精品| 精品无码国产自产野外拍在线| 国内精品免费| 成人在线综合| 亚洲一区二区黄色| 亚洲精品无码AⅤ片青青在线观看| 国产激爽大片高清在线观看| 日韩精品无码一级毛片免费| 五月婷婷综合网| 亚洲精品在线影院| 在线另类稀缺国产呦| www.亚洲一区| 亚洲男人天堂久久| 国产午夜无码片在线观看网站| 久久精品国产91久久综合麻豆自制| 成人看片欧美一区二区| 欧美激情第一区| 草逼视频国产|