999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLOv5算法的瓜蔞分級方法

2024-01-01 00:00:00霍正瑞孫鐵波
中國農機化學報 2024年4期

摘要:

為解決瓜蔞檢測技術存在的檢測精度低且檢測時間長的問題,提出一種基于改進YOLOv5算法的瓜蔞分級方法YOLOv5-GCB。在主干網絡引入Ghost卷積模塊替換傳統卷積,在保證準確率的同時減少模型的參數量;在特征提取網絡和推理層之間添加CA注意力模塊,增強模型對空間和通道信息的關注,提高檢測精度;在頸部網絡中引入雙向加權特征金字塔網絡(Bi-directional Feature Pyramid Network,BiFPN)替換原始結構,融合不同尺度特征提升多尺度目標的表達能力。結果表明:與原有的YOLOv5模型相比,改進的YOLOv5-GCB算法對瓜蔞等級的檢測準確率提高4%,達到95.3%,檢測速度達到31.5 fps。該研究提出的算法在保證瓜蔞分級檢測準確率的同時擁有更高的識別速度,為實際場景中的瓜蔞分級提供理論研究和技術支持。

關鍵詞:瓜蔞分級;目標檢測;多尺度特征融合;CA注意力機制

中圖分類號:S609.2; TP183; TP399

文獻標識碼:A

文章編號:2095-5553 (2024) 04-0100-08

收稿日期:2023年10月19日" 修回日期:2023年12月20日

基金項目:江蘇省高等學?;A科學(自然科學)研究重大項目(23KJA520005)

第一作者:霍正瑞,男,1998年生,江蘇東海人,碩士研究生;研究方向為計算機視覺。E-mail: 495691435@qq.com

通訊作者:孫鐵波,男,1983年生,遼寧綏中人,博士,副教授;研究方向為機器視覺及軟件仿真。E-mail: sieo2005@163.com

A method for grading Trichosanthes based on improved YOLOv5 algorithm

Huo Zhengrui1, Sun Tiebo2

(1. College of Marine Food and Biological Engineering, Jiangsu Ocean University, Lianyungang, 222000, China;

2. School of Intelligent Manufacturing, Jiangsu Food and Pharmaceutical and Science College, Huaian, 223001, China)

Abstract:

In order to solve the problems of low detection accuracy and long detection time of trichosanthes detection technology, a method of grading trichosanthes, YOLOv5-GCB, based on improved YOLOv5 algorithm, is proposed. Firstly, the Ghost convolution module is introduced in the backbone network to replace the traditional convolution, which reduces the number of parameters of the model while guaranteeing the accuracy. Then, the CA attention is added between the feature extraction network and the inference layer module is added between the feature extraction network and the inference layer to enhance the model’s attention to spatial and channel information and improve the detection accuracy." Finally, a Bi-directional Feature Pyramid Network (BiFPN) is introduced into the neck network to replace the original structure, and the fusion of different scale features improves the expression ability of multi-scale targets. The results show that compared with the original YOLOv5 model, the improved YOLOv5-GCB algorithm increases the detection accuracy of trichosanthes grades by 4% to 95.3%, and the detection speed reaches 31.5 fps. The algorithm proposed in this study guarantees the accuracy of trichosanthes grades detection with higher recognition speed, which provides theoretical research and technical support for trichosanthes grades grading in real scenarios.

Keywords:

target detection; trichosanthes classification; multi-scale feature fusion; CA attention mechanism

0 引言

瓜蔞是一種多年生草質藤本植物,屬于葫蘆科瓜蔞屬,具有藥食兼用的價值[1]。目前的瓜蔞質量分級主要依靠人工進行,然而,這種人工分級方式耗時長、勞動力成本高,對人的視力、判斷力、工作效率和經驗要求較高。同時,由于人工分級的主觀性,可能導致分級結果不準確[2],給瓜蔞生產加工帶來不利影響。因此,采用自動化技術實現瓜蔞分級已成為行業迫切需要解決的問題。

隨著卷積神經網絡的不斷發展,在各種視覺任務中,特別是水果的成熟度識別和分類方面,深度學習技術取得了顯著的成果。目前的目標檢測模型主要分為一階段目標檢測和雙階段目標檢測模型。雙階段目標檢測需要先生成大概包含的位置區域,之后對類別區域進行分類和位置回歸,雖然精度較高,但速度相對較慢。雙階段模型中較為經典的是R-CNN(區域卷積神經網絡)[3]系列,包括Fast R-CNN[4],Faster R-CNN[5]等。而一階段模型中,最具代表性的是YOLO系列[6-9]。由于不需要候選框,直接利用神經網絡得到分類以及回歸結果。雖然犧牲部分精度,但檢測速度顯著提高,更加適合實時檢測的場景。

基于上述思想,許多學者開始利用深度學方法來對水果的成熟度進行識別和分類。聶衍文等[10]提出一種基于YOLOv5的輕量化芒果果面缺陷檢測算法,采用C3_Ghost來代替原YOLOv5網絡結構中的C3模塊,在滿足芒果表面缺陷檢測要求的前提下,相較于原算法可使參數量減少45.9%,降低了模型對部署設備的性能需求。Habaragamuwa等[11]利用卷積神經網絡進行室內成熟和未成熟草莓的判斷。Nasir等[12]提出一種基于VGG16卷積神經網絡的椰棗自動分級方法,整體分類準確率達96.98%。張立杰等[13]提出一種基于改進型SSD卷積神經網絡的蘋果定位與分級算法,使用深度可分離卷積模塊替換原SSD網絡主干特征提取網絡中部分標準卷積,實現了網絡的輕量化,但檢測精度稍微降低。熊俊濤等[14]提出一種基于YOLOv5-Lite的自然環境木瓜成熟度檢測方法,采用Mobilenetv3作為主干特征提取網絡替換原來的CSPDarknet53,通過將3個具有相同的初步有效特征層進行對應替換,從而減少參數量,但存在檢測速度降低的局限性。惠巧娟等[15]提出基于多尺度特征度量元學習的玉米葉片病害識別模型,通過VGG16和Swin Transformer網絡提取全局和局部特征,利用多尺度特征融合網絡實現全局和局部特征的深度融合,強化特征分類能力,最終總體檢測精度在Plant Village數據集和自建數據集上分別提升3.05%和3.28%,但識別速度方面沒有改進。

綜上所述,基于深度學習的目標檢測在農業中的分類任務已經取得了較為理想的效果。然而,目前基于深度學習模型的瓜蔞識別與檢測研究較少,并且其他檢測模型還存在檢測精度低、模型參數量大等問題。因此,本文通過改進YOLOv5算法對檢測精度和模型輕量化進行研究,有效解決了瓜蔞在實際分級中精確度和輕量化難以平衡的問題。通過獲取種植基地的瓜蔞圖像,采用改進的YOLOv5-GCB深度學習算法對瓜蔞進行等級檢測,進而為農業生產中瓜蔞的選擇性采收提供精確的視覺檢測技術支持。

1 數據集

本文使用的瓜蔞圖像數據來自種植基地購買的全瓜蔞,參考團體標準T/CACM 1021.152—2018[16]將瓜蔞分為一等品、二等品、三等品以及四等品,數據集部分可視化樣本如圖1所示。

使用一臺IphoneXs Max手機的后置攝像頭在固定光源下,距離瓜蔞目標13 cm處拍攝。為充分模擬自然條件下瓜蔞的位姿,拍攝角度環視整個瓜蔞,充分采集到正面、底面、側面的瓜蔞圖像,共獲得1 300張圖片。隨機選取原圖像數據分別進行水平、垂直翻轉等操作,從而將數據集增加到2 643張。通過人工篩選去除圖像質量較差的樣本之后,最終的圖片數量為2 200張。數據集統一采用LabelImg工具的矩形框標注法進行標注,并按照8∶1∶1的比例劃分為訓練集、驗證集和測試集。

2 相關技術和理論

根據不同的網絡深度和特征圖的寬度,YOLOv5可以分為四種模型:YOLOv5s,YOLOv5m,YOLOv5l和YOLOv5x。在MSCOCO測試數據集上研究并獲得這些模型的性能,如表1所示。

從性能對比可以得出結論,在這些版本中,YOLOv5s的處理速度最快,YOLOv5x的檢測精度最高。具體來說,這四個模型具有相同的網絡結構,由輸入、骨干網絡、頸部和檢測頭4個部分組成。YOLOv5s的結構如圖2所示。

Input包括Mosaic數據增強、圖像尺寸處理和自適應Anchor計算。Mosaic數據增強是一種創新的數據增強技術,通過隨機組合和分布4個圖像來增加數據集中目標的多樣性,該方法能夠增強網絡的魯棒性并減少計算資源的消耗。圖像尺寸處理可以自適應地為不同長度和寬度的原始圖像添加最小黑色邊框,并將它們統一縮放到標準大小,可以在模型推理過程中減少冗余信息,提升推理速度。自適應錨框計算將輸出預測框與基于初始錨框的實框進行對比,計算差距然后反向更新,不斷迭代參數以獲得最優的錨框值。

Backbone主要由Focus、Conv、C3、空間金字塔池化(Spatial Pyramid Pooling,SPP)等模塊組成。Focus模塊將輸入數據分成4個部分,每個部分相當于兩個下采樣。這4段數據在通道維度上拼接,然后通過卷積操作得到特征圖。Focus模塊可以在丟失較少信息的情況下,同時完成下采樣,并且還通過reshape減少FLOPs,加快網絡推理速度。Conv是復合卷積模塊,主要作用為依次對輸入執行二維卷積、正則化和激活操作。

C3模塊是由若干個瓶頸殘差結構模塊構成的。在殘差結構模塊中,輸入數據首先通過兩個卷積層進行處理,然后將處理后的結果與原始輸入進行concat操作,在不增加輸出深度的情況下完成特征傳遞。此外,空間金字塔池化模塊(SPP模塊)通過執行不同內核大小的最大池化操作,以實現特征的融合[17]。在頸部網絡中,使用特征金字塔網絡(FPN)和路徑聚合網絡(PAN)的結構。FPN結構自上而下將高層特征圖傳遞到底層的特征圖,而PAN結構則在FPN后面添加一個自下而上的金字塔。這兩種結構共同增強了頸部網絡的特征融合能力。Head部分根據特征融合網絡的輸出進行多尺度預測。然后,通過非極大值抑制(NMS)算法過濾掉與其他預測框高度重疊的預測框,最終生成預測結果。

3 YOLOv5-GCB網絡架構

3.1 Ghost模塊輕量化

在傳統的卷積神經網絡中,通常增加卷積層數量可以提取更多的特征,同時也帶來一些挑戰。更多的卷積層會導致參數量和計算量的增加,這會導致龐大且復雜網絡結構,因此在計算能力和存儲空間有限的設備上部署會非常困難。本文利用Ghost卷積代替傳統卷積,顯著降低模型的參數量并縮短模型的推理時間,從而提升模型的效率。Ghost卷積是GhostNet[18]中提出的一個創新模塊,主要優點是能夠在保持特征圖數量的同時,減少參數和計算量。圖3為普通卷積和Ghost卷積之間的比較。

原始的Ghost模塊由兩部分組成,分別為精簡卷積和輕量級線性變換操作。精簡卷積將普通卷積操作的卷積核數量壓縮為原來的一半,從而可以減少一半的計算量。輕量級線性變換是對第一步操作所提取出的特征圖逐個進行卷積核為3或5的卷積。最后將以上兩步操作所得到的特征圖進行拼接來生成最終的特征圖,得到與普通卷積相當的特征圖,能夠在降低影響網絡提取特征性能的同時減少參數量。

假設輸入特征圖的大小為h×w×c,輸出特征圖的大小為h′×w′×n,卷積核的大小為k×k,h和w是輸入特征圖的高度和寬度,h′和w′分別是輸出要素映射的高度和寬度。在這個普通卷積過程中,所需的FLOP數量計算如式(1)所示。

3.2 CA注意力模塊

CA注意力機制模塊包括坐標信息嵌入以及坐標注意力生成兩部分,其結構如圖4所示。

在瓜蔞質量分級過程中,由于破損、病害等缺陷在圖像中所占像素比例較小,瓜蔞圖像經過卷積操作后,容易出現目標漏檢的情況。為了提升網絡在復雜場景下對目標的檢測能力,同時加強網絡對有效信息的關注,本文在YOLOv5網絡中引入一種新型的注意力機制(Coordinate Attention, CA)。與普通的注意力機制不同,CA模塊是簡單高效的注意力機制,不僅計算不同通道之間的相關性,還考慮了特征圖的空間位置信息,這使得網絡能夠專注于關鍵信息,同時忽略無關信息。

不同于常規的注意力機制,CA注意力機制將全局池化分解成兩個一維特征編碼操作,從而讓網絡能精準獲取位置信息。

坐標信息嵌入階段,對輸入尺寸為C×H×W的特征圖,分別沿著X和Y方向對每個通道進行池化操作,池化核尺寸分別為(H,1)和(1,W),得到第c個通道高度為H的輸出特征圖zhc(h),如式(3)所示。同樣,可以得到寬度為W的第c通道的輸出特征圖zwc(w),如式(4)所示。在沿著兩個空間方向進行特征聚合后,可以得到一對具有方向感知的特征圖。這兩種轉換使得注意力模塊能夠捕獲一個空間方向上的長期依賴關系,同時保留另一個空間方向上的精確位置信息,這有助于網絡精確定位感興趣的目標。

3.3 多尺度特征融合網絡

受限于待檢測目標大小與位姿不同,如何更有效地處理興趣目標的類別與位置仍是目標檢測的難題。原始YOLOv5算法中采用的特征金字塔網絡結構[18](FPN),如圖5(a)所示,這種結構通過自上而下的方式融合了不同層次的特征,從而實現了對圖像的淺層位置信息和深層語義信息的同時處理。然而,這種結構會受到單向信息流的影響。為解決這一問題,研究者們提出了路徑聚合網絡(PAN)[20]結構,如圖5(b)所示。

這種結構在FPN的基礎上增加了一個反向的信息流通道,將底層的圖像信息傳遞到預測特征層,從而使得預測層能同時處理高層的語義信息和底層的位置信息。但是,PAN結構在特征融合過程中可能會出現信息不足的情況,導致信息的丟失,這嚴重影響了輸出特征的質量。

為了解決上述問題,本文采用一種更加高效的BiFPN[21]特征融合結構,如圖5(c)所示。BiFPN結構是以PAN為基礎,刪除了無特征融合的節點,并在同一特征層的輸入節點和輸出節點之間添加了跳躍連接,從而在節省資源消耗的同時融合了更豐富的特征信息。BiFPN結構采用權值與其總和的比例進行快速歸一化融合,從而提高對不同場景下目標的感知能力。在預測端,能夠有效地融合不同層級間的特征圖信息,解決特征融合不充分的問題。改進后的YOLOv5-GCB網絡結構如圖6所示。

4 試驗結果與分析

4.1 試驗環境

本文采用的訓練平臺硬件:Intel(R)Core(R)i7 127700F CPU @2.10 GHz 16G,GPU是GeForceRTX 3060 Ti;深度學習框架選用Pytorch;編程語言為Python;CUDA及GPU加速庫Cudnn的版本為11.0和7.6.5。

對于YOLOv5-GCB模型,訓練過程中設置Batchsize為16,初始學習率設置為0.001,動量參數設置為0.937,采用SGD優化器進行優化,使用Focal_loss進行平衡正負樣本,正負樣本平衡參數設置為0.25。

由圖7可知,改進前網絡在75輪迅速收斂并趨于穩定,改進后網絡在50輪就迅速收斂并達到穩定,并且兩種網絡都達到了很高的平均精度,改進后的網絡較原始網絡有了較大提高。

4.4 消融試驗

為了進一步驗證各個改進模塊的作用和有效性[22],本文設置了消融試驗,其結果如表2所示。由表2可知,不同的模塊加入對于模型來說均有積極影響。與原始YOLOv5相比,添加Ghost模塊模型的FLOPs以及模型重量分別減少了25%和23%,而mAP與Recall分別降低0.5%和2.7%。在Ghost模塊的基礎上加入CA注意力模塊可以使mAP與Recall分別提高了2.7%和4.1%。多尺度特征融合的改進可以使整體平均精度提高1.9%,模型參數量少量增加。由此可知,改進后的網絡結構可以有效提高瓜蔞分級檢測的準確性,并且顯著降低了模型的參數量。

4.5 對比試驗

為了更加客觀地評價改進的YOLOv5模型在瓜蔞分級檢測中的效果,本文將改進后的YOLOv5模型與其他主流算法進行了對比,包括YOLOv7、YOLOv6、原YOLOv5、YOLOv3、YOLOv4、Faster R-CNN、SSD[23]。試驗過程遵循控制變量原則,試驗軟硬件環境保持一致。評價指標采用精確率(Precision)、召回率(Recall)、F1-Score值以及mAP值作為參考指標。試驗結果如表3所示。

對比表3中數據可知,YOLOv5-GCB網絡相較于原始的YOLOv5準確率和召回率方面提升了4.6%和3.9%,分別達到了95.8%和94.2%,并且在常用的檢測模型中該網絡的精度也是最高的,平均檢測精度達到了95.3%,滿足瓜蔞檢測對精度的要求。與其他模型比較,改進模型的平均精度相較于Faster R-CNN、SSD、YOLOv3、YOLOv4、YOLOv5、YOLOv6、YOLOv7分別高出10.1%、20.1%、9.2%、7.9%、4%、2.8%和0.7%,檢測速度除了略慢于SSD均領先其他模型;證明了改進模型在滿足檢測實時性要求的同時具有很高的檢測準確率。

為驗證本文算法的有效性,將本文改進目標檢測算法與目前主流目標檢測算法檢測結果進行了可視化展示,如圖8所示。本文算法檢測框和目標貼合得更為緊密,置信度更高,同時分級檢測精度更高。

為了更有效地驗證CA注意力模塊對網絡性能的提升,本文使用Grad-CAM對網絡關注信息進行可視化效果對比。將兩種網絡輸入Grad-CAM測試后,YOLOv5與加入CA注意力機制前后的熱力圖對比如圖9所示。

由圖9可知,引入CA注意力機制后,可以使網絡更有效地提取瓜蔞缺陷的全局特征信息,使網絡對目標位置的捕捉更為精確。此外,該機制還能夠減少網絡對無關信息的關注,提高網絡的檢測精度。

5 結論

1) 本文模型的主干網絡通過Ghost模塊代替傳統卷積網絡的方式獲取冗余特征圖,顯著降低參數量。

在特征提取主干網絡和推理層之間嵌入CA注意力機制模塊,同時獲取跨通道間特征信息和位置信息,增強網絡精確定位目標的能力。

將Neck層中原有的PAN結構修改為BiFPN結構,優化信息流融合渠道,提升模型的檢測效果。

2) 通過對比試驗可知,改進后的模型相較于原始算法,檢測速度達31.5 fps,在保證檢測速度的同時平均準確率達到95.3%,能夠滿足瓜蔞分級檢測的要求。

未來將本文所提算法部署到嵌入式設備中,并且通過嵌入式設備與硬件系統的通信達到瓜蔞自動分級場景的實現。同時,將繼續擴大不同等級瓜蔞的數據集中的種類和數量,提高瓜蔞自動分級算法的可信度。

參 考 文 獻

[1] 柴欣, 朱霖, 戚愛棣, 等. 栝樓屬植物化學成分研究進展[J]. 遼寧中醫藥大學學報, 2013, 15(1): 66-70.

Chai Xin, Zhu Lin, Qi Aidi, et al. Research progress in the chemical constituents of trichosanthes L [J]. Journal of Liaoning University of Traditional Chinese Medicine, 2013, 15(1): 66-70.

[2] 郭書巧, 束紅梅, 何曉蘭, 等. 江蘇省栝樓產業發展現狀及對策[J]. 中國瓜菜, 2019, 32(12): 84-87.

[3] Bochkovskiy A, Wang C Y, Liao H Y M. Yolov4: Optimal speed and accuracy of object detection [J]. arXiv, 2020: 10934.

[4] Girshick R. Fast r-cnn [C]. Proceedings of the IEEE/International Conference on Computer Vision, 2015: 1440-1448.

[5] Ren S, He K, Girshick R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks [J]. IEEE/Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.

[6] Redmon J, Divvala S, Girshick R, et al. You only look once: Unified, real-time object detection [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 779-788.

[7] Redmon J, Farhadi A. YOLO9000: Better, faster, stronger [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2017: 7263-7271.

[8] Redmon J, Farhadi A. YOLOv3: An incremental improvement [J]. ArXiv Preprint ArXiv: 1804.02767, 2018.

[9] Bochkovskiy A, Wang C, Liao H M. YOLOv4: Optimal speed and accuracy of object detection [J]. ArXiv Preprint ArXiv: 2004.10934, 2020.

[10] 聶衍文, 楊佳晨, 文慧心, 等. 基于機器視覺的輕量化芒果果面缺陷檢測[J]. 食品與機械, 2023, 39(3): 91-95, 240.

Nie Yanwen, Yang Jiachen, Wen Huixin, et al. Light weight detection of mango surface defects based on machine vision [J]. Food amp; Machinery, 2023, 39(3): 91-95, 240.

[11] Habaragamuwa H, Ogawa Y, Suzuki T, et al. Detecting greenhouse strawberries (mature and immature), using deep convolutional neural network [J]. Engineering in Agriculture, Environment and Food, 2018, 11(3): 127-138.

[12] Nasiri A, Taheri-Garavand A, Zhang Y. Image-based deep learning automated sorting of date fruit [J]. Postharvest Biology and Technology, 2019, 153: 133-141.

[13] 張立杰, 周舒驊, 李娜, 等. 基于改進SSD卷積神經網絡的蘋果定位與分級方法[J]. 農業機械學報, 2023, 54(6): 223-232.

Zhang Lijie, Zhou Shuhua, Li Na, et al. Apple location and classification based on improved SSD convolutional neural network [J]. Transactions of the Chinese Society for Agricultural Machinery, 2023, 54(6): 223-232.

[14] 熊俊濤, 韓詠林, 王瀟, 等. 基于YOLOv5-Lite的自然環境木瓜成熟度檢測方法[J]. 農業機械學報, 2023, 54(6): 243-252.

Xiong Juntao, Han Yonglin, Wang Xiao, et al. Method of maturity detection for papaya fruits in natural environment based on YOLOv5-Lite [J]. Transactions of the Chinese Society for Agricultural Machinery, 2023, 54(6): 243-252.

[15] 惠巧娟, 孫婕. 基于多尺度特征度量元學習的玉米葉片病害識別模型研究[J]. 江蘇農業科學, 2023, 51(9): 199-206.

Hui Qiaojuan, Sun Jie. Study on maize leaf disease recognition model based on multi-scale feature metric meta-learning [J]. Jiangsu Agricultural Sciences, 2023, 51(9): 199-206.

[16] T/CACM 1021.152—2018, 中藥材商品規格等級—瓜蔞[S].

[17] He K, Zhang X, Ren S, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition [J]. IEEE/Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(9): 1904-1916.

[18] Han K, Wang Y, Tian Q, et al. GhostNet: More features from cheap operations [C]. 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2020: 1580-1589.

[19] Lin T Y, Dollár P, Girshick R, et al. Feature pyramid networks for object detection [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2017: 2117-2125.

[20] Liu S, Qi L, Qin H, et al. Path aggregation network for instance segmentation [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018: 8759-8768.

[21] Tan M, Pang R, Le Q V. EfficientDet: Scalable and efficient object detection [C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020: 10781-10790.

[22] Zou Y, Zhao L, Kang Y, et al. Topic-oriented spoken dialogue summarization for customer service with saliency-aware topic modeling [C]. Proceedings of the AAAI Conference on Artificial Intelligence, 2021, 35(16): 14665-14673.

[23] Liu W, Anguelov D, Erhan D, et al. SSD: Single shot multibox detector [J]. International Journal of Engineering Intelligent Systems for Electrical Engineering and Communications, 2016, 14(3): 21-37.

主站蜘蛛池模板: 国产欧美亚洲精品第3页在线| 亚洲国产日韩一区| 91麻豆国产精品91久久久| 中文字幕在线看视频一区二区三区| 日本成人精品视频| 91色爱欧美精品www| 亚洲IV视频免费在线光看| 永久在线精品免费视频观看| 日韩不卡高清视频| 色婷婷久久| 亚洲天堂久久久| 久久99精品久久久久纯品| 亚洲欧美日韩天堂| 99国产精品一区二区| 国产偷倩视频| 日韩欧美高清视频| 91精品视频网站| 日本国产在线| 欧美精品三级在线| 在线观看精品自拍视频| 婷婷综合在线观看丁香| 久久久久国产一区二区| 亚洲日韩精品无码专区97| 欧美日韩在线成人| 久久婷婷综合色一区二区| 在线看片免费人成视久网下载| 亚洲V日韩V无码一区二区| 亚洲天堂免费在线视频| 国产主播福利在线观看| 亚洲日韩精品综合在线一区二区| 精品国产一二三区| 国产精品无码一区二区桃花视频| 日韩国产黄色网站| 精品第一国产综合精品Aⅴ| 毛片网站观看| 91高清在线视频| 欧美啪啪精品| 国产成人高清精品免费软件| 亚洲av成人无码网站在线观看| 免费人成视频在线观看网站| 99视频在线精品免费观看6| 欧美高清国产| 亚洲一区二区成人| 亚洲欧美人成人让影院| 少妇人妻无码首页| 国产91视频免费观看| 青青草国产在线视频| 综合人妻久久一区二区精品| 国产最新无码专区在线| 国产农村妇女精品一二区| 波多野结衣视频一区二区 | 在线观看av永久| 亚洲无码高清一区二区| 国产精品久久自在自线观看| 欧美亚洲欧美| 久爱午夜精品免费视频| 在线色综合| 久久久四虎成人永久免费网站| 日韩在线永久免费播放| 亚洲第一视频区| 99这里只有精品6| 国产后式a一视频| 欧美成人免费| 国模沟沟一区二区三区| 国产精品无码一区二区桃花视频| 色欲国产一区二区日韩欧美| 五月天福利视频| 高清无码手机在线观看| 国产在线观看第二页| 91蝌蚪视频在线观看| 天堂岛国av无码免费无禁网站| 日韩精品无码免费一区二区三区 | 中国毛片网| 极品私人尤物在线精品首页| 欧美丝袜高跟鞋一区二区| 激情无码视频在线看| 国产日韩欧美在线播放| 国产日韩丝袜一二三区| 九九热在线视频| 中国特黄美女一级视频| 日本精品影院| 国产精品不卡片视频免费观看|