999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于多任務學習的桃園環境檢測方法研究

2025-09-25 00:00:00汪語哲李卓徽段曉東
中國農機化學報 2025年10期

中圖分類號:TP391.4;S662.1 文獻標識碼:A 文章編號:2095-5553(2025)10-0146-08

Abstract:The peach orchard scene is complex.To asist agricultural robots in beter perceiving theenvironmentof peach orchardsandquicklyandaccuratelyidentifying peachesand pathways withinthem,andaiming atthe practical problems such as singletask,low detection accuracyand slow reasoning sped ofthecurrent model,an eficient multi-task learing network named MTL—YOLO is proposedby improving YOLOv5n.The network simultaneously accomplishes the tasks of objectdetectionandsemanticsegmentation.Firstly,anaditionaldetectionheadfordrivableareasegmentationisadded to YOLOv5n to detect peaches and pathways within the orchards.Secondly,a lightweight ShufeNet V2 is employed as the backbone network of MTL—YOLO,which reduces the computational complexitywhileensuring detection acuracy. Furthermore,the RepNCSPELAN4 module isembedded inthe Neck partof the model,replacing the original C3 module, toenhance feature extraction capabilitiesand further reduce computational complexity.Finally,an adaptive loss weight adjustment method suitable formulti-task models is proposed toavoid thecumbersome processofmanuallyoptimizing loss weights forthetwo tasksand strengthenthecorrelation between themduring training.Experimentalresults showthatthe improved MTL—YOLO achieves an object detection accuracy of 84.7% ,an increase from the original algorithm's 82.1% .Moreover,the semantic segmentation accuracy isincreased by 0.3% and by 2.5% ,compared to mainstream

Mask R—CNN and YOLACT algorithms,respectively. The real-time detection speed of the model reaches 110f/s Keywords:target detection;semantic segmentation;multi-task learning;lightweight;adaptive lossfunction

0 引言

我國是桃子產量最多的國家。我國桃子種植面積約為 900khm2 ,產量約 16000kt[1] 。當前桃子的種植、培育和采摘方式仍以人工為主,由工人根據經驗知識對桃子進行農作,生產效率極低,人力成本高昂。

隨著科技的發展,一系列農業機械生產設備用以輔助人們進行農作,一定程度上提高生產效率,降低人力成本,初步實現農業生產自動化。農業生產自動化要求農業生產設備更加智能,需要農業設備對其所處的果園環境進行視覺感知,識別果園中的作物和可行駛道路。近年來,隨著深度學習的發展,其在目標檢測和語義分割上表現出良好的效果,研究人員使用卷積神經網絡檢測果園作物和道路。

在果園作物目標檢測方面,Zhao等2提出FCOS—LSC水果檢測模型,在FCOS的基礎上融入LSC注意力模塊,使用ResNet5O[3進行特征提取,采用特征金字塔網絡4(FPN)充分融合低層細節信息和高層語義信息,并在生成多尺度特征圖的3個維度中添加注意力機制,其檢測青蘋果和青柿子的平均精度分別為 63.0%.75.2% ,可以滿足智能農業設備對綠色水果識別準確高效的要求;Kateb等5基于YOLO系列,提出一種FruitDet模型,主干使用輕量級DenseNet[6]架構,頸部使用特征金字塔網絡(FPN)和空間金字塔[7](SPP),頭部使用改進的SAM注意力模塊,該模型在5個數據集的測試中取得較好的性能。

在果園道路語義分割方面,肖柯等8使用MaskR—CNN9模型提取果園道路分割的結果和樹干邊界框的坐標,通過改進RANSAC算法提取樹行線,最后通過計算樹干邊界框坐標點到前排行線的距離,篩選后排樹干坐標點,采用最小二乘法擬合生成后排樹行線,結果表明,在不同光照、雜草、天氣環境下的6種果園場景中,模型的平均分割精度和邊界框檢測精度都為 97% ;商高高等1基于U型網絡11,在編碼層引入殘差模塊增強不同層次的語義信息,解碼層采用上采樣并通過跳躍連接融合編碼層的語義信息,減少模型參數量,結果表明,深度殘差U型網絡識別準確率最高,平均交并比為 83.3% ,適用于果園環境識別。

綜上,深度學習為農業機器人作業提供視覺支持。然而,基于深度學習的網絡模型通常較大,檢測速度不盡如人意,對果園遮擋、密集等復雜多變場景中的作物檢測精度仍有待提高,并且當前多數模型需分別訓練推理目標檢測和語義分割這兩大計算機視覺任務,即在農業機器人上部署多個模型以處理不同任務,導致計算資源大量浪費,實時性極低,不能滿足農業機器人的實際作業需求。基于以上問題,本文提出一種MTL—YOLO的高效多任務網絡模型,以YOLOv5n為基礎,添加語義分割任務頭;將主干網絡替換為輕量級網絡ShuffleNetV2;將頸部的C3模塊替換為RepNCSPELAN4模塊;最后引入自適應損失函數,并通過多項對比試驗驗證模型的有效性。

1材料與方法

1.1 數據及制作

采用的桃園環境數據集為自然條件下桃子果實和桃園道路的原始圖像,共計1590張。該數據集分為A、B兩部分,A部分為自然環境下的桃子圖像,分為未成熟期和成熟期,尺寸為1024像素 ×768 像素,共計930張(有葉片遮擋、枝干遮擋和果實重疊遮擋的桃子)。B部分為自然環境下的桃園道路圖像,分為弱光照和強光照,尺寸為1920像素 ×1080 像素,共計660張。圖1為所采集的真實桃園桃子圖像示例,圖2為桃園道路圖像示例。

圖1不同成熟期的桃子

圖2不同光照強度下的桃園道路

Fig.2Peach orchard roadsunderdifferentlight intensities

使用Labelme工具分別對采集到的桃子圖像和桃園道路圖像進行標注。針對桃子檢測標注,設定桃子標簽為peach,按照PASCALVOC格式生成標注文件,再通過腳本轉換成YOLO可讀取的txt標簽格式。針對道路分割標注,根據道路輪廓依次標注關鍵點并生成對應的json文件,通過腳本把json文件轉換成二分類語義分割標簽。

豐富的數據集有利于提高模型的泛化能力,考慮到桃園復雜的自然環境,通過旋轉、模糊、調整亮度和對比度等方法對原始圖像進行數據增強,最終得到5565張圖片,其中桃子檢測的數據集有2920張,道路分割的數據集有2080張。按照7:2:1的比例將數據集劃分為訓練集、驗證集和測試集,桃子檢測的訓練集有2271張,驗證集有649張;道路分割的訓練集有1618張,驗證集有462張;共同的測試集有565張。

1.2基于改進YOLOv5n的桃園環境檢測模型構建

YOLOv5[12是YOLO系列中極具代表性的一個版本,相比于YOLO系列其他版本,YOLOv5的穩定性高,實用性強,具有良好的泛化性,普遍應用于工業界以處理實際問題。YOLOv5模型結構較為簡潔,分為主干網絡(Backbone)、頸部網絡(Neck)和輸出端(Head)3個部分。其中主干網絡使用CSPDarkNet53結構作為特征提取網絡,初步對輸人的特征圖進行特征提取;頸部網絡使用特征金字塔網絡(FPN)和路徑聚合網絡[13](PAN)進一步提取特征圖中目標的細節特征;頭部網絡將得到的3張不同尺度的特征圖,經過卷積操作最終輸出目標檢測結果。

針對桃子生長密集、重疊遮擋,果園道路非結構化,模型需滿足實時性及多任務處理等實際問題,以YOLOv5n為基礎模型,通過對主干網絡、頸部網絡、頭部和損失函數進行改進以滿足農業機器人檢測桃園環境的作業需求。輸人的圖片通過主干網絡和頸部網絡進行圖片特征提取,頸部額外設計一個分支進行語義分割任務,模型最終同時輸出目標檢測和語義分割的結果即桃子的位置和邊界、桃園道路的像素區域。MTL一YOLO網絡結構如圖3所示。

1.2.1ShuffleNetV2輕量級主干網絡

目標檢測任務為識別單類別桃子,語義分割任務為簡單的二分類,即道路與背景。因此YOLOv5n原主干網絡中的C3模塊雖然檢測精度高,但對于少類別目標的檢測過于冗余,嚴重影響模型整體的輕量化。故使用ShuffleNet V2[14] 輕量級主干網絡替代原模型的主干網絡。

目前主流的輕量級主干網絡例如MobileNet[15]EfficientNet[16]、Xception[17等都是通過分組卷積、深度可分離卷積等操作減少浮點運算量,但ShuffleNetV2提出一個關鍵點,即在實際應用中,不能只從浮點運算量的大小反映輕量級網絡的快慢,還應該考慮實際的運行速度。特別是在嵌入式設備中,內存訪問成本和平臺特點都影響著模型的推理速度。因此,ShuffleNetV2通過控制不同的環境直接測試模型在不同硬件設備上的運行速度,不是簡單通過浮點運算量來判斷。

ShuffleNetV2引人通道分離操作(ChannelSplit),把通道數分為2個分支,一個分支進行普通卷積和深度卷積操作保持輸人輸出相等,另一個分支等同映射,直接進行Concat,最后將2個分支輸出的特征圖進行合并,加強不同通道的信息融合,結構如圖4(a)所示。此外,ShuffleNetV2還引入空間下采樣模塊,直接將特征圖輸入到2個不同的分支,每個分支分別進行下采樣,最后合并2個通道,結構如圖4(b)所示。使用ShuffleNetV2網絡替換原模型的主干網絡后,模型的推理速度大大提高,但是檢測的準確率略有下降,后續通過對頸部和損失函數進行改進,提高模型整體的檢測精度。

1.2.2RepNCSPELAN4 特征提取一融合網絡

RepNCSPELAN4模塊是YOLOv98中提出的廣義高效的層聚合網絡(GELAN),采用CSPNet的分割重組,并在每一部分引入ELAN的層級卷積處理方式,把CSPNet的anyBlock模塊的堆疊方式和ELAN的層級卷積結構融合在一起,并參考Re-parameter19]方法。該網絡將輸入的特征圖通過轉換層分為a、b兩個分支,a分支通過堆疊的卷積層,每一層的輸出都與下一層的輸入通過anyBlock模塊堆疊,再將每一層堆疊的結果分別輸入轉換層;b分支等同映射,直接和a分支轉換層輸出的結果相結合。RepNCSPELAN4網絡結構如圖5所示。

圖5RepNCSPELAN4模塊Fig.5Basic structure of RepNCSPELAN4

在引入ShuffleNetV2輕量級主干網絡后,將RepNCSPELAN4模塊融人模型的Neck中,替換原模型Neck中冗余的C3模塊,模型整體精度上升,計算量進一步下降。

1.2.3 道路分割任務頭

針對桃園道路分割任務,參考FPN網絡結構設計一個包含卷積層、上采樣層和YOLOv5中C3模塊的分割任務頭。將輸入的原始圖像經過主干網絡的特征提取和Neck中第1次經過層聚合網絡處理后Concat的結果,通過一個256通道的卷積層調整特征圖的通道,緊接著采用最近鄰上采樣方法將特征圖尺寸放大2倍,再使用C3模塊增強特征提取能力。上述操作后,再次通過一個128通道的卷積層,上采樣,C3模塊處理特征圖,逐步恢復特征圖的細節和空間分辨率。最后,通過一個64通道、卷積核大小為2、步長為3的卷積層完成道路分割頭的構建,用于道路分割任務的輸出。道路分割網絡結構如圖6所示。

分割任務為簡單的二分類,在經過3次上采樣處理后,仍輸出較高的精度,無需進行冗余的操作,故該道路分割任務頭結構較為簡潔,在保證檢測精度的同時保證模型輕量化水平。

1.2.4 自適應損失函數

模型的總損失包括目標檢測任務的損失 Ldet 和語義分割任務的損失 Lseg ,其中目標檢測任務的損失包含位置損失 Lbox 、類別損失 Lcls 以及置信度損失 Lobj ,計算如式(1)所示。語義分割任務中檢測的道路類別占整體圖像的比例不低,故使用二分類交叉熵損失函數計算語義分割任務的損失,如式(2)所示。

Ldet=Lbox+Lcls+Lobj

式中: xi -樣本被預測為正類的概率;yi 1 -樣本的標簽;n 樣本總數。

計算多目標損失的常規方法是對每個任務的損失進行加權線性和,分別為每個任務設置權重,如式(3)所示。每個任務的權重需要手動設置,模型對各任務權重參數值極為敏感,不同的權值會得到不同的訓練結果,因此,權重超參數的調整消耗極高的時間成本。此外,由于各任務的權值在訓練前已完成設定,在整個訓練過程中都是固定不變的,減少多任務學習訓練的相關性。

式中:Loss 總損失值;

λi 1 一不同任務的損失權重參數;

Li 1 一不同任務的損失值。

綜上,基于Liu等[20]提出的動態權重算法DWA,結合MultiNet+ + 中的幾何損失計算方式,提出一種適用于多任務模型的自適應損失權重調整方法,在節省時間成本的同時提高兩類任務的訓練精度。

式(4)為總損失的計算,使用geometricloss,將模型中目標檢測和語義分割兩個任務的損失使用幾何方式組合,一定程度上解決不同任務間損失收斂速度不同的問題。 λ1 和 λ2 分別表示目標檢測和語義分割的損失權重;式(5)為兩類任務損失權重的計算, Wi(t-1) 乘以 K 的 Softmax 算子確保 模型在每輪訓練后都會根據總損失相對下降率為兩類任務重新設定損失權重;式(6)為總損失相對下降率的計算, Loss(t) 表示經過多輪訓練后每個時期的平均損失。當訓練開始時,將 Wi(t) 設為1,在第3輪訓練即 t=3 時,開始自適應權重調整。

式中: K? ——模型子任務的個數;

Wi(t-1) ——當前一輪的訓練與上一輪訓練的總損失相對下降率;

Wj(t-1) ——當前一輪的訓練與上一輪訓練的某一子任務的損失相對下降率。

該自適應損失權重調整方法的引入,避免每次訓練都手動優化兩類任務損失權重的復雜過程,并加強兩類任務訓練的相關性,與單任務訓練相比,該損失函數大大提高各任務的檢測精度。

2 試驗結果及分析

2.1 圖像采集與預處理

試驗硬件配置為IntelCore(TM)i9—11900K 3.50GHz ,內存為32GB,顯卡為RTXA4000,顯存16GB 。虛擬環境:PyTorch1.7.0,Python3.8,Cuda11.0。訓練時,迭代次數設置為500輪,每批量樣本數為32,進程數為8,模型輸入的圖片尺寸為416像素 x 416像素,動量系數為0.937,起始學習率為0.01。

2.2 評價指標

針對多任務模型的對比試驗,將平均精度均值(mAP@0.5) 、語義分割平均精度(mIoU)模型參數量(Params)浮點運算量 (FLOPs) 和推理速度(FPS)作為模型的評價指標。

2.3 試驗對比分析

首先,進行消融實驗以分析改進的4個模塊對模型的性能影響。其次,將所提出的MTL一YOLO多任務算法與當前具有代表性的目標檢測算法和語義分割算法分別進行對比以評估模型的綜合性能。

2.3.1 消融實驗

以YOLOv5n為基礎模型,將原主干網絡替換為ShuffleNetV2輕量型主干網絡;在頸部引人RepNCSPELAN4模塊進一步加強特征提取能力;引人自適應損失函數使兩類任務相互捕捉特征信息;添加語義分割任務頭。為驗證上述4點改進策略對模型整體性能的影響,進行消融實驗。實驗結果如表1所示。

表1改進模型消融實驗結果對比 Tab.1 Improved comparisonof model ablation test results

注:SNet表示使用ShufleNet V2主干網絡;Rep4表示使用RepNCSPELAN4模塊;Loss表示使用自適應損失函數;Seghead 表示添加語義分割任務頭; \"√- 表示使用此改進策略。

分析表1數據可知,添加語義分割任務頭后的模型雖然實現同時檢測桃子和分割道路兩類任務,但是目標檢測精度下降,推理速度最低,無法滿足農業機器人實時作業的需求;在添加語義分割任務頭的基礎上使用ShuffleNetV2主干網絡后目標檢測和語義分割的精度均下降,但是推理速度明顯提高,滿足實時性;使用RepNCSPELAN4模塊替換原YOLOv5n模型中的C3模塊后,一定程度上降低模型的浮點運算量,并且保證兩類任務的精度;自適應損失權重調整方法的引入同時提高兩類任務的精度,但實時性低;將3個模塊兩兩組合進行試驗,檢測的精度和推理速度在一定范圍內成反比,二者無法兼顧;對主干網絡、頸部、頭部和損失函數改進后的模型的綜合性能最高,雖然與YOLOv5n相比,推理速度稍有下降,但是彌補原模型不能同時進行語義分割任務的短板,并且目標檢測的精度也得到提升。消融實驗證明,提出的4點改進方案對YOLOv5n性能提升有積極的意義。

2.3.2 目標檢測和語義分割綜合對比分析

將MTL—YOLO模型與當前主流的目標檢測和語義分割模型進行對比試驗以評估綜合性能。其中,目標檢測算法選取FastR—CNN、YOLOv5n、YOLOv5s和YOLOv9s,語義分割算法選取MaskR一CNN和YOLACT[21]

由表2可知,MTL—YOLO模型在目標檢測任務中的精度 mAP@0.5 為 84.7% ,推理速度為 110f/sc 與雙階段目標檢測模型FastR—CNN相比,MTL—YOLO的 mAP@0.5 僅相差 0.2% ,但是推理速度為FastR—CNN的9.2倍;與單階段目標檢測模型YOLO系列相比,MTL—YOLO的 mAP@0.5 最高,實時推理速度處于中等水平,比YOLOv5n低 23f/s 。

雖然MTL—YOLO的 mAP@0.5 和FPS兩個指標不是最高的,但能同時進行兩類任務的訓練與推理,在精度和實時性之間取得較好的平衡,與逐一執行目標檢測和語義分割任務相比,MTL一YOLO節省大量的時間成本和硬件資源占用。

表2目標檢測模型性能對比 Tab.2 Performance comparison of object detection models

由表3可知,在語義分割任務中MTL—YOLO的 mAP@0.5 和實時推理速度都最高;YOLACT的性能一般;MaskR一CNN雖然精度較高,但模型過于冗余,推理速度最低。由于果園道路檢測是二分類語義分割,任務相對簡單,因此,MaskR一CNN的性能沒有得到充分的發揮。

表3語義分割模型性能對比 Tab.3 Performance comparison of semantic segmentation models

2.4 檢測結果可視化

設計YOLOv5n、FastR—CNN、YOLACT、MaskR一CNN和MTL一YOLO的模型推理對比試驗,檢測效果如圖7所示。

圖7各模型檢測效果 Fig.7Detection effect of different models

由圖7示例1和示例2可知,在目標檢測任務中,FastR一CNN的檢測效果最好,沒有誤檢、漏檢的情況,置信度較高;圖7示例3中FastR—CNN和MTL—YOLO均漏檢2個遮擋的小目標;YOLOv5n的檢測效果最差,對小目標的漏檢較多。由圖7示例3可知,在語義分割任務中,MTL一YOLO的檢測效果最好,其次是MaskR一CNN,YOLACT的檢測效果最差,此外,MTL—YOLO還檢測到3個桃子目標,同時進行目標檢測和語義分割兩類任務。由圖7示例4可知,對于在目標檢測任務中原始圖片沒有結果的桃子,YOLOv5n存在誤檢的情況,在語義分割任務中,MTL一YOLO的分割效果最好。綜上,MTL一YOLO的性能最好。

3 結論

為降低人力成本,輔助桃園場景下農業機器人的農業生產操作,構建桃園環境數據集,并基于改進的YOLOv5n實現對桃子和桃園道路的識別。設置消融實驗和目標檢測、語義分割綜合對比試驗。

1)首先在YOLOv5n的基礎上添加語義分割任務頭,采用3次上采樣、卷積操作實現對桃園道路的檢測,模型浮點運算量增加 40% ,目標檢測平均精度均值 mAP@0.5 下降 3.1% ,語義分割平均精度mIoU為 91.5% 。雖然改進后的模型能夠同時進行目標檢測和語義分割兩類任務,但模型的精度和推理速度都有待提高。

2)在添加語義分割任務頭的基礎上,將原主干網絡替換為ShuffleNetV2,模型的浮點運算量減少42% ,雖然該模型滿足實時檢測的要求,但目標檢測和語義分割的精度均明顯下降。

3)針對準確率降低的問題,將原模型頸部中冗余的C3模塊替換為RepNCSPELAN4模塊,采用PANet多尺度融合加強小目標的細節特征,進一步降低模型的計算量,一定程度上彌補缺失的精度。

4)引入自適應損失函數,每輪訓練后都自動調整兩類任務的權重參數,提高目標檢測和語義分割兩類任務的相關性,實現跨任務特征交互,融合任務之間互補信息,目標檢測平均精度均值 mAP@0.5 較原模型YOLOv5n提高 2.6% ,語義分割平均精度mIoU與MaskR—CNN、YOLACT相比分別提高 0.3%.2.5% 。

參考文獻

[1]王延書,李淑厚,胡長軍,等.臨沂市桃產業現狀、存在 問題及發展建議[J].落葉果樹,2022,54(1):37-39.

[2]ZhaoR,GuanY,LuY,etal.FCOS-LSC:A novel model for green fruit detection in a complex orchard environment[J].Plant Phenomics,2023,5:0069.

[3]He K,Zhang X,Ren S,et al. Deep residual learning for image recognition[C].Proceedings oftheIEEE Conference on Computer Vision and Pattern Recognition, 2016:936-944.

[4]Lin T,Dollar P,Girshick R,et al.Feature pyramid networks for object detection [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2017:2117—2125.

[5]KatebFA,MonowarMM,HamidMA,et al.FruitDet: Attentive feature aggregation for real-time fruit detection in orchards[J]. Agronomy,2021,11(12): 2440.

[6]Huang G,Liu Z,Laurens V D M,et al.Densely connected convolutional networks [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2017:2261—2269.

[7]He K, Zhang X,Ren S,et al. Spatial pyramid pooling in deep convolutional networks for visual recognition [J]. IEEE Transactions on Pattern Analysis amp;. Machine Intelligence,2014,37(9):346-361.

[8]肖珂,夏偉光,梁聰哲.復雜背景下果園視覺導航路徑提 取算法[J].農業機械學報,2023,54(6):197—204,252. Xiao Ke,Xia Weiguang,Liang Congzhe.Visual navigation path extraction algorithm in orchard under complex background [J]. Transactions of the Chinese Society for AgriculturalMachinery,2023,54(6):197—204,252.

[9]He K,Gkioxari G,Dollár P,et al. Mask R—CNN[C]. Proceedings of the IEEE International Conference on Computer Vision,2017:2980-2988.

[10]商高高,朱鵬,劉剛.基于深度殘差U型網絡的果園環 境識別[J].計算機應用與軟件,2023,40(5): 235-242.

[11]RonnebergerO,FischerP, BroxT.U—Net: Convolutional networks for biomedical image segmentation [C]. Medical Image Computingand Computer-Assisted Intervention,2015:234—241.

[12]Redmon J,Divvala S,Girshick R,et al.You only look once:Unified,real-timeobjectdetection[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2016:779—788.

[13] Liu S,Qi L,Qin H,et al. Path aggregation network for instance segmentation [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018:8759-8768.

[14]Ma N,Zhang X,Zheng H,et al. ShuffleNet V2: PracticalguidelinesforefficientCNNarchitecture design [C]. Proceedings of the European Conference on Computer Vision,2018:122-138.

[15]Howard A G,Zhu M,Chen B,et al.MobileNets: Efficient convolutional neural networks for mobile vision applications[J]. arXivpreprint arXiv:17O4.04861, 2017.

[16]Tan M,LeQV.EfficientNet:Rethinking model scaling for convolutional neural networks [J].arXiv preprint arXiv:1905.11946,2019.

[17]Chollet F. Xception:Deep learning with depthwise separable convolutions [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2017:1800—1807.

[18]WangCY,YehIH,Mark Liao HY M.YOLOv9: Learning what you want to learn using programmable"gradient information[C]. European Conferenceon Computer Vision Springer. Cham,2O24:1-21.

[19]Hu M,Feng J,Hua J,et al. Online convolutional re-parameterization [C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2022:558-567.

[20]Liu S,Johns E,Davison A J. End-to-end multi-task learningwithattention[C].Proceedingsofthe IEEE/CVF Conference on Computer Vision and Pattern Recognition,2019:1871—1880.

[21]Bolya D,Zhou C,Xiao F,et al.YOLACT:Real-time instancesegmentation[C].Proceedingsofthe IEEE/CVF International Conference on Computer Vision, 2019:9156-9165.

主站蜘蛛池模板: 人妻丝袜无码视频| av尤物免费在线观看| 午夜人性色福利无码视频在线观看| 亚洲AV无码久久精品色欲| a级毛片免费网站| 免费高清a毛片| 日韩国产欧美精品在线| 色综合a怡红院怡红院首页| 四虎在线高清无码| 综合色区亚洲熟妇在线| 美女无遮挡被啪啪到高潮免费| 亚洲最黄视频| 婷婷六月激情综合一区| 青青极品在线| 成人一区在线| 国产网站免费| 国产精品美女自慰喷水| 91在线高清视频| 色悠久久久久久久综合网伊人| 黄色福利在线| 国产视频大全| 久久亚洲日本不卡一区二区| 夜夜操狠狠操| 成人日韩欧美| 在线精品亚洲国产| 欧美有码在线| 国产亚洲精品资源在线26u| 毛片最新网址| 欧美国产成人在线| 色噜噜中文网| 日韩精品亚洲人旧成在线| 亚洲乱强伦| 国产高清自拍视频| 丁香综合在线| 一级一毛片a级毛片| 中文成人在线视频| 亚洲视频色图| 91探花在线观看国产最新| 成色7777精品在线| 91国内视频在线观看| 国产视频欧美| 毛片大全免费观看| 99热这里只有精品久久免费| 欧美国产在线看| 亚洲免费福利视频| 色综合五月婷婷| 日韩亚洲高清一区二区| 免费无码AV片在线观看中文| 亚洲成av人无码综合在线观看| 国产成人a在线观看视频| 成人自拍视频在线观看| 中文字幕永久在线看| 国产福利不卡视频| 国产成人h在线观看网站站| 午夜久久影院| 亚洲国产成人超福利久久精品| 午夜少妇精品视频小电影| 亚洲日本中文综合在线| 色婷婷电影网| 久久频这里精品99香蕉久网址| 无码AV日韩一二三区| 久久成人18免费| 国产午夜精品鲁丝片| 精品成人一区二区三区电影| 欧美 国产 人人视频| 中文国产成人精品久久| 一级片一区| 欧美特黄一免在线观看| 亚洲精品国产精品乱码不卞| 99在线视频免费| 久久国产高清视频| 嫩草在线视频| 久久久久久久久亚洲精品| 国产精品久久自在自2021| 区国产精品搜索视频| 一本久道久久综合多人| 国产精品一区二区在线播放| 国产女人喷水视频| 米奇精品一区二区三区| 天堂在线亚洲| 国产青青草视频| 亚洲国产欧洲精品路线久久|