999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

動態損失與加強特征融合的目標檢測算法

2023-12-08 11:48:58肇啟明
計算機與生活 2023年12期
關鍵詞:特征檢測

肇啟明,張 濤,孫 俊

江南大學 人工智能與計算機學院,江蘇 無錫 214122

目標檢測任務就是要找出圖像當中所包含的感興趣的物體,包括它們在圖像當中的位置以及所屬類別。一些計算機視覺的其他方向,例如目標跟蹤、行人重識別等,其前置任務也都是目標檢測,因此不論是學術界還是工業界,目標檢測都是最熱門的方向之一。隨著深度學習的迅猛發展,目標檢測也從傳統的數字圖像處理算法轉向了基于深度學習的目標檢測算法,目前基于深度學習的目標檢測算法可以分為兩類。第一類是以Fast R-CNN(fast regions with convolutional neural network features)[1]系列為代表的雙階段(Two-Stage)檢測方法,此類方法將檢測任務分為兩個階段,即第一階段通過提議網絡提出候選區域集合,第二階段對候選區域使用卷積神經網絡(convolutional neural network,CNN)進行分類和邊界框回歸進而得到最終結果,其特點是準確率高,但是速度較慢。第二類則是以YOLO(you only look once)[2-4]系列為代表的單階段(One-Stage)檢測方法,此類方法提取圖像特征之后直接對邊界框做回歸并得到類別,幾乎實現端到端的檢測,其特點是速度快,但起初準確率不高。隨著算法的不斷改進,目前One-Stage 檢測算法既擁有比Two-Stage 算法更快的速度,同時還能保證較高的精度。

盡管目前各種各樣的目標檢測算法被提出,但幾乎所有One-Stage檢測網絡都可以抽象地看作由骨干網絡(Backbone)、頸部(Neck)、檢測頭(Head)三個部分組成。如圖1所示,Backbone部分用來抽取圖像當中不同尺度大小的特征,Neck 部分對Backbone 抽取的多尺度特征進行特征融合等操作,Head 部分則是使用Neck 融合處理過的特征進行預測,最終輸出圖像中物體的邊界框位置以及物體所屬類別。

圖像當中物體尺寸差別大一直以來都是目標檢測任務中的一大挑戰,起初的One-Stage 檢測器例如YOLOv1,只采用單尺度的特征圖進行檢測(圖2(a)),導致網絡對小目標檢測效果很差,后來YOLOv3使用了FPN(feature pyramid network)[5](圖2(b))作為Neck融合多尺度特征,使得檢測效果得到了極大提升。后續各種Neck 例如SPP(spatial pyramid pooling)[6]、PAN(path aggregation network)[7]被提出,可見Neck 部分在檢測網絡當中起著承上啟下的關鍵作用。

圖2 不同尺度的檢測方法Fig.2 Methods for detection at different scales

目標檢測的損失函數一般由兩部分組成,分別為類別損失和位置損失。YOLO 系列還額外需要一個置信度損失。類別損失即用來計算目標預測類別與實際類別的誤差,位置損失即用來計算目標預測邊界框與實際邊界框的坐標位置誤差。

One-Stage 算法之所以準確率不理想,一方面是因為設計的Neck 融合特征能力有限,導致小目標檢測效果很差。另一方面則是由于位置損失函數的不足,現有的位置損失函數并沒有考慮到損失函數內部各組成部分之間的關系,導致網絡優化的過程不夠準確。針對目前目標檢測任務這兩個部分存在的不足,本文首先提出了一個基于IoU 的動態交并比損失函數,能夠根據真實邊界框與預測邊界框之間不同的位置狀態,動態地給予位置損失中各組成部分不同權重,讓網絡能夠在不同的階段更有針對性地去優化邊界框位置。其次本文將可變形卷積應用到Neck 部分,基于PAN 結構設計了一個可以即插即用的結合可變形卷積的Neck 來進行特征融合,提升網絡對小目標檢測能力。

實驗部分本文使用YOLOv6作為基線網絡。為了評估方法的性能,本文在與原論文相同的COCO2017數據集上進行訓練與測試。本文主要的貢獻如下:

(1)設計了針對目標檢測的位置損失函數和Neck部分,可以即插即用應用于各種目標檢測網絡當中。

(2)將本文方法應用于三種體量的YOLOv6 模型上以實現其性能的提升。

(3)在COCO2017 數據集上驗證本文方法的有效性。

1 相關工作

1.1 目標檢測

目標檢測任務要檢測出圖像當中目標的位置和類別。傳統的目標檢測主要基于數字圖像處理提取目標區域的傳統特征,例如方向梯度直方圖(histogram of oriented gradient,HOG)[8]和尺度不變特征變換(scale invariant feature transform,SIFT)[9]等,再利用分類器例如支持向量機(support vector machine,SVM)對區域進行分類,存在著精度低、魯棒性差等問題。近年來,隨著深度學習的迅猛發展,基于深度學習的目標檢測方法[10-11]在速度和精度方面都遠超傳統目標檢測,取得了巨大成功。一般可以根據檢測流程將算法分為兩類:先提取物體區域,再進行分類識別的雙階段方法和直接做回歸得到目標位置坐標與類別的單階段方法。雙階段檢測算法的代表為Fast RCNN[1]系列。R-CNN[12]網絡率先將深度學習應用到目標檢測任務當中,先使用選擇性搜索算法(selective search)在圖像上生成大量的提議區域,這對應著雙階段當中的第一個階段,再使用CNN 提取每一個提議區域的特征,最后對每一個類別訓練一個SVM 作為分類器,來預測提議區域的類別,這也對應著雙階段的第二階段。由于R-CNN對每一個提議區域都需要重新輸入到CNN 中提取特征,導致速度極慢。后來的Fast R-CNN 只使用CNN 提取一次特征,得到圖像的特征圖,再將原圖像當中的提議區域直接映射到特征圖上,而不用重新提取特征,節省大量計算時間,并且把最后的回歸與分類也放入了CNN當中,速度較R-CNN 提升顯著。Faster R-CNN[13]則是成功地將區域提議、特征提取、回歸與分類融合到了整個模型當中,速度和精度又得到了較大提升。雙階段檢測算法的優點是精度高,但因為雙階段檢測結構固有的局限性,導致速度遠不如單階段檢測。

單階段檢測算法則是拋棄了繁重的區域提議階段,端到端地進行檢測,代表算法為YOLO 系列。YOLOv1[2]使用CNN 提取原圖像特征并直接對邊界框做回歸與分類,速度較雙階段有極大提升但是精度卻不理想。YOLOv2[3]則是提出了錨框機制,對位置的預測不再是盲目暴力地回歸,而是基于預先給定的錨框大小,計算與實際邊界框的偏移,極大地提升了收斂速度和檢測精度。YOLOv3[4]則是加入了FPN 作為Neck,融合多尺度特征進行預測,使得模型在速度和精度都得到了進一步提升,YOLOv3也一度成為了工業界使用最為廣泛的模型之一。近期某團隊基于RepVGG 的思想設計出了更高效的EfficientRep Backbone、RepPAN NECK 與Efficient Decoupled Head,并且使用了全新的SIoU Loss 作為位置損失函數,提出了YOLOv6[14],在速度與精度上超過其他同體量的算法。

1.2 損失函數

目標檢測任務的損失函數一般由兩部分構成,分別是類別損失和位置損失。而YOLO 額外多出一個置信度誤差,所謂置信度就是指模型預測的邊界框中包含物體的概率。

常見的類別損失有Cross Entropy Loss、Focal Loss[15]等。而對于位置損失,YOLOv1 使用均方誤差來計算預測框與真實框中心點坐標以及寬高的誤差,由于均方誤差損失約束能力有限,并且對邊界框尺度比較敏感,導致模型精度不高。目前的位置損失大多是基于交并比(intersection over union,IoU)而發展出來的,如IoU Loss[16]、GIoU Loss(generalized IoU loss)[17]、DIoU Loss(distance IoU loss)[18]、CIoU Loss(complete IoU loss)[18]等。而所謂IoU 就是指兩個邊界框之間交集與并集的比值。IoU Loss定義為:

然而IoU Loss存在著弊端,當兩個邊界框不相交時,無論兩個邊界框相距多遠損失恒為1,即無法衡量兩個不相交邊界框之間距離的大小。為了解決這個問題,GIoU Loss被提出。GIoU Loss定義為:

其中,C表示預測框A與真實框B的最小外接矩形面積,這樣解決了邊界框不重合時存在的問題。然而當兩個框呈包含關系時,GIoU Loss 便退化為了IoU Loss,進而DIoU Loss 又被提出以解決此問題。DIoU Loss定義為:

其中,ρ(b,bgt)表示兩個邊界框中心點的距離,c表示最小外接矩形框的對角線長度。

一個好的位置損失函數要考慮到三種因素,即IoU、中心點距離以及邊界框形狀,于是又提出了CIoU Loss,定義為:

其中,w、h、wgt、hgt分別為預測邊界框的寬、高和真實邊界框的寬、高。可以看出,CIoU Loss 在DIoU Loss的基礎上,又引入了寬高比,使得損失函數更加完善。

而YOLOv6 中則是使用了最新的SIoU Loss(scylla IoU loss)[19]作為位置損失函數,SIoU Loss 進一步引入了兩個邊界框之間的角度信息如圖3。損失函數中應該考慮到邊界框之間的角度α,當α小于π/4 時去約束α,使其等于0,即讓預測邊界框中心點向真實框中心點所在X軸靠攏,大于π/4 則最小化β,向Y軸靠攏。

圖3 SIoU Loss角度損失Fig.3 Angle cost of SIoU Loss

角度損失Λ定義為:

SIoU距離損失定義為:

其中,Cw、Ch、W、H如圖3 中所示。可見SIoU 中角度損失最后是以距離損失組成部分的形式存在的。加上衡量形狀的形狀損失Ω,最終SIoU Loss定義為:

然而最新的SIoU Loss 仍存在一些問題:首先,對于角度小于π/4 的情況,向X軸優化,反之向Y軸優化,這種不一致的優化行為不利于網絡的訓練;其次,將角度損失融合進了距離損失當中,不能夠清晰地體現角度損失對網絡的約束作用;最后一點也是這一系列IoU 損失函數的共同問題,就是沒有充分考慮到損失函數內部各組成部分之間的內在聯系,不能使網絡在訓練的不同階段有針對性地進行優化,這些正是本文要解決的問題。

2 本文方法

2.1 動態交并比損失(DYIoU Loss)

觀察整個目標檢測任務訓練過程,不難發現在訓練的初期如圖4,真實邊界框和預測邊界框之間距離往往較遠甚至不相交,此時即使是兩個邊界框形狀完全相同,預測效果仍然很差,因此此時網絡應該更多去關注角度損失,對角度的約束可以讓兩個邊界框中心點能夠更快地貼近。反映在損失函數上就是應該增大角度損失的權重,而適當降低形狀損失的權重。到了訓練的中后期如圖5,邊界框相距較近,即使不按照約束的角度,網絡也有能力對中心點距離進行優化,如果此時還過分關注角度損失,反而會對訓練造成干擾。而此時形狀成為了影響檢測效果的主要因素,因此網絡應該更多去關注形狀損失。反映在損失函數上就是要降低角度損失權重,提高形狀損失的權重。這種現象是各種目標檢測任務中普遍存在的。

圖4 訓練初期邊界框狀態Fig.4 Bounding box status at beginning of training

圖5 訓練中后期邊界框狀態Fig.5 Bounding box status in middle and late training

基于這種想法,本文設計了基于IoU Loss的動態交并比損失函數(dynamic intersection over union loss,DYIoU Loss)來動態調整不同訓練階段位置損失函數各組成部分的不同權重。損失函數由IoU 損失、距離損失、角度損失、形狀損失四部分構成。

(1)角度損失

對于角度損失不再分情況進行優化,不論夾角α是否小于π/4,均讓其向π/4優化,即約束預測邊界框沿著夾角π/4的方向朝真實邊界框靠近。

角度損失Λ定義為:

其中,bx、by分別表示邊界框中心點橫、縱坐標,gt代表真實邊界框,Cw、Ch分別表示真實邊界框中心點與預測邊界框中心點的水平、豎直距離,如圖6 所示。當x=1 時,即α=π/4 時,角度損失為0。與SIoU 中分情況的角度損失相比,本文中這種一致性的行為更有助于網絡訓練。

(2)距離損失Δ與形狀損失Ω

其中,距離損失中的ρ、c分別表示預測邊界框與真實邊界框之間中心點距離、最小外接矩形框對角線長度(如圖7)。形狀損失中的w、h、wgt、hgt分別代表預測邊界框和真實邊界框的寬、高。θ用以控制形狀損失的全局權重,本文沿用SIoU當中的設定,取4。

圖7 DYIoU Loss距離損失和形狀損失Fig.7 Distance cost and shape cost of DYIoU Loss

(3)DYIoU Loss

其中,λ為全局參數,用來權衡IoU 和距離、角度、形狀三個損失的貢獻,在整個訓練任務中并不改變。而對于角度損失和形狀損失,分別給予權重γ和v,而這兩個權重隨著距離損失Δ的減小而分別減小和增大,即在網絡訓練過程中動態地減小角度損失的貢獻,增大形狀損失的貢獻。

DYIoU Loss有效地解決了其他位置損失函數當中存在的共同問題。首先保證了網絡的一致性,不再根據角度的不同向不同坐標軸優化。其次角度損失不再與位置損失融合在一起,而是以獨立組成部分的形式存在,使得角度對網絡的約束更直觀。最后給予了損失動態權重,在網絡訓練的不同階段動態調節不同損失的貢獻,更加符合目標檢測任務訓練邏輯。

2.2 融合可變形卷積的Neck結構

目前主流Neck的設計思想都是讓不同尺度的特征圖進行融合。融合的方式有對應元素相加,例如FPN、SPP等,也有在通道維度的拼接,例如YOLOv4[20]中改進的PAN等。高層特征往往包含圖像的高級語義信息,特征圖小,因此要先進行上采樣后才能與低層特征融合。低層特征往往包含圖像低級形狀信息,特征圖較大,因此要先進行下采樣再與高層特征融合。

由于卷積的感受野有限,并且卷積模式固定,不能靈活調整采樣位置(圖8(a))。因此在Neck當中使用的卷積往往不能夠有效地保留不同維度特征圖中信息,而可變形卷積(deformable convolution)[21]則是通過訓練一個偏置矩陣,讓卷積能夠自適應地調整采樣位置,增大感受野,能夠捕捉到圖像中更有用的特征,提升特征抽取能力(圖8(b))。基于這種特性,本文對YOLOv6的Neck進行改進,結合可變形卷積提出了DePAN Neck(deformable path aggregation network neck)結構(如圖9)來對不同尺度的特征進行融合。

圖8 卷積與可變形卷積采樣方式Fig.8 Sampling methods of convolution and deformable convolution

圖9 DePAN Neck結構Fig.9 Structure of DePAN Neck

對于Backbone 與Head 部分沿用原YOLOv6 中的EfficientRep Backbone 和Efficient Decoupled Head,流程上DePAN Neck 接收Backbone 提取出的不同尺度特征,對于高層特征,先通過一個1×1 的卷積然后通過轉置卷積進行上采樣,與相鄰低層特征在通道維度進行拼接操作,再通過DeConvBlock對特征進行融合,即圖9當中自上而下的融合過程。對于低層特征,通過3×3卷積下采樣再與相鄰高層特征在通道維度做拼接,通過DeConvBlock對拼接后的特征進行融合,即圖9當中自下而上的融合過程。最終得到融合后的特征用以輸入到Head部分進行分類與回歸的預測。而DeConvBlock 結構則是通過重復堆疊12 個DeConv Cell(圖10)組成。類別損失沿用YOLOv6中使用的VarifocalLoss,位置損失部分則是使用本文的DYIoU Loss。DePAN Neck 結構與DYIoU Loss 并不局限于某個模型,而是可以即插即用,拓展到各種類型目標檢測任務當中。

圖10 DeConv Cell結構Fig.10 Structure of DeConv Cell

3 實驗與分析

3.1 數據集

為了評估提出方法的有效性,本文選用與基線網絡YOLOv6 原論文中相同的COCO2017[22]數據集。COCO2017是由微軟提供的一個包含118 278張訓練圖片和5 000 張驗證圖片的大型數據集,共80 個類別,平均每張圖片當中包含3.5 個目標,是計算機視覺領域使用最為廣泛的數據集。此外,本文還在公開數據集PASCAL VOC2012[23]數據集上進行了豐富的實驗來進一步驗證方法的有效性,VOC2012 包含5 717 張訓練圖片和5 823 張驗證圖片,共20 個類別。

3.2 評價指標

本文使用目標檢測中最常用的mAP作為評價指標。對于其計算方法,準確率與召回率定義分別為:

其中,TP、FP、FN分別表示真正例、假正例、假反例。AP(average precision)即為Precision-Recall 曲線下面積。而mAP 則等于所有類別的平均AP 值。mAP0.50表示當IoU 閾值為0.50 時的mAP 值,mAP0.50:0.95表示IoU 閾值從0.50 到0.95 步長為0.05 所求得10 次mAP的平均值。

3.3 實驗細節

本文將所提出方法應用到YOLOv6-N、YOLOv6-T、YOLOv6-S 3 個體量的YOLOv6 模型上,基于Pytorch 深度學習框架實現。實驗設備為RTX-3090顯卡。優化器使用SGD,圖像輸入大小以及數據增強部分均沿用原始YOLOv6 設置。由于原YOLOv6中Batch size 為256,而本文設置為64,學習率縮小為原設置的1/4。使用余弦退火策略調整學習率,epochs設置400,不使用任何預訓練權重。

3.4 實驗結果與分析

本文將所提出方法應用到YOLOv6-N、YOLOv6-T、YOLOv6-S 3 個體量的網絡當中,在與原論文相同的COCO數據集上進行訓練與驗證。

3.4.1 定量分析

表1 為不同體量模型在COCO2017 數據集上檢測精度,其中*表示在原有模型基礎上使用本文方法,3 個體量網絡的mAP0.50:0.95分別提升2.9、2.1、0.8 個百分點,mAP0.50分別提升3.0、2.3、0.9 個百分點。同時為了檢驗算法對小目標的檢測效果,本文統計了小目標檢測精度如表2 所示,mAP0.50:0.95分別提升1.2、1.3、0.6 個百分點。通過定量對比可以發現模型總體檢測精度以及對小目標的檢測精度均有所提升。

表1 不同模型在COCO2017驗證集上檢測精度對比Table 1 Comparison of detection accuracy of different models on COCO2017 validation dataset

表2 小目標物體檢測精度對比Table 2 Comparison of detection accuracy on small target 單位:%

3.4.2 定性分析

為了更直觀地展示算法性能的提升,圖11 給出了使用原算法和改進后的算法對圖片的推理結果可視化對比。定性分析實驗結果,觀察圖11 可以發現,加入本文方法后,算法能夠更加準確地檢測到圖中的小目標物體,并且對于原來檢測錯誤的類別也有了一定的修正。從實驗結果可以看出,使用本文提出的DePAN Neck 以及DYIoU Loss 進行訓練,可以顯著提升模型的性能。

圖11 YOLOv6-N與改進后的YOLOv6-N推理結果對比Fig.11 Comparison of reasoning results between YOLOv6-N and improved YOLOv6-N

3.5 消融實驗

3.5.1 各模塊有效性驗證

為了驗證各個模塊的有效性,本文設計了一系列的控制變量實驗,首先使用YOLOv6-N和YOLOv6-T兩種體量的模型來測試使用或不使用本文提出的各方法對模型性能的影響,實驗設置與3.3 節相同,在COCO 訓練集上訓練。結果如表3 所示,其中+表示在原模型基礎上只使用DYIoU Loss作為位置損失訓練,++表示同時使用DYIoU Loss 和DePAN Neck 改進模型進行訓練。如圖12為YOLOv6-N 訓練過程位置損失、mAP 曲線圖。從表3 結果可以看出,在原有的模型基礎上逐步加入本文提出的方法可以明顯提升模型的精度,特別是使用DePAN Neck 融合特征之后效果更為顯著。為了排除數據集影響,本文又使用了VOC2012 數據集進行訓練與測試,結果如表4所示。其中*表示在原模型基礎上加入本文方法。從表4 可以看出,本文方法在VOC2012 數據集上仍有較大提升。

表3 消融實驗對比結果Table 3 Comparative results of ablation experiments 單位:%

表4 VOC2012驗證集上精度對比Table 4 Comparison of detection accuracy on VOC2012 validation dataset 單位:%

圖12 訓練過程位置損失、mAP0.50:0.95、mAP0.50曲線Fig.12 Curves of position loss,mAP0.50:0.95and mAP0.50 during training process

3.5.2 動態位置損失函數有效性驗證

為了進一步驗證本文提出的動態位置損失的有效性,本小節在VOC2012 數據集上設計了一系列消融實驗對DYIoU Loss進行深入分析。

對于式(19)中的角度損失動態權重γ和形狀損失動態權重v,分別使用和不使用各動態權重,觀察對檢測精度的影響,結果如表5 所示,其中×和√分別表示使用和不使用相應的動態權重。從實驗結果可以看出,當同時使用動態權重γ和v時檢測精度最高,當只使用動態權重γ不使用v時精度有所降低,但損失仍然是收斂的。然而當不使用動態權重γ時,無論使用還是不使用動態權重v,損失均無法收斂,檢測精度極低。這也可以解釋SIoU中作者為何提出了角度損失卻將其融合進了距離損失中,因為如果直接作為獨立組成部分,角度損失反而會對模型造成干擾,導致損失無法收斂。因此在DYIoU Loss 中為角度損失分配動態權重是必要的。

表5 使用和不使用各動態權重檢測精度對比Table 5 Comparison of detection accuracy with and without each dynamic weight 單位:%

為了驗證式(19)中不同的全局參數λ對模型精度的影響,本文選取4 個值0.25、0.50、0.75、1.00 進行了實驗,實驗結果如表6 所示。當λ等于0.50 時,檢測精度最高。

表6 使用不同λ參數的檢測精度對比Table 6 Comparison of detection accuracy with different parameters λ 單位:%

為了進一步驗證動態損失的有效性,本文還將其他主流的位置損失函數DIoU、CIoU、SIoU 應用于YOLOv6-N 上對比觀察模型精度,實驗結果如表7 所示。當使用DYIoU Loss進行訓練時精度最高。其次為了驗證方法的普適性,本文選取了目標檢測使用最廣泛的模型YOLOv3 和單階段目標檢測的另一類經典模型SSD,以及雙階段檢測的代表Faster R-CNN做對比實驗,實驗結果如表8 所示。其中*表示使用DYIoU Loss 進行訓練。從表8 結果可以發現,對于單階段目標檢測算法,檢測效果會有所提升,尤其是對于原本使用GIoU Loss 作為位置損失的YOLOv3,而對于雙階段檢測算法Faster R-CNN,檢測精度也能比較接近。

表7 不同位置損失的檢測精度對比Table 7 Comparison of detection accuracy with different position losses 單位:%

表8 其他模型使用動態交并比損失檢測精度對比Table 8 Comparison of detection accuracy of other models with DYIoU Loss 單位:%

3.5.3 動態位置損失函數可視化分析

為了更直觀地體現動態位置損失函數對目標檢測任務正確性的影響,本小節主要對損失函數進行可視化分析,觀察邊界框收斂過程。

可視化不同位置損失函數的收斂過程如圖13 所示,其中紅色矩形表示真實邊界框,黑色矩形表示初始邊界框,藍色矩形表示優化過程中的邊界框。結果表明與其他主流位置損失相比,本文提出的DYIoU Loss 對邊界框收斂速度更快,在迭代200 輪時邊界框基本收斂,而對于SIoU Loss,存在一個向坐標軸靠攏的趨勢,對收斂速度造成一些影響,迭代260輪時基本收斂,對于GIoU Loss則是需要迭代380輪才能基本收斂。

圖13 不同位置損失函數收斂過程可視化Fig.13 Visualization of convergence process of different position loss functions

此外本文對目標檢測實例進行可視化分析,使用DYIoU Loss 和SIoU Loss 在VOC2012 數據集上進行150輪的訓練,觀察訓練初期、中期、后期邊界框收斂情況,結果如圖14 所示。對于DYIoU Loss,在訓練后期,形狀損失被給予較大的權重,因此邊界框形狀更加精確,相比之下SIoU Loss 在訓練后期對于邊界框形狀的約束則不如本文方法。

圖14 目標檢測實例邊界框收斂過程可視化Fig.14 Visualization of bounding box convergence process of object detection instance

4 結束語

為了解決多尺度預測時特征融合能力有限的問題,本文基于可變形卷積設計了新的Neck 來進行特征融合,自適應調整采樣點位置,增大感受野有效提升了特征融合能力。其針對目標檢測算法中位置損失函數存在的局限性,本文提出了動態交并比損失函數,能夠在訓練的不同階段動態調整不同損失的貢獻,更符合目標檢測訓練邏輯,有針對性地約束網絡。本文基于上述方法改進了YOLOv6 模型,顯著提升了模型精度,并且可以即插即用,方便地應用到其他目標檢測模型的訓練任務中去。

對于動態交并比損失函數,本文通過分析目標檢測任務整個流程的邊界框特點,首先提出了動態損失這個想法,然而具體的動態權重即式(19)中的γ和v的設計仍是需要后續深入研究的問題。

猜你喜歡
特征檢測
抓住特征巧觀察
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
新型冠狀病毒及其流行病學特征認識
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
主站蜘蛛池模板: 无码一区中文字幕| 91探花在线观看国产最新| 国产欧美另类| 久久一级电影| 亚洲成年人片| 国产在线98福利播放视频免费| 国产精品19p| 亚洲精选高清无码| 国产精品久久久久久影院| 久久久亚洲色| 国产成人精品视频一区二区电影| 亚洲高清日韩heyzo| 欧美午夜小视频| 久精品色妇丰满人妻| 成人在线天堂| 久久综合丝袜长腿丝袜| 99视频只有精品| 国产白浆视频| 国产高潮流白浆视频| 日韩成人免费网站| 欧美国产另类| 国产精品视频第一专区| 99久久99这里只有免费的精品| 亚洲国产成人在线| 国产最爽的乱婬视频国语对白| 久久99国产视频| 久久中文无码精品| 中国成人在线视频| 国产精品亚洲专区一区| 高清色本在线www| 波多野结衣视频一区二区 | 亚洲视频在线网| 亚洲成人网在线观看| 亚洲国产中文精品va在线播放| 国产精品永久不卡免费视频| jizz在线免费播放| 亚洲免费成人网| 午夜国产理论| 中文国产成人久久精品小说| 在线国产欧美| a毛片免费看| 国产午夜一级淫片| 亚洲一区无码在线| 色有码无码视频| 欧美日韩激情在线| 99久久国产综合精品2020| 国内精品91| 亚洲黄色成人| 久久国产拍爱| 久久亚洲精少妇毛片午夜无码| 久久久精品国产亚洲AV日韩| 国产精品永久久久久| 大香伊人久久| 国产精品国产三级国产专业不| 欧美在线视频a| 日韩小视频网站hq| 日本黄色a视频| 亚洲精品成人7777在线观看| 国产呦精品一区二区三区网站| 国产一级精品毛片基地| 国产成人艳妇AA视频在线| av天堂最新版在线| 亚洲精品黄| 这里只有精品在线播放| 无码'专区第一页| 精品免费在线视频| 在线亚洲精品福利网址导航| 九九久久精品免费观看| 婷婷色一区二区三区| 久久99精品久久久大学生| 综合网久久| 丝袜亚洲综合| 亚洲性视频网站| 免费一级无码在线网站| 精品撒尿视频一区二区三区| 99er精品视频| 亚洲男人天堂2018| 欧美亚洲一区二区三区导航 | 国产精品3p视频| 国产激情无码一区二区免费| 久青草网站| 国产在线91在线电影|