摘 要: 針對瓦楞紙板表面缺陷檢測中特征不明顯、跨尺度缺陷 (如水漬、劃痕、壓裂、機械損傷等) 易漏檢等問題,提出了一種基于 YOLOv8s 的跨尺度缺陷檢測算法。通過跨尺度特征融合模塊(CCFM) 改進網絡頸部結構,結合DySample上采樣算子增強對劃痕的跨尺度缺陷和低分辨率水漬的敏感度,有效整合了細節特征和上下文信息,減少了計算量;改進 WIOUv3損失函數優化壓裂和機械破壞的錨框質量;引入 SPDConv模塊保留特征不明顯缺陷的細粒度特征,進一步提升特征學習效率。結果表明,改進后的模型在精確率、召回率和平均精度上分別提高了1. 3、1. 6和1. 5個百分點,參數量減少了 42. 3%,幀率提高了 25. 8%,顯著減少了假陽性和假陰性情況,提高了運算速度。該算法能夠實現高效、準確的瓦楞紙板表面缺陷檢測,為瓦楞紙板生產質量監控提供了可靠的技術支持,具有廣泛的工業應用價值。
關鍵詞:YOLOv8s;瓦楞紙板;缺陷檢測;CCFM;DySample上采樣算子
中圖分類號:TS736 文獻標識碼:A DOI:10. 11980/j. issn. 0254-508X. 2025. 06. 021
隨著網絡的進步,電商迅速發展,網購成為了日常生活中不可缺少的一種購物方式,市面上幾乎所有的商品都可以通過網絡進行購買,人們也越來越傾向于這種無接觸購物服務。網購的興起帶動了物流行業和包裝行業的快速發展[1]。隨著我國從“限塑令”到“禁塑令”的轉變,瓦楞紙板已成為綠色環保包裝的重要組成部分,其生產質量對物流行業有著重要影響[2]。然而,在瓦楞紙板的制造過程中,環境、生產過程以及人工等因素可能會導致瓦楞紙板出現多種缺陷,如壓裂,劃傷,機械損傷等,這極大影響了瓦楞紙板的外觀質量,若不能及時發現,將會造成一定的損失。因此,對瓦楞紙板進行檢測十分必要,這是降低產生瓦楞紙板缺陷的關鍵技術之一。
在過去的幾年里,瓦楞紙板缺陷檢測主要依賴人工選擇和傳統圖像處理方法。然而,人工選擇法存在耗時長、易漏檢、效率低等缺點,而人工選擇存在主觀性較大的問題,嚴重影響了瓦楞紙板缺陷檢測的準確性,已無法滿足行業的現代化需求。傳統圖像處理法在特征提取過程中需要進行灰度處理、二值化等預處理操作,這一過程繁瑣且特征提取時間較長,難以實現瓦楞紙板缺陷的實時檢測,并且傳統圖像處理法對跨尺度和特征不明顯的瓦楞紙板缺陷檢測較困難。在本研究中,跨尺度缺陷是指缺陷尺度跨度較大的缺陷,特征不明顯缺陷是指與瓦楞紙板表面本身存在的特征相似缺陷和低分辨率缺陷,如淺一點的劃痕和輕微水漬。
隨著深度學習 (deep learning,DL) 理論的不斷完善,DL 在表面缺陷檢測方面已成功應用于各個行業。相較于傳統的檢測算法,DL 技術只需要構建卷積神經網絡,然后將缺陷圖片輸入網絡,就能實現對缺陷的自主學習并對特征進行提取,具有更好的檢測精度和速度[3]。到目前為止,基于 DL 的目標檢測算法主要有 2 種,即兩階段檢測算法和單階段檢測算法。兩階段檢測算法具備高精度、低漏檢錯檢率等優勢,但也存在檢測速度較慢、計算參數較多等問題,代表算法為 R-CNN[4]、Faste R-CNN[5]、Faster R-CNN[6]等。單階段算法的優勢在于檢測速度快、計算量小,然而相對于兩階段檢測算法,其檢測精度略有不足,代表算法為 SSD[7]和 YOLO系列[8]。相較之下,具有高檢測速度的單階段檢測算法更適用于工業實際場景需求,且隨著算法的持續優化,其檢測精度已顯著提升。然而,現有的基于 DL的檢測算法在瓦楞紙板缺陷檢測中仍存在一些局限性,如姜旭輝[9]通過改進YOLOv5s 算法的激活函數、損失函數和預測框篩選方式來提升其性能,然而跨尺度特征被忽略,改進算法對全局特征的提取效果不明顯;陳俊杰等[10]提出基于YOLOv7tiny的算法改進,增大了對圖像的感受野,使得模型能夠捕捉到更大的區域信息,但該方法對特征的注意力較弱,難以識別特征不明顯缺陷。
綜合考慮瓦楞紙板表面缺陷檢測過程中存在缺陷尺寸變化大、特征不明顯、目標檢測效果差等問題,本研究提出了以 YOLOv8s 模型為基礎的改進算法模型,其兼顧了檢測的實時性和實用性。首先,為提高檢測的準確性,在頸部網絡 (Neck) 部分利用跨尺度特征融合模塊 (CCFM),實現跨尺度特征融合[11],并采用 DySample 上采樣算子[12]以增強模型的頸部網絡,這種融合操作有效地整合了不同尺度的特征,從而提高了模型對尺度變化的適應性,還避免耗時的動態卷積和額外的子網絡生成的動態內核,增強了低分辨率和跨尺度目標的學習,提高了檢測精度。然后,為了細化瓦楞紙板表面缺陷中預測邊框的位置,抑制異???,采用 WIOUv3[13]損失函數代替 CIOU[14]損失函數,提高了模型精度,減輕了數據集質量不平衡給模型帶來的影響。最后,為增強模型對特征不明顯缺陷的檢測能力,在主干網絡 (Backbone) 采用空間深度轉換卷積 (SPDConv) [15],增強檢測的準確性。

1 YOLOv8原理
YOLO 系列算法從 2015 年首次被提出之后,經過多次更新,在目標檢測領域取得巨大成功,逐漸成為主流的目標檢測算法。YOLOv8 是 Ultralytics 在2023 年推出的模型,具有前沿、先進、應用廣泛的特點,基于之前的 YOLO 算法引入了新功能和經過改進的 YOLOv8 算法進一步提升了模型的性能和靈活性。
YOLOv8 算法主要由主干網絡 (Backbone)、頸部網絡 (Neck) 和頭部網絡 (Head) 3部分組成,模型結構如圖 1所示。由圖 1可知,Backbone 主要由卷積、C2f模塊和空間金字塔池化層 (SPPF) 組成。與YOLOv5模型相比,YOLOv8在 Backbone 和 Neck中將C3模塊替換成 C2f模塊,由于 C2f模塊中增加了并行結構,在保證信息不丟失的同時實現了進一步的輕量化。在 Neck 部分,采用與 YOLOv5 類似的 PANet 結構[16-17],與傳統的自上而下融合特征映射的FPN相比,PANet通過自下而上的融合,將淺層中的物體特征信息傳遞至深層,使其整體表征能力得到增強。在Head部分,YOLOv8采用解耦預測頭,將回歸分支和預測分支進行分離,并摒棄了 Anchor-based (錨框設計) 思想,采用 Anchor-free (無錨框) 的檢測方式,提高了檢測精度,加快了檢測速度[18]。
YOLOv8共 5個模型,分別為 YOLOv8n、YOLOv8s、YOLOv8m、YOLOv8l 和 YOLOv8x。其 中,YOLOv8s在保證較高精度的同時擁有較快的推理速度,方便嵌入移動端。綜合考慮瓦楞紙板缺陷檢測的實際情況,在滿足輕量化的同時也要求較高的檢測精度,因此選用YOLOv8s作為基礎模型進行改進。

2 算法改進
2. 1 改進算法頸部網絡
在工業應用中,提高跨尺度缺陷檢測的準確性通常需要結合額外的網絡層才能有效地提取特征,但這可能會導致檢測效率降低。為了應對這一挑戰,本研究 采 用 了 RT-DETR 中 的 跨 尺 度 特 征 融 合 模 塊(CCFM),其原理如圖2所示。CCFM引入了1個由沿融合路徑的卷積層組成的融合塊,其主要目的是將2 個相鄰的尺度合并為 1 個新的復合特征。該融合塊由 2個 1×1卷積層組成,旨在調整通道編號,以及由RepConv[19]組成的 N 個 RepBlock,以實現有效的特征融合。隨后,通過元素求和將2條路徑的輸出組合在一起。CCFM應用于YOLOv8s Backbone內的淺層特征圖上的原理是利用1×1卷積運算來捕獲淺層多尺度特征信息;然后使用加權技術對這些特征進行上采樣并與 Neck 中更深的特征圖集成,以豐富其功能并生成包含更全面信息的特征圖。綜上所述,將CCFM應用在 YOLOv8s 算法中,能夠有效融合集成各種尺度的特征,從而增強模型對尺度變化的適應性和檢測跨尺度目標的能力;此外,CCFM通過將多個通道的信息進行整合,避免了對每個特征進行獨立處理,最大限度地減少了計算冗余,同時有效地整合了詳細的特征和上下文信息,最終使模型的整體性能提升。
使用加權技術對跨尺度特征進行上采樣操作的目的是調整輸入特征映射的大小,使其與原始圖像的尺寸相匹配,從而使模型能夠有效地檢測各種大小和距離的目標。但傳統采樣方法通常依賴于雙線性插值[20],存在固有的局限性,并可能損失關鍵的圖像細節[21]。在實際檢測場景中,利用 CCFM 中的 1×1卷積提取后得到的深層瓦楞紙板特征圖像相對較小,可能會出現像素失真等問題,從而導致細粒度信息的丟失及識別任務中特征學習的困難。為解決該問題,引入了高度有效的動態上采樣器DySample,旨在增強模型對低分辨率圖像或較小缺陷的檢測能力,同時減少假陽性和假陰性的情況,其結構如圖3所示。DySample利用基于點的采樣方法和學習采樣的角度進行上采樣,在不增加額外負擔的情況下提高了圖像分辨率。
由圖3可以看出,采樣集S由原始采樣網格 (O)和生成的偏移量 (G) 組成,偏移量的生成采用“線性+像素洗牌技術 (pixel shuffle[22) ” ] 的方法,其中偏移量的范圍可由靜態和動態因素決定。以靜態因子采樣方法為例,給定1個大小為輸入特征圖的通道數(C) ×高度 (H) ×寬度 (W) 的特征映射和 1 個上采樣因子 S,特征映射首先通過 1 個輸入通道數為 C、輸出通道數為2gS2的線性層。然后,使用pixel shuffle將其重塑為 2g·sH·sW,其中 2g 表示 x 和 y 坐標。最后,生成大小為C·H·sW的上采樣特征圖。
通過以上對 CCFM 和 DySmaple 上采樣算子的分析,可以發現CCFM有效地整合了詳細的特征和上下文信息,DySmaple 上采樣算子的采用避開了動態卷積和額外的子網絡生成動態內核,減少了假陽性和假陰性的情況,使模型保留了更豐富的特征信息,并減少了計算量。
2. 2 損失函數改進
邊界框回歸法是目標檢測的一種重要技術方法,其原理是使用矩形邊界框預測目標在圖像中的位置。將 CIOU 作為 YOLOv8 中的損失函數,雖然考慮了錨框重疊面積、中心點距離和長寬比,但錨框長寬比是相對值,因此存在著一定的不確定性,并且由于其也未考慮目標樣本質量不平衡的情況,這可能導致模型的收斂速度和預測準確率均較低。而瓦楞紙板表面缺陷樣本就存在缺陷質量不平衡的問題,為解決其對評估結果造成的偏差,本研究引入WIOUv3損失函數代替 CIOU 損失函數,以減輕低質量樣本對模型產生的影響,提高模型收斂速度。
WIOUv3損失函數可通過動態非單調聚焦機制將IOU替換成為離群度評估錨框質量,以避免長寬比和距離等幾何因素對模型進行過多懲罰,其計算如式(1)~式(3)所示。

2. 3 引入空間深度轉換卷積
在目標檢測任務中,檢測跨尺度目標和特征不明顯目標一直是非常具有挑戰性的項目,跨尺度目標通常是指同時包含尺寸跨度大的目標和小目標的情況,這些小目標意味著低分辨率。因此,模型的學習上下文信息受到限制,導致瓦楞紙板中特征不明顯的目標更難檢測,容易導致模型漏檢。本研究針對此問題引入了空間深度轉換卷積 (SPDConv) 模塊以提升模塊對跨尺度目標和特征不明顯目標的檢測效果,其結構如圖4所示。
由圖 4 可知,SPDConv 是一個高效空間編碼技術,由 1 個空間到深度層 (space-to-depth layer) 和1 個非跨步卷積層 (non-strided convolution layer) 組成,X 為特征圖,具有通道數 C、高度和寬度 S。然后,通過SPDlayer將像素的空間塊重新排列到通道維度,將通道數增加到 4,同時將空間維度減少 50%。再沿著通道維度合并不同的通道組,合并后的特征圖可能會與其他處理過的特征圖相加得到 X′。最后,對結果特征圖應用步長為1的卷積,減少通道維度至C2,同時保持空間分辨率,得到的 X″仍為原始大小的50%。
通 過 對 以 上 space-to depth layer 和 non-strided convolution layer的分析,可以發現空間到深度作用是將輸入特征圖的像素塊重新排列進入通道維度,以此來增加通道數,同時減少空間分辨率,但不丟失信息。通過這一轉換,允許卷積神經網絡捕捉和保留在處理小物體和低分辨率圖像時經常丟失的細粒度信息。空間到深度層后面緊跟的是非步長卷積層,其采用的是步長為 1 的卷積操作,意味著在卷積過程中,卷積核會在輸入特征圖上逐像素移動,不跳過任何像素。這樣可以確保在特征圖的每個位置均能應用卷積核,最大程度地保留信息,并生成豐富的特征表示,能更好地檢測特征不明顯缺陷和跨尺度缺陷。


2. 4 改進YOLOv8s網絡
根據上述模塊,改進 YOLOv8s 模型如圖 5 所示。首先,對Backbone中P4、P6和P9層的尺度特征圖進行卷積,以減小圖像大小和計算量,并將得到的淺層多尺度特征信息與經過 Dysample 上采樣算子的深層網絡的特征圖拼接,以保留更多的多尺度缺陷特征信息。然后,用WIOUv3動態調整損失的焦點,弱化幾何因子的懲罰,使模型獲得更好的泛化能力,并以更少的訓練干預提高檢測精度。最后,在 Backbone 中引入SPDConv來最大程度地保留信息,并生成豐富的特征表示。
3 實 驗
3. 1 實驗環境
本實驗所采用的操作系統為 Windows 11;CPU 型號為 13th Gen Intel(R) Core(TM) i5-13400F 2.50 GHz;顯卡 為 NVDIA GeForce RTX4060Ti; 語 言 為 Python3.9,編 譯 器 為 Pycharm; 深 度 學 習 框 架 為 Pytorch2.21,CUDA版本為12.1。模型在訓練過程中使用SGD優化器,學習率設置為 0.01,訓練次數為 300 次,Batch size值設置為32。
3. 2 樣本數據集
目前,網絡上無針對瓦楞紙板精細缺陷的開放數據集,因此本研究針對瓦楞紙板在生產過程中可能出現的各類問題形式進行制作數據集,缺陷主要分為機械損傷、壓裂、水漬、劃痕4類。為豐富數據集,增強模型的泛化能力,對圖像進行數據增強,即隨機旋轉,改變亮度等。增強后數據集共 1 800張圖片,訓練集和驗證集的比例為 8∶2,瓦楞紙板缺陷形式采集示例如圖6所示。
使用 labelimg標注軟件將采集后的數據集進行標注,標注方式為矩形框,標注示例如圖7所示。




4 結果與討論
4. 1 評價指標
為了能準確客觀地判斷改進后模型的檢測性能,本研究選擇了在目標檢測中常用的評估指標[23-25]如精確率 (P)、召回率 (R)、平均精度值 (mAP)、參數量和幀率 (FPS) [26-27]作為檢測性能的評價指標,其中精確率、召回率和平均精度值的計算如式(4)~式(7)所示。參數量是指模型訓練中需要訓練的參數總數,用來衡量模型的大小,FPS則是用來衡量模型的推理速度。
4. 2 實驗結果分析
4. 2. 1 消融實驗
為驗證提出的3種改進后模型的有效性,對比所有改進后模型的結果,如表1所示。
由表 1可知,模型 A為原始模型 YOLOv8s,模型B、C 和 D 分別為添加了各種模塊的網絡結構模型。模型B在網絡結構中引入了CCFM和DySample上采樣算子,使精確率、召回率和平均精度值分別較模型A提升了0.7、0.6和0.4個百分點,參數量下降了35.1%,FPS提高了13.8%。這是因為CCFM和DySample上采樣算子的引入將不同通道的特征信息進行融合,增強了特征的豐富性和多樣性,并減少了假陽性和假陰性的情況,使得模型能捕捉到多尺度特征信息,但該改進使得網絡層數增加,不利于細小特征信息的保留,因此精確率、召回率和平均精度值無顯著提升,但是參數量明顯減少。模型 C 在模型 B 的基礎上將原本的CIOU 損失函數改為 WIOUv3 損失函數,使得模型能動態調整損失焦點,提高了模型在檢測任務種的泛化能力,與模型B相比,精確率、召回率和平均精度值分別提升了 0.3、0.7 和 0.8 個百分點。這是因為由于自建數據集中存在質量不均衡問題,引入的 WIOUv3損失函數通過動態權重和異??蛞种茩C制降低了對數據集質量的依賴,因此召回率提升明顯,而計算量和FPS并無顯著改變。模型D在模型C的基礎上在Back‐bone 引入 SPDConv,使模型能更有效地提取圖像特征,減少信息損失,提高了特征提取的準確性,對比模型C,模型D的精確率、召回率和平均精度值均提高了0.3個百分點,參數量下降了11.1%,FPS提高了10.5%。

綜上所述,相對于原始模型,模型 C 的精確率、召回率和平均精度值分別提升了 1.3、1.6 和 1.5 個百分點,參數量減少了 42.3%,FPS 提高了 25.8%,體現了改進后模型的有效性和實時性。為了更加直觀地證明改進后模型具有更好的性能,本研究將模型C作為改進 YOLOv8s 模型,與 YOLOv8s 模型的平均精度值進行對比,算法改進前后訓練次數的變化如圖 8所示。
由圖8可知,在前期訓練階段,改進YOLOv8s模型的平均精度值存在波動,但波動幅度比原始模型小。然而,隨著訓練次數的增加,改進前后YOLOv8s模型的平均精度值均逐漸提升,在訓練次數達160次時,改進 YOLOv8s 的平均精度值超過了原始模型,并且在后續訓練中一直保持高于 YOLOv8s 的水平,直觀表明該改進方法提高了模型的檢測能力。
為了驗證改進 YOLOv8s 的檢測能力,對比改進前后2種模型的檢測結果,如圖9所示。由圖9可知,樣品 1 中 YOLOv8s 漏檢了 1 個以細小形式存在的劃痕,在樣品2中YOLOv8s在缺陷尺寸跨度大的情況下錯檢了劃痕,在樣品3中YOLOv8s則是將劃痕錯檢成了機械損傷,并且漏檢了 1個細小劃痕,在樣品 4中漏檢了大尺寸缺陷旁的細小劃痕,在樣品5中錯檢了特征不明顯的劃痕。而改進YOLOv8s將5個樣品中的缺陷全部準確地識別出來,體現了改進 YOLOv8s 的準確性。


4. 2. 2 對比實驗
為了體現本研究改進 YOLOv8s 的先進性,將改進 YOLOv8s 模型與 YOLOv5s、YOLOv6s、YOLOv7tiny、YOLOv8s 和 YOLOv9s 模 型 進 行 比 較 , 結 果 如 表 2所示。
由表2可知,與其他5種模型對比,改進YOLOv8s模型在精確率、召回率、平均精度值和FPS均具有最優性能,分別為 92.8%、85.9%、89.4% 和 55.6 幀/s,其平均精度值與 YOLOv5s、YOLOv6s、YOLOv7tiny、YOLOv8s 和 YOLOv9s 模 型 相 比 , 分 別 高 出 了 2.3、2.8、2.9、1.5 和 2.1 個百分點。與 YOLOv8 相比,改進 YOLOv8s精確率、召回率分別提升 1.3個百分點和1.6 個 百 分 點,參 數 量 減 少 了 42.3%,幀 率 提 高 了25.8%。此外,改進 YOLOv8s 模型的參數量僅次于YOLOv7tiny。綜上所述,改進 YOLOv8s 模型的性能相較于 YOLOv8s 模型有一定程度的提高,能夠改善對特征不明顯缺陷和跨尺度目標的識別精度。

5 結 論
本研究針對瓦楞紙板表面檢測中存在的特征不明顯缺陷 (如淺劃痕) 和跨尺度缺陷 (如劃痕、局部壓裂與整體機械損傷共存) 等工業檢測難題,基于YOLOv8s模型提出了一種改進算法。
5. 1 通 過 跨 尺 度 特 征 融 合 模 塊 (CCFM) 模 塊 與DySample 上采樣算子重構頸部網絡,顯著提升了模型對低分辨率水漬和淺劃痕的特征提取能力,并有效減少了計算冗余;采用WIOUv3損失函數優化了壓裂缺陷的定位精度和不同尺寸缺陷的檢測一致性;引入SPDConv模塊增強了主干網絡對模糊缺陷邊緣和微弱紋理特征的感知能力。
5. 2 改進YOLOv8s模型相對于YOLOv8s模型精確率提高了1.3個百分點,召回率提升了1.6個百分點,平均精度提升了1.5個百分點,參數量減少了42.3%,FPS提高了25.8%。
未來可通過相關技術進一步提升對瓦楞紙板表面缺陷檢測的檢測精度,同時進一步探討如何將本研究算法嵌入至移動端在實際場景中進行部署和應用。
參 考 文 獻
[1] 高思偉 . 基于機器視覺的包裝缺陷檢測研究[D]. 太原:太原科
技大學,2023.
GAO S W. Packaging defects detection based on machine vision re‐
search[D]. Taiyuan: Taiyuan University of Science and Technolo‐
gy,2023.
[2] 杜 娟,臧永華,吳振娟. 瓦楞紙板的發展趨勢及水性油墨柔版
印刷適性[J]. 中國造紙,2009,28(6):57-62.
DU J, ZANG Y H, WU Z J. The Development of Corrugated Board
and Its Flexographic Printability with Water-based Inks[J]. China
Pulp amp; Paper,2009,28(6):57-62.
[3] 羅東亮,蔡雨萱,楊子豪,等 . 工業缺陷檢測深度學習方法綜述
[J]. 中國科學:信息科學,2022,52(6):1002-1039.
LUO D L, CAI Y X, YANG Z H, et al. Overview of deep learning
methods for Industrial defect detection[J]. Scientia Sinica(Informa‐
tionis),2022,52(6):1002-1039.
[4] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature
hierarchies for object detection and semantic segmentation[C]//2014
IEEE Conference on Computer Vision and Pattern Recognition,
2014:580-587.
[5] GIRSHICK R. Fast R-CNN [C]//2015 IEEE Conference on
Computer Vision and Pattern Recognition,2015:1440-1448.
[6] REN S, HE K, GIRSHICK R, et al. Faster R-CNN: Towards real
time object detection with region proposal networks[J]. IEEE
Transactions on Pattern Analysis and Machine Intelligence,2017,39
(6):1137-1149.
[7] LIU W, ANGUELOV D, ERHAN D, et al. SSD: Single shot
multibox detector[C]//Computer Vision-ECCV 2016:14th European
Conference, Amsterdam,2016:21-37.
[8] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look
once: Unified, real-time object detection[C]//Proceedings of the
IEEE Conference on Computer Vision and Pattern Recognition,
2016:779-788.
[9] 姜旭輝 . 基于機器視覺的紙板缺陷檢測控制系統研究及應用
[D]. 青島:青島科技大學,2021.
JIANG X H. Research and Application of Paperboard Defect Detec‐
tion Control System Based on Machine Vision[D]. Qingdao: Qingd‐
ao University of Science amp; Technology,2021.
[10] 陳俊杰,陳哲宇,鄭子濱,等 . 基于 FPGA的高能效紙板缺陷檢
測系統[J]. 計算機測量與控制,2025,33(1):45-52.
CHEN J J, CHEN Z Y, ZHENG Z B, et al. High energy efficiency
paperboard defect detection system based on FPGA[J]. Computer
Measurement amp; Control,2025,33(1):45-52.
[11] ZHAO Y, LYU W Y, XU S L, et al. Detrs beat yolos on real-time
object detection[C]//Proceedings of the IEEE/CVF Conference on
Computer Vision and Pattern Recognition,2024:16965-16974.
[12] LIU W Z, LU H, FU H T, et al. Learning to upsample by learning
to sample[C]//Proceedings of the IEEE/CVF International
Conference on Computer Vision,2023:6027-6037.
[13] TONG Z J, CHEN Y H, XU Z W, et al. Wise-IOU: Bounding box
regression loss with dynamic focusing mechanism [EB/OL]. (2023-
04-08)[2025-01-08]. https://arxiv. org/abs/2301. 10051v3.
[14] ZHENG Z, WANG P, REN D, et al. Enhancing geometric factors
in model learning and inference for object detection and instance
segmentation[J]. IEEE Transactions on Cybernetics,2021,52
(8):8574-8586.
[15] SUNKARA R, LUO T. No more strided convolutions or pooling: A
new CNN building block for low-resolution images and small objects
[C]//Joint European Conference on Machine Learning and
Knowledge Discovery in Databases. Cham,2022:443-459.
[16] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look
once: Unified, real-time object detection[C]//2016 IEEE
Conference on Computer Vision and Pattern Recognition(CVPR).
Las Vegas,2016:779-788.
[17] DING X H, ZHANG X Y, MA N N, et al. Repvgg: Making vgg
style convnets great again[C]//Proceedings of the IEEE/CVF
Conference on Computer Vision and Pattern Recognition,2021:
13733-13742.
[18] ZHANG S, CHI C, YAO Y, et al. Bridging the gap between
anchor-based and anchor-free detection via adaptive training sample
selection[C]//Proceedings of the IEEE/CVF Conference on
Computer Vision and Pattern Recognition,2020:9759-9768.
[19] PARK H J, KANG J W, KIM B G. ssFPN: Scale sequence(S2)
feature-based feature pyramid network for object detection[J].
Sensors, DOI:10. 3390/s23094432.
[20] LI Y, MA C, LI L, et al. Lightweight Tunnel Obstacle Detection
Based on Improved YOLOv5[J]. Sensors, DOI:10. 3390/s24020395.
[21] WANG J, CHEN K, XU R, et al.
Carafe: Content-aware
reassembly of features [C]//Proceedings of the IEEE/CVF
International Conference on Computer Vision,2019:3007-3016.
[22] SHI W, CABALLERO J, HUSZáR F, et al. Real-time single
image and video super-resolution using an efficient sub-pixel
convolutional neural network[C]//Proceedings of the IEEE
Conference on Computer Vision and Pattern Recognition,2016:
1874-1883.
[23] 羅
磊,謝竹逵 . 基于改進 YOLOv8 的交通標志檢測算法[J].
機電工程技術,2024,53(3):205-210.
LUO L, XIE Z K. Traffic sign detection algorithm based on im‐
proved YOLOv8[J]. Mechanical amp; Electrical Engineering Technol‐
ogy,2024,53(3):205-210.
[24] 沈凌云,郎百和,宋正勛,等. 基于DCS-YOLOv8模型的紅外圖
像目標檢測方法[J]. 紅外技術,2024,46(5):565-575.
SHEN L Y, LANG B H, SONG Z X, et al. Infrared image target
detection method based on DCS-YOLOv8 model[J]. Infrared Tech‐
nology,2024,46(5):565-575.
[25] 黃小龍,陳中舉,許浩然,等. 基于SR-YOLOv8n-BCG的模糊花
卉圖像檢測[J]. 河南農業科學,2024,53(4):161-171.
HUANG X L, CHEN Z J, XU H R, et al. Fuzzy flower image de‐
tection based on SR-YOLOv8n-BCG[J]. Journal of Henan Agricul‐
tural Sciences,2024,53(4):161-171.
[26] 張開生,關凱凱 . 基于改進 YOLOv5 的紙病檢測方法[J]. 中國
造紙,2022,41(10):79-86.
ZHANG K S, GUAN K K. Paper Defect Detection Method Based
on Improved YOLOv5[J]. China Pulp amp; Paper,2022,41(10):
79-86.
[27] 賈偉萍,褚
瑋,劉文婷,等. 基于YOLOv3的卷煙用瓦楞紙箱
表面缺陷檢測方法[J]. 中國造紙,2023,42(6):126-133.
JIA W P, CHU W, LIU W T, et al. Surface Defect Detection Meth‐
od for Corrugated Box for Cigarettes Based on YOLOv3 Algorithm
[J]. China Pulp amp; Paper,2023,42(6):126-133.
(責任編輯:魏琳珊)