于濤



摘要:為了提高帶式輸送機大塊煤識別的準確率,避免大塊煤堆積對皮帶造成的磨損,延長輸送機的使用壽命,提出了基于透視變換和SNc-YOLOv5的大塊煤識別方法,該方法首先利用透視變換技術對原始圖像進行處理,有效地將圖像中的非輸送機區域濾除,并對輸送機區域進行坐標矯正;然后,采用SNc-YOLOv5模型對經過標準化處理的圖像進行深度學習建模,得到大塊煤識別模型;最后,通過試驗分析和現場應用對該方法進行有效性驗證。結果表明:該方法在1號煤礦數據集的試驗分析精確率為94.8%,召回率為83.2%,在2號煤礦數據集的試驗分析精確率為92.8%,召回率為85.3%,現場應用置信度達到0.9,與其他方法進行比較,精確率和召回率指標均優于其他方法;該方法在圖像預處理階段提取帶式輸送機區域對圖像進行標準化,僅對感興趣區域進行處理,提高了大塊煤識別的準確率。該算法部署到某煤礦現場,能夠實現實時監測,為帶式輸送機的安全運行和延長使用壽命提供了有力保障。
關鍵詞:大塊煤識別;帶式輸送機;透視變換;圖像標準化
中圖分類號:TD 712文獻標志碼:A
文章編號:1672-9315(2024)01-0054-10
DOI:10.13800/j.cnki.xakjdxxb.2024.0106開放科學(資源服務)標識碼(OSID):
Application of large block coal recognition method based on perspective transformation and SNc-YOLOv5
YU? Tao
(National Energy Group Xinjiang Energy Co.,Ltd.,Xinjiang Urumqi 830011,China)
Abstract:To enhance the precision of identifying large coal chunks in belt conveyors,mitigate belt wear from coal accumulation and? ?increase the longevity of belt conveyors,a novel method rooted in perspective transformation and SNc-YOLOv5 was proposed.Firstly,the perspective transformation was utilized to refine the original image,successfully omitting areas unrelated to the conveyor and adjusting the conveyors coordinates.Then,the SNc-YOLOv5 model was undertaken to establish deep learning model on these standardized images,yielding a model adept at recognizing large block coal.The efficacy of this approach was confirmed through both test analysis and on-site application.The results show that? the precision rate on the dataset of? Mine 1 is 94.8%,with a recall rate of 83.2%,while on Mine 2s dataset,the precision rate is 92.8%,with a recall rate of 85.3%.In field applications,the confidence level reaches 0.9,compared? with alternative techniques,this method outperforms in terms of both accuracy and recall.By focusing on the conveyor region during image preprocessing,the method not only standardizes the image but also elevates the precision of large block coal? identification,which thus continuous real-time surveillance,fortifying the safety and longevity of belt conveyors.
Key words:large block coal? identification;belt conveyor;perspective transformation;normalisation
0引言
中國作為全球最大的產煤國和煤炭消費國,煤礦的安全開采與運輸顯得十分重要。國家8部委發布的《煤礦智能化建設指南2021版》[1-2],提出科學、規范、有序地推進礦井智能化建設,加快建成一批不同類型、不同模式的智能化礦井,其中帶式輸送機智能化檢測是智能化礦井的重要組成部分[3]。礦井下開采環境復雜,煤礦開采過程中往往會出現未被充分破碎的大塊煤,大塊煤是指粒度>50 mm的煤塊[4]。若大塊煤在運輸過程中未被及時分揀出來,容易導致帶式輸送機的輸送帶出現易位、撕裂等問題,影響安全生產[5-6]。因此,在帶式輸送機運輸煤流的過程中,對大塊煤進行實時檢測并報警具有重要意義。通過推動帶式輸送機的智能化檢測,輸送帶能夠更加高效、安全地進行煤炭運輸,提高輸送機的使用壽命。
近年來,在煤礦開采智能化的趨勢下,煤礦井下已逐步實現監控攝像覆蓋,以供工作人員實時監控[7]。隨著機器視覺和目標檢測模型的發展,許多學者對大塊煤識別進行了研究,張維等指出攝像機角度和相對位置會導致相鄰幀同一塊煤塊尺寸不一致的透視問題[8];PU等基于VGG16網絡和遷移學習的思想,建立了異物識別模型,并表現出了較好的準確性;但模型的適用范圍可能受到物體大小、光照等因素的限制,無法適用于其他物體的圖像識別[9];程健等考慮到輸送機背景對煤識別目標的干擾,利用改進的高斯混合模型去除背景的影響,但該方法易受粉塵、煤灰等干擾,誤報較多[10];吳守鵬等提出的雙向特征金字塔網絡對大塊煤識別問題進行優化,通過構建雙向特征金字塔網絡來提取更具有代表性的特征,并且在網絡結構上進行了一些改進,從而使得該方法表現出了較高的準確率,但該文獻所用數據集圖像數量較少,模型泛化性較差[11];WANG等在SSD檢測算法的基礎上,通過改進損失函數和優化錨框比例等方式,實現了對礦井輸送帶上煤的識別,但算法復雜程度較高,計算量較大[12];郝帥等提出一種融合卷積塊注意力模型的YOLOv5目標檢測算法,對所選樣本的準確率達到了94.7%,但對數據集的預處理效果不理想,環境干擾較為嚴重[13];SONG等提出了一種基于改進的YOLOv5模型的大塊煤檢測方法,該方法使用了Mosaic數據增強方法、SENet注意力模塊和BiFPN加權特征金字塔融合方法,以提高檢測精度和收斂速度,但該模型對于煤的形態和顏色變化較大的情況下,會出現誤檢或漏檢情況[14]。
現有研究在礦井下煤的識別已經有較高的準確性,但進行驗證的數據集數量較少,針對礦井下攝像頭與輸送帶的角度和相對位置引起的相鄰幀的圖像上同一塊大塊煤尺寸一致問題相關研究較少。為了解決這些問題,提出了基于坐標校正和SNc-YOLOv5的煤礦帶式輸送機大塊煤識別方法。該方法首先采用透視變換對圖像進行坐標校正,對數據集圖像進行標準化處理,排除復雜背景和攝像頭角度的干擾,然后對YOLOv5模型的Neck網絡結構進行改進,采用改進后的SNc-YOLOv5模型進行大塊煤識別。為了驗證該方法的有效性,采用內蒙某煤礦的帶式輸送機工作的監控視頻進行試驗驗證,并將該算法應用到現場進行實時驗證。
1理論基礎
1.1透視變換
透視變換是一種將二維圖像投影到三維視平面上,再轉換到二維坐標下的變換方式[15]。通過透視中心、像點和目標點三點共線的條件,按照透視旋轉定律,使透視面繞透視軸旋轉某一角度,從而破壞原有的投影光線束,并保持承影面上投影幾何圖形不變。透視變換的原理如圖1所示。
像素空間點(,)經過透視變換映射到世界坐標系(X,Y,Z)下,如圖2所示,將攝像頭范圍內的輸送機質心與地面垂直接觸點看作世界坐標系的原點O,其中X為攝像頭的視角方向,Z軸為攝像頭透視方向,h為攝像頭位置到世界坐標系原點O的垂直距離,P為攝像頭光學中心,(,)為用以定位到圖像中某個確定的像素點,m、n分別為圖像的寬度和高度。
像素空間表示(,)與圖像空間表示(,)實際上是同一個位置,將像素坐標映射到世界坐標系時需要轉換單位,兩者之間通過式(1)和(2)可進行轉換。
u(c)=n2+kc(1)
v(r)=m2-kc(2)
式中m,n分別為圖像的寬度和高度;c,r分別為該像素點在現實圖像中的x軸、y軸大??;k為像素和距離單位之間的比例關系,即每米占多少個像素點。
1.2YOLOv5算法
YOLOv5是一階段目標檢測算法,其算法模型示意如圖3所示。其顯著特征包括高精度、輕量級,同時支持多種設備和各種檢測任務[16]。YOLOv5的架構涵蓋了Backbone網絡、Neck網絡、Head網絡以及損失函數,這些組件協同工作,使得算法能夠高效地對輸入圖像進行檢測,輸出關于物體位置和類別的詳細信息。輸入端采用了Mosaic數據增強方式,通過隨機排布、隨機縮放和隨機裁剪等操作,將多個輸入圖片拼接在一起,以增加數據的多樣性和提升算法的魯棒性,同時還能增加數據集中小目標的數量[17-18]。Backbone部分采用CSPDarknet53作為主干網絡,由卷積模塊(Conv)、瓶頸層(C3)和空間金字塔池化(SPP)等模塊構成,用于提取圖像的特征并獲取多尺度信息。Neck部分采用了“FPN+PAN”的結構,結合了特征金字塔和路徑聚合網絡,利用CSP2結構增強特征的融合能力和表達能力。最后,Prediction部分使用CIOU Loss作為Bounding box的損失函數,綜合考慮目標框的位置、大小和形狀等因素,優化模型參數,提高目標位置和類別的預測精度[19]。YOLOv5的網絡結構通過Mosaic數據增強、CSPDarknet53主干網絡、“FPN+PAN”結構的Neck以及CIOU Loss損失函數的預測端,實現了高效準確的目標檢測能力[20]。
通過調整網絡的深度倍數(depth_mutiple)和寬度倍數(width_mutiple)來實現模型參數和大小的依次增加,YOLOv5根據網絡結構的深度與寬度,分為4個不同版本:YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x[21],4種模型結構的深度和寬度參數見表1,模型差異對比見表2。
2文中提出的方法
帶式輸送機運輸視頻背景復雜,攝像頭角度以及同一塊煤塊在視頻中近大遠小等問題會導致大塊煤識別準確率低。為了解決這一問題,文中采用透視變換方法對圖像進行標準化處理,將圖像矩陣與透視矩陣相乘,消除復雜背景、攝像頭角度以及煤塊在視頻中近大遠小問題的影響,采用SNc-YOLOv5模型對標準化的圖像進行模型訓練,得到大塊煤識別模型。文中提出方法的流程如圖4所示。
2.1圖像標準化
在大塊煤標注中,將粒度>50 mm的煤塊進行標注。采用DarkLable標注工具進行人工標注,得到大塊煤圖像數據集。將圖像進行標準化,其透視變換通用公式為
[x′y′z′]=T·[uvw](3)
式中(u,v)為原始的圖像像素坐標;w取值為1;T為透視變換矩陣,一般情況下,將其分為3部分。
T=a00a01a02
a10a11a12
a20a21a22=T1T2
T3a22(4)
式中T1=a00a01
a10a11為線性變換矩陣;T2=a02
a12為對圖像進行平移;T3=[a20a21]對圖像進行透視變換;a22一般取1。
若原始平面和新平面不是平行的,透視變換后的圖像會有2個角的殘缺,因此式(4)可變換為式(5)和式(6)
x=x′z′=a00u+a10v+a20a01u+a12v+a22(5)
y=y′z′=a00u+a10v+a20a01u+a12v+a22(6)
式(4)中除a22外有8個未知量,以圖像中帶式輸送機端點的4個像素點為參考點,并設4個點分別為A(xa,ya)、B(xb,yb)、C(xc,yc)、D(xd,yd),定義新平面上與之對應點的坐標A′(x′a,y′a)、B′(x′b,y′b)、C′(x′c,y′c)、D′(x′d,y′d),代入可以求解透視矩陣。
a00=xb-xa+a01xb
a10=xd-xa+a01xc
a20=xa
a01=yb-ya+a02yb
a11=yd-ya+a12yc
a21=ya
a02=Δx3Δx2
Δy3Δy3Δx1Δx2
Δy1Δy2
a12=Δx1Δx3
Δy1Δy3Δx1Δx2
Δy1Δy2(7)
將圖像與求解的透視變換矩陣相乘,可以對圖像進行標準化處理。
2.2SNc-YOLOv5模型結構
通過SNc(Slim-Neck by GSConv)模型[22]改進了YOLOv5的Neck網絡,保持了識別精度的同時降低了模型的復雜度,SNc結構分為3種模型:GSConv、GSbottleneck和VoV GSCSP。GSConv模型采用深度可分離卷積[23](DSC)與標準卷積(SC)相結合的方式,DSC可以降低計算復雜度,SC模型可以緩解因DSC模型特征提取和融合能力低導致的識別準確率低的問題。如圖5(a)所示,通過DWConv生成SC信息來執行DSC操作,并將生成的信息與之前的信息進行融合。GSConv模塊最大限度地減少了深度卷積缺陷對模型的負面影響,并有效地利用了深度卷積的低計算量。在GSConv的基礎上引入GSbottleneck模塊,模型結構如圖5(b)所示,使用GSbottleneck來替代C3中的Bottleneck模塊,將輸入特征圖分為2個通道,并為其分配不同的權重。2個通道按照通道數進行組合連接,增強了模型表達非線性函數的能力,解決了梯度消失問題。圖5(c)展示了VoV GSCSP模塊的結構,在VoV GSCSP中,輸入特征圖將通道數分成2部分,第1部分首先經過Conv進行卷積,之后由堆疊的GSbottleneck模塊提取特征。另一部分作為殘差連接,僅通過一個Conv進行卷積。2部分根據通道數進行融合連接,最后通過Conv卷積輸出。VoV GSCSP不僅兼容GSConv的所有優點,還具有GSbottleneck帶來的所有優點。VoV GSCSP的分割通道方法能夠實現豐富的梯度組合,避免梯度信息的重復并提高學習能力。
結合上述的改進,在YOLOv5的Neck部分用GSConv模塊代替Conv模塊,以減少特征金字塔結構升級帶來的參數數量和計算量,C3模塊替換為VoV GSCSP模塊,并通過堆疊的GSbottleneck提取特征,以更好地兼容GSConv模塊,改進的SNc-YOLOv5模型結構如圖6所示。
將變換后的圖像數據集ST按照3∶1劃分為訓練集(Train set)、驗證集(Validation set)[24]。將訓練集輸入到SNc-YOLOv5進行訓練,得到大塊煤識別模型。在SNc-YOLOv5模型的訓練過程中,在前向傳播過程中,模型對輸入圖像進行卷積和池化處理,提取高級特征信息,并生成預測框,其中包括大塊煤的位置坐標和置信度分數。在反向傳播階段,模型使用損失函數評估預測框與實際標簽的差異,通過參數調整來最小化誤差。經過多次迭代,SNc-YOLOv5模型生成了高效的大塊煤檢測模型,可用于新圖像的煤塊位置預測,性能評估通常通過驗證集的多種指標來確保泛化性能。
3應用與分析
3.1試驗分析
3.1.1數據集概述
數據集主要源自內蒙某2個煤礦的帶式輸送機監控視頻。1號煤礦S1和2號煤礦S2的基本情況見表3。用DarkLable標注工具標注大塊煤圖像21 422張,以png格式存儲。
3.1.2應用環境配置
運行環境為Windows 10,CPU為英特爾Xeon E5-2670 0@2.60GHz八核,內存8個1 333 MHz的DDR3,內存為64GB,GPU為NVIDIA GeForcr GTX 1080,顯存8GB,利用Cuda11.4和Cudnn8.2.4的驅動程序支持GPU加速,數據訓練使用SNc-YOLOv5s目標檢測網絡訓練,Python版本為3.9,試驗中使用Pytorch1.10.2深度學習框架。文中方法與YOLOv5[25]、YOLOv8[26]目標檢測模型,文獻[13]和文獻[14]方法進行對比,文獻[13]的方法,通過自適應直方圖均衡算法來增強煤礦井下輸送帶圖像的對比度,在YOLOv5算法框架下引入卷積塊注意力模型提升目標檢測精度,文獻[14]的方法通過數據增強方法擴大數據集,并對YOLOv5算法進行改進提升特征提取能力。
3.1.3測試與試驗結果
依次選取S1數據集中每張圖像的4個點坐標(600,180),(800,180),(200,500),(1 100,500)和S2數據集中每張圖像的4個點坐標(660,0),(920,0),(260,1 079),(1 260,1 079)輸入到透視變換矩陣中得到變換后的數據集,如圖7所示。將數據集S中每張圖像按照式(8)進行透視變換得到數據集ST,數據集Si與ST對比如圖8所示。
ST=T×Si;i=1,2(8)
通過精確率(Precision)和召回率(Recall)來衡量該方法對大塊煤識別效果[27],使用31敘述的數據集和3.1.2敘述的應用環境進行方法的驗證。在模型訓練過程中,初始學習率設定為001,設置權重衰減為0.000 5來避免過擬合,選擇了動量因子為0.98穩定訓練過程并避免陷入局部最優解,類別損失系數設置為0.5,IOU損失系數設置為7.5,DFL損失系數設置為1.5,Batch-size設置為8,最大迭代次數為100。
為了驗證該方法的有效性,運用不同的數據集將文中方法與文獻[13]和文獻[14]的方法進行對比,通過精確率和召回率指標來進行評價,對比情況見表4,在數據集S1上訓練了3種方法的檢測模型,對比曲線如圖9所示,5種方法檢測結果如圖10所示。
從訓練的結果來看,通過裁剪消除了復雜背景的影響,通過透視變換矩陣對數據集進行變換,消除了攝像頭角度以及近大遠小的影響,從而統一了大塊煤的尺寸標準。文中提出的方法相較于YOLOv5、YOLOv8目標檢測模型,以及文獻[13]和文獻[14]的方法,精確率和召回率指標均有所上升,SNc-YOLOv5模型相較于YOLOv5、YOLOv8目標檢測模型在S1數據集的大塊煤檢測精度上分別提高了9%和6.3%,相較于文獻[13]和文獻[14]的模型檢測精度分別提高了7.9%和8%,在S2數據集上大塊煤檢測精度相較于YOLOv5、YOLOv8目標檢測模型分別提高了7.2%和2.9%,相較于文獻[13]和文獻[14]的模型檢測精度分別提高了5%和8.7%,表明文中方法有更好的準確性。
3.2現場應用分析
為了進一步驗證大塊煤識別算法的實際適用性,將文中算法應用在內蒙某煤礦選煤廠進行現場試驗。以宏博亞泰KBA127(A)-F9204IRH攝像頭為圖像采集設備,攝像頭參數見表5。選煤廠現場帶式輸送機、攝像頭以及光源之間的相對位置如圖11所示。
在現場應用中,文中算法將現場采集到的視頻進行預處理,得到標準化后的數據集,現場數據集標準化前后對比如圖12所示,文中算法現場應用的示意如圖13所示。
大塊煤識別算法在選煤廠現場應用的識別結果如圖14所示。算法對實時監控視頻進行透視變換改變了視頻尺寸,紅框內為大塊煤識別算法現場應用的實時結果,算法識別為大塊煤的置信度達到0.9?,F場應用結果表明,文中提出的大塊煤識別算法能夠準確地識別大塊煤,滿足現場實時識別要求。
4結論
1)文中提出的基于透視變換對圖像標準化處理的方法能夠剔除大塊煤大小標準不統一以及周圍復雜環境的影響,相較于文獻[14]的方法,精確率提高了10%,有效降低了環境因素對識別工作的影響,可以作為大塊煤識別或帶式輸送機異物檢測領域的預處理方法。
2)可以有效對礦井帶式輸送機上的大塊煤進行識別,對1號煤礦的識別精確率達到94.8%,現場應用結果表明,算法識別為大塊煤的置信度達到0.9,文中方法能夠實時進行大塊煤監測,滿足現場生產需求。
3)文中方法在模型泛化性方面表現較差,未來可以在提高模型泛化性上做工作。
參考文獻(References):
[1]王國法,王虹,任懷偉,等.智慧煤礦2025情景目標和發展路徑[J].煤炭學報,2018,43(2):295-305.
WANG Guofa,WANG Hong,REN Huaiwei,et al.2025 scenarios and development path of intelligent coal mine[J].Journal of China Coal Society,2018,43(2):295-305.
[2]董書寧,劉再斌,程建遠,等.煤炭智能開采地質保障技術及展望[J].煤田地質與勘探,2021,49(1):21-31.
DONG Shuning,LIU Zaibin,CHENG Jianyuan,et al.Technologies and prospect of geological guarantee for intelligent coal mining[J].Coal Geology & Exploration,2021,49(1):21-31.
[3]賈建稱,鞏澤文,靳德武,等.煤炭地質學“十三五”主要進展及展望[J].煤田地質與勘探,2021,49(1):32-44.
JIA Jiancheng,GONG Zewen,JIN Dewu,et al.The main progress in the 13th five-year plan and the prospect of coal geology[J].Coal Geology & Exploration,2021,49(1):32-44.
[4]程德強,徐進洋,寇旗旗,等.融合殘差信息輕量級網絡的運煤皮帶異物分類[J].煤炭學報,2022,47(3):1361-1369.
CHENG Deqiang,XU Jinyang,KOU Qiqi,et al. Lightweight network based on residual information for foreign body classifcation on coal conveyor belt[J].Journal of China Coal Society,2022,47(3):1361-1369.
[5]張玉濤,張夢凡,史學強,等.基于深度學習的井下運動目標跟蹤算法研究 [J].煤炭工程,2022,54(10):151-155.
ZHANG Yutao,ZHANG Mengfan,SHI Xueqiang,et al.Object tracking algorithm of moving objects in underground mine based on deep learning [J].Coal Engineering,2022,54(10):151-155.
[6]羅南超,鄭伯川.視頻監控領域深度特征編碼的行人檢測算法[J].西安科技大學學報,2019,39(4):701-707.
LUO Nanchao,ZHENG Bochuan.Deep feature coding for pedestrian detection in video surveillance[J].Journal of Xian University of Science and Technology,2019,39(4):701-707.
[7]趙安新,楊金橋,楊浩波,等.基于改進DeepSORT和FastReID的室內多目標人員跨鏡識別與跟蹤[J].西安科技大學學報,2023,43(3):622-630.
ZHAO Anxin,YANG Jinqiao,YANG Haobo,et al.Indoor multi-object personnel recognition and tracking across camera based on optimized DeepSORT and FastRelD[J].Journal of Xian University of Science and Technology,2023,43(3):622-630.
[8]張維,徐華龍.三維模型與視頻監控融合關鍵技術研究[J].煤礦安全,2019,50(10):112-114
ZHANG Wei,XU Hualong.Research on key technologies of 3D model and video monitoring fusion[J].Safety in Coal Mines,2019,50(10):112-114
[9]PU Y,APEL D B,SZMIGIEL A,et al.Image recognition of coal and coal gangue using a convolutional neural network and transfer learning[J].Energies,2019,12,1735.doi:10.3390/en12091735.
[10]程健,王東偉,楊凌凱,等.一種改進的高斯混合模型煤矸石視頻檢測方法[J].中南大學學報(自然科學版),2018,49(1):118-123.
CHENG Jian,WANG Dongwei,YANG Lingkai,et al.An improved Gaussian mixture model forcoal gangue video detection[J].Journal of Central South University(Science and Technology),2018,49(1):118-123.
[11]吳守鵬,丁恩杰,俞嘯.基于改進FPN的輸送帶異物識別方法[J].煤礦安全,2019,50(12):127-130.
WU Shoupeng,DING Enjie,YU Xiao.Foreign body identifcation of belt based on improved FPN[J].Safety in Coal Mines,2019,50(12):127-130.
[12] WANG Y B,WANG Y J,DANG L F.Video detection of foreign objects on the surface of belt conveyor underground coal mine based on improved SSD[J].Journal of Ambient Intelligence and Humanized Computing,2023,14:5507-5516.
[13]郝帥,張旭,馬旭,等.基于CBAM-YOLOv5的煤礦輸送帶異物檢測[J].煤炭學報,2022,47(11):4147-4156.
HAO Shuai,ZHANG? Xu,MA Xu,et al. Foreign object detection in coal mine conveyor belt based on CBAM-YOLOv5[J].Journal of China Coal Society,2022,47(11):4147-4156.
[14]SONG Q,LIU Z,JIANG H.Coal gangue detection me-thod based on improved YOLOv5[C]//2022 3rd international conference on big data,Artificial Intelligence and Internet of Things Engineering(ICBAIE).IEEE,2022:466-469.
[15]XU C,LIU Y,DING F,et al.Recognition and grasping of disorderly stacked wood planks using a local image patch and point pair feature method[J].Sensors,2020,20(21):6235.
[16]SHI Y,LI J,YU Z,et al.Multi-Barley seed detection using iPhone images and YOLOv5 model[J].Foods,2022,11(21):3531.
[17]ZHANG J,Karkee M,ZHANG Q,et al.Multi-class object detection using faster R-CNN and estimation of shaking locations for automated shake-and-catch apple harvesting[J].Computers and Electronics in Agriculture,2020,173:105384.
[18]肖進勝,劉恩雨,朱力,等.改進的基于卷積神經網絡的圖像超分辨率算法[J].光學學報,2017,37(3):103-111.
XIAO Jinsheng,LIU Enyu,ZHU Li,et al.Improved image super-resolution algorithm based on convolutional neural network[J].Acta Optica Sinica,2017,37(3):103-111.
[19]李紅艷,李春庚,安居白,等.注意力機制改進卷積神經網絡的遙感圖像目標檢測[J].中國圖象圖形學報,2019,24(8):1400-1408.
LI Hongyan,LI Chungeng,AN Jubai,et al.Attention mechanism improves CNN remote sensing image object detection[J].Chinese Journal of Image and Graphics,2019,24(8):1400-1408.
[20] INAM H.Smart and automated infrastructure management:A deep learning approach for crack detection in bridge images[J].Sustainability,2023,15(3):1866-1866.
[21]紀俊卿,張亞靚,孟祥川,等.自適應小波閾值滾動軸承故障振動信號降噪方法[J].哈爾濱理工大學學報,2021,26(2):124-130.
JI Junqing,ZHANG Yaliang,MENG Xiangchuan,et al.Adaptive wavelet threshold rolling bearing fault vibration signal denoising method [J].Journal of Harbin University of Science and Technology,2021,26(2):124-130.
[22]趙安新,楊金橋,史新國,等.視覺行人重識別研究方法分析及評價指標探討[J].西安科技大學學報,2022,42(5):1003-1012.
ZHAO Anxin,YANG Jinqiao,SHI Xinguo,et al.Analysis of visual person re-identifcations research methods and evaluation indicator discussion[J].Journal of Xian University of Science and Technology,2022,42(5):1003-1012.
[23]楊慧劍,孟亮.基于改進的YOLOv5的航拍圖像中小目標檢測算法[J].計算機工程與科學,2023,45(6):1063-1070.
YANG Huijian,Meng Liang.A small target detection algorithm based on improved YOLOv5 in aerial image[J]. Computer Engineering and Science,2023,45(6):1063-1070.
[24]劉浩翰,樊一鳴,賀懷清,等.改進YOLOv7-tiny的目標檢測輕量化模型[J].計算機工程與應用,2023,59(14):166-175.
LIU Haohan,FAN Yiming,HE Huaiqing,et al.Improved YOLOv7-tinys object detection lightweight model [J]. Computer Engineering and Applications,2023,59(14):166-175.
[25]王淵,郭衛,張傳偉,等.融合注意力機制和先驗知識的刮板輸送機異常煤塊檢測[J].西安科技大學學報,2023,43(1):192-200.
WANG Yuan,GUO Wei,ZHANG Chuanwei,et al.Detection of abnormal coal block in scraper conveyor integrating attention mechanism and prior knowledge[J].Journal of Xian University of Science and Technology,2023,43(1):192-200.
(責任編輯:劉潔)