999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于自適應(yīng)鏈接優(yōu)化的井下行人抗遮擋跟蹤方法研究

2025-03-23 00:00:00路洋董立紅葉鷗
工礦自動(dòng)化 2025年2期

摘要:針對(duì)煤礦井下行人因遮擋頻繁和外觀混淆導(dǎo)致軌跡匹配不準(zhǔn)確的問題,提出了一種基于自適應(yīng)鏈接優(yōu)化的井下行人抗遮擋跟蹤方法。首先,根據(jù)目標(biāo)置信度變化率和交并比計(jì)算,對(duì)目標(biāo)進(jìn)行遮擋判定,篩選出潛在遮擋目標(biāo)。然后,在匹配級(jí)聯(lián)階段,引入潛在遮擋目標(biāo)的非線性動(dòng)態(tài)特征,并結(jié)合歷史軌跡信息擴(kuò)展軌跡鏈接優(yōu)化模塊的軌跡對(duì)輸入,同時(shí)在軌跡對(duì)輸入進(jìn)行時(shí)域塊處理后添加通道先驗(yàn)卷積注意力機(jī)制,增強(qiáng)時(shí)域表征能力。軌跡對(duì)輸入向量經(jīng)壓縮與融合處理后,由多層感知器輸出軌跡相似性得分,與原有匹配級(jí)聯(lián)階段中卡爾曼濾波器的總成本函數(shù)相結(jié)合,優(yōu)化匹配決策,有效緩解軌跡匹配過程中的錯(cuò)誤匹配問題。最后,在交并比匹配階段,通過計(jì)算斷裂率和ID 切換率的變化量,引入自適應(yīng)RB 因子,構(gòu)建反饋機(jī)制,動(dòng)態(tài)調(diào)整匹配決策中的交并比閾值,以適應(yīng)因長(zhǎng)時(shí)間遮擋導(dǎo)致的軌跡斷裂問題。采用所提方法與DeepSORT,YOLOv7?SAM,OSNet,F(xiàn)uCoLoT 對(duì)煤礦井下典型視頻序列進(jìn)行對(duì)比實(shí)驗(yàn),結(jié)果表明,所提方法的跟蹤準(zhǔn)確度(MOTA),跟蹤精度(MOTP) 和身份F1(IDF1) 分別為76.17%, 84.13%, 74.9%, 較DeepSORT 分別提升了14.9%, 1.83% 和10.93%, 較YOLOv7?SAM 分別提升了1.57%,0.4% 和0.37%,較OSNet 分別提升了2.83%,0.77% 和1.27%,較FuCoLoT 分別提升了2.5%,0.08% 和1.8%,說明所提方法能夠有效解決煤礦井下目標(biāo)在遮擋情形下的跟蹤誤匹配問題。

關(guān)鍵詞:井下人員跟蹤;多目標(biāo)跟蹤;目標(biāo)遮擋;跟蹤誤匹配;軌跡鏈接優(yōu)化;軌跡斷裂

中圖分類號(hào):TD76 文獻(xiàn)標(biāo)志碼:A

0 引言

目標(biāo)跟蹤是計(jì)算機(jī)視覺領(lǐng)域中一個(gè)重要研究方向,在煤礦井下智能監(jiān)控系統(tǒng)中,借助目標(biāo)跟蹤技術(shù)對(duì)井下人員、車輛、運(yùn)輸設(shè)備等運(yùn)動(dòng)目標(biāo)進(jìn)行實(shí)時(shí)自動(dòng)跟蹤,是行人計(jì)數(shù)、異常識(shí)別等高級(jí)視覺任務(wù)的基礎(chǔ)[1]。煤礦井下環(huán)境復(fù)雜,行人目標(biāo)經(jīng)常受到被設(shè)備、支架等遮擋和短暫消失(如進(jìn)入盲區(qū))的影響,傳統(tǒng)目標(biāo)跟蹤算法在應(yīng)對(duì)外觀特征丟失和軌跡斷裂問題上表現(xiàn)出準(zhǔn)確性和魯棒性不足,易導(dǎo)致錯(cuò)誤匹配和目標(biāo)丟失。因此,在遮擋頻繁且目標(biāo)密集的復(fù)雜場(chǎng)景中,傳統(tǒng)目標(biāo)跟蹤算法難以滿足多目標(biāo)跟蹤的精度和連續(xù)性需求[2]。

目標(biāo)遮擋是目標(biāo)跟蹤中的常見問題,1 個(gè)或多個(gè)目標(biāo)在視場(chǎng)中被其他物體部分或完全遮擋,在跟蹤過程中將面臨目標(biāo)丟失的問題,從而導(dǎo)致對(duì)目標(biāo)數(shù)量的估計(jì)產(chǎn)生偏差[3]。在煤礦領(lǐng)域,目標(biāo)遮擋呈現(xiàn)更多特有的問題:視頻質(zhì)量存在差異,有的較為模糊;背景信息較少,整體呈現(xiàn)暗灰色調(diào)。許多學(xué)者針對(duì)目標(biāo)遮擋的問題進(jìn)行了研究。文獻(xiàn)[4]提出了一種基于深度估計(jì)的尺度自適應(yīng)目標(biāo)跟蹤方法,利用目標(biāo)深度信息估計(jì)目標(biāo)尺度,對(duì)目標(biāo)尺度變化及形變具有很好的適應(yīng)性。然而,該方法對(duì)深度信息的依賴較高,在實(shí)際應(yīng)用中,深度信息的獲取可能會(huì)受到環(huán)境因素(如低光照、遮擋等)影響,從而降低精度。文獻(xiàn)[5]提出的行人檢測(cè)方法在雙階段檢測(cè)器Faster R?CNN 的基礎(chǔ)架構(gòu)上引入注意力機(jī)制網(wǎng)絡(luò),提高了模型在遮擋時(shí)的檢測(cè)能力。但該方法計(jì)算復(fù)雜度較高,在實(shí)際應(yīng)用中可能面臨性能瓶頸。文獻(xiàn)[6]基于跟蹤學(xué)習(xí)檢測(cè)(Track Learning Detection, TLD)框架,提出了一種融合多特征的復(fù)雜場(chǎng)景動(dòng)態(tài)目標(biāo)長(zhǎng)時(shí)間視覺跟蹤算法,使用融合多特征的MeanShift算法[7]替代TLD 框架中的光流法,對(duì)目標(biāo)形變有較強(qiáng)的魯棒性。然而,MeanShift 算法對(duì)目標(biāo)初始位置的選擇較為敏感,當(dāng)目標(biāo)發(fā)生大幅度移動(dòng)時(shí),算法可能無法準(zhǔn)確收斂。文獻(xiàn)[8]提出了一種基于注意力機(jī)制的無監(jiān)督礦井人員跟蹤算法,結(jié)合相關(guān)濾波和孿生網(wǎng)絡(luò)在跟蹤任務(wù)上的優(yōu)勢(shì),構(gòu)建輕量化目標(biāo)跟蹤模型。雖然該算法可有效減少計(jì)算開銷,但無監(jiān)督算法的跟蹤性能常常無法與有監(jiān)督算法相比,尤其是在復(fù)雜背景和多目標(biāo)情況下。文獻(xiàn)[9]提出了一種改進(jìn)的異常抑制相關(guān)濾波跟蹤方法,專門用于在紅外視頻中追蹤地下礦山中的人體。通過分析響應(yīng)圖的峰型形態(tài)和峰值旁瓣比變化特征,設(shè)計(jì)了自適應(yīng)外觀模型更新策略,提高了井下人員目標(biāo)的跟蹤精準(zhǔn)性和魯棒性。然而,該方法主要依賴紅外視頻的特征提取,在低光環(huán)境下可能表現(xiàn)較好,但在有較強(qiáng)背景干擾的環(huán)境中,其魯棒性會(huì)受到影響,導(dǎo)致跟蹤精度降低。文獻(xiàn)[10]提出了基于深度學(xué)習(xí)的礦井巷道人員計(jì)數(shù)算法,通過引入全尺度特征提取模型OSNet 優(yōu)化DeepSORT,替換原有卷積神經(jīng)網(wǎng)絡(luò)模塊。OSNet 采用深度可分離卷積和多尺度特征流,增強(qiáng)了目標(biāo)細(xì)粒度特征的提取能力。但該算法在訓(xùn)練時(shí)需要較大規(guī)模的數(shù)據(jù)集,并且深度可分離卷積的計(jì)算開銷較高,可能影響算法在實(shí)時(shí)檢測(cè)中的應(yīng)用效率。文獻(xiàn)[11]提出了基于深度學(xué)習(xí)的井下運(yùn)動(dòng)目標(biāo)跟蹤算法,采用一種局部?全局匹配網(wǎng)絡(luò)來提高算法在不同場(chǎng)景下的跟蹤精度,并設(shè)計(jì)了一個(gè)無錨框的分類回歸網(wǎng)絡(luò),降低模型計(jì)算復(fù)雜度。盡管該算法有效減少了計(jì)算量,但無錨框設(shè)計(jì)可能導(dǎo)致在密集場(chǎng)景中目標(biāo)檢測(cè)精度下降。文獻(xiàn)[12]提出了基于改進(jìn)YOLOv5s 和DeepSORT 的井下人員檢測(cè)及跟蹤算法,通過改進(jìn)YOLOv5s 網(wǎng)絡(luò)的自注意力模塊,提高井下不同尺度人員目標(biāo)的檢測(cè)精度,采用更深卷積層替換DeepSORT 算法中小型殘差網(wǎng)絡(luò),提升對(duì)人員外觀信息的提取能力。但該算法的主要問題是自注意力模塊可能增加模型的計(jì)算復(fù)雜度,且在高遮擋或低光照環(huán)境下,性能提升可能有限。文獻(xiàn)[13]提出了基于改進(jìn)YOLOv7 和DeepSORT 的井下人員檢測(cè)與跟蹤算法,通過在YOLOv7 的Neck 模塊中融入SimAM 注意力機(jī)制,以及在DeepSORT 特征提取網(wǎng)絡(luò)中引入ShuffleNetV2 輕量化模塊,顯著提升了井下復(fù)雜環(huán)境中人員目標(biāo)檢測(cè)和跟蹤的實(shí)時(shí)性能。但面對(duì)多發(fā)遮擋場(chǎng)景,該算法可能無法充分發(fā)揮其優(yōu)勢(shì)。

針對(duì)遮擋頻繁和外觀混淆導(dǎo)致軌跡匹配不準(zhǔn)確的問題,本文提出了一種基于自適應(yīng)鏈接優(yōu)化的井下行人抗遮擋跟蹤方法。該方法在DeepSORT 框架的基礎(chǔ)上,通過遮擋判定模塊、軌跡鏈接優(yōu)化模塊(CoLinker)及自適應(yīng)RB 因子反饋機(jī)制實(shí)現(xiàn)優(yōu)化。首先,在遮擋判定模塊中,結(jié)合目標(biāo)置信度變化率與交并比(IoU),篩選潛在遮擋目標(biāo),為后續(xù)處理提供可靠輸入;然后,在匹配級(jí)聯(lián)階段,通過CoLinker 模塊引入非線性動(dòng)態(tài)特征與通道先驗(yàn)卷積注意力機(jī)制(Channel Prior Convolutional Attention, CPCA) [14],增強(qiáng)時(shí)序特征的表征能力,優(yōu)化軌跡匹配決策;最后,在IoU 匹配階段,通過自適應(yīng)RB 因子構(gòu)建反饋機(jī)制動(dòng)態(tài)調(diào)整匹配閾值,緩解因長(zhǎng)期遮擋導(dǎo)致的軌跡斷裂問題,從而在復(fù)雜環(huán)境中保持高魯棒性,最終實(shí)現(xiàn)對(duì)遮擋目標(biāo)的跟蹤優(yōu)化。

1 井下行人目標(biāo)遮擋分析

目標(biāo)遮擋在計(jì)算機(jī)視覺和視頻監(jiān)控領(lǐng)域中指的是目標(biāo)物體在視場(chǎng)中被其他物體部分或完全覆蓋的情況。根據(jù)目標(biāo)的遮擋程度,可以分為無遮擋(0)、輕度遮擋(1%~10%)、部分遮擋(10%~35%)、嚴(yán)重遮擋(35%~80%)和完全遮擋(≥80%) [15]。為了對(duì)目標(biāo)遮擋過程進(jìn)行描述,建立目標(biāo)遮擋模型。當(dāng)遮擋發(fā)生時(shí)總會(huì)出現(xiàn)被遮擋目標(biāo)ID1(綠框)和障礙目標(biāo)ID2(紅框),如圖1 所示。

當(dāng)2 個(gè)目標(biāo)發(fā)生遮擋時(shí),跟蹤失敗往往發(fā)生在被遮擋目標(biāo)上。為了及時(shí)判定目標(biāo)發(fā)生遮擋的時(shí)刻,通過記錄一段視頻序列中行人目標(biāo)的置信度(圖2),探究置信度是否可以作為遮擋判定依據(jù)。

由圖2 可看出,Track ID: 8 和Track ID: 18 在特定時(shí)刻波動(dòng)較大,目標(biāo)之間的遮擋和相互影響導(dǎo)致置信度下降,說明將置信度作為遮擋判定因素較合理。

k考慮到視頻跟蹤的時(shí)序連續(xù)性,跟蹤任務(wù)中的連續(xù)幀特性使置信度波動(dòng)具有時(shí)序意義。通過記錄行人目標(biāo)的置信度,進(jìn)一步分析其在連續(xù)幀中的變化情況。在時(shí)刻,置信度變化率為

式中Otrack_id;k,Otrack_id;k1分別為第k,k-1時(shí)刻跟蹤對(duì)象的置信度分?jǐn)?shù)。

通常目標(biāo)檢測(cè)概率取決于目標(biāo)狀態(tài),將置信度變化率作為遮擋發(fā)生時(shí)對(duì)目標(biāo)狀態(tài)的影響因素有所欠缺。為了更精確地評(píng)估目標(biāo)在復(fù)雜環(huán)境中的遮擋問題,優(yōu)化跟蹤算法,提高模型的魯棒性和適應(yīng)性,本文采用ID切換率和跟蹤斷裂率來評(píng)估第時(shí)刻的目標(biāo)遮擋概率,實(shí)現(xiàn)對(duì)遮擋目標(biāo)的更高效跟蹤。ID切換率表示在第k 時(shí)刻的跟蹤切換次數(shù)與累計(jì)跟蹤次數(shù)的比值,反映了目標(biāo)在被遮擋時(shí)的ID切換頻率。跟蹤斷裂率表示在第k 時(shí)刻跟蹤目標(biāo)中未被跟蹤到的目標(biāo)數(shù)占前一時(shí)刻總目標(biāo)數(shù)的比例,反映了目標(biāo)跟蹤過程中的斷裂情況。

Rk = S k/Nk (2)

式中:Nk為累計(jì)到第k時(shí)刻的所有有效跟蹤實(shí)例的數(shù)量;Sk為累計(jì)到第k時(shí)刻的ID切換數(shù)量;|Db|為在時(shí)刻b檢測(cè)到的目標(biāo);Sw(b;b+1)為在第b 時(shí)刻到第b+1時(shí)刻之間發(fā)生ID切換的數(shù)量;|Dk-1 ∩(﹁Dk)|為跟蹤斷裂的目標(biāo)集合,Dk-1為在第k-1時(shí)刻被檢測(cè)且跟蹤的目標(biāo),﹁Dk為在第時(shí)刻沒有被跟蹤到的目標(biāo), ﹁為邏輯非。

2 自適應(yīng)鏈接優(yōu)化井下行人抗遮擋跟蹤方法

基于自適應(yīng)鏈接優(yōu)化的井下行人抗遮擋跟蹤方法架構(gòu)如圖3 所示。

傳統(tǒng)DeepSORT 算法缺乏對(duì)遮擋狀態(tài)的動(dòng)態(tài)判定機(jī)制,難以區(qū)分正常目標(biāo)與潛在遮擋目標(biāo),誤匹配問題突出。本文提出遮擋判定模塊,并將其引入DeepSORT 算法的檢測(cè)與軌跡初始化階段。通過結(jié)合目標(biāo)置信度變化率和IoU,對(duì)目標(biāo)的遮擋狀態(tài)進(jìn)行精準(zhǔn)判定。通過檢測(cè)目標(biāo)在相鄰幀間的置信度變化,快速判定可能被遮擋的目標(biāo),結(jié)合目標(biāo)與軌跡框的IoU,進(jìn)一步過濾誤判的干擾目標(biāo)。

傳統(tǒng)DeepSORT 算法依賴靜態(tài)外觀特征與固定運(yùn)動(dòng)模型,難以適應(yīng)行人目標(biāo)因遮擋導(dǎo)致的運(yùn)動(dòng)突變。本文在匹配級(jí)聯(lián)模塊中,引入基于非線性動(dòng)態(tài)特征的COLinker 模塊。接收來自REID 網(wǎng)絡(luò)的輸入,并在計(jì)算馬氏距離和余弦距離的基礎(chǔ)上添加相似度得分。在COLinker 模塊中,通過擴(kuò)展軌跡對(duì)的輸入向量并引入CPCA 注意力機(jī)制,增強(qiáng)了軌跡鏈接過程對(duì)時(shí)間序列特征的捕捉能力。軌跡對(duì)輸入經(jīng)過多層特征融合和壓縮處理后,通過多層感知器(Multilayer Perceptron, MLP)輸出軌跡相似性得分,并將該得分與卡爾曼濾波器的總成本函數(shù)相結(jié)合,從而優(yōu)化匹配決策。

傳統(tǒng)DeepSORT 算法在IoU 匹配階段采用固定閾值,無法根據(jù)遮擋程度動(dòng)態(tài)調(diào)整,導(dǎo)致軌跡斷裂與ID 切換率升高。本文在IoU匹配階段提出了基于自適應(yīng)RB 因子的反饋機(jī)制。通過計(jì)算軌跡的斷裂率和ID 切換率的變化量,動(dòng)態(tài)調(diào)整IoU匹配階段的閾值,使模型能夠在復(fù)雜遮擋場(chǎng)景中更靈活地進(jìn)行匹配優(yōu)化。

2.1 遮擋判定

遮擋判定的基本原理是通過檢測(cè)目標(biāo)置信度的劇烈變化并結(jié)合目標(biāo)檢測(cè)框與軌跡框的IoU來識(shí)別潛在的遮擋目標(biāo)。當(dāng)目標(biāo)被部分遮擋或完全遮擋時(shí),檢測(cè)目標(biāo)的置信度在相鄰幀間發(fā)生顯著下降。本文通過計(jì)算置信度的變化率來量化該變化,并設(shè)置閾值來判定是否發(fā)生遮擋。

遮擋判定算法的輸入包括當(dāng)前幀的檢測(cè)集合和上一幀完成關(guān)聯(lián)的軌跡集合,以及置信度變化閾值和IoU閾值。

首先,初始化潛在遮擋目標(biāo)集合Docc,用于存儲(chǔ)符合遮擋條件的檢測(cè)目標(biāo)。其次,遍歷檢測(cè)目標(biāo)集合,計(jì)算每個(gè)目標(biāo)的置信度變化率Δc,即該目標(biāo)在當(dāng)前幀和上一幀的置信度差值的歸一化值。如果目標(biāo)的置信度變化率Δc超過預(yù)設(shè)閾值τc,則判定該目標(biāo)處于遮擋狀態(tài),需進(jìn)一步驗(yàn)證。然后,對(duì)每個(gè)潛在遮擋目標(biāo),與上一幀軌跡集合FH中對(duì)應(yīng)軌跡框進(jìn)行IoU計(jì)算。如果目標(biāo)檢測(cè)框d與軌跡框g間的IoU大于設(shè)定閾值τIoU,則進(jìn)一步確認(rèn)目標(biāo)處于遮擋狀態(tài),并將其加入潛在遮擋目標(biāo)集合。通過置信度變化率與IoU的雙重篩選,以確保對(duì)目標(biāo)遮擋狀態(tài)的判定更加可靠。最后,遮擋判定模塊輸出潛在遮擋目標(biāo)集合,為后續(xù)的COLinker 模塊提供輸入。在軌跡鏈接優(yōu)化模塊中,這些潛在遮擋目標(biāo)將作為候選目標(biāo),與軌跡片段進(jìn)一步匹配優(yōu)化。通過遮擋判定模塊的前置篩選,能夠有效減少后續(xù)軌跡鏈接過程中的干擾目標(biāo),從而提升遮擋目標(biāo)的跟蹤精度。

2.2 COLinker 模塊

現(xiàn)有算法利用狀態(tài)估計(jì)和協(xié)方差矩陣來預(yù)測(cè)每個(gè)跟蹤目標(biāo)的新位置,通過匹配策略關(guān)聯(lián)跟蹤目標(biāo)[16]。但是煤礦井下環(huán)境惡劣,礦工著裝統(tǒng)一,傳統(tǒng)DeepSORT 算法中僅依賴歐氏距離和余弦相似度的匹配策略,由于過度側(cè)重空間位置特征,難以適應(yīng)目標(biāo)運(yùn)動(dòng)模式多樣化的井下跟蹤場(chǎng)景[17]。為了解決這一問題,本文引入了軌跡鏈接模塊AFLink[18],以優(yōu)化DeepSORT 算法中目標(biāo)匹配過程。但AFLink缺乏對(duì)目標(biāo)運(yùn)動(dòng)特征的考慮,在目標(biāo)運(yùn)動(dòng)模式多樣化或遮擋頻繁的場(chǎng)景下,匹配精度和魯棒性較差。針對(duì)這一不足,本文首先擴(kuò)展了AFLink 的輸入,加入目標(biāo)的非線性動(dòng)態(tài)特征,構(gòu)建OLinker 模塊,以提高目標(biāo)匹配的精度和魯棒性。對(duì)擴(kuò)展輸入向量進(jìn)行時(shí)域塊處理后,為了加強(qiáng)對(duì)連續(xù)幀之間的關(guān)注度,聚焦關(guān)鍵特征,引入CPCA 注意力機(jī)制,構(gòu)建軌跡鏈接優(yōu)化COLinker 模塊,改善軌跡之間的相似性評(píng)估和匹配精度,從而優(yōu)化軌跡鏈接過程。具體優(yōu)化過程如圖4 所示。

對(duì)于每個(gè)被判定為潛在遮擋狀態(tài)的跟蹤目標(biāo)Tj和檢測(cè)目標(biāo)Dj,通過YOLOv9 模型[19]獲取外觀特征。結(jié)合跟蹤歷史中位置序列QtT j,為非線性動(dòng)態(tài)特征的計(jì)算提供基礎(chǔ)。

式中:CtTj為第j個(gè)跟蹤目標(biāo)Tj在t時(shí)刻的中心點(diǎn)位置;(xtTj,"ytT j,"wtT j,"htT j )為邊界框四元組,xtTj, ytT j, wtT j, hT jt分別為跟蹤目標(biāo)Tj在t時(shí)刻的坐標(biāo)。

目標(biāo)Tj在t時(shí)刻的速度vtT j、加速度atT j可表示為

vtT j = QtT j-Qt-1T j(8)

atT j = vtT j-vt-1T j(9)

式中:vt-1T j為目標(biāo)Tj在t-1時(shí)刻的速度;QtT j,Qt-1T j分別為目標(biāo)在t,t-1時(shí)刻的位置。

CPCA 利用通道注意力機(jī)制突出特征圖中關(guān)鍵的通道信息,其結(jié)構(gòu)如圖5 所示。首先通過多尺度卷積核提取輸入特征圖中的多層次信息。然后利用通道注意力圖,動(dòng)態(tài)分配各個(gè)通道的權(quán)重,從而突出有用的通道特征。最后空間注意力機(jī)制結(jié)合通道級(jí)別特征,進(jìn)一步通過生成空間注意力圖調(diào)整不同區(qū)域的關(guān)注程度。

COLinker 的匹配級(jí)聯(lián)模塊在匹配過程不僅考慮外觀相似度和空間位置的馬氏距離M(Di;Tj),還引入了運(yùn)動(dòng)相似度mi j,以提高目標(biāo)匹配的有效性。mi j由COLinker 模塊輸出的概率P(S jDi,Tj)轉(zhuǎn)換而來,表示2 個(gè)軌跡片段之間屬于同一目標(biāo)的概率。

式中L(·)為使用馬氏距離計(jì)算軌跡片段的相似度函數(shù),它將輸入的軌跡片段HtTj和Ht-1Ti轉(zhuǎn)換為張量Xj和Xi,以計(jì)算第i 個(gè)和第j 個(gè)跟蹤目標(biāo)是否為同一目標(biāo);HtTj為t 時(shí)刻的第j 個(gè)跟蹤目標(biāo)軌跡段;Ht-1Ti為t-1時(shí)刻的第i 個(gè)跟蹤目標(biāo)軌跡段;ftTj為目標(biāo)Tj在t 時(shí)刻的外觀特征。

因此匹配級(jí)聯(lián)模塊的輸出總成本函數(shù)可表示為

式中λ1,λ2和λ3為權(quán)重參數(shù),用來平衡馬氏距離、外觀相似度和運(yùn)動(dòng)相似度的影響。

2.3 自適應(yīng)RB 因子

當(dāng)長(zhǎng)時(shí)間發(fā)生遮擋且設(shè)定匹配閾值過高時(shí),可能因?yàn)橹丿B區(qū)域未達(dá)到高閾值要求而不被視為同一目標(biāo)[20];當(dāng)遮擋發(fā)生較少時(shí),適當(dāng)提高匹配閾值,可以使模型更關(guān)注遮擋區(qū)域。為此,本文提出了自適應(yīng)RB 因子,依據(jù)時(shí)刻的Rk和Bk及k-1時(shí)刻的Rk-1和Bk-1,動(dòng)態(tài)調(diào)整匹配閾值,以確保在遮擋區(qū)域內(nèi)的正確跟蹤。

1) 計(jì)算跟蹤斷裂率和ID 切換率的變化量:

△B = α(Bk - Bk-1) (13)

△R = α(Rk -Rk-1) (14)

式中α為轉(zhuǎn)換系數(shù),將變化率轉(zhuǎn)換為百分比,α=100。

2) 定義Rk和Bk的權(quán)重ωR和ωB,計(jì)算IoU 閾值的總調(diào)整量△I:

△I ="ωR △R+ωB △B (15)

3) 為了確保自適應(yīng)調(diào)整策略在一個(gè)合理的范圍內(nèi)進(jìn)行,對(duì)IoU閾值進(jìn)行更新。

Ik = max(min(Ik-1- △I,"Imax),"Imin) (16)

式中:Ik?1 為 k?1 閾值; Imax和Imin分別為 IoU 閾值的上下限值。

3 實(shí)驗(yàn)驗(yàn)證

3.1 煤礦井下人員多目標(biāo)跟蹤數(shù)據(jù)集

為驗(yàn)證基于自適應(yīng)鏈接優(yōu)化的井下行人抗遮擋跟蹤方法的性能,選取井下人員視頻數(shù)據(jù)來構(gòu)建煤礦井下人員多目標(biāo)跟蹤數(shù)據(jù)集(Mine PersonnelDetection Dataset,MPDD),包括井下閘機(jī)出入口、井底硐室和井下工作面3 種場(chǎng)景的圖像數(shù)據(jù)(圖6),共計(jì)14 個(gè)視頻片段,共64 770 幀。使用DarkLabel 軟件進(jìn)行數(shù)據(jù)標(biāo)注, 并將其轉(zhuǎn)換為標(biāo)注的MOT(Multiple Object Tracking, 多目標(biāo)跟蹤) 數(shù)據(jù)集格式。數(shù)據(jù)集詳細(xì)情況與數(shù)據(jù)特點(diǎn)見表1。

3.2 實(shí)驗(yàn)準(zhǔn)備

實(shí)驗(yàn)在64 位Win11 系統(tǒng)下進(jìn)行,使用PyCharm 平臺(tái)編程, 深度學(xué)習(xí)框架選擇Pytorch1.1.1, 并搭配CUDA11.6 計(jì)算框架。圖像處理相關(guān)任務(wù)使用OpenCV?4.9.0.80 庫。實(shí)驗(yàn)硬件環(huán)境: CPU 為AMD Ryzen7 7735H@.20 GHz, 內(nèi)存為32 GiB, 顯卡為NVIDIAGeForce GTX 4060,硬盤為1 TiB NVMe SSD。所有訓(xùn)練和測(cè)試均在該環(huán)境下完成。

為了更加客觀地評(píng)估本文方法針對(duì)井下人員多目標(biāo)的跟蹤性能,分別采用不同評(píng)價(jià)指標(biāo)對(duì)鏈接優(yōu)化模塊COLinker 和井下人員跟蹤性能進(jìn)行分析。

在驗(yàn)證COLinker 模塊性能時(shí),選擇MOT20 數(shù)據(jù)集,并使用精確率、召回率和F1 分?jǐn)?shù)作為評(píng)價(jià)指標(biāo)[21]。精確率用于衡量模型預(yù)測(cè)的正樣本中有多少是真正的正樣本,從而評(píng)估模型的準(zhǔn)確性。召回率用于衡量所有正樣本中有多少被模型正確預(yù)測(cè),反映模型的敏感性。F1 分?jǐn)?shù)是精確率和召回率的調(diào)和平均數(shù),綜合評(píng)價(jià)模型的性能。

在驗(yàn)證自適應(yīng)鏈接優(yōu)化的井下行人抗遮擋跟蹤方法性能方面,本文在MPTD 數(shù)據(jù)集上選取MOTA(Multiple Object Tracking Accuracy)、MOTP(MultipleObject Tracking Precision) 和IDF1(Identity F1 Score)作為評(píng)價(jià)指標(biāo)[13]。MOTA 表示跟蹤準(zhǔn)確度,反映了跟蹤過程中出現(xiàn)目標(biāo)誤檢、漏檢及ID 切換的情況。MOTP 表示跟蹤精度,反映了跟蹤過程中目標(biāo)預(yù)測(cè)框與數(shù)據(jù)集標(biāo)注結(jié)果之間的匹配程度。IDF1 表示正確識(shí)別的檢測(cè)數(shù)與平均真實(shí)數(shù)和計(jì)算檢測(cè)數(shù)之比,IDF1 值越大,說明對(duì)特定目標(biāo)進(jìn)行準(zhǔn)確跟蹤的穩(wěn)定性越強(qiáng)。

3.3 實(shí)驗(yàn)結(jié)果與分析

為了驗(yàn)證自適應(yīng)鏈接優(yōu)化方法在煤礦井下行人遮擋環(huán)境下跟蹤的有效性和可靠性,分別進(jìn)行3 組井下人員檢測(cè)和跟蹤實(shí)驗(yàn)。首先采用YOLOv9 針對(duì)井下多目標(biāo)人員進(jìn)行訓(xùn)練,確保在進(jìn)行跟蹤前提供可靠的目標(biāo)信息和檢測(cè)輸出;然后采用COLinker 模塊進(jìn)行訓(xùn)練;最后將COLinker 模塊的輸出添加到DeepSORT 的匹配級(jí)聯(lián)模塊,在MPDD 數(shù)據(jù)集上進(jìn)行多目標(biāo)人員跟蹤實(shí)驗(yàn),并與OLinker 模塊和AFLink模塊進(jìn)行對(duì)比。

3.3.1 COLinker 模塊實(shí)驗(yàn)分析

為驗(yàn)證添加運(yùn)動(dòng)相似度和CPCA 注意力機(jī)制對(duì)優(yōu)化軌跡鏈接的有效性,本文收集每個(gè)epoch 的概率分布數(shù)據(jù),實(shí)驗(yàn)結(jié)果以小提琴圖進(jìn)行可視化展示[18]。COLinker, OLinker 和AFLink 模塊的預(yù)測(cè)概率分布情況如圖7 所示,可看出COLinker 模塊的預(yù)測(cè)概率分布較其他模型更為集中且精度更高,表明優(yōu)化后的模型在不同場(chǎng)景下具有更好的穩(wěn)定性和精度。

為進(jìn)一步驗(yàn)證COLinker 模塊的有效性,采用精確率、召回率和F1 分?jǐn)?shù)來綜合評(píng)估模型性能。COLinker, OLinker 和AFLink 模塊的綜合評(píng)估指標(biāo)如圖8 所示??煽闯鯟OLinker 的精確率、召回率和F1 分?jǐn)?shù)較OLinker 和AFLink 模型更高,表明COLinker模塊在處理驗(yàn)證數(shù)據(jù)集時(shí)具有更好的一致性和可靠性,能夠在更復(fù)雜的數(shù)據(jù)場(chǎng)景下維持較高的性能水平。

為直觀觀察每個(gè)模塊的學(xué)習(xí)過程,評(píng)估模型訓(xùn)練的效率和穩(wěn)定性,記錄COLinker,OLinker 和AFLink模塊在訓(xùn)練過程中損失的變化情況,結(jié)果如圖9 所示??煽闯鯟OLinker 模塊的訓(xùn)練損失顯著減少且驗(yàn)證損失趨于穩(wěn)定,說明其在捕捉軌跡之間相似性時(shí)具有較高的穩(wěn)定性和泛化能力。

為進(jìn)一步驗(yàn)證COLinker 模塊在遮擋條件下的性能,實(shí)驗(yàn)設(shè)計(jì)了不同遮擋程度的評(píng)估任務(wù),選取一段總長(zhǎng)為2 760 幀且遮擋程度分布具有良好再現(xiàn)性的視頻序列,視頻序列中各遮擋程度的分布情況見表2。

由表2 可看出 ,嚴(yán)重遮擋(35%~80%)的幀數(shù)占比最高,為53.8%,部分遮擋(10%~35%)的占比為18.9%。這一分布反映了煤礦井下視頻中遮擋的復(fù)雜性和多樣性,尤其是部分遮擋到嚴(yán)重遮擋程度占絕大多數(shù),能很好地用于評(píng)估本文方法在處理復(fù)雜遮擋場(chǎng)景下的魯棒性和適應(yīng)性。

不同遮擋程度下各模塊的軌跡斷裂恢復(fù)率對(duì)比如圖10 所示。可看出在不同遮擋程度下,COLinker模塊顯著優(yōu)于其他模塊,尤其是在部分遮擋和嚴(yán)重遮擋條件下,其軌跡斷裂恢復(fù)率較OLinker 和AFLink模塊分別高出1.6% 和2.3%,較卡爾曼濾波器提升11.2%。表明COLinker 模塊在遮擋目標(biāo)的軌跡匹配和軌跡精度上具備更強(qiáng)的魯棒性和穩(wěn)定性。

3.3.2 基于自適應(yīng)RB 因子的反饋機(jī)制實(shí)驗(yàn)分析

以每25 幀為一時(shí)刻記錄完整視頻幀中的ID 切換率和跟蹤斷裂率,經(jīng)自適應(yīng)RB 因子調(diào)整后的匹配閾值變化率折線圖如圖11 所示??煽闯霎?dāng)視頻序列時(shí)刻內(nèi)和上升,即遮擋概率較大時(shí),匹配閾值降低以適應(yīng)環(huán)境變化;當(dāng)時(shí)刻內(nèi)和下降時(shí),匹配閾值上升,使模塊能更關(guān)注遮擋區(qū)域。

3.3.3 自適應(yīng)鏈接優(yōu)化方法實(shí)驗(yàn)分析

為了更加直觀說明本文方法在煤礦井下行人目標(biāo)遮擋下的跟蹤效果, 采用DeepSORT, YOLOv7?SAM[13],OSNet[10],F(xiàn)uCoLoT[22]和本文方法對(duì)煤礦井下視頻序列進(jìn)行定性實(shí)驗(yàn)。選取來自MPDD 的3 段視頻序列(Video1 視頻序列展示的是井口閘機(jī)區(qū)域行人監(jiān)控視頻;Video2 視頻序列展示的是典型的井底硐室區(qū)域行人候車視頻; Video3 視頻序列展示的是井下作業(yè)面區(qū)域行人作業(yè)視頻) ,實(shí)驗(yàn)結(jié)果如圖12 所示??煽闯鲈赩ideo1 視頻序列中,DeepSORT和FuCoLoT 在多目標(biāo)遮擋情況下難以準(zhǔn)確跟蹤;YOLOv7?SAM 雖采用改進(jìn)檢測(cè)器方式能夠更準(zhǔn)確地檢測(cè)目標(biāo),但在目標(biāo)遮擋后ID 發(fā)生變換,未能重新匹配;OSNet 優(yōu)化了視頻序列中多尺度的影響,但近距離下運(yùn)動(dòng)模糊帶來的影響使得模型不能很好地跟蹤目標(biāo);本文方法能夠跟隨目標(biāo)運(yùn)動(dòng),融合后的輸入特征提升了目標(biāo)的特征表達(dá),并且COLinker 模塊能夠更好地匹配切換后的ID。在Video2 視頻序列狹遠(yuǎn)處的目標(biāo)并沒有發(fā)生移動(dòng),YOLOv7?SAM 算法展現(xiàn)更好的檢測(cè)能力,但是在近景處,本文方法能夠更好地對(duì)快速移動(dòng)產(chǎn)生的運(yùn)動(dòng)模糊情況下的目標(biāo)進(jìn)行跟蹤。在Video3 視頻序列少目標(biāo)情況下,由于背景信息的干擾,檢測(cè)目標(biāo)的置信度較低,但本文方法能夠自適應(yīng)降低匹配閾值,關(guān)注目標(biāo)運(yùn)動(dòng)信息。

為了驗(yàn)證本文方法的泛化能力,對(duì)MOT17 數(shù)據(jù)集中的視頻序列MOT17?09?SDP 系列[23]和MOT15數(shù)據(jù)集中的視頻序列AVG?TownCentre[24]進(jìn)行跟蹤實(shí)驗(yàn),結(jié)果如圖13 所示。可看出在對(duì)行人目標(biāo)跟蹤時(shí),雖然目標(biāo)發(fā)生遮擋情況,但是當(dāng)目標(biāo)再次出現(xiàn)時(shí),本文方法能更準(zhǔn)確匹配跟蹤目標(biāo)。

針對(duì)COLinker 模塊進(jìn)行定量分析,對(duì)比實(shí)驗(yàn)結(jié)果見表3??煽闯霾捎肅OLinker 模塊對(duì)行人目標(biāo)進(jìn)行軌跡關(guān)聯(lián)與ID 匹配時(shí),其精確率、召回率和F1 分?jǐn)?shù)較AFLink 都有很好的提升。

選取MPDD 數(shù)據(jù)集中具有典型井下特征的3 段視頻序列、MOT17 數(shù)據(jù)集中的視頻序列MOT17?09?SDP 系列和MOT15 數(shù)據(jù)集中的視頻序列AVG?TownCentre 進(jìn)行測(cè)試,并與DeepSORT,F(xiàn)uCoLoT,YOLOv7?SAM,OSNet 進(jìn)行對(duì)比,結(jié)果見表4、表5。

由表4 可看出,在Video1 中,本文方法在MOTA上較DeepSORT 提高了15.6%, 本文方法在MOTA和IDF1 上較FuCoLoT 分別提高了2.0% 和1.8%,較YOLOv7?SAM 分別提高了1.4% 和2.7%,較OSNet分別提高了2.6% 和1.8%。在Video2 中,本文方法在MOTA 和IDF1 上較DeepSORT 分別提高了16.1%和18.3%,較FuCoLoT 分別提高了4.1% 和1.4%,較YOLOv7?SAM 分別提高了2.6% 和2.3%,較OSNet分別提高了4.5% 和1.6%。在Video3 中,本文方法在MOTA 和IDF1 上較DeepSORT 分別提高了1.0%和8.3%,較FuCoLoT 分別提高了1.4% 和2.0%, 較YOLOv7?SAM 分別提高了0.7% 和2.1%,較OSNet分別提高了1.4% 和0.4%。本文方法的MOTA,MOTP和IDF1 平均為76.17%,84.13%,74.90%,較DeepSORT平均提升了14.90%, 1.83% 和10.93%,較YOLOv7?SAM 平均提升了1.57%, 0.40% 和0.37%,較OSNet平均提升了2.83%, 0.77% 和1.27%,較FuCoLoT 平均提升了2.50%,0.08% 和1.80%。說明在3 個(gè)具有井下典型特征的視頻序列上本文方法的MOTA,MOTP 和IDF1 指標(biāo)均表現(xiàn)最佳,驗(yàn)證了其在不同場(chǎng)景下的魯棒性和有效性。

由表5 可看出,在MOT17?09?SDP 序列中,本文方法的MOTA 為78.9%, 較DeepSORT 提高了11.8%,較YOLOv7?SAM 提高了0.3%。在MOTP 和IDF1 指標(biāo)上,本文方法也分別達(dá)到了83.5% 和75.6%,較DeepSORT 有顯著提升。本文方法在MOTA 上較FuCoLoT 和OSNet 分別提高了2.5% 和2.5%,在MOTP 上分別提高了0.7% 和0.6%。在AVG?TownCentre 序列中,本文方法的MOTA 為81.1%,較DeepSORT 提高了11.3%,較YOLOv7?SAM 提高了1.6%。在MOTP 和IDF1 指標(biāo)上,本文方法分別達(dá)到了84.8% 和76.4%,較DeepSORT 有顯著提升。本文方法在MOTA 上較FuCoLoT 和OSNet 分別提高了2.6% 和0.9%,在MOTP 上分別提高了1.7% 和0.9%。結(jié)果表明,本文方法不僅在特定場(chǎng)景下表現(xiàn)優(yōu)異,在公開數(shù)據(jù)集MOT17 和MOT15 上也能保持穩(wěn)定的性能,展現(xiàn)了良好的泛化能力。

4 結(jié)論

1) 針對(duì)煤礦井下環(huán)境中因遮擋頻繁導(dǎo)致的軌跡匹配不準(zhǔn)確問題,提出了一種基于自適應(yīng)鏈接優(yōu)化的井下行人抗遮擋跟蹤方法。在遮擋判定模塊中,通過結(jié)合目標(biāo)置信度變化率和IoU,對(duì)目標(biāo)的遮擋狀態(tài)進(jìn)行精準(zhǔn)判定;在COLinker 模塊中,通過豐富軌跡對(duì)輸入向量和添加CPCA 注意力機(jī)制,來擴(kuò)展總成本函數(shù),有效緩解軌跡匹配過程中因遮擋導(dǎo)致的錯(cuò)誤匹配問題;在反饋機(jī)制中,通過計(jì)算跟蹤斷裂率和ID 切換率的變化量,引入自適應(yīng)RB 因子,以適應(yīng)因長(zhǎng)時(shí)間遮擋導(dǎo)致的軌跡斷裂問題。

2) 在煤礦井下人員多目標(biāo)跟蹤數(shù)據(jù)集上,對(duì)5 種方法進(jìn)行跟蹤實(shí)驗(yàn)。結(jié)果表明所提方法能夠更好地解決遮擋情況下的行人跟蹤問題。

3) 所提方法在公開數(shù)據(jù)集MOT17 和MOT15 上也能保持穩(wěn)定的性能,表明該方法具有良好的泛化能力。

4) 雖然所提方法在井下行人遮擋跟蹤中表現(xiàn)出優(yōu)勢(shì),但仍存在需要改進(jìn)的方面:一方面,隨著實(shí)際應(yīng)用需求的增加,可以考慮構(gòu)建更大規(guī)模、更具挑戰(zhàn)性的煤礦井下行人遮擋數(shù)據(jù)集,以驗(yàn)證方法在更多復(fù)雜場(chǎng)景中的泛化能力;另一方面,探討不同檢測(cè)器輸入對(duì)跟蹤結(jié)果的影響,進(jìn)一步優(yōu)化檢測(cè)器和跟蹤模塊之間的協(xié)同工作,從而進(jìn)一步增強(qiáng)井下行人跟蹤的可靠性和精度。

參考文獻(xiàn)(References):

[ 1 ]張旭輝,楊文娟,薛旭升,等. 煤礦遠(yuǎn)程智能掘進(jìn)面臨的挑戰(zhàn)與研究進(jìn)展[J]. 煤炭學(xué)報(bào),2022,47(1):579-597.

ZHANG Xuhui,YANG Wenjuan,XUE Xusheng,et al.Challenges and developing of the intelligent remotecontrolon roadheaders in coal mine[J]. Journal of ChinaCoal Society,2022,47(1):579-597.

[ 2 ]李翠蕓,衡博文,謝金池. 模糊推理優(yōu)化的抗遮擋PMBM 跟蹤算法[J]. 西安電子科技大學(xué)學(xué)報(bào),2023,50(5):54-64.

LI Cuiyun, HENG Bowen, XIE Jinchi. Anti-occlusionPMBM tracking algorithm optimized by fuzzyinference[J]. Journal of Xidian University, 2023,50(5):54-64.

[ 3 ]LU Xiankai, MA Chao, NI Bingbing, et al. Adaptiveregion proposal with channel regularization for robustobject tracking[J]. IEEE Transactions on Circuits andSystems for Video Technology, 2019, 31(4) :1268-1282.

[ 4 ]牟琦,韓嘉嘉,張寒,等. 基于云邊協(xié)同的煤礦井下尺度自適應(yīng)目標(biāo)跟蹤方法[J]. 工礦自動(dòng)化, 2023,49(4):50-61.

MU Qi, HAN Jiajia, ZHANG Han, et al. A scaleadaptivetarget tracking method for coal mineunderground based on cloud-edge collaboration[J].Journal of Mine Automation,2023,49(4):50-61.

[ 5 ]馮磊,李斌,何勇. 基于注意力機(jī)制的煤礦工作面遮擋行人檢測(cè)[J]. 價(jià)值工程,2022,41(14):148-150.

FENG Lei, LI Bin, HE Yong. Pedestrian detection ofcoal mine working face occlusion based on attentionmechanism[J]. Value Engineering, 2022, 41(14) :148-150.

[ 6 ]程健,陳亮,王凱,等. 一種多特征融合的復(fù)雜場(chǎng)景動(dòng)態(tài)目標(biāo)跟蹤算法[J]. 中國礦業(yè)大學(xué)學(xué)報(bào), 2021,50(5):1002-1010.

CHENG Jian, CHEN Liang, WANG Kai, et al. Multifeaturefusion dynamic target tracking algorithm forcomplex scenes[J]. Journal of China University ofMining amp; Technology,2021,50(5):1002-1010.

[ 7 ]COMANICIU D, MEER P. Mean shift analysis andapplications[C]. 7th IEEE International Conference onComputer Vision,Kerkyra,1999:1197-1203.

[ 8 ]陳偉,任鵬,田子建,等. 基于注意力機(jī)制的無監(jiān)督礦井人員跟蹤[J]. 煤炭學(xué)報(bào),2021,46(增刊1):601-608.

CHEN Wei, REN Peng, TIAN Zijian, et al.Unsupervised mine personnel tracking based on attentionmechanism[J]. Journal of China Coal Society, 2021,46(S1):601-608.

[ 9 ]LI Xiaoyu, WANG Shuai, CHEN Wei, et al. Anintelligent vision-based tracking method for undergroundhuman using infrared videos[J]. Symmetry, 2022,14(8). DOI:10.3390/SYM14081750.

[10]陳太光,鮑新平,汪濤,等. 基于深度學(xué)習(xí)的礦井巷道人員計(jì)數(shù)技術(shù)[J]. 煤礦安全,2023,54(2):234-238.

CHEN Taiguang, BAO Xinping, WANG Tao, et al.Mine roadway personnel counting technology based ondeep learning[J]. Safety in Coal Mines, 2023, 54(2) :234-238.

[11]張玉濤,張夢(mèng)凡,史學(xué)強(qiáng),等. 基于深度學(xué)習(xí)的井下運(yùn)動(dòng)目標(biāo)跟蹤算法研究[J]. 煤炭工程, 2022, 54(10) :151-155.

ZHANG Yutao, ZHANG Mengfan, SHI Xueqiang,et al. Object tracking algorithm of moving objects inunderground mine based on deep learning[J]. CoalEngineering,2022,54(10):151-155.

[12]邵小強(qiáng), 李鑫, 楊濤, 等. 改進(jìn)YOLOv5s 和DeepSORT 的井下人員檢測(cè)及跟蹤算法[J]. 煤炭科學(xué)技術(shù),2023,51(10):291-301.

SHAO Xiaoqiang, LI Xin, YANG Tao, et al.Underground personnel detection and tracking based onimproved YOLOv5s and DeepSORT[J]. Coal Scienceand Technology,2023,51(10):291-301.

[13]范偉強(qiáng), 王雪瑾, 張穎慧, 等. 改進(jìn)YOLOv7 和DeepSORT 的井下人員檢測(cè)與跟蹤算法[J/OL]. 煤炭科學(xué)技術(shù): 1-13[2024-10-07]. http://kns.cnki.net/kcms/detail/11.2402.TD.20240119.1449.006.html.

FAN Weiqiang,WANG Xuejin,ZHANG Yinghui,et al.Underground personnel detection and tracking usingimproved YOLOv7 and DeepSORT[J/OL]. CoalScience and Technology: 1-13[2024-10-07]. http://kns.cnki.net/kcms/detail/11.2402.TD.20240119.1449.006.html.

[14]HUANG Hejun, CHEN Zuguo, ZOU Ying, et al.Channel prior convolutional attention for medical imagesegmentation[J]. Computers in Biology and Medicine,2024,178. DOI:10.1016/J.COMPBIOMED.2024.108784.

[15]ZHOU Chunluan, YUAN Junsong. Multi-label learningof part detectors for heavily occluded pedestriandetection[C]. IEEE International Conference onComputer Vision,Venice,2017:3486-3495.

[16]JAHANTIGHY A, TORABI H, MOHANNA F.Multiple targets video tracking based on extendedKalman filter in combination with particle swarmoptimization for intelligent applications[J]. SN AppliedSciences,2023,5(3). DOI:10.1007/S42452-023-05297-9.

[17]李凡長(zhǎng),劉洋,吳鵬翔,等. 元學(xué)習(xí)研究綜述[J]. 計(jì)算機(jī)學(xué)報(bào),2021,44(2):422-446.

LI Fanzhang,LIU Yang,WU Pengxiang,et al. A surveyon recent advances in meta-learning[J]. Chinese Journalof Computers,2021,44(2):422-446.

[18]WOJKE N, BEWLEY A, PAULUS D. Simple onlineand realtime tracking with a deep association metric[C].IEEE International Conference on Image Processing,Beijing,2017:3645-3649.

[19]WANG C Y, YEH I H, MARK LIAO H Y. YOLOv9:learning what you want toLearn using programmablegradient information[C]. European ConferenceonComputer Vision,Cham,2024:1-21.

[20]李璽,查宇飛,張?zhí)熘? 深度學(xué)習(xí)的目標(biāo)跟蹤算法綜述[J]. 中國圖象圖形學(xué)報(bào), 2019, 24(12) :2057-2080.

LI Xi, ZHA Yufei, ZHANG Tianzhu, et al. Survey ofvisual object tracking algorithms based on deeplearning[J]. Journal of Image and Graphics, 2019,24(12):2057-2080.

[21]DU Yunhao, ZHAO Zhicheng, SONG Yang, et al.StrongSORT: make DeepSORT great again[J]. IEEETransactions on Multimedia,2023,25:8725-8737.

[22]LUKE?I? A, ZAJC L ?, VOJí? T, et al. FuCoLoT-Afully-correlational long-term tracker[C]. AsianConference on Computer Vision,Cham,2019:595-611.

[23]NEWBURGER E, CORRELL M, ELMQVIST N.Fitting bell curves to data distributions usingvisualization[J]. IEEE Transactions on Visualizationand Computer Graphics,2023,29(12):5372-5383.

[24]KEUPER M, TANG Siyu, ANDRES B, et al. Motionsegmentation amp; multiple object tracking by correlationco-clustering[J]. IEEE Transactions on Pattern Analysisand Machine Intelligence,2020,42(1):140-153.

基金項(xiàng)目:國家自然科學(xué)基金青年項(xiàng)目(62303375)。

主站蜘蛛池模板: 五月婷婷精品| 亚洲欧美在线精品一区二区| 免费女人18毛片a级毛片视频| 2048国产精品原创综合在线| 国产喷水视频| 日本国产在线| 欧美日韩一区二区在线播放 | av免费在线观看美女叉开腿| 麻豆国产在线观看一区二区 | 国产精品自拍合集| 日本黄网在线观看| 国产欧美成人不卡视频| 自偷自拍三级全三级视频| 亚洲大尺度在线| 欧美国产日韩在线| 国产小视频免费| 国产免费网址| 国产精品黑色丝袜的老师| 亚洲a级毛片| 国产亚洲精品资源在线26u| 国产一区在线视频观看| 四虎综合网| 日韩123欧美字幕| 亚洲成A人V欧美综合天堂| 国产精品天干天干在线观看| 日韩AV无码一区| 九色在线视频导航91| 国产91视频观看| 亚洲综合在线网| 国产乱子精品一区二区在线观看| 污网站在线观看视频| 国产欧美日韩va另类在线播放| 日韩在线播放中文字幕| 成人国内精品久久久久影院| 永久免费av网站可以直接看的| 国产成人91精品| 美女亚洲一区| 99无码熟妇丰满人妻啪啪| 午夜精品一区二区蜜桃| 中文字幕调教一区二区视频| 婷婷亚洲视频| 欧美成人国产| 人妻一本久道久久综合久久鬼色| 国产欧美日韩视频一区二区三区| 97成人在线观看| 在线观看视频99| 亚洲一区二区精品无码久久久| 久久黄色一级视频| 在线观看国产精美视频| 东京热av无码电影一区二区| 免费看美女自慰的网站| AV网站中文| 91福利国产成人精品导航| 国产真实自在自线免费精品| 美女国内精品自产拍在线播放| 99国产在线视频| 九九九精品视频| 国产鲁鲁视频在线观看| 亚洲 欧美 中文 AⅤ在线视频| 国产精品区视频中文字幕| 国产第三区| 国产精品熟女亚洲AV麻豆| AV无码国产在线看岛国岛| 熟女日韩精品2区| 欧美一级99在线观看国产| 在线日本国产成人免费的| 人妻91无码色偷偷色噜噜噜| 中文字幕 日韩 欧美| 国内精品伊人久久久久7777人| 四虎成人精品在永久免费| 亚洲福利片无码最新在线播放| 久久a级片| 久久久四虎成人永久免费网站| 亚洲人成网7777777国产| 国产成人综合日韩精品无码首页| 99re精彩视频| 日韩精品一区二区三区视频免费看| 国产一级裸网站| 国产日韩精品欧美一区喷| 国产91在线|日本| 欧美日韩激情| 成人无码区免费视频网站蜜臀|