








摘要
協(xié)同性因子是跳躍人群中各單人間動(dòng)作一致程度的度量指標(biāo),是人致結(jié)構(gòu)振動(dòng)分析中人群跳躍荷載建模的關(guān)鍵參數(shù)。現(xiàn)有協(xié)同性因子大都是定義在較長(zhǎng)時(shí)段內(nèi)的均值參數(shù),其計(jì)算依據(jù)也是實(shí)驗(yàn)室條件下才能獲取的地反力或特征點(diǎn)軌跡等,不能準(zhǔn)確反映跳躍者個(gè)體差異的時(shí)變特性,也難以直接應(yīng)用于實(shí)際場(chǎng)景下結(jié)構(gòu)的振動(dòng)監(jiān)測(cè)。對(duì)此,提出了人群跳躍荷載的時(shí)變協(xié)同性因子,采用計(jì)算機(jī)視覺(jué)中的多目標(biāo)跟蹤技術(shù)對(duì)跳躍人群進(jìn)行實(shí)時(shí)監(jiān)測(cè),并計(jì)算協(xié)同性因子。開(kāi)展了佩戴無(wú)線測(cè)力鞋墊的多人跳躍實(shí)驗(yàn),通過(guò)與實(shí)驗(yàn)結(jié)果的對(duì)比,驗(yàn)證了時(shí)變協(xié)同性因子的合理性以及多目標(biāo)跟蹤技術(shù)的有效性,可用于工程結(jié)構(gòu)的安全運(yùn)維、人致結(jié)構(gòu)振動(dòng)分析和人群跳躍時(shí)變荷載的模擬。
關(guān)鍵詞
人群跳躍荷載; 時(shí)變協(xié)同性因子; 多目標(biāo)跟蹤; 智能運(yùn)維
1 概 述
隨著材料科學(xué)的不斷創(chuàng)新和工程結(jié)構(gòu)設(shè)計(jì)、施工技術(shù)的持續(xù)進(jìn)步,工程結(jié)構(gòu)向輕質(zhì)化、大跨化發(fā)展,大跨樓蓋、懸臂看臺(tái)、連廊等結(jié)構(gòu)呈現(xiàn)出頻率低、質(zhì)量輕和阻尼小等特征,容易因人致動(dòng)力荷載(步行、跳躍等)而產(chǎn)生振動(dòng),引發(fā)結(jié)構(gòu)振動(dòng)的適用性甚至安全性問(wèn)題[1]。例如,2015年4月,中國(guó)臺(tái)北“小巨蛋”體育館的一場(chǎng)演唱會(huì),歌迷隨著音樂(lè)跳動(dòng)導(dǎo)致附近民宅振動(dòng),引起居民投訴[2];2018年11月,南京奧體中心的一場(chǎng)演唱會(huì)在4首歌曲后,因結(jié)構(gòu)振動(dòng)顯著而被緊急叫停[3]。2021年10月,荷蘭奈梅亨體育場(chǎng)的一處看臺(tái)在球迷集體跳躍慶祝下發(fā)生大幅振動(dòng)并最終坍塌,所幸并未造成人員傷亡[4]。此類(lèi)問(wèn)題屢見(jiàn)報(bào)端引起了廣泛的社會(huì)關(guān)注,也對(duì)人致結(jié)構(gòu)振動(dòng),特別是人群荷載的研究提出了新的挑戰(zhàn)。
合理、準(zhǔn)確的荷載模型是人致結(jié)構(gòu)振動(dòng)分析的前提。在步行、跳躍、屈伸律動(dòng)等常見(jiàn)的人致荷載類(lèi)型中,跳躍荷載的動(dòng)力效應(yīng)最為顯著[5]。尤其在體育比賽、音樂(lè)會(huì)等場(chǎng)景中,人群的跳躍運(yùn)動(dòng)易受到集體口號(hào)、音樂(lè)節(jié)拍等外部指令的引導(dǎo),形成節(jié)奏性協(xié)同運(yùn)動(dòng)而導(dǎo)致更大的結(jié)構(gòu)振動(dòng)幅度。目前,國(guó)內(nèi)外學(xué)者對(duì)單人跳躍荷載已開(kāi)展了深入、系統(tǒng)的研究,先后提出了確定性[6?8]和隨機(jī)性[6, 9?10]兩大類(lèi)荷載模型。相比之下,人群跳躍荷載的研究仍然較少。由于不同跳躍者的動(dòng)作不可能完全一致,因此人群荷載并非單人荷載的簡(jiǎn)單疊加,需要解決不同跳躍者之間協(xié)同性量化表達(dá)這一建模難點(diǎn)。已有研究提出了一些協(xié)同性指標(biāo)[7, 11],但大都是定義在較長(zhǎng)時(shí)段內(nèi)的、平均意義上的指標(biāo)。實(shí)際情況下,每個(gè)跳躍者往往會(huì)隨著節(jié)拍、周?chē)说膭?dòng)作和自身疲勞等情況隨時(shí)調(diào)整自己的動(dòng)作,即人群跳躍協(xié)同性具有典型的時(shí)變特征,相關(guān)指標(biāo)研究中應(yīng)充分考慮其時(shí)變特性。
缺少合適的實(shí)驗(yàn)手段是人群跳躍荷載時(shí)變協(xié)同性研究的技術(shù)難題。目前人群跳躍荷載的實(shí)驗(yàn)測(cè)試主要有直接法、間接法和反算法三種,各自的原理和優(yōu)缺點(diǎn)如表1所示。顯然,現(xiàn)有測(cè)試方法或需要依托特殊實(shí)驗(yàn)設(shè)備且在實(shí)驗(yàn)室環(huán)境中實(shí)現(xiàn);或需要實(shí)時(shí)測(cè)量結(jié)構(gòu)的動(dòng)力響應(yīng),因而難以部署到體育場(chǎng)館看臺(tái)等實(shí)際場(chǎng)景中,監(jiān)測(cè)其服役期承受人群荷載的協(xié)同性。近年來(lái),Krizhevsky等[12]基于深度學(xué)習(xí)的計(jì)算機(jī)視覺(jué)技術(shù)取得了飛速發(fā)展,在不同領(lǐng)域已有成熟的應(yīng)用。考慮到體育場(chǎng)館看臺(tái)等公共空間往往布設(shè)有大量監(jiān)控?cái)z像頭,可作為監(jiān)測(cè)其服役期人群跳躍協(xié)同性的硬件基礎(chǔ)。
綜上,本研究提出了人群跳躍時(shí)變協(xié)同性因子,并給出其計(jì)算公式,發(fā)展出一套基于計(jì)算機(jī)視覺(jué)中多目標(biāo)跟蹤技術(shù)的監(jiān)測(cè)方案,可作為一種工程結(jié)構(gòu)智能運(yùn)維手段,部署到體育場(chǎng)館等場(chǎng)所中提供預(yù)警。最后,通過(guò)大量不同頻率的人群跳躍實(shí)驗(yàn),檢驗(yàn)了時(shí)變協(xié)同性的合理性和監(jiān)測(cè)方案的可行性。
2 跳躍人群的時(shí)變協(xié)同性
2.1 既有跳躍協(xié)同性因子
人群荷載具有一定的隨機(jī)性,并非單人荷載的線性疊加,體現(xiàn)為個(gè)體內(nèi)變異性(intra?variability)和個(gè)體間變異性(inter?variability)[13]。前者表示跳躍過(guò)程中單個(gè)測(cè)試者個(gè)體運(yùn)動(dòng)狀態(tài)的不一致性,即個(gè)體會(huì)不斷調(diào)整自己的跳躍動(dòng)作;后者則表示跳躍過(guò)程中多個(gè)測(cè)試者個(gè)體運(yùn)動(dòng)狀態(tài)之間的不一致性,即個(gè)體單獨(dú)跳躍時(shí)的運(yùn)動(dòng)狀態(tài)與個(gè)體在人群中隨周?chē)艘黄鹛S時(shí)的運(yùn)動(dòng)狀態(tài)不同。
在體育賽事、音樂(lè)演唱會(huì)等場(chǎng)景中,觀眾跟隨音樂(lè)節(jié)拍、口號(hào)等一起跳躍,形成人群跳躍荷載。Kasperski等[6]的研究表明,人群的協(xié)同性來(lái)源于對(duì)外部引導(dǎo)節(jié)奏把控的個(gè)人能力和受周?chē)巳河绊懕憩F(xiàn)出的從眾特性。因而,對(duì)協(xié)同性的量化是人群跳躍荷載建模的基礎(chǔ),國(guó)內(nèi)外學(xué)者主要有兩種研究思路。一是,從協(xié)同性的本質(zhì)出發(fā),將不同跳躍者荷載時(shí)程的時(shí)間差或相位差定義為協(xié)同性因子,并統(tǒng)計(jì)分析其概率分布。如Sim等[7]將協(xié)同性因子定義為單次跳躍脈沖與外部節(jié)拍器節(jié)拍的時(shí)間差;Parkhouse等[14]則將跳躍荷載的一階諧波初相位作為協(xié)同性因子;二是,從荷載的角度出發(fā),用人群荷載折減系數(shù)來(lái)定義協(xié)同性因子,如譚寰[13]的研究。
兩種協(xié)同性因子定義雖然出發(fā)點(diǎn)不同,但都是基于測(cè)試者在較長(zhǎng)時(shí)段內(nèi)的連續(xù)跳躍時(shí)程來(lái)計(jì)算,忽略了個(gè)體內(nèi)變異性,僅考慮了較長(zhǎng)時(shí)段內(nèi)平均意義上的個(gè)體間變異性。然而,在實(shí)際跳躍過(guò)程中,每個(gè)跳躍者會(huì)不斷根據(jù)自身能力和周?chē)说挠绊懻{(diào)整姿態(tài),因此最后呈現(xiàn)的人群協(xié)同性因子應(yīng)該是一個(gè)時(shí)變指標(biāo)。
2.2 時(shí)變跳躍協(xié)同性因子
針對(duì)上一節(jié)所述問(wèn)題,本文在前期工作[13]基礎(chǔ)上,提出了一種新的、隨時(shí)間變化的跳躍協(xié)同性因子,由下式在長(zhǎng)度ΔtΔt的移動(dòng)時(shí)間窗口內(nèi)計(jì)算(如圖1所示):
上式定義的時(shí)變跳躍協(xié)同性因子的取值范圍為[0,1]。ρΔt(τ)ρΔt(τ)越接近1,則人群在ττ時(shí)刻的跳躍動(dòng)作越一致,即人群協(xié)同性越好,人群荷載效應(yīng)越顯著;ρΔt(τ)ρΔt(τ)接近0(如跳躍者恰好兩兩反向),則人群跳躍協(xié)同性最弱。
3 YOLOv5+DeepSORT多目標(biāo)跟蹤方案
多目標(biāo)跟蹤(Multiple Object Tracking,MOT)是在單個(gè)圖像序列(如視頻)中跟蹤多個(gè)目標(biāo)(如車(chē)輛、人物)的位置,進(jìn)而獲取它們運(yùn)動(dòng)軌跡的技術(shù)。本研究利用MOT從人群跳躍的視頻中獲取每個(gè)人的軌跡,進(jìn)而計(jì)算人群的時(shí)變協(xié)同性。根據(jù)目標(biāo)初始化方法的不同,當(dāng)前的MOT算法主要有無(wú)檢測(cè)跟蹤(Detection Free Tracking, DFT)和檢測(cè)跟蹤(Detection Based Tracking, DBT)兩種[15]。
DFT不依靠目標(biāo)檢測(cè),直接在視頻的初始幀中手動(dòng)框選目標(biāo),然后在后續(xù)幀中持續(xù)定位這些目標(biāo)。大部分早期MOT算法如光流法[16?17]即屬于此類(lèi),由于需要較多的手動(dòng)干預(yù),方法通常魯棒性較差,且無(wú)法跟蹤序列中出現(xiàn)的新目標(biāo)。近年來(lái),隨著大量數(shù)據(jù)的累積及計(jì)算硬件性能的提升,深度學(xué)習(xí)方法已經(jīng)在計(jì)算機(jī)視覺(jué)[12, 18?19]、自然語(yǔ)言處理[20?21]等領(lǐng)域取得重大發(fā)展。YOLO[19],F(xiàn)aster R?CNN[22]等深度學(xué)習(xí)類(lèi)的DBT算法逐步成為主流MOT解決方案。DBT方法先由檢測(cè)器逐幀檢測(cè)出目標(biāo),再由目標(biāo)跟蹤算法對(duì)多個(gè)目標(biāo)實(shí)現(xiàn)幀間數(shù)據(jù)關(guān)聯(lián),從而獲得它們的軌跡。圖2對(duì)比了DFT和DBT兩種解決方案。本研究采用DBT方案由YOLOv5目標(biāo)檢測(cè)和DeepSORT跟蹤算法兩個(gè)模塊構(gòu)成。
3.1 YOLOv5目標(biāo)檢測(cè)算法
現(xiàn)有目標(biāo)檢測(cè)算法包括以YOLO[19, 23?25]系列為代表的一階段算法,以R?CNN[18, 22, 26?27]系列為代表的兩階段算法。一階段方法沒(méi)有單獨(dú)的初步定位階段,直接得到分類(lèi)和目標(biāo)定位結(jié)果,具有較快的計(jì)算速度,適合作為DBT方案中的目標(biāo)檢測(cè)任務(wù)部分以實(shí)現(xiàn)實(shí)時(shí)在線跟蹤。其中,YOLOv5是繼承了YOLOv4優(yōu)點(diǎn)、更輕量級(jí)的最新網(wǎng)絡(luò)結(jié)構(gòu)[23]。圖3展示了本文采用的YOLOv5?m網(wǎng)絡(luò)的整體架構(gòu),圖例中提供了每個(gè)模塊的細(xì)觀結(jié)構(gòu)描述。
3.2 DeepSORT目標(biāo)跟蹤算法
DeepSORT[28] (Simple Online and Realtime Tracking with a Deep Association Metric)是在SORT[29]基礎(chǔ)上發(fā)展來(lái)的,可以實(shí)現(xiàn)對(duì)多目標(biāo)軌跡的動(dòng)態(tài)更新、創(chuàng)建和終結(jié),圖4是算法流程圖。
考慮到實(shí)際場(chǎng)景中可能存在的身體遮擋問(wèn)題等,本研究將人頭作為跟蹤目標(biāo)。對(duì)每個(gè)目標(biāo),DeepSORT使用8維向量(u,v,γ,h,x˙,y˙,γ˙,h˙)(u,v,γ,h,x˙,y˙,γ˙,h˙)表征其在當(dāng)前幀的狀態(tài)。其中,(u,v)(u,v)表示目標(biāo)檢測(cè)框中心位置坐標(biāo),γ表示檢測(cè)框長(zhǎng)寬比,h表示檢測(cè)框高度,(x˙,y˙,γ˙,h˙)(x˙,y˙,γ˙,h˙)則表示前面四個(gè)參數(shù)的速度信息。DeepSORT基于匈牙利算法,將卡爾曼濾波預(yù)測(cè)的目標(biāo)狀態(tài)與檢測(cè)器在當(dāng)前幀的檢測(cè)結(jié)果進(jìn)行級(jí)聯(lián)匹配和IOU匹配,并用匹配結(jié)果完成軌跡的卡爾曼濾波更新。相比SORT,DeepSORT的最大改進(jìn)是引入了一個(gè)預(yù)訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)(其主要目的是解決目標(biāo)的重識(shí)別問(wèn)題),提取檢測(cè)結(jié)果的表觀特征向量。對(duì)第i條軌跡的卡爾曼濾波預(yù)測(cè)結(jié)果和第j個(gè)檢測(cè)結(jié)果,DeepSORT分別計(jì)算運(yùn)動(dòng)特征指標(biāo)d(1)(i,j)和表觀特征指標(biāo)d(2)(i,j),以線性加權(quán)的方式得出關(guān)聯(lián)指標(biāo)ci,j,以布爾型變量相乘的方式構(gòu)造表示是否允許匹配發(fā)生的指標(biāo)bi,j,如下式所示:
ci,j=λd(1)(i,j)+(1?λ)d(2)(i,j)
ci,j=λd(1)(i,j)+(1-λ)d(2)(i,j)
(2)
式中 λλ為控制運(yùn)動(dòng)特征指標(biāo)和表現(xiàn)特征指標(biāo)影響的超參數(shù),取為0.5。
bi,j=∏m=12b(m)i,j
bi,j=∏m=12bi,j(m)
(3)
進(jìn)而構(gòu)造匈牙利算法的成本矩陣C和閾值矩陣B,從而實(shí)現(xiàn)對(duì)目標(biāo)的表觀特征和運(yùn)動(dòng)特征的綜合考量。
4 跳躍實(shí)驗(yàn)
4.1 實(shí)驗(yàn)設(shè)備與步驟
為驗(yàn)證本研究提出的時(shí)變協(xié)同性計(jì)算與監(jiān)測(cè)方案的有效性,安排三位測(cè)試者穿著LoadSol測(cè)力鞋墊進(jìn)行了驗(yàn)證實(shí)驗(yàn),如圖5所示。測(cè)力鞋墊裝有內(nèi)嵌的壓力傳感器,可通過(guò)藍(lán)牙信號(hào)將測(cè)試者的足底豎向跳躍荷載時(shí)程數(shù)據(jù)傳輸至智能手機(jī)。三位測(cè)試者的信息如表2所示。
實(shí)驗(yàn)中,三位測(cè)試者在節(jié)拍器的指引下完成5個(gè)工況共10組的固定頻率跳躍。參考人體生理?xiàng)l件及國(guó)內(nèi)外已有實(shí)驗(yàn),5個(gè)工況的跳躍頻率分別為1.5,2.0,2.5,3.0和3.5 Hz,每個(gè)工況進(jìn)行2組實(shí)驗(yàn)。測(cè)試者在每組實(shí)驗(yàn)中需完成持續(xù)30 s以上的連續(xù)跳躍,并休息至無(wú)疲憊感后再進(jìn)行下一組跳躍。每組實(shí)驗(yàn)過(guò)程中用固定機(jī)位的iPhone12 Pro后置攝像頭進(jìn)行視頻拍攝,攝制幀率30 FPS,分辨率為1920×1080。
4.2 實(shí)驗(yàn)記錄
圖6展示了1.5 Hz固定頻率跳躍工況下一位測(cè)試者的原始實(shí)驗(yàn)數(shù)據(jù),包括鞋墊獲得的豎向跳躍荷載時(shí)程,以及YOLOv5+DeepSORT跟蹤測(cè)試者頭部得到的像素加速度時(shí)程。需要說(shuō)明,由于記錄設(shè)備不同,上述兩條曲線不是嚴(yán)格時(shí)間同步的。
5 實(shí)驗(yàn)驗(yàn)證與應(yīng)用
5.1 目標(biāo)跟蹤算法驗(yàn)證
將YOLOv5+DeepSORT方法用于實(shí)驗(yàn)視頻,可獲得三位測(cè)試者在10組實(shí)驗(yàn)中共30條頭部像素運(yùn)動(dòng)加速度時(shí)程數(shù)據(jù)。對(duì)應(yīng)地,測(cè)力鞋墊記錄了30條跳躍荷載時(shí)程曲線。通過(guò)對(duì)30組數(shù)據(jù)時(shí)域和頻域特征的對(duì)比,可以檢驗(yàn)本文建議算法的性能。
圖7比較了測(cè)試者A在2.5 Hz的固定頻率下跳躍時(shí),經(jīng)過(guò)峰值歸一化的視頻目標(biāo)跟蹤結(jié)果和測(cè)力鞋墊記錄。從時(shí)域特征(圖7(a))看,測(cè)試者在10 s中總共有25次跳躍,目標(biāo)跟蹤算法成功捕捉了每次跳躍荷載脈沖對(duì)應(yīng)的加速度脈沖;從頻域特征(圖7(b))看,目標(biāo)跟蹤結(jié)果和測(cè)力鞋墊記錄的頻譜特征較為一致,頻譜峰值均集中在主頻2.5 Hz附近。可見(jiàn),本文建議的目標(biāo)跟蹤算法可以很好地捕捉跳躍者的運(yùn)動(dòng)信息。
5.2 時(shí)變協(xié)同性因子性能:階段差異
圖8對(duì)比了5個(gè)工況共10組三人跳躍實(shí)驗(yàn)的1 s時(shí)變協(xié)同性因子曲線(即Δt=1 s)與譚寰[13]提出的、針對(duì)跳躍全過(guò)程的時(shí)不變協(xié)同性因子,每組實(shí)驗(yàn)按“跳躍頻率?實(shí)驗(yàn)次數(shù)”來(lái)編號(hào)。表3則展示了各實(shí)驗(yàn)中跳躍過(guò)程的10~30 s時(shí)段(稱(chēng)為穩(wěn)定時(shí)段)內(nèi)協(xié)同性因子的統(tǒng)計(jì)結(jié)果。
結(jié)果顯示,當(dāng)跳躍引導(dǎo)頻率為1.5 Hz(過(guò)慢)或3.5 Hz(過(guò)快)時(shí),由于測(cè)試者難以長(zhǎng)時(shí)間維持該頻率的穩(wěn)定跳躍,因此圖8(a),(b),(i)和(j)展現(xiàn)出波動(dòng)劇烈且較低水平的協(xié)同性,其穩(wěn)定時(shí)段的協(xié)同性因子均值也較小,方差較大。當(dāng)跳躍引導(dǎo)頻率適中(2.0~3.0 Hz),時(shí)變協(xié)同性曲線表現(xiàn)相似的變化模式(圖8(c)~(h))。以最常見(jiàn),也是一般人最適應(yīng)的跳躍頻率2.0 Hz為例(圖8(c),(d)),曲線可分為三個(gè)階段:
(1)跳躍初始階段(0~5 s)。所有測(cè)試者從靜止?fàn)顟B(tài)開(kāi)始跳躍,并逐漸自我調(diào)整以適應(yīng)節(jié)拍頻率,此階段內(nèi)時(shí)變協(xié)同性因子曲線前期波動(dòng)顯著,后期逐步變大;
(2)穩(wěn)定跳躍階段(5~35 s)。所有測(cè)試者逐漸適應(yīng)節(jié)拍頻率,時(shí)變協(xié)同性穩(wěn)定且維持在很高水平(0.85~1.0);
(3)跳躍結(jié)束階段(gt;35 s)。由于測(cè)試者出現(xiàn)疲憊、預(yù)期跳躍即將結(jié)束等影響,出現(xiàn)跟不上節(jié)拍的情況,協(xié)同性因子曲線出現(xiàn)明顯波動(dòng)乃至下降。
顯然,對(duì)于多人協(xié)同跳躍的全過(guò)程,本研究提出的時(shí)變協(xié)同性因子能較好地解釋測(cè)試者在不同頻率的節(jié)拍引導(dǎo)下的表現(xiàn)差異。與本文提出的時(shí)變協(xié)同性因子相比,現(xiàn)有的時(shí)不變協(xié)同性因子是定義在整個(gè)跳躍過(guò)程上、平均意義上的參數(shù)。在如圖8(a),(b),(i)和(j)所示人群協(xié)同性波動(dòng)較為劇烈(表現(xiàn)為時(shí)變協(xié)同性因子ρ1s方差較大)的情況下,現(xiàn)有的協(xié)同性因子忽略了跳躍過(guò)程中人群協(xié)同性實(shí)際較大的危險(xiǎn)時(shí)段(例如圖8(a)中的5~30 s)。而在概述中提到的荷蘭奈梅亨體育場(chǎng)看臺(tái)坍塌的工程事故案例中,人群從開(kāi)始起跳到協(xié)同跳躍引發(fā)事故所經(jīng)歷的時(shí)間僅10 s左右。可見(jiàn),相較現(xiàn)有時(shí)不變的協(xié)同性因子,本文提出的時(shí)變協(xié)同性因子可更為全面地考慮人群跳躍協(xié)同性的變化及由此而來(lái)的結(jié)構(gòu)危險(xiǎn)狀態(tài)。
5.3 時(shí)變協(xié)同性因子性能:特定事件
圖9展示了2.5 Hz時(shí)的一次協(xié)同跳躍實(shí)驗(yàn)時(shí)變協(xié)同性的計(jì)算結(jié)果。在視頻第4.34 s,圖9左圖表明三位測(cè)試者還在適應(yīng)節(jié)拍,從測(cè)試者們的膝蓋狀態(tài)可見(jiàn)他們的動(dòng)作不同步,測(cè)試者A和C正屈膝起跳,而測(cè)試者B膝蓋伸直已接近離地,此時(shí)的1 s協(xié)同性因子僅為0.3226;在視頻第29.42 s,三位測(cè)試者已適應(yīng)了2.5 Hz的節(jié)拍引導(dǎo),跳躍動(dòng)作協(xié)同一致,對(duì)應(yīng)的1 s協(xié)同性因子為0.8726。這一結(jié)果表明,本研究提出的時(shí)變協(xié)同性因子可以準(zhǔn)確、定量地描述跳躍過(guò)程中各跳躍者間的協(xié)同性情況。
5.4 應(yīng)用場(chǎng)景
時(shí)變協(xié)同性因子反映人群跳躍過(guò)程中動(dòng)作一致性的實(shí)時(shí)變化,可應(yīng)用于服役期結(jié)構(gòu)的智能運(yùn)維和人群荷載模擬兩大場(chǎng)景。
以體育場(chǎng)館的看臺(tái)結(jié)構(gòu)運(yùn)維為例,在比賽或其他群體活動(dòng)時(shí),利用多目標(biāo)跟蹤技術(shù)由實(shí)時(shí)監(jiān)控視頻可獲取人群跳躍的運(yùn)動(dòng)軌跡,并計(jì)算人群跳躍的時(shí)變協(xié)同性,即可構(gòu)建基于協(xié)同性監(jiān)測(cè)的預(yù)警系統(tǒng)。具體應(yīng)用時(shí),先設(shè)定協(xié)同性因子閾值(如0.8, 0.9等),若監(jiān)測(cè)到當(dāng)前的協(xié)同性超限,則結(jié)構(gòu)可能處于“危險(xiǎn)時(shí)段”,需向管理者發(fā)出預(yù)警,提醒其引入人工干預(yù),從而防止不利振動(dòng)地持續(xù)擴(kuò)大。上述協(xié)同性監(jiān)測(cè)系統(tǒng)的工作機(jī)制如圖10所示,由于無(wú)需額外安裝和維護(hù)新的設(shè)備,只需利用場(chǎng)地既有的視頻監(jiān)控系統(tǒng)即可搭建,是一種低成本、輕量級(jí)的監(jiān)測(cè)方案,也可作為傳統(tǒng)的基于結(jié)構(gòu)響應(yīng)的安全性監(jiān)測(cè)系統(tǒng)的補(bǔ)充。當(dāng)然,應(yīng)用時(shí)對(duì)于密集人群的目標(biāo)跟蹤,還需要進(jìn)一步解決相互遮擋對(duì)軌跡獲取帶來(lái)的問(wèn)題。
人群荷載模擬方面,協(xié)同性因子是單人荷載到人群荷載的橋梁,本文提出的協(xié)同性因子將協(xié)同性的時(shí)變特性納入考量,可為人群荷載建模提供工具和思路。
6 結(jié) 論
既有的跳躍協(xié)同性因子既無(wú)法體現(xiàn)人群跳躍過(guò)程中個(gè)體差異的時(shí)變特性,也不具備工程結(jié)構(gòu)實(shí)時(shí)安全運(yùn)維價(jià)值。針對(duì)此問(wèn)題,本文提出了人群跳躍的時(shí)變協(xié)同性因子,并引入計(jì)算機(jī)視覺(jué)中的多目標(biāo)跟蹤技術(shù)作為監(jiān)測(cè)手段,通過(guò)5個(gè)頻率工況共10組的3人跳躍實(shí)驗(yàn),驗(yàn)證了時(shí)變協(xié)同性因子的合理性以及多目標(biāo)跟蹤技術(shù)的有效性,主要結(jié)論如下:
(1)提出的時(shí)變協(xié)同性因子可以準(zhǔn)確、定量地反映人群跳躍的協(xié)同性水平及其變化規(guī)律。
(2)YOLOv5+DeepSORT的多目標(biāo)跟蹤算法可以很好地捕捉測(cè)試者跳躍運(yùn)動(dòng)的時(shí)頻特征,進(jìn)而指示人群協(xié)同性的變化。
參考文獻(xiàn)
1
陳雋. 人致荷載研究綜述[J]. 振動(dòng)與沖擊, 2017, 36(23): 1-9. [百度學(xué)術(shù)]
Chen Jun. A review of human-induced loads study[J]. Journal of Vibration and Shock, 2017, 36(23): 1-9. [百度學(xué)術(shù)]
2
人民網(wǎng). 張惠妹演唱會(huì)萬(wàn)人High跳,民眾投訴住家嚴(yán)重振動(dòng)[EB/OL]. (2015-04-12).[2022-04-15]. http://tw.people.com.cn/n/2015/0412/c104510-26831002.html. [百度學(xué)術(shù)]
3
海峽網(wǎng). 謝天笑演唱會(huì)被叫停怎么回事?謝天笑演唱會(huì)被叫停始末詳情曝光[EB/OL]. (2018-11-05)[2022-04-15]. http://www.hxnews.com/news/yule/201811/05/1644541.shtml. [百度學(xué)術(shù)]
4
新華社. 荷蘭一體育場(chǎng)看臺(tái)下部垮塌,無(wú)人員受傷 [EB/OL]. (2021-10-18).[2022-04-15]. https://www.thecover.cn/news/8235030. [百度學(xué)術(shù)]
5
Racic V, Pavic A. Mathematical model to generate near-periodic human jumping force signals[J]. Mechanical Systems and Signal Processing, 2010, 24(1): 138-152. [百度學(xué)術(shù)]
6
Kasperski M, Agu E. Prediction of crowd-induced vibrations via simulation[C]. Proceedings of 2005 Conference and Exposition on Structural Dynamics(IMAC XXIII). Orlando, Florida, USA, 2005. [百度學(xué)術(shù)]
7
Sim J, Blakeborough A, Williams M S, et al. Statistical model of crowd jumping loads[J]. Journal of Structural Engineering, 2008, 134(12): 1852-1861. [百度學(xué)術(shù)]
8
陳雋, 王玲, 王浩祺. 單人跳躍荷載模型及其參數(shù)取值[J]. 同濟(jì)大學(xué)學(xué)報(bào)(自然科學(xué)版), 2014, 42(6): 859-866. [百度學(xué)術(shù)]
Chen Jun, Wang Ling, Wang Haoqi. Experimental investigation on single person's jumping load model and its parameters[J]. Journal of Tongji University(Natural Science), 2014, 42(6): 859-866. [百度學(xué)術(shù)]
9
Ellis B R, Ji T J. Loads generated by jumping crowds: numerical modelling[J]. Structural Engineer, 2004, 82(17): 35-40. [百度學(xué)術(shù)]
10
陳雋, 熊杰程. 跳躍荷載的功率譜模型研究[J]. 土木工程學(xué)報(bào), 2018, 51(9): 56-65. [百度學(xué)術(shù)]
Chen Jun, Xiong Jiecheng. Power spectral density model for human jumping load[J]. China Civil Engineering Journal, 2018, 51(9): 56-65. [百度學(xué)術(shù)]
11
Ebrahimpour A, Fitts L L. Measuring coherency of human-induced rhythmic loads using force plates[J]. Journal of Structural Engineering,1996, 122(7): 829-831. [百度學(xué)術(shù)]
12
Krizhevsky A, Sutskever I, Hinton G E. ImageNet classification with deep convolutional neural networks[J]. Advances in Neural Information Processing Systems, 2012, 25(2):84-90. [百度學(xué)術(shù)]
13
譚寰. 人群屈伸律動(dòng)荷載實(shí)驗(yàn)研究及隨機(jī)場(chǎng)建模[D]. 上海:同濟(jì)大學(xué), 2018. [百度學(xué)術(shù)]
Tan Huan. Experimental study and random field modeling on crowd bouncing load[D]. Shanghai: Tongji University, 2018. [百度學(xué)術(shù)]
14
Parkhouse J G, Ewins D J. Vertical dynamic loading produced by people moving to a beat[J]. The Shock and Vibration Digest, 2006, 38(3): 231-232. [百度學(xué)術(shù)]
15
Luo W H, Xing J L, Milan A, et al. Multiple object tracking: a literature review[J]. Artificial Intelligence, 2021, 293: 103448. [百度學(xué)術(shù)]
16
Horn B K P, Schunck B G. Determining optical flow[J]. Artificial intelligence, 1981, 17(1-3): 185-203. [百度學(xué)術(shù)]
17
Lucas B D, Kanade T. An iterative image registration technique with an application to stereo vision[C]. Proceedings of the 7th International Joint Conference on Artificial Intelligence, Canada, 1981. [百度學(xué)術(shù)]
18
Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Columbus, OH, USA, 2014: 580-587. [百度學(xué)術(shù)]
19
Redmon J, Divvala S, Girshick R, et al. You only look once: unified, real-time object detection[C]. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition. 2016: 779-788. [百度學(xué)術(shù)]
20
Hinton G, Deng L, Yu D, et al. Deep neural networks for acoustic modeling in speech recognition: the shared views of four research groups[J]. IEEE Signal Processing Magzine, 2012, 29(6): 82-97. [百度學(xué)術(shù)]
21
Devlin J, Chang M W, Lee K, et al. Bert: pre-training of deep bidirectional transformers for language understanding[J/OL]. arXiv preprint , 2018. https://arxiv.org/abs/1810.04805. [百度學(xué)術(shù)]
22
Ren S, He K, Girshick R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137?1149. [百度學(xué)術(shù)]
23
Bochkovskiy A, Wang C Y, Liao H Y. YOLOv4: optimal speed and accuracy of object detection[J/OL]. arXiv preprint, 2020. https://arxiv.org/abs/2004. 10934. [百度學(xué)術(shù)]
24
Redmon J, Farhadi A. YOLOv3: an incremental improvement[J/OL]. arXiv preprint, 2018. https://arxiv.org/abs/1804.02767. [百度學(xué)術(shù)]
25
Redmon J, Farhadi A. YOLO9000: better, faster, stronger[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, HI, USA, 2017: 7263-7271. [百度學(xué)術(shù)]
26
He K, Gkioxari G, Dollár P, et al. Mask R-CNN[C]. Proceedings of the IEEE International Conference on Computer Vision. Venice, Italy, 2017: 2961-2969. [百度學(xué)術(shù)]
27
Girshick R. Fast R-CNN[C]. Proceedings of the IEEE International Conference on Computer Vision. Santiago, Chile, 2015: 1440-1448. [百度學(xué)術(shù)]
28
Wojke N, Bewley A, Paulus D. Simple online and realtime tracking with a deep association metric[C]. Proceedings of the 2017 IEEE International Conference on Image Processing (ICIP). Beijing, 2017: 3645-3649. [百度學(xué)術(shù)]
29
Bewley A, Ge Z, Ott L, et al. Simple online and realtime tracking[C]. Proceedings of the 2016 IEEE International Conference on Image Processing (ICIP). Phoenix, AZ, USA, 2016: 3464-3468. [百度學(xué)術(shù)]