999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進AI-YOLO v4算法的施工現場安全預警技術研究

2023-10-20 11:30:54鐘源建劉添榮李卓亮
粘接 2023年10期
關鍵詞:特征檢測模型

鐘源建,劉添榮,李卓亮

(廣州電力工程監理有限公司,廣東 廣州 510660)

企業施工具有行業危險性與建筑工業復雜性的特點,這使得施工現場危險程度高,佩戴安全帽能夠有效降低安全事故的發生,而單純依賴于安全巡視員現場巡視和開展安全教育培訓是遠遠不夠的[1]。采用AI技術對施工現場實施安全監控,能有效提高工作效率。對安全帽檢測在天氣、光照強度等外界因素影響下出現的準確度低、漏檢率大、錯檢率高問題,在YOLO-ST中引入密集空間金字塔池化模塊,有效豐富了獲取目標中的細節信息,大大提高了檢測準確率[2]。結合安全帽數據集的目標尺度偏小、尺度分布不均衡問題,對SSD模型結構實施改進,添加了實施特征融合的分支網絡,使得安全帽佩戴檢測的準確率大大提升[3]。在傳統YOLO v4網絡中加入注意力機制模塊來對安全帽特征進行聚焦,對YOLO v4網絡進行改進,并與視頻監控相結合,提出了安全帽佩戴檢測模型,該模型對識別率為42幀/s,能夠有效滿足檢測的實時性要求[4]。采用AI算法對施工現場安全帽佩戴不合規實施預警,對降低員工安全事故具有一定的實際意義。

1 YOLO v4原理

YOLO算法是AI在目標檢測領域的重要算法。YOLO能夠在一次前向傳遞中直接預測目標位置與類別,具有比較高的檢測效率。YOLO v4作為YOLO系列的第4個版本,是基于深度學習的物體檢測算法,其采用卷積神經網絡端到端的檢測模型,通過多尺度特征與多層次特征融合來檢測物體,大大提升了物體檢測的精度和效率[5]。傳統網絡所采用的激活函數往往不能夠對物體圖像的梯度信息進行有效保留,造成物體檢測準確率不高。YOLO v4采用的是Mish激活函數,其數學表達式為[6]

(1)

Mish激活函數有上界無下界,避免了在網絡訓練過程中存在的梯度飽和問題,同時函數為非單調函數,穩定了網絡梯度流。Mish激活函數還具有無窮階連續性與光滑性,這使得網絡具有比較好的泛化能力。YOLO v4采用Mish激活函數使得檢測物體圖像的梯度信息得到保留,具有更好的平滑非線性特征,大大提升了模型的訓練學習能力。YOLO v4采用CSPDarknet53骨干網絡,具有比較高的精度和效率,其網絡結構如圖1所示[7]。

圖1 YOLO v4網絡結構

(1)輸入層:接受輸入的圖像數據;

(2)Convolutional Layers:一系列的卷積層用于提取圖像的特征。CSPDarknet53使用多個卷積層來實現不同尺度的特征提取[8];

(3)CSP Blocks:CSPDarknet53引入了CSP Block作為主要的特征提取模塊。CSP Block的設計采用了部分連接的思想,將輸入特征分成2個部分:其中一部分經過一系列的卷積操作;另一部分直接進行跨階段連接。通過這種設計,CSP Block能夠充分利用淺層和深層特征的信息,提高特征的表達能力;

(4)Residual Connections:CSPDarknet53在網絡中引入了殘差連接,將前一層的特征直接與后續層的特征相加,有助于信息的傳遞和梯度的流動;

(5)Downsample Layers:通過下采樣操作(如池化或卷積步長調整)來減小特征圖的尺寸,提取更高級別的特征[9];

(6)Upsample Layers:通過上采樣操作(如反卷積)來增加特征圖的尺寸,恢復較低級別的特征;

(7)最終特征層:網絡的最后一層輸出最終的特征圖,用于目標檢測和定位。

2 改進YOLO v4模型

YOLO v4在進行目標檢測是具有顯著的優勢,但是對存在大量重疊或者密集目標時,其可能會出現目標漏檢或者重復檢測的問題,這使得傳統的YOLO v4在處理大量重疊或密集目標時面臨巨大的挑戰[10]。另外,YOLO v4采用單個邊框來預測目標的位置與大小,這使得在處理復雜形狀或模糊邊界目標時往往存在邊界框和目標之間存在比較大的偏差。YOLO v4的缺陷使得其在施工現場安全帽檢測的過程中精度不高,需要進行模型的改進。

2.1 特定層插入注意力模塊

為了有效解決傳統YOLO v4模型對小目標、遮擋目標以及復雜背景下目標檢測精度低的問題,引入SENet(Squeeze-and-Excitation Network)注意力機制,通過學習通道間的依賴關系來自適應地調整特征圖的通道權重[11]。SENet主要包括Squeeze操作、Excitation操作以及Scale操作。Squeeze操作,即特征壓縮操作,用來降低輸入特征圖的維度,達到減少模型計算復雜度的目的。通過Squeeze操作提取全局統計信息,捕捉通道間的相關性,其數學表達式為:

(2)

Excitation操作是通過一系列全連接層或卷積層來學習通道間的依賴關系,并生成一個通道權重向量,通過激活函數和非線性變換來建模通道之間的相互關系。Scale操作是將通道權重向量乘以原始的特征圖,以加權增強特征圖中的每個通道。通過自適應地調整通道的權重,重要特征得到了更多的關注,而不重要的特征則被抑制[12]。圖2為SENet模塊。

圖2 SENet模塊

2.2 邊界框回歸損失函數

邊界框回歸損失函數是目標檢測任務中用于度量預測邊界框與真實邊界框之間差異的損失函數,常常采用交并比(IoU),其數學表達式為[13]:

(3)

式中:A為真實標定框;B為預測候選框。

很明顯,如果A∩B=?,那么交并比為0,無法進行網絡訓練[14]。結合前人的研究成果,對其進行改進,定義邊界框回歸損失函數(GIOU)為:

(4)

式中:C為包含A和B的最小框。

很明顯所定義的邊界框回歸損失函數沒有考慮真實標定框和預測候選框中心的距離,對其進行修正,提出新的邊界框回歸損失函數,即:

(5)

式中:b、bgt分別為預測框與真實框的中心點;ρ(b,bgt)為預測框與真實框中心點歐氏距離;c為預測框與真實框相交矩形區域對角線長度;ωgt、ω分別為真實框、預測框的寬度;hgt、h分別為真實框、預測框的高度。

2.3 學習策略

采用多候選框學習策略,即在初始的待檢測目標候選框基礎上,通過整合目標的位置信息和分類置信度信息來優化候選框的位置和分類置信度。在多候選框學習策略迭代的過程中不斷地優化損失函數,并優化候選框參數,提升目標檢測的準確性,使得最終選出的候選框具有更高的置信度并更接近目標的真實位置[15]。

(1)將待檢測目標(施工現場員工人頭)的候選框構成數組Ai,計算候選框分類置信度和位置信息,計算公式為:

(6)

從數組Ai中選取分類置信度和位置得分最高的候選框,使用其相關信息更新模型參數。

(2)為了獲取更準確的分類置信度和位置得分,采用當前計算模型來計算數組Ai中候選框的分類置信度與位置。

(3)通過多次迭代上述步驟,不斷更新模型參數并重新評估候選框的分類置信度和位置,從而得到最優的安全帽佩戴檢測候選框信息。

選擇深化方法是一種對抗過程,包括候選框選取、特征學習、迭代執行,通過選擇和深化候選框來不斷優化最終得到問題的最優解。選擇深化方法的過程是首先選出分類置信度和位置得分較高的候選框,然后通過深化方法來學習未被選中的候選框中的特征。在迭代的過程中不斷地重復選擇與深化,從而達到逐步逼近最優解的目的。

3 實例分析

3.1 數據來源

數據來源于開源的安全帽數據集(SHWD),在該數據集中有7 581張圖片,其中正樣本(佩戴安全帽)個數為9 044,負樣本(未佩戴安全帽)個數為111 514,正負樣本比例近似為1∶12[16]。正負樣本個數差距非常大,容易導致模型預測結果偏向于負樣本分類,降低預測模型的泛化能力。為增加正樣本數量,在SHWD數據集中增加4 000張施工現場佩戴安全帽的圖像,并采用LabeLImg手動標注新增圖像工人佩戴安全帽情況,共標注了18 326個佩戴安全帽的樣本。

3.2 結果分析

在電腦上開展試驗,電腦處理器為Intel(R) Core(TM) i5-10300H CPU @ 2.50GHz,操作系統為Windows 10 家庭中文版。各方法均采用PyTorch深度學習框架[17],設定最大迭代次數為200,學習率為0.014,同時采用等間隔方法調整學習率。將本文算法和YOLO v2[18]、YOLO v3[19]、YOLO v4[20]進行性能對比,對比結果如表1所示。

表1 算法性能對比

由表1可知,本文所提出的算法是對YOLO v4的改進,在特定層插入注意力模塊,這使得全類平均正確率(mAP)數值得到了明顯提升。相對于YOLO v2、YOLO v3、YOLO v4,改進的YOLO v4計算量最大,但是依舊可以滿足視頻監控實時檢測幀率大于30幀/s的需求,同時也確保了施工現場安全帽佩戴檢測準確性的大大提升。損失函數對目標檢測的效果具有重要影響,分析不同損失函數的影響,結果如圖3所示。

圖3 不同回歸損失函數訓練過程

由圖3可知,采用IoU回歸損失函數mAP值為82.3%;采用GIoU回歸損失函數mAP值為86.7%,采用CIoU回歸損失函數mAP值為94.6%,即采用CIoU回歸損失函數的目標檢測性能最佳。同時,采用CIoU回歸損失函數相對于IoU、GIoU回歸損失函數,其收斂效率更高且更容易區域穩定。

對比采用多候選框策略和未采用多候選框策略,結果表明:當采用多候選框策略時,其mAP為97.8%;未采用多候選框策略時,其mAP為92.6%,即采用多候選框策略大大提升了目標檢測的性能。未采用多選候選框策略出現了漏檢,采用多候選框策略不僅提升了施工現場安全帽佩戴的檢測性能,同時也可以有效避免漏檢的出現。

4 結語

施工現場安全帽預警直接關系到施工現場工人的生命安全,提出了基于改進YOLO v4的工人安全帽佩戴檢測算法。改進的YOLO v4在特定層插入注意力模塊,定義了新的邊界框回歸損失函數,同時采用多候選框學習策略。將提出的安全帽佩戴檢測模型應用于安全帽數據集SHWD,結果表明所提出的改進模型能夠快速、準確檢測施工現場工人佩戴安全帽情況,同時發出預警,這對降低施工現場安全管理成本,提升安全管理質量具有一定的參考價值。

猜你喜歡
特征檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 国产精品美女免费视频大全| 亚洲一区波多野结衣二区三区| 91精品国产无线乱码在线| 97se综合| 影音先锋丝袜制服| 在线观看国产精美视频| 97国产精品视频自在拍| 狠狠亚洲婷婷综合色香| 国外欧美一区另类中文字幕| 国产精品三级专区| 免费人成在线观看成人片| 欧美一级高清片欧美国产欧美| 国产精品亚洲一区二区三区在线观看| 亚洲日韩欧美在线观看| 国产成人精品第一区二区| 手机成人午夜在线视频| 亚洲成人网在线观看| 久久久久久尹人网香蕉 | 国产精品久久久久无码网站| 国产成人精品一区二区秒拍1o | 亚洲综合专区| 亚洲中文字幕久久精品无码一区| 五月天香蕉视频国产亚| 九九热免费在线视频| 久久亚洲国产视频| 国内精品自在欧美一区| 亚洲欧美精品在线| 亚洲开心婷婷中文字幕| 欧美国产日韩一区二区三区精品影视| 中文字幕乱码二三区免费| 免费看美女自慰的网站| 久久久久亚洲AV成人网站软件| 欧美日本在线观看| 日韩小视频在线观看| 精品福利网| 日本不卡在线| 国产十八禁在线观看免费| a级毛片网| 青青青国产视频手机| 亚洲国产精品一区二区第一页免| 亚洲第一成年免费网站| 熟妇无码人妻| 五月天久久综合国产一区二区| 最新国产成人剧情在线播放| 在线精品亚洲一区二区古装| 亚洲综合在线最大成人| 91香蕉视频下载网站| 四虎国产在线观看| 国产无码性爱一区二区三区| 国产成人精品综合| 久久精品视频亚洲| 国产精品偷伦视频免费观看国产| 精品久久久久成人码免费动漫| 精品少妇人妻av无码久久| 國產尤物AV尤物在線觀看| 亚洲人成色在线观看| 99久久性生片| 欧美无遮挡国产欧美另类| 久久婷婷五月综合色一区二区| 亚洲婷婷丁香| 久久99国产综合精品女同| 国产剧情无码视频在线观看| 波多野结衣二区| 91成人在线免费视频| 久久免费看片| 欧美区国产区| 国产福利一区二区在线观看| 小13箩利洗澡无码视频免费网站| 午夜爽爽视频| 中文字幕在线看| 午夜电影在线观看国产1区| 亚洲男人天堂久久| 97人妻精品专区久久久久| 国产在线视频导航| 亚洲V日韩V无码一区二区 | 欧美黄色a| 日本在线亚洲| 日韩亚洲高清一区二区| 久久久精品久久久久三级| 亚洲无限乱码一二三四区| 日本黄色不卡视频| 18禁色诱爆乳网站|