IMAGEPARSING-BASEDAUTONOMOUSDRIVING OBSTACLEAVOIDANCESYSTEMFORLOCOMOTIVES
Liu He1Wang Yanwei1Hou Jian2Zhang Kun3LiHuabei3Qi Shuo3 (1.Tangshan Huitang IOT Technology Co.,Ltd.TangshanO63009, China; 2.Hegang Digital Technology (Tangshan) Co.,Ltd.TangshanO63OO9, China; 3.Tangshan Iron and Steel Group Co.,Ltd.Logistics BranchTangshanO63009,China)
Abstract:Thisarticle introduces algorithms such as machine vision,industrial Internetof Things,anddeeplearning into the obstacleavoidance system for unmanned locomotives.The Yolov8m algorithmis adopted to detectobstacles around therailwaytracks.Theopticalflowalgorithmisusedtopredictthecollision timebetweenthelocomotiveand the obstacles.Furthermore,the types ofobstacles andcollsion events arefed back as inputs tothe vehiclecontrolunit.The vehiclecontrolunit makescontroldecisionsbasedonthedetectionresultsandsends them tothe actuators toachieve the obstacle avoidance function.The obstacle avoidance system has passed on-site tests,which has improvedthesafetyand reliabilityoflocomotive autonomous driving and isof great significanceforsolvingtheoptimized schedulingoflogistics atthe ironand steel interface.
Key words:machine vision; YOLOv8; optical flow method; obstacle avoidance system
0前言
2024年12月,工信部等三部委印發的《制造業企業數字化轉型實施指南》中無人倉儲及智能物流典型場景應用中,支持企業基于模型算法開展貨物裝載、卸載、搬運的路徑優化,提高倉儲物流效率。此外,多部委還聯合發布了《關于進一步降低物流成本實施意見的通知》和《關于促進鋼鐵工業高質量發展的指導意見》等文件,指出要結合鋼鐵工業調整升級規劃,以智能制造為重點,構建新型現代化鋼鐵企業,實現鋼鐵產業智能化、綠色化的可持續發展。
在冶金制造流程中,“界面”技術[1-2]在全流程物質流、能量流優化中起到了關鍵作用,鐵鋼界面物流調度、優化以及智能化改造對于“雙碳目標”在鋼鐵制造業的深化具有重要意義[3-4]。無人機車將深度學習、人工智能、工業物聯網與“界面”技術結合,在鐵鋼界面實現鐵水運輸的無人化、智能化,實現了節能、減碳、降低成本、提升數智化等目標。
機車牽引數量不等的鐵水包車在高爐與轉爐之間運輸鐵水,高爐容量和位置、轉爐容量和位置等參數固定,通過對鐵水車路徑的優化,實現鐵水在從高爐運往轉爐的過程中的能量損失最小,實現節能減碳目的。在此基礎上,機車自動駕駛通過引入機器視覺、深度學習、工業物聯網技術,實現了障礙物目標檢測[5-及識別、智能化輸出避障策略等關鍵目標。
本文引入機器視覺,結合深度學習目標檢測算法,實時檢測機車前進方向及兩側區域的障礙物;通過光流法對圖像序列進行處理,預測障礙物的碰撞時間,為后續避障策略的制定提供可靠依據,本方案有效保障了鐵水運輸過程中機車自動駕駛的安全運行。
1系統設計
機車自動駕駛避障系統原理如圖1所示。攝像頭等多傳感器在機車行駛過程中將檢測到的視頻、雷達等信號反饋給車控單元,車控單元綜合機車當前位置、速度、障礙物目標檢測結果、碰撞時間預測結果等參數分析機車周圍的環境信息,包括軌道狀況、障礙物種類及距離,生成精準的控制策略及指令下發至執行單元。執行單元根據指令精確控制機車的前進、后退、停止以及調節幅度,確保機車運行的平穩性和安全性。
圖1無人鐵水運輸車控制原理

機車自動駕駛避障系統包含三個模塊:障礙物目標檢測及識別、碰撞時間預測、控制決策制定及執行,三個模塊協同工作實現對無人機車的安全、高效運行。
2障礙物檢測
2.1 數據集建立
本文的障礙物圖像數據集來源于安裝在機車上的攝像頭,收集并整理高爐下、轉爐區以及二者區間的廠區原始圖像,使用labelimg工具進行對應的數據標注,建立障礙物數據庫,為訓練模型提供數據基礎。
2.2 YOLOv8目標檢測算法原理
障礙物檢測包括障礙物的識別及分類,基于深度學習YOLO(YouOnlyLookOnce)算法以其快速高效的優點廣泛應用于實時目標檢測任務。本文選用 YOLOv8[7] 作為障礙物檢測的深度學習模型,網絡結構如圖2所示,其模型包括三個部分:骨干網絡包括Conv、C2f 和SPPF(SpatialPyramidPoolingFusion)結構通過殘差特征學習和分支跨層連接用于訓練和推理,模型整體具有高精度目標識別及分類能力;頸部網絡采用路徑聚合網絡實現不同尺度特征的融合;頭部網絡利用卷積神經網絡進行特征提取。
圖2YOLOv8網絡結構

YOLOv8中的 YOLOv8m 在速度和準確性之間實現了平衡。與YOLOv8s(小模型)相比,YOLOv8m擁有更多的參數和更高的計算復雜度,因此在準確性上有所提升,能夠更好地捕捉和識別復雜的目標特征。同時,由于輕量化的提升,使得YOLOv8m推理速度也具有較大優勢。因此,本文設計的障礙物檢測模型是基于PyTorch框架的YOLOv8m模型。
2.3 功能實現
障礙物檢測是實時檢測機車前進方向及軌道兩側的障礙物,避免碰撞危險發生。在鐵水運輸過程中,障礙物主要包括作業區域內的人員、闖入道口的車輛以及大型工具,且只有在鐵軌內及兩側1.5m 左右的范圍內,障礙物才會對機車作業造成影響。因此,障礙物檢測功能的實現可分為兩個階段:第一階段是對機車車載相機拍攝到的圖像進行障礙物檢測,識別出圖像中的所有障礙物;第二階段則是對檢測結果進行后處理,利用幾何方法判斷作業區域內是否存在障礙物。第一階段利用訓練得到的 YOLOv8m 模型來實現障礙物的檢測;第二階段將判斷障礙物是否位于鐵軌內及兩側的區域轉化為判斷檢測框的兩個頂點是否位于多邊形構成的預警區域內,即通過判斷點與圖形的空間關系來實現。
具體而言,在第二階段,針對頂點與多邊形位置關系的判斷,將檢測框的頂點沿X軸和Y軸分別延伸后得到兩條直線。如果頂點位于多邊形內,這兩條直線必然會與多邊形相交;若沒有交點,則頂點位于多邊形外部。為了確保整個駕駛過程的安全性,只要檢測框中有一個頂點位于預警區域內,即認為該區域存在障礙物,并執行后續檢測。
3碰撞時間計算
3.1基于光流算法的碰撞時間計算原理
光流是計算機視覺中用來估計圖像中物體運動的方法,它通過分析連續幀之間的像素變化來推斷物體的運動方向和速度。基于梯度的HS光流法[假設同一物體上某一點的像素強度在相鄰幀間變化不大,并且像素點在短時間內的位移較小,在此假設下,光流的基本約束公式:
Et+Exu+Eyv=0
式中, u 和 ρV 為光流場中某點光流在時刻下的水平和垂直速度分量。
為了保證光流的連續性和光滑性,增加全局平滑約束條件:

式中, λ 為權重系數,用于消除圖像中噪聲的影響,使用差分法求出HS算法的迭代公式:


式(3)、(4)中, Ωn 為迭代系數,
和
為( ui 和 vi )點在圖像位置 i 時的局部平均速度。
在相機沿光軸運動的情況下,光流場中的延伸點(FOE,FlowofExpansion)處沒有光流,而其周圍的點光流方向則呈向外擴散,且距離FOE點越遠,光流值越大,選取光流場中幅值最小的點作為FOE點的坐標,可以計算機車與障礙物發生碰撞的預估時間,即碰撞時間(TTC,Time toCollision),計算公式如下:

式中, σX 和 y 為光流場中某個像素點的坐標,XF0E ! yF0E 為FOE點的坐標,
分別為點的水平分量和垂直分量。
3.2計算障礙物碰撞時間
實時計算機車與障礙物的碰撞時間是精準避障的核心。通過解析含障礙物的視頻幀序列,并基于像素強度時域變化構建光流場,動態追蹤障礙物的運動軌跡。結合機車實時運動參數(包括速度、載重及慣性特征),通過光流位移矢量分析準確推算障礙物與機車的時空演化關系,最終計算出最小安全時間閾值,為自動駕駛系統制定避障控制策略提供關鍵依據。
具體而言,本文將障礙物檢測模型識別到障礙物的視頻幀作為光流場的輸入。從式(3)、(4)可以看出,光流場的求解是一個需要多次迭代的耗時過程。為提升碰撞時間計算精度和減少時間消耗,本文采用兩階段計算框架:第一階段,基于目標檢測輸出的檢測框構建自適應掩膜,消除非目標區域的光流干擾;第二階段引入動量加速策略[],在光流迭代過程中加入動量因子,通過動態調整迭代步長,減少計算時間,改進后的計算方法如下:


式(6)、(7)中, u 為范圍在0~1之間固定值。
4決策制定
決策制定是根據碰撞時間和機車的運行狀態動態調節,主要涉及機車的加速和減速。本文設計的系統通過碰撞時間的變化來調節機車的運行速度,具體控制邏輯如圖3所示,當 TTCgt;T2 時,表示機車與前方障礙物的碰撞時間大于安全時間,此時機車保持當前速度行駛并進行鳴笛警示;當T2 時,表示機車與前方障礙物的碰撞時間小于安全時間但大于最小安全時間,此時機車需要降速并長時間鳴笛示警;當 TIC
圖3無人鐵水運輸車避障策略

5系統測試
為驗證避障系統性能,本研究在某大型鋼鐵企業開展了現場測試。
5.1障礙物檢測
目標檢測模型的預測輸出中通常包含大量物體邊界框,但并非所有檢測框都能準確定位目標對象。在目標檢測中,交并比(IntersectionoverUnion,IoU)作為評估目標定位精度的核心指標,其數值反映了預測框與真實標注框的空間重合程度。本文采用0.5作為IoU判定閾值:當檢測結果的IoU值高于該閾值時視為有效檢測,低于該閾值的檢測結果則被視為誤檢。
為系統評估不同模型的檢測性能,本文在保持試驗條件一致性的前提下,除基準模型YOLOv8外,還基于相同數據集對Faster-RCNN和YOLOv5模型進行了對比訓練。所有模型均采用標準化參數配置:置信度閾值與IoU閾值均設置為0.5。各模型在此參數設置下的性能對比數據詳見表1。
表1檢測算法效果對比

通過測試結果可以看出,本文采用的YOLOv8m網絡模型在識別準確度mAP和識別速度FPS上均超過了FasterR-CNN和YOLOv5m。與此同時,與 Υ0LOv5m 算法相比YOLOv5s,雖然在速度上略微降低,但是在鐵水運輸中更加敏感的障礙物識別精度方面有更好的表現。圖4為實際測試效果。
圖4障礙物檢測效果

5.2 碰撞時間計算
視頻幀序列采用對非目標區域進行掩碼操作,如圖5所示,以此來消除外界環境的影響,然后利用HS光流法計算機車前進方向的光流場。
圖5光流場圖像

在測試中,采用固定障礙物作為測試對象,即試驗者固定站立于軌道旁。機車以恒定速度 5km/h 沿軌道勻速行駛。圖5a為初始狀態即第一幀圖像,障礙物檢測模型成功檢測到障礙物,并隨即啟動光流檢測。此時,機車與障礙物之間的距離約為 8.7m 圖5b和圖5c分別為檢測到障礙物后的第3幀和第5幀的光流圖像,光流場清晰地表示了機車的前進方向。對于圖5b,利用相關公式計算得出的碰撞時間為 6.20s 。根據機車的行駛速度,可以推算出此時機車與障礙物的距離約為 8.61m 。同樣地,對于圖5c,計算得到的碰撞時間為6.11s,對應的機車與障礙物距離約為 8.49m 0
本次試驗中的相機的幀率為25幀/s,因此每兩幀之間的時間間隔為 0.08s ,移動距離約為0.11m ,碰撞時間誤差率小于 2% 。通過測試結果可以看出,光流檢測能夠準確地反映機車的行駛方向,從而實現對碰撞時間的預測。此外,通過結合相機幀率和機車運行速度推算的機車移動距離,進一步驗證了光流檢測方法的準確性。
6結語
本文提出了一個機車自動駕駛避障系統,適用于鐵鋼“界面”中鐵水運輸無人化操作。該系統包含兩個核心技術模塊:1)基于自主構建的冶金工業場景障礙物數據集,開發了基于YOLOv8的障礙物檢測模型;2)使用改進的Horn-Schunck光流場算法,實現障礙物碰撞時間的精確估計。測試結果表明,該系統在冶金工業場景中障礙物識別準確率為 96.8% ,碰撞時間誤差率小于 2% ,提升了鐵水運輸過程中自動駕駛的安全性。
參考文獻
[1]潘苗苗,韓偉剛,石焱,等.鐵鋼界面鐵水溫降行為的研究現狀[J].河北冶金,2023(11):1-6.
[2]韓偉剛,沙遠洋,陸凱,等.高爐-轉爐界面鐵水包周轉優化潛力分析[J].河北冶金,2021(9):11-16.
[3]李子陽.鐵鋼界面增效降耗分析與解決方案[J].冶金自動化,202448(S1): 367-370.[4]何姝靜,鄭忠,朱道飛,等.鐵鋼界面多模式運輸的機車調度計劃智能優化[J].鋼鐵,2024,59(4):188-199.[5]鄒軍,張世義,李軍.基于深度學習的目標檢測算法綜述[J].傳感器世界,2023,29(8):9-15.[6]陳憶憫,李萬益,翁漢銳,等.基于深度學習的兩階段目標檢測算法綜述[J].信息與電腦(理論版),2023,35(14):112-114.[7]R.Varghese and S.M.YOLOv8:A Novel Object DetectionAlgorithmwith Enhanced Performance and Robustness[A].2O24 InternationalConference on Advances in Data Engineering and Intelligent ComputingSystems(ADICS)[C].Chennai,India,2O24:1-6.[8]HornBKP,SchunckBG.Determiningoptical Flow[J].ArtificialIntel Ligence,1981,11(1-3): 185-203.[9]Sazbon D,Rotstein H,Rivlin E.Finding the Focus of ExpansionandEstimatingRangeUsingOptical Flow Imagesand aMatched Filter[J].2004,15(4):229-236.[10]陳至坤,曾凱,RAMANParanjape,等.一種改進的HS光流法在機器人避障系統中的應用[J].科學技術與工程,2017,17(4):234-238.