999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于 FCOS 和 ResNet50-FL 的吊弦不受力識別方法

2021-04-02 05:58:52彭繼慎閆云鳳齊冬蓮
鐵道學報 2021年10期
關鍵詞:分類檢測模型

陳 強, 彭繼慎, 閆云鳳, 齊冬蓮

(1.浙江大學 電氣工程學院,浙江 杭州 310027;2.遼寧工程技術大學 電氣與控制工程學院,遼寧 葫蘆島 125105)

在電氣化鐵路行業中,吊弦對接觸網的穩定運行起著至關重要的作用。在鏈型懸掛中,接觸線通過吊弦懸掛在承力索上,通過調節吊弦長度保證接觸懸掛的結構高度和接觸線高度,從而改善接觸懸掛的彈性,提高受電弓的受流質量。然而,受電弓與懸鏈線之間存在復雜的機械和電氣相互作用,這不可避免地導致受電弓接觸網系統的高缺陷率,并嚴重影響操作安全性。由于長期操作中的振動和激勵導致吊弦松脫變形不受力,會影響接觸懸掛的結構高度和接觸線高度,導致受電弓受流質量下降,對整個系統造成不可避免的損害。

為及時發現不受力吊弦,保障高速鐵路接觸網穩定運行,構建高速鐵路供電安全檢測監測系統,結合接觸網懸掛狀態檢測監測裝置獲得的高清圖像,通過離線讀取捕獲圖像中的大量數據,手動檢測缺陷。

但是,隨著高速鐵路的大規模建設,中國電氣化鐵路的總里程已超過 10 萬km,通過人工讀取檢測缺陷顯然不太可能,工作人員很容易視覺疲勞,并相應地遺漏一些缺陷。

近年來,隨著計算機視覺技術的快速發展,基于圖像處理技術的接觸網零部件缺陷識別方法由于安全性高、行車干擾小等優勢,在接觸網缺陷識別中獲得越來越廣泛的應用[1]。文獻[2]通過 Hough 變換對采集到的接觸網圖像中的直線特征進行提取,根據 AdaBoost 算法找出能夠代表支柱的直線,從而確定定位器的位置。文獻[3]提出一種基于局部特征描述的統計模式識別算法和螺釘灰度分布規律的圖像檢測方法,檢測斜撐套筒的螺釘松脫與脫落。文獻[4]采用 Hough 直線檢測初定位開口銷,PBoW 模型對初定位圖片進行分類,SIFT 算法細定位開口銷,使用 Hough 累加矩陣實現多位置開口銷不良狀態的同時檢測。以上基于傳統機器學習的方法由于需要人工設計特征,魯棒性較差,具有較大的局限性。得益于深度卷積神經網絡 (Deep Convolutional Neural Network,DCNN) 在計算機視覺方面的重大突破,越來越多的文章采用基于 DCNN 的深度學習方法進行缺陷檢測。文獻[5]分3個階段實現等電位線松散故障自動檢測,采用卷積神經網絡提取等電位線特征,基于馬爾可夫隨機場模型進行圖像分割,通過分析獨立連接區域的數量和像素的標準偏差給出故障狀態。文獻[6]采用3個階段實現接觸網支撐裝置上的緊固件自動缺陷檢測,先用 SSD 對緊固件進行粗定位,然后用 YOLO 對緊固件細定位,最后采用分類網絡進行缺陷識別。以上兩種方法由于流程復雜,階段繁多,很難在實際應用中推廣。文獻[7]采用級聯的Faster R-CNN 對高鐵接觸網支撐裝置上的等電位線進行故障檢測。Faster R-CNN 本身是一個兩階段的目標檢測框架,級聯兩個 Faster R-CNN 進行故障檢測顯得略微臃腫,而且速度不夠高,難以達到實時的要求。

本文針對接觸網吊弦不受力的缺陷識別問題,提出一種基于深度學習的吊弦不受力識別方法。該方法分為兩階段:第一階段通過 FCOS[8]對高速鐵路接觸網圖像中的吊弦區域進行檢測定位;第二階段通過添加焦點損失[9](Focal Loss,FL)的ResNet50[10]分類網絡(ResNet50-FL),對檢測定位到的吊弦進行分類識別,獲得吊弦不受力的圖像。

1 方法描述

本文提出方法的整體流程如圖 1 所示。其中輸入圖片固定尺寸為 1 024×800,送入 FCOS 檢測網絡定位吊弦的位置,從圖中提取 (crop) 出吊弦區域并縮放 (resize) 為固定尺寸 224×224,送入添加焦點損失的 ResNet50 分類網絡獲取吊弦的狀態——正常(受力)或異常(不受力)。

圖1 識別方法的整體流程

1.1 吊弦定位

采用FCOS吊弦定位算法,其網絡架構如圖2所示。圖2中,C3、C4、C5 表示主干網絡的特征圖,P3—P7 是用于最終預測的特征層。H×W是特征圖的高度和寬度。s(s= 8,16,…,128) 是特征圖相對于輸入圖像的下采樣率。首先用全卷積神經網絡(Fully Convolutional Neural Network,FCN)[11]代替卷積神經網絡(Convolutional Neural Network,CNN) 重新構造目標檢測器;然后說明如何利用多級預測來提高召回率并解決邊界框重疊導致的歧義;最后介紹中心度 (Center-ness) 分支,該分支有助于抑制檢測到的劣質邊界框并大幅度提高整體性能。

圖2 FCOS 網絡架構

1.1.1 全卷積一階段目標檢測器

對于特征圖Fi的每個位置 (x,y),可以將其映射到輸入圖像 (?s/2」+xs,?s/2」+ys) 上,該位置靠近特征圖接收域的中心。位置 (x,y) 與基于錨的檢測器不同,后者將輸入圖像上的位置視為多個錨框的中心,并以這些錨框作為參考回歸目標邊界框,直接在該位置回歸目標邊界框。換句話說,檢測器直接將位置視為訓練樣本,而不是像基于錨的檢測器那樣,將錨框視為訓練樣本。

具體來說,如果位置 (x,y) 落入任何一個真實框內且該位置的類別標簽c是真實框的類別標簽,則將其視為正樣本。否則,它是一個負樣本,即背景類,并且c= 0。除了分類標簽外,還有一個四維實向量T*=(l*,t*,r*,b*) 作為位置的回歸目標。l*、t*、r*、b*為位置到邊界框4個邊的距離,如圖 3 所示。如果某個位置落入多個邊界框,則將其視為模棱兩可的樣本。只需選擇面積最小的邊界框作為回歸目標。如果位置 (x,y) 與邊界框Bi相關聯,則該位置的訓練回歸目標為

圖3 FCOS 預測的四維實向量含義

( 1 )

1.1.2 使用 FPN 進行 FCOS 的多級預測

根據 FPN[12],在不同級別的特征圖上檢測到不同大小的目標。具體來說,使用了定義為 {P3,P4,P5,P6,P7}5個級別的特征圖。P3、P4、P5 由主干 CNN 的特征圖 C3、C4、C5 后跟 FPN 中具有自上而下連接的 1×1 卷積層生成,如圖 2 所示。P6 和 P7 通過在 P5 和 P6 上分別應用步長為 2 的一個卷積層來實現。結果,特征層 P3、P4、P5、P6 和 P7 的步長分別為 8、16、32、64 和 128。

與基于錨的檢測器不同,后者將不同大小的錨框分配給不同的特征級別,FCOS 直接限制了每個級別的邊界框回歸的范圍。具體包括以下步驟:

Step1計算所有特征級別上每個位置的回歸目標l*、t*、r*和b*。

Step2如果位置滿足 max(l*,t*,r*,b*)>mi或 max(l*,t*,r*,b*)

1.1.3 FCOS 的中心度

在 FCOS 中使用多級預測后,FCOS 和基于錨的檢測器之間仍然存在性能差距。這是由于遠離目標中心的位置產生了許多低質量的預測邊界框,因此提出一種簡單而有效的策略來抑制這些低質量的預測邊界框,而無需引入任何超參數。具體來說,添加一個與分類分支 (如圖 2 所示) 平行的單層分支,以預測目標的中心度。中心度描述了從當前位置到該位置所負責的目標中心的標準化距離。給定位置的回歸目標l*、t*、r*和b*,中心度的定義為

( 2 )

中心度的范圍是 0~1,采用二進制交叉熵損失進行訓練。測試時,通過將預測的中心度乘以相應的分類分數來計算最終分數,用于對檢測到的邊界框排名。因此,中心度可以降低遠離目標中心邊界框的分數。結果,這些低質量的邊界框很有可能被最終的非極大值抑制(Non-Maximum Suppression,NMS)過程濾除,從而提高檢測性能。

1.2 吊弦缺陷識別

吊弦缺陷識別采用添加焦點損失的 ResNet50 分類網絡。ResNet50 分類網絡在圖像分類任務中取得了重大突破。但是,由于吊弦缺陷樣本與正常樣本的不均衡,ResNet50 分類網絡不能準確地定位到正負樣本之間具有判別性的區域,因此,引入焦點損失進行難負樣本挖掘,更準確地定位正負樣本之間具有判別性的區域。

1.2.1 交叉熵損失

交叉熵 (Cross Entropy,CE) 損失的定義為

( 3 )

式中:y∈{0,1},指定了地面真值的類別,并且p∈[0,1] 是模型對于標簽y= 1 的類的估計概率。為方便起見,定義pt為

( 4 )

把式( 4 )代入式( 3 )有

CE(p,y)=CE(pt)=-lg(pt)

( 5 )

交叉熵損失的一個顯著特性是,即使是易于分類的樣本 (pt?0.5) 也會導致較大的損失。如果將大量簡單的樣本相加,這些損失值可能會使稀有類別不堪重負。

1.2.2 平衡交叉熵損失

解決類別不平衡的常用方法是引入一個加權因子α∈[0,1] 用于類別 1,1-α用于類別 0。定義αt為

( 6 )

可將α平衡的交叉熵損失表示為

CE(pt)=-αtlg(pt)

( 7 )

1.2.3 焦點損失

α平衡的交叉熵損失雖然平衡了正負樣本的重要性,但并沒有區分簡單和困難的樣本。因此,將損失函數重塑,減輕其對簡單樣本的關注度,從而將訓練重點放在難負樣本上。即為交叉熵損失添加一個調制因子 (1-pt)γ,其焦點參數γ可調且γ≥0。將焦點損失定義為

FL(pt)=-(1-pt)γlg(pt)

( 8 )

焦點損失與交叉熵損失相比具有以下兩個屬性:

(1)當樣本分類錯誤且pt較小時,調制因子接近1,并且損失不受影響。當pt→1因數變為0,降低了分類良好的樣本損失。

大多數剖腹產手術患者因對手術了解不充分,存在緊張、焦慮、恐懼等不良心理,非常不利于術后康復。因此,護理人員要將手術的相關知識及手術注意事項向患者詳細的講解,協助做好術前各種檢查;指導患者學會有效咳嗽,避免震動傷口;同時,認真傾聽患者的主訴,給予細致的解答,盡量滿足她們的訴求,給予親人般關心和安慰,消除她們術前、術中、術后各種不良情緒,樹立樂觀的心態,積極配合臨床治療與護理,爭取早日康復。

(2)焦點參數γ可以平滑地調整簡單樣本的權重。當γ= 0時,焦點損失等于交叉熵損失,并且隨著γ增加,調節因子的作用也會增加。

從式 ( 8 ) 可以看出,調制因子減少了簡單樣本的損失,并擴展了樣本接收低損失的范圍。例如,對于γ= 2,與交叉熵損失相比,歸類為pt= 0.9 的樣本的損失將降低99%,而對于pt≈ 0.968 的樣本,其損失將降低99.9%。這反過來增加了糾正錯誤分類的樣本的重要性 (對于pt=0.5和γ= 2,其損失最多減少75%)。

1.2.4 平衡焦點損失

與平衡交叉熵損失類似,定義平衡焦點損失為

FL(pt)=-αt(1-pt)γlg(pt)

( 9 )

在實驗過程中,α和γ為可調參數,一般設置為α=0.25,γ=2,但在處理具體問題時仍需根據實際情況調整。本文采用γ=2 作為默認設置,經過實驗對比設置α=0.25,作為焦點損失的參數。

2 實驗結果與分析

為了驗證本文提出方法的有效性,在服務器上進行了實驗,服務器的基本配置如下:4 個 12 核 CPU,型號為 Intel(R) Xeon(R) CPU E5-2678 v3 @ 2.50 GHz,64 GB 內存,4 個 GeForce RTX 2080Ti GPU(11 GB顯存),Ubuntu16.04 操作系統。采用 PyTorch 深度學習框架進行訓練和測試。

2.1 數據集

以某省高速鐵路接觸網吊弦圖像為研究的基礎數據集,利用標注工具對圖像中的吊弦區域進行標注,獲得標簽文件,用此數據集進行訓練獲得最終的吊弦不受力識別模型。

采用的接觸網吊弦圖像的原始像素大小為2 585×1 940,在訓練FCOS檢測模型時統一將原圖縮放為 1 024×800 像素大小。共標注了 1 500 張圖片,獲得了 1 622 個實例,取出其中的 1 200 張圖片作為訓練集,300 張圖片作為驗證集。在訓練添加焦點損失的 ResNet50 分類模型時統一將提取的吊弦圖縮放為 224×224 像素大小。分類數據集的相關信息見表 1 。

表1 分類數據集分布 張

2.2 實現細節

在第一階段訓練檢測網絡時,使用帶有動量項的隨機梯度下降 (Stochastic Gradient Descent,SGD) 的學習策略,初始學習率為 0.01,動量項為 0.9,衰減項為1×10-4。使用在 ImageNet 中訓練的預訓練模型 ResNet50。

檢測模型訓練完成后,通過檢測模型從原圖中獲得吊弦的定位,將其從原圖中摳取出來并縮放為 224×224 像素大小,作為分類網絡的輸入。在第二階段訓練分類網絡時,同樣使用帶有動量項的隨機梯度下降的學習策略,初始學習率為0.000 015,動量項為 0.9,衰減項為1×10-5。

2.3 實驗與分析

2.3.1 檢測效果對比

在評估 FCOS 的檢測效果時與Faster RCNN、RetinaNet、SSD進行對比。除了 SSD 的輸入圖片尺度為 512×512,其他模型的輸入圖片尺度均為 1 024×800,對比結果見表 2 ,AP@IoU=0.75表示模型預測的邊界框和地面真值邊界框的交并比(Intersection-over-Union,IoU) 為 0.75 時的平均精度,用于衡量模型的檢測精度;Inf time 表示模型的推理時間,用于衡量模型的檢測速度。根據表2 結果可知,FCOS 在精度和速度上取得了較好的平衡。

表2 檢測算法結果對比

2.3.2 識別效果對比

評估一個分類器算法的好壞包括許多項指標,吊弦不受力識別的分類目標只有兩類,記為正例 (Positive) 和負例 (Negative),其中,正例標簽為 1,負例標簽為 0,分類器的混淆矩陣見表 3 。TP為被分類器正確劃分為正例的個數;FP為被分類器錯誤劃分為正例的個數;FN為被分類器錯誤劃分為負例的個數;TN為被分類器正確劃分為負例的個數。

表3 分類器的混淆矩陣

根據分類器的混淆矩陣可以求出其精度Precision和召回率Recall,其中精度是精確性的度量,表示被分為正例的實例中實際為正例的比例;召回率是覆蓋面的度量,表示所有正例中被分對的比例,衡量了分類器對正例的識別能力。精度和召回率的定義為

(10)

受試者工作特征曲線 (Receiver Operating Characteristic Curve,ROC) 是以真陽性率 (True Positive Rate,TPR) 為縱坐標,假陽性率 (False Positive Rate,FPR) 為橫坐標繪制的性能評價曲線。真陽性率和假陽性率的定義式為

(11)

可以將不同模型對同一數據集的ROC曲線繪制在同一坐標系中,ROC曲線越靠近左上角,說明其對應模型越可靠。也可以通過ROC曲線下面的面積AUC來評價模型,AUC越大,模型越可靠。

由于吊弦的正(不受力)負(受力)樣本嚴重不均衡,而在實際應用中更關注正樣本的識別效果,即希望將吊弦不受力的樣本全部識別正確,因此,更關注正樣本的召回率。

為了評估添加焦點損失的 ResNet50 分類網絡對吊弦不受力的識別效果,本文將其與經典的機器學習分類算法邏輯回歸(Logistics Regression,LR)、神經網絡 (Neural Network,NN)、隨機森林(Random Forest,RF)、支持向量機 (Support Vector Machine,SVM)、K近鄰 (K-Nearest Neighbors,KNN)、(Gradient Boosting Decision Tree,GBDT)、AdaBoost 以及 ResNet50 分類網絡進行對比,機器學習分類算法的特征采用的是顏色直方圖,圖4為分類算法的 ROC 曲線對比,表4為分類算法的結果對比。

表4 分類算法結果對比

圖4 分類算法的 ROC 曲線

根據對比結果可知,經典的機器學習分類算法對吊弦不受力的識別效果較差,尤其是 SVM 算法直接把所有樣本都歸為負例,沒有學到任何特征,這與特征的選擇具有一定關系,設計其他更具有區分性的特征可能會提升識別效果,但尋找區分性的特征具有較大難度;而基于 DCNN 的方法則具有較高的性能,而且不需要手工選擇特征。ResNet50 的效果要優于所有經典的機器學習分類算法,而添加焦點損失的 ResNet50 對不受力吊弦線的召回率要比ResNet50 高,雖然精度略低于ResNet50,但是,在實際應用中更希望將所有不受力吊弦識別出來,因此,模型的召回率比精度更重要。從圖4可以看出,添加焦點損失的 ResNet50 模型的 AUC 與 ResNet50 相等,因此,它們的可靠性相同,從實際應用的角度來看,添加焦點損失的 ResNet50 分類網絡的性能優于其他方法。

2.3.3 焦點損失的效果驗證

為了驗證焦點損失對難負樣本挖掘的效果,在各種經典的分類網絡上進行實驗,對比添加焦點損失前后模型對吊弦不受力缺陷的識別效果。表5為添加焦點損失前后分類網絡的識別效果對比。從表 5 可以看出,焦點損失適用于各種分類網絡,可以提升分類網絡對不受力吊弦的召回率,增強分類網絡的缺陷識別性能。

表5 添加焦點損失前后分類網絡的識別效果對比

2.3.4 焦點損失的消融研究

采用焦點損失的默認設置γ=2。為了探究α參數對結果的影響,采用不同的α進行消融對比,研究α對分類網絡定位類別間判別性區域性能的促進程度,實驗結果見表6 。

表6 α 參數對比實驗結果

根據表6結果可知,在本實驗中,α=0.25 時對分類網絡的定位效果促進作用最大,因此,本文最終采用α=0.25,γ=2 作為焦點損失的參數。

2.3.5 可視化解釋

為了解釋添加焦點損失的 ResNet50 分類網絡與原本的 ResNet50 分類網絡相比是否確實學到了更優意義的特征,讓網絡準確地定位到正負樣本之間具有判別性的區域,采用類激活映射 (Class Activation Mapping,CAM)[13]對分類結果進行可視化,如圖5所示。圖5(a)為ResNet50 的結果,圖5(b)為添加焦點損失的 ResNet50 的結果,圖5中深紅色區域表示模型定位到的判別性區域。根據圖5結果可知,添加焦點損失的 ResNet50 分類網絡確實更加關注吊弦的不受力部位,從而更加準確地識別出吊弦不受力缺陷。添加焦點損失的 ResNet50 分類網絡對吊弦正常和異常判斷的置信度低于 ResNet50 分類網絡,說明焦點損失在難負樣本挖掘上起到重要作用。

圖5 熱力圖對比

3 結束語

本文提出一種基于深度學習技術的吊弦不受力識別方法,該方法采用 FCOS 檢測模型定位吊弦區域,根據吊弦缺陷樣本較少的特點,采用添加焦點損失的 ResNet50 分類網絡識別吊弦不受力缺陷。在某省高速鐵路接觸網圖像數據集上進行對比實驗,證明本文提出的方法能夠更加準確地識別出吊弦不受力缺陷。此外,在難負樣本的挖掘上具有顯著優勢,適用于正負樣本不均衡的缺陷識別。在未來的工作中,可以針對吊弦不受力缺陷識別進一步修改損失項以提升缺陷識別召回率。

猜你喜歡
分類檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
分類算一算
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
主站蜘蛛池模板: 欧美精品三级在线| 国产在线精彩视频二区| 狂欢视频在线观看不卡| 午夜电影在线观看国产1区| 亚洲天堂区| 午夜国产理论| 亚洲第一精品福利| 91久久偷偷做嫩草影院| 国产福利小视频高清在线观看| 免费观看成人久久网免费观看| 一本大道东京热无码av| 婷婷六月激情综合一区| 久久综合伊人 六十路| 不卡无码网| 欧美亚洲激情| 色丁丁毛片在线观看| 伊人91视频| 国产在线观看第二页| 欧美α片免费观看| 亚洲日本一本dvd高清| 亚洲免费播放| 精品欧美日韩国产日漫一区不卡| 久视频免费精品6| 天天综合亚洲| 久久国产V一级毛多内射| 中文字幕乱码二三区免费| 国产成人综合在线视频| 亚洲综合久久一本伊一区| 国产经典在线观看一区| 久久久久夜色精品波多野结衣| 国产精品主播| 中字无码精油按摩中出视频| 欧美天堂在线| 波多野结衣一区二区三区AV| 日韩亚洲综合在线| 香蕉99国内自产自拍视频| 国产高潮视频在线观看| 国产一区二区精品高清在线观看| 欧美高清三区| 亚洲精品无码在线播放网站| 亚洲欧美综合在线观看| 激情六月丁香婷婷| 免费观看成人久久网免费观看| 国产欧美视频综合二区 | 992tv国产人成在线观看| 国产一区二区三区夜色| 久久国产精品电影| 精品一区二区久久久久网站| 久久久噜噜噜| A级毛片高清免费视频就| 日本人妻丰满熟妇区| 在线观看国产精美视频| 又粗又硬又大又爽免费视频播放| 国产精品国产三级国产专业不| 四虎成人在线视频| 大陆精大陆国产国语精品1024| 91精品啪在线观看国产| 日日拍夜夜操| 亚洲婷婷丁香| 中文字幕久久亚洲一区| 91在线视频福利| 全裸无码专区| 在线观看亚洲天堂| 国产人人干| 天堂va亚洲va欧美va国产 | 国产乱人乱偷精品视频a人人澡| 99久久婷婷国产综合精| 国产精品19p| 久久国产热| 午夜人性色福利无码视频在线观看| 日韩麻豆小视频| 久久久亚洲色| 色播五月婷婷| 美女黄网十八禁免费看| 色综合中文字幕| 九九九九热精品视频| 国产成人综合久久| a在线亚洲男人的天堂试看| 伊人激情综合| 欧美三级视频网站| 3344在线观看无码| 欧美午夜理伦三级在线观看|