999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

奧氏體不銹鋼焊縫超聲相控陣檢測圖像智能分類

2022-10-28 07:14:00張雨航付麗敏
湖北工業大學學報 2022年5期
關鍵詞:焊縫分類檢測

張雨航, 張 旭, 付麗敏

(1 湖北工業大學機械工程學院, 湖北 武漢 430068; 2 湖北省現代制造質量工程重點實驗室, 湖北 武漢 430068)

由于具有更高的檢測靈活性以及定量、定位精度高等優勢,無損檢測領域的超聲相控陣技術常常用于復雜工件的檢測。但在檢測過程中,由于檢測人員的過度疲勞、心理壓力、經驗不足等因素,容易導致誤檢率大大上升。而使用自動化分類方法可以消除人員精神疲勞、經驗不足等因素對檢測結果的影響。早期一些研究人員開始使用簡單的神經網絡和傳統的機器學習模型對各種類型的無損檢測缺陷圖像進行分類。如:Cruz等利用小波變換和余弦變換等方法來實現特征提取,然后使用基于主成分分析的特征提取訓練淺層神經網絡,從超聲波A掃描中檢測裂紋[1];伏喜斌在標記的改進分水嶺TOFD 檢測圖像分割的基礎上,分別利用局部相位量化和局部二值模式獲取缺陷區域的特征參數,然后將二者特征參數進行歸一化融合,再將融合特征向量用SVM模型進行分類識別,其融合特征分類識別正確率達到87.10%[2]。但是這些方法都需要人工設計提取特征的方法。深度學習領域的卷積神經網絡由于可以較好地自動提取樣本中復雜的高層次的結構特征用以描述樣本數據,反應樣本的特性,也被普遍應用到了圖像自動分類,在無損檢測領域也取得了一定進展。Zheng Tong等使用深層卷積神經網絡對探地雷達圖像進行路基缺陷自動分類,驗證準確率為96.8%[3]。Munir等設計了一個簡單的卷積神經網絡進行噪聲條件下的焊接件超聲缺陷分類,分類結果表明卷積神經網絡具備良好的魯棒性,并且在高噪聲和低噪聲情況下都有很好的預測性能[4]。谷靜等基于DenseNet網絡來進行X射線焊縫的缺陷分類識別,對焊縫缺陷識別準確率可達98.9%,但是如何更好地減少網絡參數、優化內存還有待研究[5]。

本文研究了通過輕量化卷積神經網絡MobileNetV2對奧氏體不銹鋼焊縫超聲相控陣B掃圖像數據集進行訓練和測試,以實現缺陷的自動分類,并進一步改進MobileNetV2的訓練方法和模型結構,使其在奧氏體不銹鋼焊縫超聲相控陣檢測圖像缺陷分類的任務中達到良好的分類效果。

1 焊縫缺陷檢測方法的選擇

奧氏不銹鋼在工業上應用比較普遍, 其焊縫缺陷的檢測多先采用超聲相控陣設備得到超聲相控陣圖像, 再對獲取到的檢測圖像進行分析, 判斷其有無缺陷, 人工檢測過程復雜。 雖然使用傳統的機器學習算法可以實現缺陷的自動分類, 但是需要人為地設計使用小波變換、 主成分分析等特征提取方法來對原始圖像進行特征提取預處理,然后使用經過預處理過后的特征信息數據作為訓練數據, 并且分類效果又比較依賴于特征提取的作用好壞。如果所設計的特征提取的方法不好,會影響最終的分類效果[6]。 而奧氏不銹鋼焊縫的粗晶粒以及材料各向異性導致得到的超聲相控陣檢測圖像噪聲較大, 信噪比低, 圖片質量不好,這就給人工設計提取特征帶來了困難。 而卷積神經網絡可以完成特征的自動提取, 既減少工作量, 也能使分類結果更穩定。 這也是本文選擇使用卷積神經網絡來進行奧氏體不銹鋼焊縫超聲相控陣B掃圖像缺陷分類的一個重要原因。

考慮到實際應用中硬件條件的限制導致計算資源不足等因素,本文選用目前主流的輕量化卷積神經網絡MobileNetV2。MobileNetV2基本模塊將深度可分離卷積和改良的shortcut連接相結合,使其與大型的卷積神經網絡InceptionV3、ResNet50、DenseNet121等相比擁有更少的參數量,同時能夠減小特征信息被破壞的損失,加強了網絡中特征信息的傳遞,提高了網絡的性能。

2 奧氏體不銹鋼焊縫超聲相控陣B掃圖像數據集

超聲相控陣的檢測對象為一根奧氏體316L不銹鋼管上的對接焊縫。Trueflaw有限公司在這根奧氏體不銹鋼管靠近焊縫根部的管道內徑上發現3個深度分別為1.6、4.0和8.6 mm的熱疲勞裂紋,并使用超聲相控陣技術進行了檢測。掃描采用Zetec Dynaray 64/64PR Lite探傷儀,使用的探頭是IMASONIC 1.5 MHz 1.5M5x3E17.5-9相控陣探傷儀探頭,采用剪切波進行數據采集。詳細的實驗過程見文獻[7]。

用卷積神經網絡實現超聲相控陣圖像缺陷智能分類的第一步,需要先準備好數據集。一個完整的數據集包含了訓練樣本、驗證樣本和測試樣本。本文實驗的數據集由Trueflaw公司提供。Trueflaw公司在獲取上述實驗的奧氏體不銹鋼焊縫熱疲勞裂紋超聲相控陣B掃圖像后,采用eFlaw技術擴展了原始數據集,獲取到更多有代表性的缺陷樣本。eFlaw的核心思想是從有缺陷的數據集中提取缺陷信號,然后重新將缺陷信號引入數據集中的各個位置,以提供不同位置缺陷的樣本,同時也可以將原始裂紋信號幅值進行修改后引入原始數據集,構造出一些不同尺寸的裂紋[8]。數據集中的圖像是分辨率為256×256的RGB圖像。Trueflaw公司提供的擴展后數據集一共有20000個圖像樣本,但是考慮到實際硬件條件限制,本實驗抽取了數據集中的1800張奧氏體不銹鋼焊縫超聲相控陣B掃圖像用于訓練和測試(數據劃分見表1)。圖1展示了缺陷信號在不同位置的圖像。訓練集中又抽取1/4作為驗證集。

表1 數據集劃分 張

(a)焊縫熱疲勞裂紋缺陷圖像(1) (b)焊縫熱疲勞裂紋缺陷圖像(2)圖1 焊縫熱疲勞裂紋超聲相控陣B

3 實驗及分析

本文實驗分為兩部分,均在Ubuntu20.04操作系統下進行。深度學習的框架選用tensorflow2.0。為了契合卷積神經網絡的輸入尺寸,本文先將原來的數據集圖片調整為224×224和299×299兩種不同分辨率的RGB圖像。

3.1 MobileNet V2與經典卷積神經網絡模型對比

為了追求更高的準確率,卷積神經網絡的深度和復雜度越來越大,網絡模型很難運用在移動或者嵌入式設備上,因此近幾年越來越趨向于發展輕量化的卷積神經網絡。第一部分實驗選取MobileNetV2與具有代表性的InceptionV3[9-10]、ResNet50[11]、DenseNet121[12]卷積神經網絡進行對比。模型訓練過程中迭代次數設為50次,batch_size設為4,初始學習率設為0.001,學習率下限設為0.000001。如果訓練過程中每迭代10次,模型在驗證集上的準確度不提升時,學習率減小2/3。對比結果見表2。

表2 實驗一測試集Accuracy與Precision、Recall和F1-score對比

通過對比各個模型Accuracy和F1-score可以直觀地判斷出:迭代訓練50次后,DenseNet121和ResNet50的分類效果最佳;InceptionV3略低于DenseNet121和ResNet50;而MobileNetV2 的表現最差,且與其他3種網絡模型相比差距較大。雖然結果表明DenseNet121和ResNet50的分類效果優于MobileNetV2,但是相比于MobileNetV2,DenseNet121和ResNet50參數量巨大,內存占用大,不適用于移動或者嵌入式設備上。

3.2 改進了的MobileNetV2

采用圖像分類常用的Accuracy、Precision、Recall和F1-score幾項指標來評估模型分類效果。評估指標計算公式

(1)

(2)

(3)

(4)

其中:TP為實際有缺陷并且被預測為有缺陷的樣本數;TN為實際無缺陷并且被預測為無缺陷的樣本數;FP為實際無缺陷但是被預測為有缺陷的樣本數;FN為實際有缺陷但是被預測為無缺陷的樣本數。

通過查看MobileNetV2在驗證集上的準確度后發現,MobileNetV2最終在驗證集上的準確度(Accuracy)為0.957,而測試集上的準確度卻為0.908,說明MobileNetV2發生了過擬合。為解決過擬合的問題,本文從減緩學習速率和降低模型復雜度兩方面對MobileNetV2模型訓練進行改進。

為了通過減緩學習速率來防止模型訓練過擬合,在參數設置上將原來訓練過程中每迭代10次、模型在驗證集上的準確度不提升時學習率減小2/3,改為每迭代5次,模型在驗證集上的準確度不提升時學習率減小2/3。

為了通過降低MobileNetV2模型的復雜度來達到防止模型訓練過擬合的目的,本文將MobileNetV2的平均池化層前的1×1卷積去除,網絡最終輸出的特征向量維數也由1280下降到了320,同時在全連接層前引入了Dropout層。改進后的MobileNetV2網絡結構如圖2所示,MobileNetV2中的瓶頸層結構如圖3所示[13]。

圖2 改進MobileNetV2后的網絡結構

圖3 MobileNetV2中的瓶頸層結構

上述處理一方面能夠防止模型學習到一些不必要的特征,從而防止過擬合,另一方面改進后的MobileNetV2模型參數量由2 260 546個下降到1 843 906個,相比于原始的MobileNetV2模型下降18.4%,權重文件大小也有所減小,進一步輕量化了模型,減小了內存占用(各模型參數量和權重文件大小見表3)。改進后模型和訓練方式后的MobileNetV2模型(即MobileNetV2(1))測試結果見表4。

表3 各模型參數量和權值文件大小

表4 測試結果

MobileNetV2(1)代表改進MobileNetV2的訓練方法和模型結構后模型在訓練集上的測試結果。從實驗結果可以看出,改進MobileNetV2的訓練方法和模型結構以后,模型在測試集上的Accuracy、Precision、Recall和F1-score分別提升了9.2%、15.1%、0.7%、8.4%,且均達到了100%,與實驗一中的DenseNet121和ResNet50達到了相同的分類效果,并且驗證集上的準確度也為100%。這說明改進MobileNetV2的訓練方法和模型結構以后,確實能夠防止模型過擬合,提高了模型的泛化能力,進而提高了模型的分類效果。

4 結束語

本文通過卷積神經網絡的方法對奧氏體不銹鋼焊縫超聲相控陣B掃圖像進行了有無缺陷的智能分類。結果表明,雖然奧氏不銹鋼焊縫圖像噪聲較大,但是卷積神經網絡可以高精度識別缺陷與非缺陷圖像。本文通過改進輕量化卷積神經網絡MobileNetV2,在保證其準確度的前提下,減小了模型的參數以及權重文件大小,優化了內存,有利于這項技術未來在移動端上應用。

猜你喜歡
焊縫分類檢測
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
分類算一算
基于焊縫余高對超聲波探傷的影響分析
TP347制氫轉油線焊縫裂紋返修
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
機器人在輪輞焊縫打磨工藝中的應用
主站蜘蛛池模板: 亚洲国产成人麻豆精品| 久久永久免费人妻精品| 伊人无码视屏| 手机精品福利在线观看| 久久久久中文字幕精品视频| 色综合中文综合网| 国产一级片网址| 国产乱子伦一区二区=| 国产人成在线观看| 亚洲欧洲美色一区二区三区| 亚洲欧美极品| 午夜激情婷婷| 亚洲aⅴ天堂| 国产黄色免费看| 波多野结衣中文字幕久久| 国产欧美在线观看一区| 久久午夜夜伦鲁鲁片无码免费| 久久无码av一区二区三区| 99re视频在线| 国产精品浪潮Av| 久久黄色免费电影| 熟妇丰满人妻av无码区| 国产成人资源| 欧美啪啪视频免码| 久久久噜噜噜| 欧美国产视频| 日韩精品中文字幕一区三区| 日韩欧美综合在线制服| 91精品综合| 伊伊人成亚洲综合人网7777| 有专无码视频| 热热久久狠狠偷偷色男同| 日韩无码黄色| 噜噜噜久久| 国产一级毛片高清完整视频版| 成年人国产网站| 露脸国产精品自产在线播| 视频国产精品丝袜第一页| 欧美国产三级| 在线看国产精品| 亚洲第一在线播放| 中文字幕天无码久久精品视频免费| 日韩成人高清无码| 伊人久久精品无码麻豆精品| 久久伊人久久亚洲综合| 亚洲天堂视频网站| 久久久久久久久亚洲精品| 黄色网页在线观看| 国产精品欧美亚洲韩国日本不卡| 国产一区二区三区在线观看视频| 国产亚洲高清视频| 92精品国产自产在线观看| 91亚洲精选| 欧美高清国产| 国产精品99在线观看| 中文字幕无码制服中字| 2022精品国偷自产免费观看| 国产香蕉在线视频| 一区二区三区成人| 全午夜免费一级毛片| 欧美日本不卡| 午夜少妇精品视频小电影| 奇米影视狠狠精品7777| 欧美一级色视频| 不卡视频国产| 久久久久国色AV免费观看性色| 国产鲁鲁视频在线观看| 在线看AV天堂| 成人午夜天| 久久77777| 精品日韩亚洲欧美高清a| 在线无码av一区二区三区| 日本亚洲成高清一区二区三区| 欧美一级99在线观看国产| 秋霞一区二区三区| 54pao国产成人免费视频| 操操操综合网| 日韩视频精品在线| 国产精品视频白浆免费视频| 无码日韩视频| 亚洲AⅤ永久无码精品毛片| 97在线观看视频免费|