999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的裂隙智能提取研究

2025-06-10 00:00:00盧宇杭孟治霖丁一李瀛翁來峰
科技創新與應用 2025年13期
關鍵詞:模型

中圖分類號:TP18 文獻標志碼:A 文章編號:2095-2945(2025)13-0009-05

Abstract:WiththerapiddevelopmentofChina’seconomicconstruction,engineeringconstructionismovinginahigher, deperandbroaderdirection.Inordertoensurethesafetyof projectconstruction,itisnecessarytoidentifytheenginering geologicalconditionsofthesitebeforeprojectconstruction.Asanimportantpartofrockmassstructure,fractureshavean importantimpactonengineeringgeologicalconditions.Therefore,extractingthestructureofcracksisveryimportantfor engineeringconstruction.Traditionalcrack structureextractionmethodsaretime-consumingandlabor-intensive,andhavepoor operability;theacuracyofcrackextractionmethodsusingtraditionalcomputertechologycannotmeetengineeringneedsandare poorinpracticality;however,therearefewresearchonusingdeeplearningtechnologytoextractfractures.Bystudyingthedeep learningnetworkoftheencoder-decoderarchitecture,thispaperdeterminesthattheimagesegmentationmodeltrainedbythe \"U-Net++\"frameworknetworkandthe\"Resnet5O\"encoder-decodernetworkcanefectivelyextractthefisurestructureoffield outcrop photos.

Keywords: crack extraction; image segmentation; deep learning; crack structure; extraction method

隨著我國經濟建設的高速發展,房屋建筑越來越高,地基基礎越來越深,穿山隧道越來越長,水利水電工程越來越龐大,相應地,對于工程建設過程中的工程地質條件要求也越來越高,對工程地質信息的掌握也要越來越精確。其中,地質構造的判斷及描述、水文地質條件滲透特性的確定、不良地質現象的發生原因分析等都離不開巖體裂隙的提取及量化研究。裂隙作為巖體結構的重要組成部分,具有不均勻性和非連續性,從而導致了巖體結構的復雜性以及巖體物理力學性質的各向異性[1]。

目前,深度學習技術被廣泛應用于我們的生活中,如人臉識別、自然語言處理、醫療輔助等。由于深度學習在目標檢測、圖像分割等方面所表現出來的強大能力,不同領域的研究人員均將其應用于自己的研究中。2017年,Cha等將區域生長法與深度卷積神經網絡結合,實現了對混凝土裂隙的識別及提取。2019年,薛東杰等將基于全卷積網絡的裂隙識別結果與傳統方法識別結果進行比較,證實了深度神經網絡在裂隙識別及提取任務中的查準率和查全率均優于傳統算法。本文就是將深度學習技術應用于野外露頭照片裂隙提取的探索研究。

本文旨在改進傳統的裂隙圖片提取方法,通過深度學習技術實現從露頭圖片中快速準確地提取裂隙的目的。本文研究的裂隙提取方法可為工程建設中快速識別提取并量化裂隙提供依據,從而指導工程建設并保證施工質量安全。本文研究的裂隙不局限于單一類型,因此對以后單一工況的研究,本文可提供一定的技術支持。

1 網絡簡介

本文采用的圖像分割模型是基于編碼器 + 解碼器的體系結構,因此在進行模型選擇時,要同時考慮模型框架網絡及編碼器解碼器網絡。本文選用的框架網絡主要為 U - N e t , U - N e t + + Ω , FPN及LinkNet。

U-Net網絡是由Ronneberger等4于2015年提出的,最初該網絡的提出主要是為了解決生物醫學問題。由于在生物醫學方面的應用效果非常好,U-Net網絡也逐漸被用在其他領域的圖像分割任務中。

U - N e t + + 網絡是由Zhou等于2018年提出的。從網絡名稱就可知道該網絡是在U-Net網絡的基礎上進行改進獲得的。

FPN網絡是由Lin等于2017年提出的。該網絡通過融合從較淺層網絡和較深層網絡獲得的特征圖,以實現目標特征和位置的精確表達,從而獲得更加精確的預測效果。

LinkNet網絡是由Chaurasia等于2017年提出的。該網絡通過將每一個編碼器連接到對應的解碼器輸出上,提高了模型的精度。又通過讓解碼器與編碼器共享一套參數,提高了模型的計算速度。

以上模型框架均是采用編碼器 + 解碼器的網絡結構,本文采用的編碼器網絡與解碼器網絡相同,主要有Resnet18Resnet34Resnet50、Resnet101及Resnet152。

Resnet網絡,即殘差網絡,是由微軟團隊的He等8于2015年提出來的。該網絡在當年的ILSVRC圖像識別競賽中獲得冠軍,大大降低了模型的錯誤率。除了較高的圖像識別準確率之外,該網絡還具有參數量較少、計算速度較快及圖像特征信息完整的特點。因此,其在圖像識別方面的性能優越,其識別準確率甚至可以超越人類。

2 模型評價指標

為了比較不同模型在圖像分割任務中的優劣,需要對模型的分割效果進行評價。常用的評價指標有Fscore、交并比(IoU)準確率(Accuracy)召回率(Re-call)及精確率(Precision)。為了計算這些指標,需要對圖像中每個像素進行分類,然后統計相同類別的像素個數。根據每個像素所屬類別及是否被正確預測,可將圖片像素分為如下4類: ① TP(TruePositive),所屬類別為裂隙,并且被模型正確預測出來的像素數量。② TN(Truenegative),所屬類別為非裂隙,并且被模型正確預測出來的像素數量。 ③ FP(FalsePositive),所屬類別為非裂隙,但被模型預測為裂隙的像素數量。④ FN(Falsenegative),所屬類別為裂隙,但被模型預測為非裂隙的像素數量。

IoU表示裂隙部分的真實像素集合與預測像素集合的重合度。即被模型正確預測的裂隙像素占所有真實裂隙像素及預測裂隙像素并集的比例。計算公式如下

Accuracy表示模型對圖片中所有像素進行正確分類的比例,即所有被正確預測為裂隙的像素數量與圖片中總像素數量之比。計算公式如下

Recall表示圖片中裂隙部分像素被正確識別出來的比例。即所有被正確預測的裂隙部分像素數量與所有真實裂隙像素數量的比值。計算公式如下

Precision表示預測正確的裂隙像素所占的比例,即所有被正確預測的裂隙部分像素數量與所有被預測為裂隙的像素數量之比。計算公式如下

Fscore是一個綜合評價指標,其是Precision和Recall的調和平均。計算公式如下

Precision和Recall是一對矛盾的指標,當Preci-sion較高時,Recall就較低;當Recall較高時,Precision就較低。因此將其中任何一個單獨作為模型的評價指標都不合適。Accuracy指標在很大程度上受到背景像素的影響,尤其是當背景像素量大于裂隙部分像素量時,其不能很好地表示裂隙識別的準確程度。IoU和Fscore能夠比較綜合地考慮到裂隙查準率和查全率的影響,并且忽略背景像素數量的影響。因此,本文在進行模型評價時將使用IoU和Flcore2個指標。

3裂隙結構提取的圖像分割模型訓練及驗證3.1基于框架網絡選擇的圖像分割模型

3.1.1 參數設置及模型訓練

首先進行基于不同框架網絡的圖像分割模型訓練。在進行訓練之前,設置模型框架網絡分別為“U-Net\"\"U- ? N e t+ + \"\"FPN\"和“LinkNet”,編碼器解碼器網絡為“Resnet50”,激活函數為“sigmoid”,學習率為 1 × ,訓練的batch大小為3,Epoch為40。每訓練15Epochs,就更新一次學習率,即將學習率減小為原來的十分之一。通過訓練可獲得基于不同框架網絡的圖像分割模型。

3.1.2 結果分析

通過訓練,獲得了基于“U-Net\"“U-Net++\"“FPN\"和\"LinkNet\"框架網絡構建的圖像分割模型。4種圖像分割模型的評價指標見表1。

表1基于框架網絡選擇的圖像分割模型評價指標

由表1可知,這4種框架網絡構建的圖像分割模型的IoU均達到了0.98以上,Fscore均達到了0.99以上,說明這4種框架網絡構建的圖像分割模型均能較好地處理裂隙結構提取的任務。通過比較4種模型的參數可得,由“ ”框架網絡構建的圖像分割模型的IoU值及Fscore值均達到最高,說明在這4種框架網絡中,由“ J - N e t + + ”框架網絡構建的圖像分割模型在處理裂隙結構提取任務中的效果最好,因此本文選用“ 網絡作為圖像分割模型的框架網絡。

3.2基于編碼器解碼器網絡選擇的圖像分割模型

3.2.1 參數設置及模型訓練

接下來進行基于不同編碼器解碼器網絡的圖像分割模型訓練。在進行訓練之前,設置編碼器解碼器網絡分別為“Resnet18\"\"Resnet34\"\"Resnet5O\"\"Resnet101”和\"Resnet152\",模型框架網絡為\"U- ,激活函數為\"sigmoid\",學習率為 ,訓練的batch大小為3,Epoch為40。每訓練15Epochs,就更新一次學習率,即將學習率減小為原來的十分之一。通過訓練可獲得基于不同編碼器解碼器網絡的圖像分割模型。

3.2.2 結果分析

通過訓練及驗證,獲得了基于“Resnet18”\"Resnet34\"\"Resnet50\"\"Resnetl01\"及\"Resnet152\"網絡構建的圖像分割模型。4種圖像分割模型的評價指標見表2。

表2基于編碼解碼器網絡選擇的圖像分割模型評價指標

由表2可知,5種不同網絡所構建的圖像分割模型的IoU值均大于0.98,Fscore值均大于0.99,說明5種模型的裂隙提取效果均較好。隨著網絡層次的加深,模型的IoU值及Fscore值呈現先增大后減小的趨勢,并且在編碼器解碼器網絡為“Resnet50\"時達到最大。這說明在裂隙結構提取任務中,并不是網絡的層次越深提取效果越好。

綜上所述,本文選用\"U- ? ? N e t + + \"網絡作為圖像分割模型的框架網絡,選用“Resnet50”網絡作為圖像分割模型的編碼器解碼器網絡,從而獲得了裂隙結構提取的圖像分割模型。

4基于裂隙結構提取的圖像分割模型預測結果分析

前面通過訓練獲得了基于不同框架網絡及編碼器解碼器網絡的圖像分割模型,也根據模型評價指標確定了分別選用\"U- ”及“Resnet50”作為框架網絡及編碼器解碼器網絡時訓練獲得的模型精度最高。本節將通過不同圖像分割模型的預測結果比較,進一步驗證以上結論。

4.1基于框架網絡選擇的圖像分割模型預測結果

對同一張裂隙圖片,分別利用基于不同框架網絡的圖像分割模型進行裂隙的結構提取,各模型的提取結果如圖1所示。

本文對模型預測結果的31處進行了對比分析,通過統計可得,基于“U-Net\"框架網絡的圖像分割模型預測成功的區域有12處,預測錯誤的區域有19處;基于“U- ? N e t+ + ”框架網絡的圖像分割模型預測成功的區域有23處,預測錯誤的區域有8處;基于“FPN”框架網絡的圖像分割模型預測成功的區域有17處,預測錯誤的區域有14處;基于“LinkNet\"框架網絡的圖像分割模型預測成功的區域有9處,預測錯誤的區域有22處。

從以上統計結果可知,基于“U- ? N e t+ + ”框架網絡的圖像分割模型的精度最高,基于“FPN\"框架網絡的圖像分割模型次之,而基于“LinkNet\"框架網絡的圖像分割模型的精度最低,這與模型的評價指標結果一致。對各模型預測結果進行局部放大展示,如圖2所示。

圖2基于框架網絡選擇的圖像分割模型預測結果局部放大圖

通過對預測結果進行對比可知,在圓圈內,基于# ”框架網絡的圖像分割模型預測結果與真值圖最接近,其次是基于“FPN\"框架網絡的圖像分割模型預測結果,而基于“U-Net\"及“LinkNet\"框架網絡的圖像分割模型均未將該部分裂隙提取出來。

以上預測結果與模型的評價結果一致,從而進一步說明應選用“U- ?? N e t+ + “網絡作為圖像分割模型的框架網絡。

4.2基于編碼器解碼器網絡選擇的圖像分割模型預測結果

對同一張裂隙圖片,分別利用基于不同編碼器解碼器網絡的圖像分割模型進行裂隙的結構提取,各模型的提取結果如圖3所示。

圖3基于編碼器解碼器網絡選擇的圖像分割模型預測結果對比圖

本文對模型預測結果的26處進行了對比分析,通過統計可得,基于“Resnet18”編碼器解碼器網絡的圖像分割模型預測成功的區域有9處,預測錯誤的區域有17處;基于“Resnet34”編碼器解碼器網絡的圖像分割模型預測成功的區域有12處,預測錯誤的區域有14處;基于“Resnet50\"編碼器解碼器網絡的圖像分割模型預測成功的區域有17處,預測錯誤的區域有9處;基于“Resnet101\"編碼器解碼器網絡的圖像分割模型預測成功的區域有15處,預測錯誤的區域有11處;基于“Resnet152\"編碼器解碼器網絡的圖像分割模型預測成功的區域有13處,預測錯誤的區域有13處。

從以上統計結果可知,基于“Resnet50\"編碼器解碼器網絡的圖像分割模型的精度最高,基于“Resnet18\"編碼器解碼器網絡的圖像分割模型的精度最低,這與模型的評價指標比較結果一樣。

對各模型預測結果進行局部放大展示,如圖4所示。通過對預測結果進行對比可知,在圓圈內,基于“Resnet50\"編碼器解碼器網絡的圖像分割模型將該條裂隙比較完整地提取出來了,基于“Resnet101”和“Resnet152”編碼器解碼器網絡的圖像分割模型只提取了裂隙的一部分,而基于“Resnet18\"和“Resnet34”編碼器解碼器網絡的圖像分割模型未將該裂隙提取出來。

以上預測結果與模型的評價結果一致,從而進一步說明應選用“Resnet50\"網絡作為圖像分割模型的編碼器解碼器網絡。

圖4基于編碼器解碼器網絡選擇的圖像分割模型預測結果局部放大圖

5 結論

本文首先對圖像分割、所用神經網絡及模型評價指標進行了介紹。然后,通過對模型評價指標的對比,確定了“U- - N e t+ + ”網絡作為圖像分割模型的框架網絡,“Resnet50”網絡作為圖像分割模型的編碼器解碼器網絡。最后,通過模型預測結果的對比,分別從預測錯誤統計數量及局部預測結果分析兩方面進一步驗證了以上的結論。

參考文獻:

[1]何滿潮.工程地質力學的挑戰與未來[J].工程地質學報, 2014,22(4):543-556.

[2] CHA Y J,CHOI W,ORAL B,et al.Deep learningbased crack damage detection using convolutional neural networks[J].ComputerAidedCivilamp;Infrastructure Engineering,2017,32(5):18.

[3]薛東杰,唐麒淳,王傲,等.基于FCN的巖石混凝土裂隙幾何 智能識別[J].巖石力學與工程學報,2019,38(S2):3393-3403.

[4]RONNEBERGER O,FISCHER P,BROX T. U-Net: Convolutional networks for biomedecial image segmentation [J].International Conference on Medical Image Computing and Computer-Assisted Intervention,2015.

[5]ZHOU Z, SIDDIQUEE M, TAJBAKHSH N, etal. U N e t+ + :Anested U-Net architecture for medical image segmentation [J]. 4th Deep Learning in Medical Image Analysis(DLMIA)Workshop,2018.

[6] LIN TY,DOLLAR P,GIRSHICK R,et al.Feature pyramid networks for object detection[J].2O17IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2017.

[7] CHAURASIA A, CULURCIELLO E. LinkNet: Exploiting encoder representations for efficient semantic segmentation[C] //2017 IEEE Visual Communications and Image Processing (VCIP).IEEE,2017.

[8] HE K,ZHANG X,REN S,et al. Deep Residual Learning forImage Recognition[J]. IEEE,2016.

猜你喜歡
模型
一半模型
一種去中心化的域名服務本地化模型
適用于BDS-3 PPP的隨機模型
提煉模型 突破難點
函數模型及應用
p150Glued在帕金森病模型中的表達及分布
函數模型及應用
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 亚洲欧美日韩另类| 午夜a视频| 精品自窥自偷在线看| 久久情精品国产品免费| 国产精女同一区二区三区久| 色综合天天娱乐综合网| 国产成人av一区二区三区| 亚洲人成网7777777国产| 国产噜噜噜视频在线观看| 欧美在线国产| 丰满人妻一区二区三区视频| 国产精品偷伦在线观看| 国产成人亚洲综合A∨在线播放| 国产迷奸在线看| 日本午夜视频在线观看| 国精品91人妻无码一区二区三区| 国产麻豆福利av在线播放| 88国产经典欧美一区二区三区| 美女潮喷出白浆在线观看视频| 欧洲亚洲一区| 国产精品极品美女自在线网站| 国内精自视频品线一二区| 天天色天天操综合网| 99爱在线| 波多野结衣一区二区三视频| 综合五月天网| 日韩小视频在线观看| 高清欧美性猛交XXXX黑人猛交| 亚洲欧美日本国产综合在线| 亚洲第一网站男人都懂| 乱人伦中文视频在线观看免费| 国产精品久久久精品三级| 国产成人91精品免费网址在线| 免费女人18毛片a级毛片视频| 任我操在线视频| 精品三级在线| 亚洲第七页| 亚洲精品男人天堂| AⅤ色综合久久天堂AV色综合| 国产精品不卡永久免费| 久久亚洲综合伊人| 狠狠色香婷婷久久亚洲精品| 亚洲综合欧美在线一区在线播放| 麻豆精品在线视频| 午夜福利免费视频| 在线观看亚洲成人| 天天摸天天操免费播放小视频| 日本人真淫视频一区二区三区| 青青青国产精品国产精品美女| 91人人妻人人做人人爽男同| 国产免费黄| 亚洲第一黄片大全| 五月婷婷丁香综合| 久久综合伊人 六十路| 欧美一级在线| 国产亚洲美日韩AV中文字幕无码成人 | 亚洲欧美在线综合图区| 激情视频综合网| 日韩毛片免费| 国内精品免费| 国产成人无码综合亚洲日韩不卡| 亚洲国产成熟视频在线多多| 无码中文字幕加勒比高清| 一级毛片免费高清视频| 午夜a级毛片| 最新国语自产精品视频在| 夜夜拍夜夜爽| 永久天堂网Av| 亚洲人成影院午夜网站| yjizz国产在线视频网| 六月婷婷激情综合| 国产男女免费完整版视频| 激情六月丁香婷婷| 天天做天天爱天天爽综合区| 波多野结衣无码视频在线观看| 亚洲中文字幕手机在线第一页| 国产手机在线小视频免费观看| 91人人妻人人做人人爽男同| 日韩国产一区二区三区无码| 亚洲an第二区国产精品| 日韩精品一区二区三区中文无码| 色网站在线视频|