999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進Mask R-CNN 與雙目視覺的智能配筋檢測

2024-05-25 01:02:20魏翠婷趙唯堅孫博超劉蕓怡
浙江大學學報(工學版) 2024年5期
關鍵詞:特征檢測模型

魏翠婷,趙唯堅,2,孫博超,2,劉蕓怡

(1.浙江大學 建筑工程學院,浙江 杭州 310058;2.浙江大學 平衡建筑研究中心,浙江 杭州 310028)

鋼筋混凝土結構由于其取材容易、可塑性強、材料受力合理、施工工藝簡單、造價低等優點,是目前工程結構中應用最廣泛的結構形式.在結構設計過程中,通過控制鋼筋直徑和間距來保障構件的承載力.在混凝土澆筑前,須對鋼筋隱蔽工程進行驗收,校核鋼筋綁扎規格、數量、間距是否符合設計要求.傳統鋼筋配筋檢測主要依靠人工測量的方法,檢測范圍和精度易受到限制,現場檢測作業過程中存在較多的安全隱患.在勞動力短缺、從業人員老齡化嚴重的背景下,傳統的鋼筋配筋檢測方法亟須向智能化轉型.

基于傳統數字圖像處理技術的鋼筋檢測方法[1]易受光照、背景、遮擋等因素影響,無法滿足實際工程的精度要求.隨著激光掃描設備和技術的發展,基于三維點云的高精度測量方法已廣泛應用于土木工程領域.Kim 等[2-3]使用地面激光掃描儀獲取三維點云,對鋼筋直徑、間距和混凝土保護層厚度進行質量評估,但由于激光掃描設備價格昂貴、數據采集耗時、計算過程繁瑣等原因,該方法在實際應用中受到限制.

近年來,基于卷積神經網絡的目標檢測與實例分割算法得到大量應用,Yang 等[4]通過UNet 解決道路信息抽取問題,實現道路檢測及其中心線的估計.Pan 等[5]利用DeepLabV3+識別鋼材缺陷,并進行精準的分類及定位.Li 等[6]將PSPNet 應用到混凝土多損傷檢測中,有效地提高了分割精度.此外,目標檢測與實例分割算法被用于預制構件識別[7]、鋼筋綁扎網點定位[8-9]、鋼筋截面計數[10-11]等場景,主要分為基于候選區域和基于回歸思想的2 類算法.以更快的區域卷積神經網絡(faster region with convolutional neural network,Faster R-CNN)[12]為代表的基于候選區域的目標檢測算法,采用2 階結構,先生成候選區域,再進行精細的分類與回歸,能夠顯著地提升檢測精度.Mask R-CNN 是由He 等[13]提出的實例分割算法,在Faster R-CNN 的基礎上改進而得,通過輸出目標的矩形邊界框和像素級掩膜,實現了高效的物體檢測和高質量的實例分割.Zhao 等[14]利用Mask R-CNN 提取遙感圖像中的建筑物,結合幾何特征正則化邊緣的輪廓線.Kim 等[15]提出混凝土結構裂縫評估的方法,該方法通過Mask R-CNN識別裂縫,對掩膜進行形態學處理,進一步量化裂縫寬度.Xu 等[16]使用改進的Mask R-CNN 算法,檢測隧道表面缺陷,在混凝土剝落及液體滲漏的情況下展現出良好的預測性能.Nie 等[17]提出Mask R-CNN+Soft-NMS 模型,通過引入柔性非極大值抑制,提高對船舶檢測的魯棒性.

Mask R-CNN 具備強大的特征提取能力,由于傳輸路徑較長,會引起底層特征信息丟失的問題,將影響檢測與分割的精度.本文通過在Mask R-CNN 網絡的基礎上加入自下而上的注意力機制路徑,提出Mask R-CNN+CA-SA 模型,以提高鋼筋邊界框與掩膜的預測精度.基于鋼筋預測結果,通過使用雙目視覺技術,計算鋼筋直徑與間距,實現智能配筋檢測,在鋼筋隱蔽工程中輔助工作人員進行質量驗收.

1 研究方法

1.1 Mask R-CNN 算法

如圖1 所示,Mask R-CNN 的網絡結構包含特征提取模塊、候選區域(region proposal network,RPN)模塊、感興趣區域(region of interest,ROI)對齊模塊和3 條輸出分支.特征提取模塊采用基于殘差網絡(residual network,ResNet)的特征金字塔網絡(feature pyramid network,FPN)結構,獲取特征圖.RPN 模塊負責提取候選框,針對特征圖上的每一點生成強先驗的錨點框后,利用1×1 卷積得到的分類得分和邊界框回歸量,篩選出一組較好的候選框,輸入后續的ROI 對齊模塊.為了滿足全卷積網絡對輸入特征的要求,ROI 對齊模塊將ResNet-FPN 生成的特征圖和RPN 篩選出的候選框變換到相同維度.將ROI 對齊模塊得到的特征輸入全連接層,在分類和邊界框回歸分支分別輸出物體的預測類別得分與邊界框回歸量.多次的卷積與池化操作造成特征圖分辨率逐漸減小,掩膜分支利用反卷積操作來提升分辨率,獲得物體像素級別的掩膜,完成檢測與分割任務.

圖1 Mask R-CNN 網絡結構Fig.1 Network structure of Mask R-CNN

1.2 改進的Mask R-CNN 算法

特征提取網絡ResNet-FPN 是多層特征融合的結構.該結構將淺層和深層特征進行融合,使提取到的特征圖同時具備強空間信息和強語義信息,在小物體檢測領域具有突出優勢.在特征融合的過程中,最高層特征通過FPN 自上而下的傳播路徑向底層傳播后,丟失了主要特征,且相鄰層間特征融合時未考慮語義信息間的差異,降低了多尺度特征的提取能力.針對底層特征信息丟失的問題,路徑聚合網絡(path aggregation network,PANet)[18]使用自下而上的結構,縮短底層與最高特征層之間的傳播路徑,豐富高層的空間信息,增強特征層的定位能力.Huang 等[19]通過在特征金字塔中增加橫向連接支路,將底層特征層信息補充到后續網絡中.Li 等[20]利用基于增強單發多框探測器(single shot multibox detector,SSD)的特征金字塔模型,以非線性的方式融合各層特征.

注意力機制(attention mechanism,AM)[21]因其良好的性能,被廣泛應用于計算機視覺領域,例如圖像分類[22]、人臉識別[23-24]、關鍵點檢測[25]、三維視覺[26]等.AM 的基本思想是對各輸入特征分配權重系數,通過權重系數表示對該特征的關注程度,具體可以分為通道注意力(channel attention,CA)、空間注意力(spatial attention,SA)和混合注意力3 類.

通道注意力機制CA 模塊的結構如圖2 所示,將高為H、寬為W、通道數為C 的特征圖輸入全局平均池化層,對其空間維度W 和H 進行壓縮,C 保持不變,便于后續的網絡學習通道特征.對1×1×C 維度的特征圖進行卷積操作,并經過softmax 處理后獲得歸一化序列.該序列即為通道注意力機制權重,與輸入特征圖按通道維度對應相乘,獲得最終的輸出特征圖.

圖2 通道注意力機制Fig.2 Channel attention mechanism

空間注意力機制SA 模塊的結構如圖3 所示,為了獲得特征圖中目標的位置特征,對特征圖進行1×1 卷積和softmax 處理,將通道維度壓縮為單位1,并保持高、寬不變,獲得H×W 的矩陣.該矩陣即為空間注意力機制權重,反映特征圖中對應像素點位置信息的重要程度.將輸入特征圖與該權重矩陣相乘,可以起到放大重要特征、弱化背景信息的作用.

圖3 空間注意力機制Fig.3 Spatial attention mechanism

由于鋼筋邊緣帶有縱肋和橫肋,為了保證Mask R-CNN 網絡對邊緣細節的預測精度,借鑒PANet 的網絡結構,在ResNet-FPN 模塊中增加自下而上的傳播路徑,并嵌入通道注意力和空間注意力結合的CA-SA 模塊.加強淺層與深層特征的融合,避免鋼筋邊緣細節信息的丟失;調整特征提取的重點,突出高目標響應通道和目標像素點,提高Mask R-CNN 網絡的鋼筋檢測與分割準確度.

自下而上注意力機制路徑的結構如圖4 所示,最左側部分采用ResNet 網絡結構,獲取{C1,C2,C3,C4,C5}特征圖.在C5 的基礎上,通過1×1 卷積及通道數下采樣操作生成P5 特征圖,采用2 倍最近鄰上采樣放大特征圖分辨率后,與C4 逐元素相加,以生成P4 特征圖.為了獲取自下而上路徑中的{N2,N3,N4,N5}特征圖,將P2 的特征信息傳入N2,再對N2 進行3×3 卷積將高、寬下采樣至P3 尺寸,與P3 逐元素相加后,輸入CASA 模塊來得到N3.依此類推,N4 和N5 可在P4 和P5 特征圖上對應提取.通過將該自下而上的注意力機制路徑鑲嵌到Mask R-CNN 模型中,形成改進的Mask R-CNN 模型,即Mask R-CNN+CA-SA 模型.

圖4 自下而上的注意力機制路徑Fig.4 Bottom-up path with attention mechanism module

1.3 雙目視覺技術

雙目視覺是計算機視覺的重要領域,通過左右目相機來模擬人類視覺系統,結合透視投影、三角測量和特征點匹配原理獲取景深信息,計算物體相對于相機的三維空間坐標.由于設備簡便、效率高、成本低等優勢,雙目立體視覺技術被廣泛應用于自動駕駛[27]、遙感技術[28]、目標識別[29-30]、三維重建[31]等領域.

采用英特爾RealSense 深度相機設備,從左到右依次內置了RGB 相機、左紅外相機、紅外點陣投射器和右紅外相機.左、右紅外相機基于雙目立體視覺原理測量深度,紅外點陣投射器用于為物體增加結構光編碼圖案,RGB 相機用于采集彩色圖像.RealSense 相機的深度測量原理如圖5 所示.圖中,基線b 表示左、右紅外相機軸線中心的連線,f 為相機焦距.在理想情況下,左、右紅外相機光軸相互平行,對于空間中任一點P(x,y,z),z 為距離相機坐標平面的垂直深度,其在左、右成像平面投影點的坐標分別為(xl,yl)、(xr,yr).兩投影點的視差d 等于xl與xr之差,如下所示:

圖5 RealSense 相機的深度測量原理圖Fig.5 Schematic diagram for depth measurement by RealSense

利用計算出的d、b 和f,根據三角測量原理即可求出點P 距離相機的深度z,如下所示:

在求出深度z 后,通過相機內參矩陣將像素坐標系轉換至相機坐標系,利用(xl,yl)的像素坐標計算出點P 的x、y 坐標值.若已知RealSense 深度相機獲取的任意兩點(x1,y1,z1)、(x2,y2,z2),則根據下式可以求出兩點間的距離:

將提出的Mask R-CNN+CA-SA 模型與雙目視覺技術結合,Mask R-CNN+CA-SA 模型負責對鋼筋進行識別,雙目視覺技術則用于計算鋼筋直徑與間距,實現鋼筋的智能檢測.

1.4 基于改進Mask R-CNN 的智能配筋檢測方法

如圖6 所示為智能配筋檢測方法的流程示意圖,主要分為深度相機數據采集、鋼筋識別、鋼筋直徑與間距計算3 部分,坐標轉換作為鋼筋尺寸計算的輔助環節.使用深度相機對鋼筋的RGB 和深度圖像進行采集,其中RGB 圖用于反映鋼筋的色彩與紋理信息,深度圖用于存儲像素點的深度信息z.利用在鋼筋數據集上充分訓練的Mask RCNN+CA-SA 模型,對輸入的RGB 圖進行鋼筋識別,獲取鋼筋邊界框與掩膜的預測結果.利用掩膜提取鋼筋邊緣與中線對應點對的像素坐標集合,作為鋼筋直徑與間距計算的平面依據.將深度圖傳入坐標轉換部分,通過深度圖與RGB 圖對齊的方法,獲取各像素點的深度坐標z.結合相機內參矩陣計算出鋼筋直徑與間距對應點對的空間坐標,分別代入式(3),可以獲得實際的鋼筋直徑與間距.

圖6 智能配筋檢測方法的實現流程Fig.6 Flow chart of intelligent rebar inspection method

2 改進的Mask R-CNN 模型訓練

2.1 鋼筋數據集

Mask R-CNN 是實例分割的通用網絡,利用改進的Mask R-CNN 實現鋼筋這一特定對象的識別,須預先在鋼筋數據集上進行訓練.數據集包括訓練集與測試集2 個部分.在訓練集中,鋼筋圖片與標簽分別作為輸入和輸出傳入Mask R-CNN+CA-SA 網絡,用于計算鋼筋實例分割模型的權重參數.在測試集中,鋼筋圖片輸入訓練好的模型進行鋼筋檢測與分割,對結果進行損失和評價指標計算,用于對下一訓練步的權重參數進行調整.直至訓練結束,保留最優評價指標對應的權重參數,用于智能配筋檢測方法的鋼筋邊界框與掩膜預測.

2.1.1 數據標注 由于目前沒有公開的鋼筋數據集,使用照相機設備采集鋼筋的原始圖片.部分數據集圖片如圖7 所示,拍攝對象為帶肋鋼筋組成的單雙層鋼筋網.為了增加數據集的多樣性,拍攝過程中考慮影響檢測和尺寸計算精度的因素,圖7(a)、(b)反映背景復雜程度的差異,圖7(c)、(d)體現背景與鋼筋顏色差距的大小,圖7(e)、(f)分別為產生鋼筋倒影和反光點的情況.

圖7 部分數據集圖片Fig.7 Partial pictures in dataset

在采集好鋼筋原始圖片后,為了獲得鋼筋的掩膜標簽,使用開源標注軟件Labelme 進行人工標注.以多邊形勾勒出鋼筋實例的邊緣,該多邊形對應的圍合區域即為鋼筋掩膜.將標注數據以json 文件格式進行存儲.為了將較多的數據用于模型性能的測試,按照7∶3 的比例隨機劃分為訓練集和測試集.

2.1.2 數據增強 初始采集圖像共計有300 張,為了提高模型的泛化性能,同時降低數據間的相似程度,采用混合數據增強的方式對數據集進行擴增,包括圖片平移、翻轉、仿射變換等幾何變換方式以及調整亮度、對比度、增加高斯噪聲等像素變換方式.如圖8(a)所示為數據集的原始圖片,經過水平翻轉及對比度調整得到圖8(b),經過裁剪放大及高斯噪聲處理得到圖8(c).數據集擴增后進一步篩除相似度過高的圖像,最終保留3 450張,滿足神經網絡訓練對數據量的要求.

圖8 數據增強示意圖Fig.8 Schematic diagram of data enhancement

2.2 模型訓練

使用Ubuntu18.04 操作系統、Intel(R)Xeon(R)E5-2678 v3 @ 2.50 GHz CPU、NVIDIA GeForce RTX 2080 Ti 顯卡作為模型訓練的軟硬件條件.選用ResNet101作為主干特征提取網絡,基于遷移學習的思想,訓練時進一步加載ResNet101 的預訓練權重對超參數進行初始化,有助于加快訓練的收斂速度,提升模型性能.采用隨機梯度下降方法作為優化器,更新模型參數,動量為0.9,權重衰減因子為0.000 1.設置訓練批次大小為4,總訓練輪次為50,初始學習率為0.000 5.

2.2.1 模型評價指標 對于Mask R-CNN 網絡,目標檢測的準確率對實例分割的精度會有一定的影響,采用精確率P(precision)和F1分數作為該部分的評價指標.P 為模型預測出的目標中屬于正確預測的比例,召回率R(Recall)為所有真值目標中被預測為正樣本的比例,F1為P 和R 的調和平均數,公式如下:

式中:TP為實際目標為鋼筋且被正確預測為鋼筋的數量,FP為實際目標為背景但被錯誤預測為鋼筋的數量,FN為實際目標為鋼筋但被錯誤預測為背景的數量.

采用平均交并比(mean intersection over union,mIoU)、Dice 損失和全類平均精確率(mean average precision,mAP)作為模型分割性能的評價指標.mIoU 為不同類別的預測掩膜與目標掩膜重疊比例的均值.Dice 損失表示預測掩膜與目標掩膜之間的相似度.平均精確率(average precision,AP)為置信度閾值下P-R 曲線與坐標軸圍合區域的面積,對物體類別N 求平均,得到全類平均精確率(mean average precision,mAP),公式如下所示.

為了綜合反映模型性能,采用COCO 數據集定義的方法計算mAP 指標,即使用不同交并比閾值(0.5:0.05:0.95)下mAP 的平均值表示,當大于設定的交并比閾值時認為該預測結果為正樣本.

2.2.2 訓練結果與分析 為了驗證模型的有效性,采用相同的超參數設置,將提出的Mask RCNN+CA-SA 模型與Mask R-CNN+Soft-NMS、Mask R-CNN 基礎網絡、U-Net、DeepLabV3+及PSPNet進行比較.如表1 所示為各模型性能的對比結果.Mask R-CNN+CA-SA 模型的P 為93.89%,F1分數為94.97%,mIoU 為89.03%,Dice 損失為12.26%,mAP 為87.62%,相對于其他分割模型性能最為優異,其中較Mask R-CNN 基礎網絡的P、F1分數、mIoU 和mAP 分別提高了3.56%、2.54%、2.60%和2.47%,Dice 損失降低了1.14%.

表1 不同模型的評價指標對比Tab.1 Evaluation index comparison of different models%

在各指標中,F1分數和mAP 能夠更綜合地評價模型性能.如圖9 所示為Mask R-CNN+CA-SA、Mask R-CNN 基礎網絡的F1和mAP 曲線.圖中,E 為訓練輪次.2 項指標在前10 個訓練輪次內顯著增加,第30 個訓練輪次后趨于穩定.Mask RCNN+CA-SA 從初始階段即可改善鋼筋掩膜的分割精度,模型整體性能呈現穩步提升的趨勢.利用Mask R-CNN+CA-SA 模型進行鋼筋檢測,結果如圖10 所示,得到鋼筋的矩形邊界框、區域掩膜、類別標簽與置信度信息.

圖9 不同模型的F1 和mAP 曲線Fig.9 F1 and mAP curves of different models

圖10 基于Mask R-CNN+CA-SA 模型的鋼筋檢測結果Fig.10 Inspection result of rebars based on Mask R-CNN +CA-SA model

3 雙目視覺配筋檢測

在Mask R-CNN+CA-SA 模型訓練完成后,可以根據RealSense 提供的開源SDK 框架,按照數據采集、鋼筋識別、鋼筋直徑與間距計算的流程,開發雙目視覺配筋檢測方法.

在數據采集前,為了獲取準確的深度測量數據,使用英特爾官方給出的標定工具對Real-Sense 深度相機設備的內、外參數進行標定.以最左側的RGB 相機為世界坐標系原點,相機內參矩陣、旋轉矩陣和平移矩陣的標定結果如表2 所示.

表2 內、外參數的標定結果Tab.2 Calibration result of intrinsic and extrinsic parameters

為了使深度誤差小于2%,將RealSense 相機和采集對象的距離控制在0~2 m.調用上述標定好的內、外參數,通過SDK 的深度成像模塊對左、右紅外相機的圖像進行特征點匹配,根據左、右成像圖片的視差計算對應像素點的深度,形成深度圖.

如圖11(a)、(b)所示為深度相機采集的鋼筋RGB 和深度圖像數據.原始深度圖通過灰度來表征單一的深度信息,為了體現深度之間的差異,加強可視化效果,圖11(b)在原始深度圖的基礎上進行了色彩渲染,圖像底部呈深色為距離相機較近的區域.將鋼筋RGB 圖輸入訓練好的Mask R-CNN+CA-SA 模型中,檢測結果如圖11(c)所示.可以看出,鋼筋表面銹蝕及地面倒影未對模型預測造成干擾,鋼筋主體掩膜完整.由于模型預測順序具有隨機性,為了提高配筋檢測的效率和可操作性,按照自上而下、從左到右的順序,重新對鋼筋掩膜進行排序.將單根鋼筋的掩膜圖像進行二值化處理,利用邊緣檢測算法提取掩膜的邊緣和中線坐標,通過k 近鄰算法計算得到各掩膜中線的法向量.如圖11(d)所示,沿法向量方向向掩膜兩側邊緣、相鄰掩膜中線延伸,提取邊緣和中線的對應點對像素坐標.將圖11(a)、(b)的信息進行對齊,獲得邊緣和中線對應點對的空間坐標,計算出各根鋼筋的直徑與間距后,將數據存儲在對應編號的信息元組中進行輸出.

圖11 配筋檢測的輸入與輸出數據Fig.11 Input and output data of rebar inspection

4 配筋檢測試驗與評估

為了驗證智能配筋檢測方法的準確性,在試驗室環境下搭建一單層鋼筋網,利用智能配筋檢測方法計算直徑與間距,與人工測量結果對比.

如圖11(a)所示為單層鋼筋網的基本組成情況,沿縱向和橫向分別配置6 根鋼筋,采用焊接的方式對網點進行固定,左、右兩端設置的35 mm 高墊木則用于鋼筋網的抬高.為了說明智能配筋檢測方法的適用范圍,直徑與間距分別設置小、中、大3 種尺寸,從鋼筋網中心到兩端邊緣,直徑對稱地由10 mm 遞增至16 mm 和20 mm;間距設計值包含100、150 和200 mm,但由于存在制作誤差,鋼筋間距真實值利用人工測量的方法進一步確定.

如圖11(d)所示,每根鋼筋分別選取20 組邊緣對應點對,利用20 組數據的均值作為直徑的檢測值,選取60 段的網點位置計算鋼筋間距.智能配筋檢測的可視化結果如圖12 所示,圖12(a)為鋼筋直徑與間距對應的位置編號,縱、橫向分別用y 和x 表示,并按照自上而下、從左到右的順序賦予1~6 的標號.如圖12(b)所示為直徑與間距的檢測值,分別用方框在原位進行標注.

圖12 配筋檢測可視化結果Fig.12 Visualization results of rebar inspection

鋼筋直徑的檢測結果如表3 所示.表中,Dn為公稱直徑,D 為直徑檢測值,Eda為直徑的絕對誤差,Edr為直徑的相對誤差.絕對誤差為0~1.7 mm,相對誤差基本控制在0~10%.智能配筋檢測方法在小直徑鋼筋檢測方面同樣具有較好的效果,y4 位置誤差最小為0.3 mm.對于工程中使用的各類規格的鋼筋,22 mm 及以下鋼筋公稱直徑以2 mm 遞減,22 mm 以上分為25、28、32、36、40、50 mm,相鄰型號的鋼筋公稱直徑最小相差3 mm,最大相差10 mm.為了確保工作人員在鋼筋隱蔽工程驗收中不會對鋼筋直徑作出誤判,須將智能配筋檢測方法的鋼筋直徑允許誤差控制在0~1.0 mm.在檢測結果中,x5、x6、y3 和y5 位置的鋼筋絕對誤差均超過1 mm,會使工作人員將直徑分別誤判為14、22、12 和14 mm,不滿足實際工程的精度要求.

表3 鋼筋直徑檢測結果Tab.3 Inspection results of rebar diameter

如表4 所示為鋼筋間距的檢測結果.表中,鋼筋間距真實值為通過人工卷尺測量獲得的數據,Sr為鋼筋間距的真實值,S 為鋼筋間距的檢測值,Esa為間距的絕對誤差,Esr為間距的相對誤差.絕對誤差均小于4 mm,且約有1/2 的鋼筋間距誤差可以保持在0~1.0 mm.相對誤差基本控制在0~3%,最大相對誤差對應的位置編號為x2-5,檢測值大于真實值3.2%.根據GB50204—2015《混凝土結構工程施工質量驗收規范》5.5.3 條[32]可知,鋼筋間距的安裝誤差須控制在0~20 mm,試驗中鋼筋間距的絕對誤差均遠小于規定的允許偏差,滿足規范對間距檢測精度的要求.

表4 鋼筋間距檢測結果Tab.4 Inspection results of rebar spacing

為了驗證所提方法的可行性與實際可操作性,在復雜背景下對梯板鋼筋網進行識別與檢測,結果如圖13 所示.可以看出,在復雜環境背景下,所有鋼筋均能被準確識別.鋼筋直徑和上層鋼筋間距的最大絕對誤差位置被放大標記,其中,直徑最大絕對誤差處的檢測值為9.1 mm,相較于公稱直徑小0.9 mm;間距最大絕對誤差處的檢測值為201.8 mm,相較于真實值大1.8 mm,兩者均滿足工程實際所需的精度要求.

圖13 復雜背景配筋檢測結果Fig.13 Rebar inspection results in complex background

綜上所述,智能配筋檢測方法對鋼筋直徑的檢測精度偏低,但在鋼筋間距檢測方面能夠達到理想的高精度效果.誤差產生的原因如下.1)較大的直徑與間距誤差主要分布在鋼筋網的邊緣位置,這些誤差主要受深度圖分辨率的影響,Real-Sense 相機提供的深度圖最大分辨率僅為1 280 像素×720 像素,在與RGB 圖對齊的過程中容易出現圖像邊緣對齊精度下降的問題,導致邊緣像素點匹配到錯誤的深度信息.該問題可以通過提高深度相機的像素得到解決.2)鋼筋表面帶有縱肋和橫肋,公稱直徑無法全面衡量鋼筋截面的尺寸分布情況,且鋼筋掩膜與鋼筋肋部的鋸齒狀邊緣未完全貼合,導致提取的對應點對存在偏差,從而加大鋼筋直徑檢測的誤差.對于不同直徑的鋼筋,其公稱直徑屬性、檢測方法及其影響因素尚需進一步的研究.

5 結 論

(1)通過在自建的包含3 450 張圖片的鋼筋數據集上進行訓練,Mask R-CNN+CA-SA 相較于Mask R-CNN 基礎網絡的F1分數和mAP 分別增加了2.54%和2.47%,表明Mask R-CNN+CA-SA 模型能夠有效提高鋼筋邊界框與掩膜預測的準確率.

(2)使用單層鋼筋網試驗和復雜背景測試,對提出的智能配筋檢測方法進行驗證.結果表明,鋼筋直徑的檢測精度偏低,絕對誤差為0~1.7 mm,需要進一步提高.鋼筋間距的檢測精度較高,絕對誤差均小于4.0 mm,滿足規范驗收的精度要求.智能配筋檢測方法在實際應用中具有較強的可操作性.

(3)深度圖分辨率過低導致圖像邊緣對齊精度下降,以及掩膜未貼合鋼筋鋸齒狀邊緣是造成智能配筋檢測方法誤差的主要原因.今后須進一步提升圖像分辨率及掩膜精度,通過擴充數據集增強智能配筋檢測方法的魯棒性,將其應用到更復雜的場景中.

猜你喜歡
特征檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 亚洲视频欧美不卡| 亚洲视屏在线观看| 老司机精品久久| 色天天综合| 欧美日韩免费观看| 国模私拍一区二区| 精品视频一区在线观看| 精品色综合| 四虎综合网| 青青草久久伊人| 午夜免费小视频| 国产成人一区| 国产毛片高清一级国语 | a级毛片免费看| 久久成人免费| 色偷偷av男人的天堂不卡| 99视频精品在线观看| 国产精品性| 久一在线视频| 午夜国产精品视频黄| 婷婷99视频精品全部在线观看| 色哟哟国产成人精品| 亚洲性影院| 久久9966精品国产免费| 一级毛片在线播放免费观看 | 亚洲一区波多野结衣二区三区| 亚洲熟妇AV日韩熟妇在线| 99久久亚洲综合精品TS| 亚洲中文字幕久久精品无码一区| 无套av在线| 91丝袜乱伦| 综合色亚洲| 亚洲日韩Av中文字幕无码| 99er精品视频| 久久一本精品久久久ー99| 亚洲人成网站日本片| 精品1区2区3区| 日本www色视频| 精品少妇人妻一区二区| 午夜福利网址| 国产精品无码久久久久AV| 九九香蕉视频| 欧美另类图片视频无弹跳第一页| 一本大道香蕉久中文在线播放| 精品国产中文一级毛片在线看| 亚洲国产日韩视频观看| 国产女人在线视频| 真人免费一级毛片一区二区| 国产免费精彩视频| 自慰高潮喷白浆在线观看| 精品三级在线| 成人在线观看一区| 91小视频在线| 综合久久五月天| 日韩成人高清无码| 色视频久久| 亚洲综合色婷婷中文字幕| 亚洲毛片一级带毛片基地| 久久精品亚洲热综合一区二区| 中文字幕 91| 热99re99首页精品亚洲五月天| 99在线视频精品| 性欧美久久| 一本大道在线一本久道| 国产精品成人啪精品视频| 亚洲AV无码精品无码久久蜜桃| 国产拍在线| 亚洲天堂首页| 午夜不卡视频| 色网站在线视频| 久久国产精品波多野结衣| 精品午夜国产福利观看| 美女扒开下面流白浆在线试听| 国产精品尤物在线| 久久综合丝袜长腿丝袜| 中文字幕啪啪| 免费观看国产小粉嫩喷水| 亚洲愉拍一区二区精品| 日韩乱码免费一区二区三区| 亚洲国产综合精品一区| 国产成人亚洲欧美激情| 精品无码国产自产野外拍在线|