999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于語(yǔ)義分割和卷積神經(jīng)網(wǎng)絡(luò)的數(shù)顯表識(shí)別算法研究

2022-11-05 08:30:54陳霄王黎明張法業(yè)張藝藍(lán)姜明順張雷
電子設(shè)計(jì)工程 2022年21期
關(guān)鍵詞:模型

陳霄,王黎明,張法業(yè),張藝藍(lán),姜明順,張雷

(1.國(guó)網(wǎng)江蘇省電力有限公司,江蘇 南京 210024;2.江蘇方天電力技術(shù)有限公司,江蘇南京 211100;3.山東大學(xué)控制科學(xué)與工程學(xué)院,山東濟(jì)南 250061)

隨著工業(yè)4.0 戰(zhàn)略的實(shí)施,在工業(yè)智能化、數(shù)字智慧小區(qū)建設(shè)背景下,自動(dòng)抄表及遠(yuǎn)程讀表技術(shù)已成為當(dāng)前工程實(shí)踐應(yīng)用及研究的熱點(diǎn)。目前,大部分地區(qū)的水表是傳統(tǒng)機(jī)械式水表,隨著智能化技術(shù)的發(fā)展,人工抄表方式人力成本高昂,實(shí)時(shí)性差,缺乏統(tǒng)一化、標(biāo)準(zhǔn)化管理等缺點(diǎn)日益凸顯,因此,亟需一種自動(dòng)化數(shù)顯表識(shí)別系統(tǒng)。

針對(duì)以上問(wèn)題,提出了一種基于語(yǔ)義分割和卷積神經(jīng)網(wǎng)絡(luò)的數(shù)顯表讀數(shù)識(shí)別算法,并對(duì)利用實(shí)際水表構(gòu)建數(shù)據(jù)集驗(yàn)證了算法的準(zhǔn)確性。

1 數(shù)顯表讀數(shù)識(shí)別系統(tǒng)總體設(shè)計(jì)

傳統(tǒng)的數(shù)顯表識(shí)別方法的流程是數(shù)字區(qū)域提取、傾斜校正、字符分割、數(shù)字識(shí)別[1],常用方法有邊緣檢測(cè)算法[2-3]、Hough 變換[4-5]、模板匹配[6-7]等。以上方法均需要按使用環(huán)境調(diào)整參數(shù),難以全面推廣應(yīng)用。家用水、氣、電、暖等數(shù)顯表在不同家庭環(huán)境下,數(shù)顯表種類(lèi)、表盤(pán)清潔程度以及環(huán)境背景均有明顯差異,傳統(tǒng)方法難以采用一個(gè)通用算法解決這些問(wèn)題。近年來(lái),人工智能機(jī)器視覺(jué)感知技術(shù)發(fā)展迅速,并在理論與實(shí)際應(yīng)用兩大方面均取得了卓越發(fā)展成果[8]。目前基于深度學(xué)習(xí)的機(jī)器視覺(jué)研究有圖片分類(lèi)[9]、目標(biāo)檢測(cè)[10]、語(yǔ)義分割[11]等,分別滿足不同的任務(wù)需要。對(duì)于數(shù)顯表數(shù)字識(shí)別系統(tǒng),語(yǔ)義分割模型可以有效地提取數(shù)字所在位置,圖片分類(lèi)模型可以精準(zhǔn)識(shí)別圖片數(shù)字,為數(shù)顯表數(shù)字識(shí)別算法提供一種有效技術(shù)手段。

針對(duì)傳統(tǒng)數(shù)顯表讀數(shù)識(shí)別算法適用性差、抗噪能力弱等問(wèn)題,提出了一種基于語(yǔ)義分割和卷積神經(jīng)網(wǎng)絡(luò)的數(shù)顯表讀數(shù)識(shí)別算法。通過(guò)語(yǔ)義分割實(shí)現(xiàn)數(shù)顯表數(shù)字識(shí)別,使用數(shù)據(jù)增強(qiáng)和遷移學(xué)習(xí)方法降低數(shù)據(jù)獲取成本,并結(jié)合自適應(yīng)區(qū)域二值化,降低噪聲的干擾。

基于語(yǔ)義分割和卷積神經(jīng)網(wǎng)絡(luò)的數(shù)顯表識(shí)別系統(tǒng)總體方案如圖1 所示。

圖1 總體設(shè)計(jì)框圖

2 硬件設(shè)計(jì)

數(shù)顯表讀數(shù)識(shí)別系統(tǒng)由圖像采集模塊、控制器模塊和遠(yuǎn)程傳輸模塊組成,系統(tǒng)硬件原理圖如圖2所示。

圖2 硬件原理圖

圖像采集模塊采用索尼IMX290 攝像頭,實(shí)現(xiàn)了在100°視角內(nèi)數(shù)顯表的200 萬(wàn)像素圖像的實(shí)時(shí)采集;控制器模塊基于Jetson Nano AI 核心板設(shè)計(jì),該核心板搭載四核Cortex-A57 處理器,128 核Maxwell GPU,2GB LPDDR內(nèi)存,支持TensorFlow、PyThon、Caffe 等AI 框架和算法,實(shí)現(xiàn)了基于語(yǔ)義分割和卷積神經(jīng)網(wǎng)絡(luò)的數(shù)顯表識(shí)別算法的穩(wěn)定運(yùn)行;遠(yuǎn)程傳輸模塊基于4G 通信芯片WH-LTE-7S1 設(shè)計(jì),具備10 MB/s 下載速度、5 MB/s 上傳速度,兼容2G/4G/NB-IoT 等多種網(wǎng)絡(luò)制式,實(shí)現(xiàn)了數(shù)字表讀數(shù)的快速準(zhǔn)確傳輸。

系統(tǒng)工作時(shí),圖像采集模塊接收控制器模塊采集指令后,采集數(shù)顯表表盤(pán)圖像并通過(guò)USB 總線發(fā)送給控制器模塊,控制器模塊將接收到的圖像數(shù)據(jù)輸入數(shù)顯表讀數(shù)識(shí)別算法中,得到數(shù)顯表讀數(shù),并通過(guò)4G 網(wǎng)絡(luò)傳輸給上位機(jī)管理系統(tǒng),經(jīng)用能費(fèi)用計(jì)算后,向用戶發(fā)出繳費(fèi)提醒。

3 軟件算法設(shè)計(jì)

3.1 數(shù)據(jù)增強(qiáng)及預(yù)處理

深度學(xué)習(xí)作為一種數(shù)據(jù)驅(qū)動(dòng)算法,數(shù)據(jù)需求量大。有監(jiān)督的深度學(xué)習(xí)算法不僅需要數(shù)顯表圖片數(shù)據(jù),同時(shí)還需要相應(yīng)的標(biāo)簽輔助訓(xùn)練。在標(biāo)注數(shù)據(jù)有限的情況下,數(shù)據(jù)增強(qiáng)(Data Augmentation)是一種增加訓(xùn)練樣本的多樣性的有效手段。按照變化方法,數(shù)據(jù)增強(qiáng)方法分為幾何變換類(lèi)、顏色變換類(lèi)和生成式數(shù)據(jù)增強(qiáng)。該文進(jìn)行數(shù)據(jù)增強(qiáng)及預(yù)處理時(shí),選用幾何變換類(lèi)和顏色變換類(lèi)進(jìn)行數(shù)據(jù)增強(qiáng)。

幾何變換類(lèi)方法是指在不改變圖像相應(yīng)像素值的條件下,通過(guò)改變像素值的位置以及改變圖片尺寸的方法實(shí)現(xiàn)數(shù)據(jù)增強(qiáng)。常見(jiàn)的幾何變換類(lèi)方法有鏡像、旋轉(zhuǎn)、縮放、裁剪等操作。鏡像和旋轉(zhuǎn)不改變圖像的尺寸,而裁剪會(huì)改變圖像的尺寸,縮放會(huì)產(chǎn)生圖像失真。由于幾何變換類(lèi)操作會(huì)影響到圖片相應(yīng)的Ground Truth,因此在進(jìn)行上述操作時(shí),要對(duì)Image和Ground Truth 同時(shí)進(jìn)行操作。

顏色變換類(lèi)可以改變圖像的像素值實(shí)現(xiàn)數(shù)據(jù)增強(qiáng),如噪聲疊加、圖像模糊、顏色改變、亮度值調(diào)整等。基于噪聲的數(shù)據(jù)增強(qiáng)是在原來(lái)圖片的基礎(chǔ)上,隨機(jī)疊加一些噪聲,如高斯噪聲。改變色調(diào)是在一定的色彩空間中,通過(guò)增加或減少一些色彩成分,或改變色彩通道的順序來(lái)完成。調(diào)整亮度值可以模擬現(xiàn)實(shí)中不同光線強(qiáng)度的情況。

針對(duì)家用水表圖像底噪高、角度不正等特點(diǎn),在保留原圖的基礎(chǔ)上,對(duì)原圖進(jìn)行添加高斯噪聲、隨機(jī)改變圖像色調(diào)、隨機(jī)調(diào)整圖像亮度以及以上方式的組合變換,得到七種數(shù)據(jù)增強(qiáng)圖片。針對(duì)不同設(shè)備分辨率和拍攝角度不同的問(wèn)題,采用隨機(jī)裁剪、縮放、翻轉(zhuǎn)+裁剪三種方法,將原圖和數(shù)據(jù)增強(qiáng)圖片進(jìn)行規(guī)范,得到尺寸為256×256 的增強(qiáng)圖片,使得原始數(shù)據(jù)集擴(kuò)充為24 倍。具體數(shù)據(jù)增強(qiáng)方法編號(hào)如表1所示。

表1 數(shù)據(jù)增強(qiáng)方法編號(hào)

3.2 數(shù)字區(qū)域分割算法設(shè)計(jì)

基于U-net 模型進(jìn)行數(shù)字區(qū)域分割算法設(shè)計(jì)。U-net 模型[12]的優(yōu)勢(shì)在于它不需要繁瑣的圖像與處理和特征工程,且能夠以端到端的方式進(jìn)行應(yīng)用。此外通過(guò)使用數(shù)據(jù)增強(qiáng)技術(shù),U-net 在小數(shù)據(jù)集上可以實(shí)現(xiàn)良好的預(yù)測(cè)性能。基于標(biāo)準(zhǔn)U-net 網(wǎng)絡(luò),利用調(diào)整參數(shù)和模型層數(shù),結(jié)合跨步卷積的下采樣實(shí)現(xiàn)方法,構(gòu)建數(shù)字區(qū)域分割網(wǎng)絡(luò),并通過(guò)引入殘差結(jié)構(gòu)解決由于模型層數(shù)過(guò)深而產(chǎn)生的梯度消失問(wèn)題,提升模型性能。

跨步卷積是指步長(zhǎng)大于1 的卷積,可以作為一種下采樣方法。其與最大池化法不同的是對(duì)于一定范圍的特征信號(hào),傳遞到下一層的權(quán)重是模型學(xué)習(xí)出來(lái)的,因此可以更有效地提取特征。

殘差是指實(shí)際測(cè)量值與回歸預(yù)測(cè)值的差。在表盤(pán)區(qū)域識(shí)別任務(wù)中,深度殘差網(wǎng)絡(luò)通過(guò)使用殘差模塊參考己知的淺層映射獲取數(shù)據(jù)特征,這比直接擬合深層映射更容易[13],從而提升模型準(zhǔn)確性。殘差模塊是在兩個(gè)卷積層的基礎(chǔ)上添加了一個(gè)捷徑連接(Shortcut connections)。殘差模塊的一般表達(dá)形式如下:

其中,x是恒等映射;H(x)是期望的基礎(chǔ)映射;F(x)是殘差映射。期望的基礎(chǔ)映射H(x)可以被重寫(xiě)為F(x)+x。隨著深度學(xué)習(xí)網(wǎng)絡(luò)模型層數(shù)的增加,會(huì)出現(xiàn)梯度消失、梯度爆炸等網(wǎng)絡(luò)退化問(wèn)題,使用殘差方法打破U-net 網(wǎng)絡(luò)對(duì)稱(chēng)性,進(jìn)而有效改善層數(shù)過(guò)多引起的網(wǎng)絡(luò)退化問(wèn)題[14]。模塊結(jié)構(gòu)如圖3,參數(shù)如表2 所示。

表2 改進(jìn)U-net模型參數(shù)

圖3 改進(jìn)U-net模型及殘差模塊結(jié)構(gòu)

3.3 數(shù)字字符提取方法設(shè)計(jì)

通過(guò)分割算法,可以得到數(shù)字表盤(pán)的預(yù)測(cè)Ground Truth,然而由于模型準(zhǔn)確度、圖片拍攝角度問(wèn)題,分割結(jié)果通常為不規(guī)則矩形,需進(jìn)一步處理才能正確提取表盤(pán)區(qū)域。

采用掃描檢測(cè)法,通過(guò)依次掃描x軸和y軸,確定表盤(pán)所在最小矩形區(qū)域。同時(shí),加入連通性判定條件,降低小區(qū)域分割誤差對(duì)提取結(jié)果的影響。掃描前,首先使用Ground Truth 提取原圖表盤(pán)識(shí)別區(qū)域。

然后依次掃描x軸和y軸,在表盤(pán)識(shí)別區(qū)域附近,將連續(xù)5 個(gè)非表盤(pán)區(qū)域作為邊界,其內(nèi)部即為矩形表盤(pán)區(qū)域。

為提升字符識(shí)別效率,對(duì)圖片進(jìn)行灰度化和二值化處理。采用自適應(yīng)閾值法選擇二值化閾值。首先計(jì)算r×r領(lǐng)域內(nèi)的灰度均值n(x,y)與標(biāo)準(zhǔn)方差s(x,y)。

然后,計(jì)算領(lǐng)域內(nèi)像素點(diǎn)對(duì)應(yīng)高斯權(quán)重、像素點(diǎn)(x,y)的閾值T(x,y)。

其中,(i,j)是領(lǐng)域內(nèi)像素點(diǎn)與(x,y)相對(duì)的坐標(biāo)。

最后,進(jìn)行二值化,如式(7)所示:

對(duì)于后續(xù)數(shù)字識(shí)別功,采取單個(gè)字符提取識(shí)別并組合的方法來(lái)識(shí)別表盤(pán)數(shù)字。以5 位數(shù)字的數(shù)顯表為例,如圖4 所示,將表盤(pán)區(qū)域分為5 份,每個(gè)區(qū)域左右部分各留出5%的重疊部分,避免分割導(dǎo)致數(shù)字不完整。

圖4 字符提取示意圖

3.4 數(shù)字識(shí)別算法設(shè)計(jì)

考慮到數(shù)顯表盤(pán)數(shù)字為規(guī)范印刷體,風(fēng)格差異較小,對(duì)大量數(shù)據(jù)進(jìn)行標(biāo)注構(gòu)建數(shù)據(jù)集時(shí)間成本極高,但若僅使用少量數(shù)據(jù)構(gòu)建數(shù)據(jù)集,深度學(xué)習(xí)模型易陷入過(guò)擬合[15]。因此,基于CNN 模型LeNet-5 網(wǎng)絡(luò)框架構(gòu)建數(shù)字識(shí)別算法,利用mnist 手寫(xiě)數(shù)據(jù)集,實(shí)現(xiàn)遷移學(xué)習(xí),提升所設(shè)計(jì)算法在小樣本圖像識(shí)別數(shù)據(jù)庫(kù)上的準(zhǔn)確度[16]。具體流程如圖5 所示。

圖5 數(shù)字識(shí)別算法流程

首先,預(yù)訓(xùn)練基于LeNet-5 網(wǎng)絡(luò)結(jié)構(gòu)CNN 模型,其網(wǎng)絡(luò)結(jié)構(gòu)和參數(shù)分別如圖6、表3 所示。

表3 CNN模型參數(shù)

圖6 CNN網(wǎng)絡(luò)結(jié)構(gòu)

預(yù)訓(xùn)練完成后,將構(gòu)建的真實(shí)表盤(pán)數(shù)據(jù)集分為訓(xùn)練集和測(cè)試集,利用訓(xùn)練集進(jìn)一步訓(xùn)練模型,最后使用測(cè)試集驗(yàn)證模型性能。

4 實(shí)驗(yàn)結(jié)果

4.1 數(shù)據(jù)增強(qiáng)及預(yù)處理結(jié)果

以不同廠家、不同采集角度、不同使用環(huán)境下獲取的19 張水表圖片構(gòu)成數(shù)據(jù)集,并對(duì)其進(jìn)行人工標(biāo)注。通過(guò)數(shù)據(jù)增強(qiáng),得到共456 張水表圖片,構(gòu)建實(shí)驗(yàn)數(shù)據(jù)集。

4.2 數(shù)字區(qū)域分割

采用交并比(Intersection over Union,IoU)評(píng)價(jià)數(shù)字區(qū)域分割模型性能。IoU 表示系統(tǒng)預(yù)測(cè)出來(lái)的框與原來(lái)圖片中標(biāo)記的框的重合程度,分割結(jié)果最好時(shí),值為1;最差時(shí),值為0。其計(jì)算方法為:

圖7 為IoU 數(shù)字區(qū)域分割評(píng)價(jià)指標(biāo)參考圖,其中,矩形A代表標(biāo)簽,矩形B代表模型預(yù)測(cè)分割的數(shù)字區(qū)域,矩形C是A與B的交集。

圖7 IoU數(shù)字區(qū)域分割評(píng)價(jià)指標(biāo)參考圖

使用數(shù)據(jù)增強(qiáng)后的圖片訓(xùn)練語(yǔ)義分割模型,歷經(jīng)100次訓(xùn)練后,IoU數(shù)字區(qū)域分割準(zhǔn)確率為99.76%。

4.3 數(shù)字字符提取

首先,提取表盤(pán)圖片數(shù)字區(qū)域并進(jìn)行二值化處理,部分提取結(jié)果如圖8 所示。

圖8 部分?jǐn)?shù)字區(qū)域提取結(jié)果

然后,提取單個(gè)字符,按數(shù)字命名保存,得到數(shù)字字符數(shù)據(jù)集,共獲得了760 張數(shù)字圖片。

4.4 數(shù)字識(shí)別

首先,使用mnist 數(shù)據(jù)集訓(xùn)練數(shù)字識(shí)別模型。為降低二值化后表盤(pán)框?qū)ψR(shí)別結(jié)果的影響,在mnist 數(shù)據(jù)集上,添加寬度為1、像素尺寸為20×20、位置隨機(jī)的矩形框,經(jīng)網(wǎng)絡(luò)訓(xùn)練后,測(cè)試集準(zhǔn)確率為99.46%,圖8 中的數(shù)字識(shí)別結(jié)果分別為00189、00152、04371、00252。可以看出,訓(xùn)練網(wǎng)絡(luò)對(duì)完整數(shù)字識(shí)別準(zhǔn)確,但部分被分成半截的數(shù)字出現(xiàn)了錯(cuò)誤識(shí)別。

然后,再使用4.3 節(jié)提取600 張數(shù)字字符圖片作為訓(xùn)練集對(duì)網(wǎng)絡(luò)進(jìn)一步調(diào)整訓(xùn)練,獲得最終數(shù)字識(shí)別模型。

最后,使用4.3 節(jié)提取160 張數(shù)字字符圖片作為測(cè)試集對(duì)數(shù)字識(shí)別模型進(jìn)行驗(yàn)證,測(cè)試準(zhǔn)確率為100%,圖8 中對(duì)應(yīng)的數(shù)字識(shí)別結(jié)果為00180、00152、04321、00252,滿足工程應(yīng)用需求。

4.5 算法用時(shí)測(cè)試

利用i5-9500 CPU &TensorFlow 2.3.0 構(gòu)建算法用時(shí)測(cè)試平臺(tái),記錄從獲取到50 張水表照片到返回識(shí)別結(jié)果所用的時(shí)間,計(jì)算平均用時(shí),以此作為單張照片識(shí)別時(shí)間。連續(xù)進(jìn)行五次實(shí)驗(yàn),求取平均值和方差,50 張水表圖片總用時(shí)平均為17.53 s,單水表識(shí)別平均用時(shí)為350.59 ms,滿足工程應(yīng)用需求。

5 結(jié)束語(yǔ)

針對(duì)工程應(yīng)用中數(shù)顯表識(shí)別算法適用性差、抗噪能力弱等問(wèn)題,設(shè)計(jì)了一種基于語(yǔ)義分割和卷積神經(jīng)網(wǎng)絡(luò)的數(shù)顯表讀數(shù)識(shí)別算法。利用較低成本的小數(shù)據(jù)集對(duì)模型進(jìn)行訓(xùn)練,并通過(guò)數(shù)據(jù)增強(qiáng)降低了污漬、光線等因素對(duì)識(shí)別效果的影響,實(shí)現(xiàn)批量自動(dòng)快速識(shí)別。實(shí)驗(yàn)表明,所設(shè)計(jì)算法具有成本低、用時(shí)短和準(zhǔn)確率高等特點(diǎn),滿足工程化需求。

未來(lái)將基于該模型繼續(xù)研究數(shù)顯表讀數(shù)算法,探索多種類(lèi)數(shù)顯表讀數(shù)算法的可能性,實(shí)現(xiàn)用戶側(cè)居民水、電、氣、暖數(shù)顯表一體化識(shí)別。

猜你喜歡
模型
一半模型
一種去中心化的域名服務(wù)本地化模型
適用于BDS-3 PPP的隨機(jī)模型
提煉模型 突破難點(diǎn)
函數(shù)模型及應(yīng)用
p150Glued在帕金森病模型中的表達(dá)及分布
函數(shù)模型及應(yīng)用
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 中文国产成人精品久久一| 国产精品久久久久久久久久久久| 91探花国产综合在线精品| 亚洲国产精品无码AV| 青青久视频| 国产免费观看av大片的网站| 国产对白刺激真实精品91| 手机成人午夜在线视频| 亚洲成人动漫在线| 久久国产毛片| 亚洲天堂啪啪| 国内精品久久久久鸭| 一区二区午夜| 四虎永久在线精品影院| 婷婷午夜影院| 国产无码制服丝袜| 538国产视频| 中国丰满人妻无码束缚啪啪| 国产精品19p| 97久久人人超碰国产精品| 色婷婷啪啪| 四虎永久在线| 亚洲免费福利视频| 一本大道东京热无码av| 成人无码区免费视频网站蜜臀| 青草精品视频| 亚洲激情99| 2022国产无码在线| 美女毛片在线| 99久久精品国产自免费| 黄色国产在线| 91精品专区| a网站在线观看| 青草午夜精品视频在线观看| 日本一区中文字幕最新在线| 国产91精品调教在线播放| 亚洲a级毛片| 亚洲欧洲日韩国产综合在线二区| 国产区在线看| 制服丝袜一区二区三区在线| 国产哺乳奶水91在线播放| 青青久在线视频免费观看| 4虎影视国产在线观看精品| 国产一区二区丝袜高跟鞋| 一级香蕉人体视频| 国产日本欧美在线观看| 日本成人不卡视频| 久久精品一品道久久精品| 综合网天天| 色综合久久久久8天国| 亚洲综合欧美在线一区在线播放| 最新国产成人剧情在线播放| 欧美成人精品一级在线观看| 国产精品久久久久久搜索 | 在线色国产| 成人毛片免费观看| 精品国产99久久| 亚洲精品无码成人片在线观看| 日韩精品专区免费无码aⅴ| 亚洲日韩在线满18点击进入| 亚洲国产高清精品线久久| 久久综合成人| 99精品伊人久久久大香线蕉| 成人免费视频一区二区三区 | 日本一本在线视频| 被公侵犯人妻少妇一区二区三区| 激情国产精品一区| 在线a网站| 亚洲婷婷丁香| 青草娱乐极品免费视频| 精品国产免费观看| 91视频区| 日韩精品成人在线| 不卡视频国产| 精品视频一区在线观看| 国产激情无码一区二区免费| 搞黄网站免费观看| 国产精品片在线观看手机版| 激情乱人伦| 国产一区成人| 97av视频在线观看| 日韩成人在线视频|