999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的定額發(fā)票區(qū)域定位的應用研究

2022-05-31 01:13:50劉奕杰
電腦知識與技術 2022年11期
關鍵詞:深度學習

摘要:基于深度學習的區(qū)域定位研究,對文本區(qū)域檢測進行了介紹。同時為了提高財務系統(tǒng)效率,減少人為失誤率,實現(xiàn)良好的發(fā)票識別效果,對于發(fā)票識別算法進行了研究。因此通過定額發(fā)票為識別主體,設計了基于深度學習的定額發(fā)票識別算法進行訓練和測試,最終準確率達到96%。實驗結果表明,設計方法在實際應用中能夠達到良好的效果,減少錯誤率。

關鍵詞:深度學習;區(qū)域定位;發(fā)票識別

中圖分類號:TP391? ? ? 文獻標識碼:A

文章編號:1009-3044(2022)11-0098-02

隨著國民經濟健康發(fā)展與科學技術的提高,人類的經濟活動也變得更加頻繁。圖片以及文字成了記錄經濟活動的重要載體。近幾年隨著機器學習領域的深入研究,極大促進了人工智能在各種現(xiàn)實場景的應用。OCR技術的興起,給人們自動化地信息提取提供了極大便利。場景文字識別具有很高的研究價值[1],在實際應用的現(xiàn)實場景中,其應用需求包含了諸多領域,例如野外設備代碼識別,財務審核等。因此,區(qū)域定位與字符識別技術的應用研究具有重要意義。

發(fā)票識別是光學字符識別(Optical Character Recognition, OCR)技術[2]的一個應用分支。OCR的識別流程主要是通過檢測感興趣區(qū)域的圖像,對區(qū)域中所含的字符進行識別并輸出識別結果。隨著目標檢測與文字識別技術的日益成熟,無接觸與無感的圖像識別成了主流,同時也節(jié)約了工作所需的人力成本,提高勞動效率。高清攝像頭、無人機等智能終端的發(fā)展,可以隨時隨地進行區(qū)域定位、識別,在設備前端進行實時展示并存儲,實現(xiàn)遠距離無接觸辦公。在人文社會環(huán)境的影響下OCR識別技術研究前景廣闊,因此成了機器視覺領域和自然語言處理領域的研究熱點[3]。

1 基于深度學習的文字區(qū)域定位方法

文字區(qū)域檢測的傳統(tǒng)方法是根據(jù)字符之間的緊湊性以及其與背景像素具有互異性的特點定位文字區(qū)域,最終將其從初始圖像中提取出來。隨著深度學習的興起,坐標回歸算法成了目標檢測的主流,通過網絡模型學習回歸預測特征點的坐標定位文本區(qū)域。

感興趣區(qū)域檢測方法早期由Wang等[4]提出,利用尺取法多尺度地掃描圖像,再通過神經網絡對每一處掃描的圖像進行劃分,定位出感興趣區(qū)域。2014年,Huang等[5]通過區(qū)域特征提取MSER提取出文字區(qū)域,再使用卷積神經網絡進行感興趣區(qū)域的字符識別并進行字符分割,提出了與卷積神經網絡相結合的字符區(qū)域檢測模型。

近年來,文字區(qū)域定位在深度學習算法的影響下精準程度飛速提升。緊接著Faster R-CNN[6]和YOLO[7]等模型在學術界相繼提出,在保證字符提取準確度的同時,對感興趣區(qū)域進行快速定位。Ma等[8]發(fā)表的旋轉區(qū)域候選網絡--RRPN,適用于多角度方向的區(qū)域。Liao等[9]以SSD模型為理論基礎,提出了端到端訓練的TextBoxes模型,為了解決不同多尺度文字區(qū)域的檢測,該模型使用一個基于全連接的CNN。

為了深入文字區(qū)域定位領域的算法和網絡,本文基于PSEnet[10]網絡模型,在原有Resnet50上加深網絡層到101層,即網絡結構采用改進后的Resnet101+fpn作為特征提取的網絡結構。

2 數(shù)據(jù)預處理

2.1 目標檢測標注

LabelImg是基于Python的一個可視化的圖像標注程序。主流的目標檢測網絡(例如YOLO系列、SSD以及Faster R-CNN等) ,其訓練數(shù)據(jù)集都要借助此工具標注圖像中實驗所需的目標。

2.2 預處理流程

數(shù)據(jù)預處理流程如圖1所示。

3 實驗結果分析

3.1 實驗環(huán)境

本文實驗配置為Intel Xeon-Gold 5118 2.3GHz處理器,一塊Tesla V100 GPU,操作系統(tǒng)為LINUX CentOS-7.8,采用touch1.4開源深度學習框架作為實驗環(huán)境。數(shù)據(jù)集來源于運營商,主要類型為定額發(fā)票。

3.2 評價指標

一個算法模型的優(yōu)劣主要通過相應的評價指標參數(shù)進行評判,在本文的文字區(qū)域檢測中,使用了圖片像素、檢測時間以及準確率作為評價指標。

圖片像素,定義為longsize,根據(jù)不同的像素大小表示圖像最佳的檢測大小。

檢測時間是指程序運行時,檢測每張圖片的運行時間。

準確率是指在全部樣本的判斷中有多少判斷正確的,表示為正樣本定義為正,負樣本定義為負。公式為:

[P=PTPT+PF] (1)

3.3 實驗結果分析

保持既定的研究環(huán)境和物理設備,在相同的數(shù)據(jù)集上進行訓練和測試,迭代過程中保存最優(yōu)模型參數(shù),僅在模型推理中改變圖片像素大小,實際數(shù)據(jù)如表1所示。

實驗結果表明,在圖片像素大小為2200像素時,在檢測時間和準確率上均能達到最好效果。

4 結論

在傳統(tǒng)方法下,針對自然場景的區(qū)域定位問題,本文設計的基于深度學習區(qū)域定位方法具有更強的適用性和準確性。當然不僅僅局限于定額發(fā)票,發(fā)票有許多種類,其復雜度也并不相同。因此基于深度學習區(qū)域定位方法仍然有改進空間,在面對復雜發(fā)票票面時進一步提高對文字區(qū)域劃分的準確性。

參考文獻:

[1] 劉仁軍.基于神經網絡的室內場景的文字識別研究[D].武漢:武漢工程大學,2017.

[2] 閆茹,孫永奇,朱衛(wèi)國,等.基于CNN與有限狀態(tài)自動機的手寫體大寫金額識別[J].計算機工程,2021,47(9):304-312.

[3] 楊飛.自然場景圖像中的文字檢測綜述[J].電子設計工程,2016,24(24):165-168.

[4] Wang T,Wu D J,Coates A,et al.End-to-end text recognition with convolutional neural networks[C]//Proceedings of the 21st International Conference on Pattern Recognition (ICPR2012).November 11-15,2012,Tsukuba,Japan.IEEE,2012:3304-3308.

[5] Huang W L,Qiao Y,Tang X O.Robust scene text detection with convolution neural network induced MSER trees[C]//Computer Vision – ECCV 2014,2014:497-511.

[6] Ren S Q,He K M,Girshick R,et al.Faster R-CNN:towards real-time object detection with region proposal networks[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.

[7] Redmon J,Divvala S,Girshick R,et al.You only look once:unified,real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition.June 27-30,2016,Las Vegas,NV,USA.IEEE,2016:779-788.

[8] Ma J Q,Shao W Y,Ye H,et al.Arbitrary-oriented scene text detection via rotation proposals[J].IEEE Transactions on Multimedia,2018,20(11):3111-3122.

[9] Liao M H,Shi B G,Bai X,et al.TextBoxes:a fast text detector with a single deep neural network[J]. AAAI Conference on Artificial Intelligence,2017.

[10] Wang W H,Xie E Z,Li X,et al.Shape robust text detection with progressive scale expansion network[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).June 15-20,2019,Long Beach,CA,USA.IEEE,2019:9328-9337.

收稿日期:2021-12-20

作者簡介:劉奕杰(1996—) ,男,四川成都人,碩士,研究方向為深度學習,計算機視覺。

猜你喜歡
深度學習
從合坐走向合學:淺議新學習模式的構建
面向大數(shù)據(jù)遠程開放實驗平臺構建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學習的三級階梯
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
利用網絡技術促進學生深度學習的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉課堂融合的深度學習場域建構
大數(shù)據(jù)技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
主站蜘蛛池模板: 欧美天堂久久| 97超碰精品成人国产| 日韩午夜片| 91麻豆国产精品91久久久| 中文字幕亚洲电影| 91色爱欧美精品www| 国产视频一区二区在线观看| 四虎成人精品| 国产精品99r8在线观看| 91小视频在线观看免费版高清| 天天综合网色| 毛片视频网| 亚洲人成影院在线观看| 国产原创演绎剧情有字幕的| 91九色视频网| 日韩第一页在线| 国产91视频观看| 在线视频亚洲欧美| 欧美劲爆第一页| 亚洲国产日韩欧美在线| 国产最新无码专区在线| 亚洲AV无码一区二区三区牲色| 亚洲精品第一在线观看视频| 日韩毛片在线播放| 日韩在线成年视频人网站观看| 精品人妻AV区| www.91中文字幕| 国产精品免费p区| 欧洲欧美人成免费全部视频 | 亚洲侵犯无码网址在线观看| 色网站免费在线观看| 在线毛片免费| 日韩欧美在线观看| 中文字幕在线免费看| 国产午夜一级毛片| 国产在线视频欧美亚综合| 青草视频在线观看国产| 久久国产精品电影| 日韩欧美一区在线观看| 国产人成网线在线播放va| 国产精品尤物铁牛tv| 女人av社区男人的天堂| 精品偷拍一区二区| аⅴ资源中文在线天堂| 亚洲视屏在线观看| 成年人视频一区二区| 国内精品免费| 中文字幕波多野不卡一区 | 91麻豆精品国产91久久久久| 青青草久久伊人| 国产精欧美一区二区三区| 久久频这里精品99香蕉久网址| 精品国产成人高清在线| 国产成人乱码一区二区三区在线| 国产偷倩视频| 日韩AV无码一区| 三区在线视频| 亚洲乱强伦| 国产在线91在线电影| 91亚洲视频下载| 国产成人91精品| 国产一区亚洲一区| 九色免费视频| 国产成人精品日本亚洲77美色| 国产一线在线| 高清大学生毛片一级| 久久精品波多野结衣| 亚洲乱码在线视频| 亚洲精品无码AV电影在线播放| 欧美日韩成人在线观看| 97色伦色在线综合视频| 一区二区自拍| 丝袜无码一区二区三区| 色精品视频| 亚洲视频黄| 亚洲无码高清一区| 国产亚卅精品无码| 试看120秒男女啪啪免费| 无码精品福利一区二区三区| 国产麻豆福利av在线播放 | 国产精品尹人在线观看| 国产精品亚洲综合久久小说|