999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

超分辨率OCR在計算機教學中的應用研究

2022-12-06 08:15:22郭卡安徽外國語學院
中國信息技術教育 2022年23期
關鍵詞:文本模型

郭卡 安徽外國語學院

在日常教學中,作業、板書等內容通常以手寫形式呈現,為了方便教學記錄及學習情況分析,常常需要將這些內容電子化,但是在電子化的過程中,受拍攝水平、書寫習慣等因素的影響容易導致識別效果不佳,電子化后的文檔需要人工修改后才能使用,影響教學活動的進行。為了解決這個問題,本文提出了一種將超分辨率與OCR結合的建模方案,能夠借助超分辨率算法改善圖片質量,并通過多任務建模的方式提升手寫字體的識別效果。

● 研究背景

1.文本識別算法

文本識別算法的常見架構有三種,即CNN+Softmax[1]、CNN+雙向R NN+C T C[2]以及CNN+RNN+Attention[3],三種算法的特點分別是:①CNN+Softmax,模型結構簡單,易于實現且并行度高,識別速度快,但是上下文和文本順序信息不足;②CNN+雙向RNN+CTC,上下文與文本順序信息充足,泛化能力強,但是并行度不高,推理速度受限于RNN;③CNN+RNN+Attention,模型能專注于文本區域,識別效果好,但是模型復雜,訓練和推理速度慢。

本文使用的文本識別算法為CRNN,屬于CNN+RNN+CTC架構,即先通過CNN提取圖片特征,然的采用RNN網絡對特征序列進行預測,最后通過CTC進行翻譯并得到結果。

2.超分辨率算法

超分辨率重建算法(以下簡稱超分)常用于提高圖片的分辨率,使低分辨率的圖片變清晰。為了降低模型的訓練難度,現在的超分辨率重建算法通常會加入殘差結構,如VSDR[4]的殘差設計使得模型只需要學習高分辨率圖片和低分辨率圖片的殘差部分即可。為了在提高模型表達能力的同時壓縮模型體積,近年來涌現了如DRCN[5]、DRRN[6]等基于殘差結構的算法。本文中使用的超分辨率重建算法使用的是上采樣加殘差的結構。

● 方案設計

1.模型組成

本文中的模型由三個部分組成,分別是超分辨率重建模塊、CNN特征提取模塊、循環分類與CTC轉錄模塊。超分辨率重建模塊用于提升文本圖片的清晰度;CNN特征提取模塊用于提取圖片特征,供文本分類使用;循環分類與CTC轉錄模塊用于對圖片的特征進行分類,得到圖片中的文字信息。

2.超分辨率模型結構

超分辨率采用了殘差的方式進行建模(如圖1),原始的模糊圖片經過上采樣變成與高清圖片相同的尺寸,再經過卷積網絡生成殘差圖片,最后與大尺寸模糊圖片相加,即可得到重建后的高清圖片。

圖1

3.推理與訓練過程

模型的訓練過程如圖2所示,整個模型采用多準則訓練的方式,在訓練過程中,對超分辨率模型與文本識別模型進行協同優化,能夠達到更好的效果。為了得到更好的超分模型的效果,本文利用文本識別模型的特征提取能力,構建了圖片損失和感知損失(特征損失)兩個損失函數。設超分模型為SR,文本識別模型為TR,模糊圖片為input,高清圖片為target。則損失函數計算公式為:

圖2

模型的推理過程采用模塊串聯的方式(如圖3),原始圖片經過超分辨率模型之后,得到高分辨率的清晰圖片,再輸入到文本識別模型,得到識別結果。

圖3

4.數據構成

本文的數據由兩部分構成,即學生作業圖片、人工合成圖片(合成后通過圖像處理手段得到模糊圖片)。學生作業的作用是讓模型學習到真實場景的數據特點,提高模型的效果上限;合成圖片的作用是讓模型學習到更多樣化的數據,提高模型的魯棒性。

● 實驗步驟

1.真實訓練數據生成

來自真實場景的模糊圖片主要有三種:①固定相機,分別使用不同的焦距進行拍攝得到的模糊圖片;②將清晰圖片進行縮放后得到的模糊圖片;③將清晰圖片進行加噪、模糊等處理之后得到的模糊圖片。

2.數據準備步驟

模型訓練前的數據準備流程如圖4所示。人工合成數據的合成步驟為:①從互聯網上下載手寫藝術字體50種;②準備不同紙張的背景圖片20種;③準備小說、編程代碼等語料組成約100萬字的語料庫;④從語料庫中隨機抽取一定長度的句子,使用Opencv庫按抽取的句子生成藝術字圖片,并將圖片的背景修改成半透明后,貼到準備好的紙張背景上;⑤重復第④步,合成足夠多的訓練數據;⑥為了模擬實際教學中拍攝圖片時出現的拍攝失焦、距離過遠以及鏡頭抖動等干擾因素,會對合成圖片進行縮放、高斯模糊、隨機加噪、重影處理等。

圖4

● 實驗結果

訓練的CRNN文本識別模型,在常規文字測試集上的準確率為71.97%,但是在模糊文字測試集上的準確率為53.21%,單張圖片推理時間為4.21ms。為了在無需重訓CRNN模型的情況下,提高其對模糊文字的識別率,本文訓練了一個超分辨率重建模型,對模糊圖片進行修復,提高了文字識別率。

1.超分辨率+文本識別

從超分辨率+文本識別訓練結果(如下頁表1)可以看到,隨著模型層數的增多,重建后的文字圖片的識別率顯著上升,在實際應用中,可以根據場景的性能要求來選擇合適的網絡層數。

表1

2.超分+識別感知損失+識別

為了改善重建效果,筆者利用CRNN提取圖片特征,使用感知損失策略進一步提高了文字識別率。使用感知損失的訓練結果如表2所示。從表2中可以看出,CNN感知損失的效果最好,可見文本識別模型中的特征提取功能主要由CNN承擔,在構建感知損失時,無需考慮RNN的輸出結果。

表2

● 結論

使用本文中介紹的方法,通過感知損失將超分辨率模型和文本識別模型結合起來,可以大幅提高文本識別模型對模糊圖片的識別準確率,從而提高文本識別模型對教學場景的適應性,為教學資料的電子化創造條件。

猜你喜歡
文本模型
一半模型
重要模型『一線三等角』
初中群文閱讀的文本選擇及組織
甘肅教育(2020年8期)2020-06-11 06:10:02
重尾非線性自回歸模型自加權M-估計的漸近分布
在808DA上文本顯示的改善
基于doc2vec和TF-IDF的相似文本識別
電子制作(2018年18期)2018-11-14 01:48:06
3D打印中的模型分割與打包
文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學隱喻
論《柳毅傳》對前代文本的繼承與轉化
人間(2015年20期)2016-01-04 12:47:10
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: AV在线麻免费观看网站 | 婷婷五月在线| 中文字幕有乳无码| 成人年鲁鲁在线观看视频| 成人看片欧美一区二区| 亚洲欧美精品日韩欧美| 色噜噜狠狠色综合网图区| 国产福利2021最新在线观看| 国产手机在线小视频免费观看| 四虎永久免费在线| 亚洲一区色| 亚洲中文字幕国产av| 国产精品毛片在线直播完整版| 激情综合激情| 又爽又黄又无遮挡网站| 国产一区二区三区在线观看视频 | 毛片卡一卡二| 99热这里只有免费国产精品| 国产香蕉97碰碰视频VA碰碰看 | 亚洲日韩每日更新| 九色91在线视频| 乱人伦中文视频在线观看免费| 少妇高潮惨叫久久久久久| 欧美日韩高清在线| 亚洲性日韩精品一区二区| 亚洲区第一页| 国产农村1级毛片| 国产成年女人特黄特色毛片免| 欧美色视频网站| 欧美中文字幕在线视频| 日本在线免费网站| 青青青国产精品国产精品美女| av在线无码浏览| 欧美一区二区人人喊爽| 日韩美毛片| 成人一级黄色毛片| 小说 亚洲 无码 精品| 亚洲第一成人在线| 黄色网址手机国内免费在线观看| 亚洲欧洲免费视频| 国产网友愉拍精品| 国产精品尤物铁牛tv| 在线国产三级| 久久国产精品电影| 女人av社区男人的天堂| 欧美一级特黄aaaaaa在线看片| 国产欧美精品一区aⅴ影院| 日韩小视频在线观看| 午夜国产不卡在线观看视频| 欧美激情成人网| 亚洲AV无码一二区三区在线播放| 亚洲男人天堂网址| 欧美成一级| 亚洲国产欧美目韩成人综合| 国产成人免费视频精品一区二区| 伊人成色综合网| 国产91精品调教在线播放| 亚洲美女视频一区| 国产精品成| 国产小视频a在线观看| 国产主播在线观看| 国产资源站| 99这里只有精品在线| 欧美日韩免费| lhav亚洲精品| 尤物亚洲最大AV无码网站| 国产免费怡红院视频| 日本不卡在线视频| 玩两个丰满老熟女久久网| 一区二区欧美日韩高清免费 | 第一页亚洲| 久久久久久久久久国产精品| 色视频国产| 免费视频在线2021入口| 国产高潮流白浆视频| 国产精品吹潮在线观看中文| 黄色片中文字幕| 草草影院国产第一页| 全午夜免费一级毛片| 久操线在视频在线观看| 日韩精品久久无码中文字幕色欲| 日韩av无码精品专区|