999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于手寫-印刷混合字符的口算題識別

2021-11-20 01:57:24紀睿哲程艷云
計算機工程與設(shè)計 2021年11期
關(guān)鍵詞:特征方法模型

紀睿哲,程艷云

(南京郵電大學(xué) 自動化學(xué)院 人工智能學(xué)院,江蘇 南京 210042)

0 引 言

近年來隨著技術(shù)的發(fā)展,出現(xiàn)了一種通過上傳圖片從而自動批閱小學(xué)生口算題的應(yīng)用程序。數(shù)學(xué)表達式識別(RME),作為與該自動批閱系統(tǒng)密切相關(guān)的領(lǐng)域已被研究數(shù)十年[1,2]。

隨著編碼器-解碼器模型的提出,并派生出一種利用CNN對圖片進行特征提取并進行整體識別的方法,被廣泛引用于手寫識別領(lǐng)域[3,4],并在RME領(lǐng)域中發(fā)揮重要作用。RME可以分為印刷體數(shù)學(xué)表達式(PME)識別和手寫數(shù)學(xué)表達式(HME)識別。相對而言,HME更具難度與挑戰(zhàn)性。編碼器-解碼器模型在此依然發(fā)揮巨大作用,有學(xué)者嘗試將CRNN[5]引入HME領(lǐng)域并取得了較好的效果。隨著Attention[6]模型的提出,Zhang等[7]將其引入編碼器-解碼器模型并提出WAP模型,在HME領(lǐng)域獲得極佳的效果。此后,為解決普通CNN對特征提取不足的問題,通過引入Densenet[8]以增強WAP模型的性能[9]。同時,在HME領(lǐng)域中也存在其它方案[10]。

由于小學(xué)生口算題同時存在手寫體和印刷體字符,而過往的研究大都集中在單一字符,且未考慮到手寫字符存在大量不規(guī)范的情況。本文利用編碼器-解碼器模型對口算題進行整體識別,并提出了一種多分支改進的Densenet進行特征提取以適應(yīng)多變的字符。本文亦對聯(lián)合CTC-Attention模型進行多分支改進。同時,文中還提出一種生成口算題樣本的方法以解決真實樣本存在的數(shù)量不足、分布不均的問題。

1 系統(tǒng)概述

本文提出的改進后的編碼器-解碼器模型以Densenet網(wǎng)絡(luò)和聯(lián)合CTC-Attention模型為基礎(chǔ),通過LSTM編碼器-解碼器框架組成。主要流程是首先通過Densenet網(wǎng)絡(luò)對輸入的圖像特征進行提取,將提取出的特征交由基于聯(lián)合CTC-Attention模型的LSTM編碼器-解碼器模型進行編解碼,以得到對應(yīng)的LaTeX格式輸出。

由于本文擬對同時擁有印刷體字符和手寫體字符的口算題進行整體識別,且小學(xué)生的手寫體字符之間差異較大且可能存在不規(guī)范的情況。在這種情況下,采用傳統(tǒng)的單分支CNN網(wǎng)絡(luò)對其進行特征提取所得到的特征可能不足以適應(yīng)這種復(fù)雜情況。本文受到FPN(feature pyramid networks)[11]網(wǎng)絡(luò)的啟發(fā),擬對Densenet網(wǎng)絡(luò)做多分支結(jié)構(gòu)的改進以盡可能多提取出字符的多種特征。如圖1所示。

圖1 Densenet網(wǎng)絡(luò)的結(jié)構(gòu)

與此同時,由于多分支結(jié)構(gòu)的改進,Densenet將會擁有3個不同尺寸的特征。為充分對這些特征進行解析,本文引入了聯(lián)合CTC-Attention模型,其在被Zuo等[12]引入自然場景下的文本識別,取得了極佳的效果。文本亦將針對該模型中的CTC部分與Attention部分的特性做不同的調(diào)整,使其可以充分利用多分支網(wǎng)絡(luò)的輸出,如圖2所示。對于CTC部分擬采用FPN網(wǎng)絡(luò)所提出的方法做上采樣并進行橫向連接的方法,而對于Attention部分,本文則針對多尺度特征做相關(guān)改進。

圖2 基于聯(lián)合CTC-Attention模型的LSTM網(wǎng)絡(luò)結(jié)構(gòu)

1.1 Densenet網(wǎng)絡(luò)的多分支改進

本方法擬選用具有3個Dense Block的Densenet網(wǎng)絡(luò)作為基本架構(gòu)。在該網(wǎng)絡(luò)結(jié)構(gòu)中,所有網(wǎng)絡(luò)層都是直接相互連接的,每一層的輸入均由在此之前所有層的特征圖中接收。此外,每個輸出將被傳遞到每個后續(xù)層,以最大程度的確保每層之間的信息傳輸網(wǎng)絡(luò)。例如,lth層的輸出xl計算如下

xl=Hl([x0;x1;…;xl-1])

(1)

由于考慮到需要同時對小學(xué)生口算題中的手寫體字符和印刷體字符進行整體識別,且小學(xué)生的手寫體字符可能會存在差異較大且不規(guī)范的情況。相對于普通Densenet網(wǎng)絡(luò)僅擁有的一個高維輸出而言,低維特征與之相比則具有更多的位置信息,受到FPN網(wǎng)絡(luò)的啟發(fā),本文擬將高維特征與低維特征結(jié)合可以更有助于解析輸入的圖像。此改進主要是在傳統(tǒng)Densenet結(jié)構(gòu)的每個平均池化層之前擴展一個分支以輸出當前特征,從而使其輸出可以盡可能涵蓋高維特征和低維特征。通過上述的多分支結(jié)構(gòu),編碼器將輸出3種不同的分辨率特征,如圖1所示。

1.2 聯(lián)合CTC-Attention模型的多分支改進

1.2.1 CTC模型的多分支改進

CTC模型的特點在于假定所有標簽彼此之間獨立,并采用貝葉斯定理計算預(yù)測序列的后驗概率分布,如下式所示

(2)

此式中的p(zt|X)表示從已知輸入特征所獲得的隱藏變量的概率, 而p(zt|zt-1,S)則為依據(jù)前一時刻隱藏變量輸出所預(yù)測的隱藏變量的條件概率。

對于聯(lián)合模型中的CTC部分,本擬對多尺度Densenet所得到的3個特征做FPN網(wǎng)絡(luò)的相同操作,即針對F1做4x upsample得到F1′,對F2做2x upsample得到F2′,使得F1′,F(xiàn)2′和F3擁有相同的尺寸,再對F1′,F(xiàn)2′和F3做橫向連接以獲得特征F3′。

其次,還需要對F3′做一定的預(yù)處理以使其適應(yīng)LSTM網(wǎng)絡(luò)的輸入格式。以F3′為例,其為一個尺寸為4H*4W*C` ` `的三維數(shù)組,本文需要將其轉(zhuǎn)換成一個尺寸為16L*C` ` `的二維數(shù)組。其中,16L=4H*4W,fi則代表了C` ` `維向量。如式(3)所示

F3′={f1,f2,f3,…,f16L},fi∈RC ` ` `

(3)

隨后,將預(yù)處理后的F3′輸入LSTM編碼器進行編碼,再將其結(jié)果導(dǎo)入CTC模型進行解碼。

1.2.2 Attention模型的多分支改進

考慮到Attention部分在聯(lián)合CTC-Attention模型中對識別所起到的作用相對較高,即針對Attention模型進行更進一步的多尺度改進顯得尤為重要。直接將通過上采樣并橫向連接后的特征交由普通Attention模型進行處理未必能充分發(fā)揮出多分支Densenet模型所提取到的多分支特征的優(yōu)勢。為此,本文針對多分支Densenet模型提出一種Attention模型的多分支改進。除多尺度改進外,本方法亦將Coverage vector引入Attention模型中,以避免對已分析內(nèi)容的重復(fù)關(guān)注。

該改進后的模型需要將多分支Densenet模型所提取出的特征F1,F(xiàn)2和F3直接分別輸入LSTM網(wǎng)絡(luò)進行編碼。此處亦需要對其進行預(yù)處理操作,使其變?yōu)閷?yīng)的二維數(shù)組,并依次命名為A,B和E。

(4)

在此式中,yt-1代表先前輸入的值,而st-1也是一個初始化參數(shù)。

接下來需要計算的是coverage值Covt,ai在步驟t條件下的能量eti以及Attention概率αti,可以通過以下公式計算

(5)

(6)

(7)

此處的αl代表了此前已獲得的Attention概率,Q是隨網(wǎng)絡(luò)訓(xùn)練而更新的隨機初始化矩陣。eti主要取決于ai,其亦與網(wǎng)絡(luò)的先前隱藏狀態(tài)的值ht-1以及Covt的第ith個向量Cti有關(guān)。αti則由eti與t步驟的全部能量計算得到。

最終,cAt可通過先前得到的ai與αti計算得到,如式(8)所示

(8)

但由于編碼器采用了多分支架構(gòu),因此將得到3個不同的輸出。本方法擬分別獲得其結(jié)果,并使之連接在一起,命名為ct。最終,該ct將被交由LSTM解碼器來得到狀態(tài)st,如下式所示

ct=[cAt;cBt;cEt]

(9)

(10)

1.2.3 聯(lián)合預(yù)測

聯(lián)合CTC-Attention解碼方法主要利用了初始階段CTC的對齊更加準確的特點,以避免Attention模型在解碼時由噪聲引起的位錯問題。為實現(xiàn)聯(lián)合預(yù)測,本方法擬設(shè)置CTC模型與Attention模型聯(lián)合預(yù)測的最大化聯(lián)合概率為

(11)

此處的λ是一個取值區(qū)間為0≤λ≤1的可變參數(shù),本文將在后續(xù)實驗部分對λ的取值做深入分析。

2 數(shù)據(jù)集及訓(xùn)練

2.1 數(shù)據(jù)集

由于目前難以找到相關(guān)開源數(shù)據(jù)集,因此文中提出收集私有數(shù)據(jù)集以用于模型的訓(xùn)練與測試。該數(shù)據(jù)集包含從合作小學(xué)收集的真實樣本以及通過本文所提出的樣本生成方法所得到的一些生成樣本。

2.1.1 真實樣本

真實樣本主要來自于合作小學(xué)收集的各類數(shù)學(xué)試卷。對收集得到的真實試卷進行了手工剪切與標記即可以得到真實樣本。但是,此類樣本卻存在數(shù)量少與相似度高的問題。相似度高的問題是由相同底卷將被派發(fā)給不同學(xué)生,導(dǎo)致相同問題的打印體部分幾乎相同造成的。對于此類樣本,本方法擬控制相同底卷的出現(xiàn)次數(shù)和同一學(xué)生的出現(xiàn)次數(shù)。最終,獲得了11 980個真實樣本,在這些樣本中將隨機抽取出80%的樣本進行訓(xùn)練,其余樣本則進行測試。

由于小學(xué)生的手寫字體可能存在不規(guī)范的問題,在某些情況下的真實樣本字符可能會出現(xiàn)粘連或交疊的情況。此外,過于接近的無關(guān)相鄰字符亦可能導(dǎo)致裁剪過后的樣本中出現(xiàn)噪音,如圖3所示。本方法并未刪除此類有問題的樣本,而是將其添加到訓(xùn)練樣本及測試樣本中一同訓(xùn)練。

圖3 真實樣本的一部分

2.1.2 生成樣本

為了解決真實樣本存在的數(shù)量少與相似度高的問題,本方法提出了一種樣本生成方法。其首先需要收集打印體字符和手寫體字符,為了確保打印體字符符合實際錄入情況,擬將所需的字符打印在紙張上后,執(zhí)行掃描與切割操作后再錄入,并從不同的打印字體中收集字符。同時,對手寫字符亦有一些限制,如:避免收集隨機抽選的作為測試樣本的口算題中出現(xiàn)的手寫字體。

該生成方法首先根據(jù)口算題的格式生成其運算部分,并將其細分為數(shù)字部分,運算符部分與等號部分。對于數(shù)字部分,該方法擬生成一個滿足指定需求的隨機數(shù),具體體現(xiàn)為:隨機數(shù)為浮點數(shù)形式還是整數(shù)形式,以及是否會導(dǎo)致過分復(fù)雜的運算等。運算符部分則交由隨機函數(shù)在常見運算符中隨機選擇。最終將等號添加到已生成的內(nèi)容中,即可獲得運算部分的內(nèi)容。

其次,由先前生成的運算部分內(nèi)容可以輕松計算出其相應(yīng)答案部分。對于最終生成的樣本,為盡可能模擬真實情況,該方法將在生成答案部分時適當旋轉(zhuǎn)并縮放相關(guān)手寫字符。此外,該方法亦使用相關(guān)算法實現(xiàn)部分手寫字符之間的粘連和交疊情況,如圖4所示。

圖4 生成樣本的一部分

2.2 訓(xùn) 練

為最大化符號預(yù)測的概率,該模型選用交叉熵作為目標函數(shù)

L=λLCTC+(1-λ)LAtt

(12)

此公式中LCTC表示為CTC模型的損失函數(shù),LAtt表示為Attention模型的損失函數(shù),λ則為一個取值為0≤λ≤1的可變參數(shù),用于表示該聯(lián)合模型中CTC模型和Attention模型的權(quán)重。

該模型應(yīng)用了較小的學(xué)習(xí)率,并將其初始化置為0.0001,以便于模型的訓(xùn)練。在優(yōu)化過程中,該模型選用自適應(yīng)學(xué)習(xí)率,即可以依據(jù)學(xué)習(xí)結(jié)果自動更新學(xué)習(xí)率。基于內(nèi)存容量,利用率與收斂速度的考慮,該模型將batch size設(shè)置為18。相關(guān)工作[13]的實驗數(shù)據(jù)表明,設(shè)置LSTM的hidden units數(shù)為256可以取得更好的結(jié)果。

對于訓(xùn)練完成的模型,本方法將使用WER Loss來衡量其性能并保存性能最佳的模型作為最終模型。與此同時,本方法亦選用數(shù)學(xué)領(lǐng)域中常用的LaTeX格式作為輸出格式。

3 實 驗

3.1 有效性

本文擬使用單詞錯誤率(word error rate,WER)作為評估標準。該評估標準是通過計算預(yù)測序列校正為標準順序所需的字符替換,刪除或插入操作的數(shù)量總數(shù)除以標準序列總字符數(shù)而獲得的百分比,計算公式如下

(13)

此處,S為替換的字符個數(shù),D為刪除的字符個數(shù),I為插入的字符個數(shù),而N則為標簽字符的總個數(shù)。

3.2 結(jié)果及分析

對比實驗首先驗證了λ在不同取值情況下訓(xùn)練的模型性能。由于λ是一個從0到1的可變參數(shù),這意味著當λ取值為0時,模型將僅使用多分支改進后的Attention模型。反之,在λ取值為1時,模型將僅采用CTC模型。同時,當λ取值為浮點數(shù)時,意味著CTC和Attention在聯(lián)合模型中以不同權(quán)重相互作用。本實驗將選用6個不同的λ值分別為:0.2、0.4、0.6、0.8、0和1進行對比實驗。

接下來,為了驗證模型多分支改進的有效性,本方法比較了編碼器部分為傳統(tǒng)Densenet網(wǎng)絡(luò)的單分支CTC模型和單分Attention模型的性能。此外,本方法擬將λ取值為0.2的傳統(tǒng)聯(lián)合CTC-Attention模型引入對比實驗,相關(guān)文獻驗證在該模型中此λ值較其它λ值擁有更佳的效果。最終,考慮到本文提出的訓(xùn)練樣本生成方法,亦對比了僅由真實樣本訓(xùn)練的模型與增加了生成樣本訓(xùn)練的模型的性能,以驗證此生成方法的有效性。

從表1與表2中可以發(fā)現(xiàn),無論在訓(xùn)練過程中是否追加生成的樣本,在較低λ值的條件下,文本所提出的多分支聯(lián)合模型的性能均優(yōu)于單一CTC模型與單一Attention模型。此外,亦可以關(guān)注到當λ取值為0.2時,模型可以獲得更好的性能。這是因為聯(lián)合CTC-Attention模型采用CTC對Attention進行空間約束,進而降低了Attention模型存在的偏移問題,提高了識別率。與此同時,對比表1與表2亦可以注意到,無論采用何種模型,追加生成樣本所訓(xùn)練的模型性能均優(yōu)于直接采用真實樣本訓(xùn)練的模型性能,這也驗證了樣本生成方法的有效性。顯然,多分支結(jié)構(gòu)無論是對于CTC模型、Attention模型或是聯(lián)合CTC-Attention模型,都擁有比單分支結(jié)構(gòu)更好的性能。

表1 不同模型在真實樣本訓(xùn)練條件下的WER Loss

表2 不同模型在生成樣本訓(xùn)練條件下的WER Loss

在接下來的部分中,本文還設(shè)置了一組新的對比實驗以評估不同模型的收斂速度。在該實驗中,訓(xùn)練集均采用已追加生成樣本的訓(xùn)練集。訓(xùn)練過程中將每隔指定批次,通過真實樣本測試集測試并輸出其精度。對于聯(lián)合CTC-Attention模型選擇了WER Loss較低的λ取值為0.2的模型,并將其收斂速度與一些目前較為先進的模型以及λ取值為0和1的模型進行比較,結(jié)果如圖5所示。

圖5 不同模型的收斂速度

從圖5中可以看出,本文所提出的模型在λ取值為0.2的情況下收斂速度以及準確度亦優(yōu)于常見的一些模型。盡管λ取值為1的模型(多尺度改進后的CTC模型)在訓(xùn)練過程中收斂速度更快,但其準確性不如λ取值為0的模型(多尺度改進后的Attention模型)。相反,在收斂的前提下,λ取值為0的模型的準確度優(yōu)于λ取值為1模型,但其在訓(xùn)練過程中存在收斂速度慢的問題。因此,引入聯(lián)合CTC-Attention模型可以在確保識別性能的同時提高Attention模型的收斂速度,達到平衡收斂速度和準確性的效果。

4 結(jié)束語

為解決小學(xué)生口算題中存在的問題以提高識別率。本文以基于Densenet網(wǎng)絡(luò)與基于聯(lián)合CTC-Attention模型的LSTM編碼器-解碼器結(jié)構(gòu)作為基礎(chǔ)提出一些改進。該模型相比既有模型擁有更強的特征提取能力,以適應(yīng)字符復(fù)雜多變的情況。主要是針對傳統(tǒng)Densenet網(wǎng)絡(luò)做了多分支改進,并對CTC模型與Attention模型進行改進,使聯(lián)合模型可以充分利用多分支結(jié)構(gòu)以提升識別效果,最終結(jié)果將以LaTeX格式輸出。為解決真實樣本數(shù)量少與相似度高的問題,本文提出一種樣本生成方法。最終,在這些因素的共同作用下,通過實驗驗證了該方法具有優(yōu)越的性能。

猜你喜歡
特征方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
主站蜘蛛池模板: 在线播放国产99re| 四虎影视永久在线精品| 日韩a在线观看免费观看| 国产原创演绎剧情有字幕的| 国产精欧美一区二区三区| 热热久久狠狠偷偷色男同| 欧美午夜久久| 亚洲黄色视频在线观看一区| 毛片免费视频| 国产成人久久综合777777麻豆| 欧美成人一级| 欧美高清视频一区二区三区| 国产一区亚洲一区| 欧美日本激情| 亚洲精品国产日韩无码AV永久免费网 | 欧美综合区自拍亚洲综合绿色| 亚洲一级毛片| 无码免费的亚洲视频| 人妻少妇乱子伦精品无码专区毛片| 老司机aⅴ在线精品导航| 免费在线观看av| 超清无码一区二区三区| 手机看片1024久久精品你懂的| 国产在线自在拍91精品黑人| 在线精品自拍| 国产欧美日韩在线一区| 91精品亚洲| 在线免费观看AV| 真人免费一级毛片一区二区| 国产va欧美va在线观看| 国产一区亚洲一区| 国产一在线观看| 婷婷色中文网| 亚洲有码在线播放| 国模在线视频一区二区三区| 天堂成人在线视频| 四虎精品国产AV二区| 狠狠色婷婷丁香综合久久韩国| 欧美成人国产| 国产真实乱了在线播放| 玖玖免费视频在线观看| 国产高清在线精品一区二区三区 | 欧美国产成人在线| 激情影院内射美女| 国产网友愉拍精品视频| 亚洲成A人V欧美综合天堂| a级毛片网| 日韩第九页| 国产www网站| 国产一区二区三区精品欧美日韩| 国产小视频a在线观看| 久久a毛片| 国产成人AV综合久久| 极品国产在线| 91久久精品国产| 久久精品国产免费观看频道| 欧美乱妇高清无乱码免费| 国产在线观看成人91| 欧美午夜小视频| 精品国产一二三区| 美女被躁出白浆视频播放| 无码电影在线观看| 午夜免费视频网站| 中文字幕乱妇无码AV在线| 国产高潮流白浆视频| 亚洲精品麻豆| 免费毛片全部不收费的| 在线不卡免费视频| 久久亚洲日本不卡一区二区| 人妻精品久久无码区| 国外欧美一区另类中文字幕| 亚洲国产清纯| 欧美色香蕉| 一区二区日韩国产精久久| 91po国产在线精品免费观看| 国产成人精品无码一区二| 亚洲欧美在线精品一区二区| 日韩中文欧美| 亚洲va欧美va国产综合下载| 91亚瑟视频| 国产午夜无码片在线观看网站| 91黄色在线观看|