999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于LSTM 的交互式神經(jīng)機器翻譯方法研究

2020-12-22 10:36:44田紅楠
關(guān)鍵詞:模型系統(tǒng)

田紅楠, 郭 欣, 袁 偉

(1.河北工業(yè)大學(xué) 人工智能與數(shù)據(jù)科學(xué)學(xué)院, 天津300130; 2.國家康復(fù)輔具研究中心秦皇島研究院, 河北 秦皇島 066000)

0 引言

在過去的幾年里,機器翻譯領(lǐng)域取得了很大的進展,這主要歸功于基于雙語語料的機器翻譯的進步。現(xiàn)在,機器翻譯系統(tǒng)是許多用戶和公司有用的工具, 自動提供質(zhì)量可接受的翻譯結(jié)果[1]。 系統(tǒng)仍然會產(chǎn)生錯誤的翻譯,這是一些特定領(lǐng)域翻譯是不允許的。例如,醫(yī)療記錄的翻譯必須準確無誤。 此外,翻譯問題有許多微妙之處,使得機器難以處理:話語充分性、照應(yīng)清晰度、特定領(lǐng)域的意義、文體形式等等。

在需要高質(zhì)量翻譯的場景中, 系統(tǒng)的輸出通常由翻譯人員檢查,由翻譯人員糾正機器翻譯系統(tǒng)所犯的錯誤,這就是所謂的譯后編輯模式。在這樣的背景下,研究人員開始將目光轉(zhuǎn)換到交互式翻譯系統(tǒng)上,一方面,不同于普通的譯后編輯模式,在交互式機器翻譯系統(tǒng)中,翻譯人員在翻譯過程中與系統(tǒng)不斷交互直到生成譯員滿意的結(jié)果[2]。另一方面,通過交互的過程,機器翻譯系統(tǒng)可以自適應(yīng)修改參數(shù),提高模型的翻譯效果。

1 神經(jīng)機器翻譯

統(tǒng)計機器翻譯的原理是找出給定語言s,求解在給定源語言的情況下,目標語言t 的概率最大的值p(t|s)。通過大規(guī)模雙語平行語料學(xué)習(xí),生成模型參數(shù),當輸入源語言時,通過優(yōu)化條件概率的最優(yōu)結(jié)果,生成譯文[3]:

神經(jīng)網(wǎng)絡(luò)方法在計算機視覺和自動語音識別方面取得了成功,在機器翻譯中得到了應(yīng)用。 與統(tǒng)計機器翻譯的離散表示方法不同, 神經(jīng)機器翻譯采用連續(xù)空間表示方法表示詞語和句子。直接從源語言映射到目標語言。大多數(shù)NMT 系統(tǒng)依賴RNN 編解碼框架:在編碼過程中,源語句被映射成分布式表示,模型如圖1 所示。

圖1 編碼器-解碼器模型

1.1 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)

傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)里,相互的輸入沒有關(guān)聯(lián),例如輸入為X=(x1,x2,…,xn),其中x 之間相互不影響,無論以何種方式進行輸入,都不會對最終的結(jié)果產(chǎn)生影響。但是對于機器翻譯來說,翻譯一句話必須要考慮詞之間的聯(lián)系,從整體進行把握。 RNN 是處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò), 每進行一次計算的時候, 都會考慮前一刻的所包含的信息內(nèi)容,其展開網(wǎng)絡(luò)結(jié)構(gòu)如圖2 所示。

其中當前時間為t,輸入為xt,當輸入xt和ht-1進行變換后得到ht, 在經(jīng)過處理得到輸出Ot,同時將ht作為下一次的輸入,進行計算,這里的三個權(quán)重矩陣U、V、W 在每一個時間步的計算中都是完全相同的:

通過公式我們可以發(fā)現(xiàn),RNN 中的輸出Ot, 是之前每一時間步影響的累加,通過將前一時刻的時間步ht-1作為輸入來進行記憶。

圖2 RNN 展開圖

1.2 長短時記憶網(wǎng)絡(luò)(LSTM)

循環(huán)神經(jīng)網(wǎng)絡(luò)在實際操作中卻有一個很大的問題:當模型需要處理的任務(wù)比較簡單時,環(huán)神經(jīng)網(wǎng)絡(luò)就可以很好的利用到以前記憶的信息學(xué)習(xí);當模型需要處理的任務(wù)比較復(fù)雜時, 循環(huán)神經(jīng)網(wǎng)絡(luò)就很難利用之前記憶的信息,這時翻譯任務(wù)的效果就會比較差甚至?xí)?dǎo)致翻譯失敗。

由公式(4)可知,在訓(xùn)練RNN 的時候,損失函數(shù)的公式為(5),由此可知,損失函數(shù)為每一時刻損失值的累加,在進行反向傳播的時候會出現(xiàn)梯度爆炸和梯度消失的情況,很難對RNN 進行訓(xùn)練。

為了解決RNN 很難進行訓(xùn)練的問題, 由Hochreiter和Schmihuber 于1997 年提出LSTM[4]。 將其引入標準RNN中解決梯度爆炸和梯度消失的問題, 在機器翻譯任務(wù)上取得了較好的表現(xiàn)。

如圖3 所示為LSTM 網(wǎng)絡(luò)內(nèi)部結(jié)構(gòu)圖,LSTM 與RNN具有相同的連接結(jié)構(gòu), 標準RNN 隱藏層中有一個網(wǎng)絡(luò)層,但是LSTM 在隱藏單元中使用三個門來控制信息。 每一個LSTM 中有三個輸入:當前輸入xt,上一步的細胞狀態(tài)Ct-1,上一步隱藏層狀態(tài)ht-1。 σ 是激活函數(shù)sigmoid。

圖3 LSTM 內(nèi)部結(jié)構(gòu)圖

(1)遺忘門:決定會從細胞狀態(tài)中丟棄什么信息,見圖4。

圖4 遺忘門

圖5 輸入門

圖6 輸出門

根據(jù)ht-1和xt判斷儲存信息與當前輸入的關(guān)聯(lián),決定輸出哪些信息。 首先用sigmoid 來確定細胞狀態(tài)的哪個部分將輸出去。然后將狀態(tài)Ct通過tanh 處理,得到一個在-1 到1 之間的值,然后和sigmoid 輸出相乘,最終會輸出我們確定輸出的那部分。

LSTM 能夠解決傳統(tǒng)標準RNN 中訓(xùn)練時的梯度爆炸和梯度消失問題,并且在翻譯任務(wù)上表現(xiàn)不錯。

2 交互式神經(jīng)機器翻譯

交互式機器翻譯作為經(jīng)典的后編輯模式階段的一種替代,在交互式機器翻譯系統(tǒng)中,人類以一種解耦的方式糾正交互式翻譯系統(tǒng)的輸出。 在交互模式下,后編輯階段變成了一個迭代的人機協(xié)作過程:每次用戶做出修改,系統(tǒng)就會根據(jù)用戶的反饋生成新的翻譯。 交互式翻譯系統(tǒng)將翻譯引擎的效率與翻譯人員的知識相結(jié)合[5]。

如圖7 所示,在交互式機器翻譯的總體框架中,將源句輸入系統(tǒng),輸出翻譯結(jié)果。 接下來,翻譯人員修訂譯文并提供反饋信號。 交互式翻譯系統(tǒng)輸出一個新的翻譯結(jié)果,考慮到用戶的反饋。預(yù)計這個新的翻譯結(jié)果比之前的翻譯結(jié)果更好,因為系統(tǒng)有更多的信息。 然后,一個新的迭代開始。 這個迭代過程一直持續(xù)到用戶接受交互式翻譯系統(tǒng)輸出的譯文。

圖7 交互式翻譯總體過程

在標準的解碼翻譯過程中, 常常用束搜索(beam search)來提提高譯文質(zhì)量。 我們將討論在交互式機器翻譯中束搜索和貪婪搜索的區(qū)別:

(1)貪婪搜索:在貪婪搜索算法中,在翻譯每個字的時候, 直接選取當前概率最大的候選項作為當前的最優(yōu)值。在貪婪搜索算法中,從局部最優(yōu)解出發(fā)不一定能產(chǎn)生全局最優(yōu)解。

(2)束搜索:束搜索算法是對貪婪搜索算法的一個改進,將貪婪算法的搜索空間擴大。束搜索方法對所提供的前綴譯文進行強制解碼,然后對翻譯器進行波束搜索,以選擇最優(yōu)的翻譯。相對于標準翻譯的束搜索,在神經(jīng)交互翻譯中,波束搜索將使用相同的前綴翻譯。

眾所周知,束搜索比模型能產(chǎn)生更好的翻譯質(zhì)量,如果沒有束搜索,計算成本會更高。

2.2 融合先驗知識的交互式機器翻譯

在神經(jīng)機器翻譯中, 譯員翻譯后的標準翻譯內(nèi)容是寶貴的資料, 在交互式翻譯框架中融合譯員的先驗知識對于提升交互式機器翻譯效果具有重大意義。 從這個意義上說,以前修改過的句子對以后的翻譯有很大的幫助。使用在線學(xué)習(xí)方法在同一個會話中從之前更正過的句子中學(xué)習(xí)[6]。

在線學(xué)習(xí)模式下,數(shù)據(jù)是按順序提供的,模型是遞增更新的。 典型的交互式翻譯場景與這些階段相適應(yīng):

(1)一個新的源句t 進入交互式翻譯系統(tǒng)。

(2)交互式翻譯系統(tǒng)生成一個譯文yt。

(3)譯員修訂譯文,糾正系統(tǒng)所犯的錯誤,以交互的方式翻譯源句,生成一個正確的翻譯。

(4)系統(tǒng)使用修正后的樣本來調(diào)整其模型,提高模型的準確率。

如果訓(xùn)練語料庫足夠大, 機器翻譯就會有很好的效果[7]。但是獲得大量的平行語料庫是一個困難的。此外,對于特定領(lǐng)域的翻譯,我們需要該領(lǐng)域的數(shù)據(jù),但是獲取特定領(lǐng)域的數(shù)據(jù)也是很困難的。 一種常見的方法是在一個大型通用語料庫上訓(xùn)練一個模型, 然后使用特定領(lǐng)域內(nèi)的數(shù)據(jù)對其進行微調(diào)。 但是有時候這種方法可能是無用的,例如還不知道應(yīng)用到哪些領(lǐng)域的情況下。 因此,在機器翻譯系統(tǒng)上應(yīng)用在線學(xué)習(xí)功能對于特定領(lǐng)域翻譯具有特殊意義。

神經(jīng)網(wǎng)絡(luò)最常見的訓(xùn)練方法是SGD, 可以直接應(yīng)用于在線學(xué)習(xí)。 機器翻譯系統(tǒng)的在線適應(yīng)可以使用MBGD優(yōu)化器來進行在線學(xué)習(xí)。

對于一個訓(xùn)練樣本, SGD 根據(jù)目標函數(shù)相對于權(quán)值θt的梯度方向更新參數(shù):

式中:▽1θt是1 相對于θt的梯度,并且ρ 是控制步長的學(xué)習(xí)速率。

這個更新規(guī)則依賴于對ρ 的仔細選擇。因此,所說的自適應(yīng)SGD 算法試圖通過動態(tài)計算學(xué)習(xí)率來克服這種依賴性。

本文在在線學(xué)習(xí)中采用MBGD 優(yōu)化算法, 在修訂后的歷史譯文積累到一定量的時候,進行模型參數(shù)優(yōu)化,做增量訓(xùn)練。MBGD 每一次利用一小批樣本,即n 個樣本進行計算,和SGD 的區(qū)別是每一次循環(huán)不是作用于每個樣本,而是具有n 個樣本的批次。

3 實驗分析

3.1 實驗數(shù)據(jù)及處理

在數(shù)據(jù)集上選取UNv1.0 中英雙語平行語料集,該平行語料庫由六個聯(lián)合國手冊手工翻譯而成, 選取其中大約10000 句作為測試集,10000 句作為驗證集,500 萬句作為訓(xùn)練集。由于其中的語料是雙語的平行語料,需要對齊進行標準化處理。

對中文語料需要對其進行分詞處理, 本文采用jieba分詞工具對中文語料進行分詞處理。 由于英文本身就是按照單詞進行分隔的,所以不需要進行分詞。但是需要將標點符號用空格進行分隔。 將中文和英文的詞表規(guī)模分別設(shè)置為3 萬。

3.2 實驗設(shè)置

實驗環(huán)境如表1 所示,實驗采用openNMT 開源機器翻譯框架,采用pytorch深度學(xué)習(xí)框架搭配GPU 進行實驗環(huán)境搭建和計算。在實驗?zāi)P椭校捎胹eq2seq(序列到序列) 作為基礎(chǔ)架構(gòu),其中的編碼器和解碼器軍采用LSTM。

在線學(xué)習(xí)部分采用MBGD 算法, 當譯員修訂了一批語料之后,采用這一批樣本進行參數(shù)更新。譯員每次修改的歷史句子都會被存在MYSQL 數(shù)據(jù)庫中,當檢測到積累的句子達到100 句的時候進行增量訓(xùn)練, 并且把這一批句子進行標注,防止下次再次運用進行訓(xùn)練。

表1 實驗環(huán)境

3.3 實驗結(jié)果

表2 模型效果測試

在交互式翻譯中, 經(jīng)過譯員修改后的內(nèi)容在和系統(tǒng)交互之后, 翻譯的質(zhì)量有明顯的提升, 在進行兩輪修改之后, 翻譯質(zhì)量已經(jīng)達到了很好的效果,見表2。

4 結(jié)束語

在交互式機器翻譯的過程中, 通過譯員修改過的錯誤, 在放進交互式翻譯系統(tǒng)進行重新解碼后可以提高翻譯的質(zhì)量。 通過對翻譯人員修訂過的內(nèi)容對模型進行增量訓(xùn)練,可以提高模型的效果,可以有效利用翻譯人員的先驗知識,更好的時間人機協(xié)同。在交互式機器翻譯領(lǐng)域還有很有的領(lǐng)域需要研究, 利用記憶庫和交互式翻譯進行協(xié)作,實現(xiàn)翻譯人員、先驗知識、神經(jīng)網(wǎng)絡(luò)三方面進行協(xié)同。

猜你喜歡
模型系統(tǒng)
一半模型
Smartflower POP 一體式光伏系統(tǒng)
WJ-700無人機系統(tǒng)
ZC系列無人機遙感系統(tǒng)
北京測繪(2020年12期)2020-12-29 01:33:58
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
基于PowerPC+FPGA顯示系統(tǒng)
半沸制皂系統(tǒng)(下)
連通與提升系統(tǒng)的最后一塊拼圖 Audiolab 傲立 M-DAC mini
3D打印中的模型分割與打包
主站蜘蛛池模板: 不卡无码网| 97精品久久久大香线焦| 大学生久久香蕉国产线观看| 国产成人1024精品下载| 国产麻豆va精品视频| 亚洲欧美自拍中文| 国产乱视频网站| 亚洲欧美日韩天堂| 色香蕉影院| 天天综合天天综合| 日韩人妻少妇一区二区| 日韩国产高清无码| 激情网址在线观看| 91视频日本| 日韩精品无码不卡无码| 三级国产在线观看| 日韩黄色精品| 亚洲人成网址| 无码精品国产dvd在线观看9久 | 四虎精品国产永久在线观看| 亚洲全网成人资源在线观看| 欲色天天综合网| 精品国产91爱| 国产爽妇精品| 精品国产一二三区| 午夜福利无码一区二区| 在线观看的黄网| 亚洲无线一二三四区男男| 777国产精品永久免费观看| 午夜福利无码一区二区| 色悠久久综合| 国产精品亚洲精品爽爽| 国内精品久久久久久久久久影视| 成人小视频网| 欧美日本二区| 日韩区欧美国产区在线观看| 亚洲成A人V欧美综合天堂| 国产免费a级片| 奇米精品一区二区三区在线观看| 国产一区二区福利| 成人午夜亚洲影视在线观看| 在线免费a视频| 色婷婷电影网| 亚洲天堂日韩av电影| 丝袜国产一区| 国产精鲁鲁网在线视频| 最新国产网站| 欧美日韩在线成人| 伊人久久精品无码麻豆精品 | 黄色在线网| 东京热一区二区三区无码视频| 国产精品视频公开费视频| 国产裸舞福利在线视频合集| 97se综合| 97se亚洲综合| 国产亚卅精品无码| 欧美视频在线不卡| 午夜毛片福利| 91久久青青草原精品国产| 一本久道热中字伊人| 欧美午夜性视频| 最新日本中文字幕| 久久久久青草线综合超碰| 日本免费新一区视频| 国产精品国产三级国产专业不 | 日韩不卡高清视频| 青青操国产| 欧洲av毛片| 亚洲一区二区三区麻豆| 成人精品免费视频| 婷婷中文在线| 小13箩利洗澡无码视频免费网站| 国产成年女人特黄特色毛片免| 欧美午夜视频| 国产真实乱子伦视频播放| 在线人成精品免费视频| 国产精品久久自在自线观看| 国产在线观看精品| 欧美在线国产| 欧美视频二区| 免费国产黄线在线观看| 国产色图在线观看|