劉 平 劉傳才,2 張佳洛
(1.南京理工大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院 南京 210042)
(2.閩江學(xué)院物聯(lián)網(wǎng)技術(shù)與智能系統(tǒng)協(xié)同創(chuàng)新中心 福州 350108)
圖像去模糊一直以來(lái)都是計(jì)算機(jī)視覺(jué)和圖像處理領(lǐng)域內(nèi)的一個(gè)重要問(wèn)題。去模糊的目的,是將一張因運(yùn)動(dòng)或失焦而模糊(由相機(jī)搖晃、失焦或目標(biāo)快速移動(dòng)而造成)的圖像,恢復(fù)成具有清晰的邊緣結(jié)構(gòu)和豐富真實(shí)的細(xì)節(jié)的圖像。
根據(jù)點(diǎn)擴(kuò)散函數(shù)(point spread function,PSF,模糊核)是否已知,圖像去模糊分為兩類(lèi):非盲圖像去模糊和盲圖像去模糊。經(jīng)典的非盲圖像去模糊算法有頻率域算法維納濾波和空間域算法R-L(Richardson-Lucy)去卷積,但是這些算法對(duì)噪聲十分敏感并會(huì)產(chǎn)生較為嚴(yán)重的振鈴效應(yīng)。盲圖像去模糊算法是在模糊核未知的條件下對(duì)退化圖像進(jìn)行復(fù)原。由于缺乏先驗(yàn)知識(shí),相比非盲圖像去模糊算法具有更高的病態(tài)性,即根據(jù)觀測(cè)圖像無(wú)法確定唯一的原始清晰圖像和模糊核,其解不具有唯一性。
2006 年,F(xiàn)ergus 等[1]成功通過(guò)執(zhí)行反卷積操作來(lái)估算模糊核,過(guò)去十年來(lái)已經(jīng)開(kāi)發(fā)了許多方法[2~5],這些方法各有很大的局限。過(guò)去幾年,卷積神經(jīng)網(wǎng)絡(luò)(Convlutional Neural Networks,CNN)被應(yīng)用到各種計(jì)算機(jī)視覺(jué)問(wèn)題中,并獲得了各種優(yōu)秀的成果,模糊圖像復(fù)原問(wèn)題也包含其中。Xu[6]提出一種圖像去卷積的CNN 將深度學(xué)習(xí)應(yīng)用到模糊圖像的非盲去模糊問(wèn)題上,不依賴(lài)于任何預(yù)處理,利用卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)反卷積過(guò)程,開(kāi)啟了深度學(xué)習(xí)在圖像去模糊研究領(lǐng)域的新篇章,但這個(gè)神經(jīng)網(wǎng)絡(luò)需要針對(duì)不同模糊核進(jìn)行訓(xùn)練。Sun等[7]提出一個(gè)按次序的去模糊方法,先使用CNN 估計(jì)模糊內(nèi)核,再通過(guò)傳統(tǒng)解卷積算法獲得去模糊圖像。這些方案都需要先估計(jì)精確的模糊核再來(lái)做模糊圖像復(fù)原工作。估計(jì)每個(gè)像素的模糊核的過(guò)程計(jì)算復(fù)雜,占用大量計(jì)算資源和內(nèi)存,且估計(jì)過(guò)程對(duì)噪聲敏感,估計(jì)錯(cuò)誤會(huì)直接導(dǎo)致復(fù)原圖像的質(zhì)量,產(chǎn)生振鈴現(xiàn)象[8]。
近年來(lái),生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN)在圖像超分辨率和圖像修復(fù)中取得很好的效果,它能夠保存高紋理細(xì)節(jié),使得創(chuàng)建的圖像與真實(shí)圖像“真假難辨”。Kupyn等[9]采用生成對(duì)抗網(wǎng)絡(luò)來(lái)處理圖像中的運(yùn)動(dòng)模糊,以連續(xù)幀的運(yùn)動(dòng)模糊圖片為訓(xùn)練數(shù)據(jù),學(xué)習(xí)去運(yùn)動(dòng)模糊模型,以端到端的方式,由輸入的一幅模糊圖像直接獲得復(fù)原圖像,但圖像去模糊結(jié)果的邊緣特征并不明顯,仍然存在圖像運(yùn)動(dòng)模糊,且模型過(guò)大,無(wú)法直接運(yùn)用到實(shí)際應(yīng)用中。本文在此基礎(chǔ)上,提出了將深度可分離卷積[10~11](Depthwise Separable Convolution)、殘差模塊[12]以及生成對(duì)抗網(wǎng)絡(luò)相結(jié)合的思路,舍棄了生成網(wǎng)絡(luò)中的批準(zhǔn)被化(BatchNormalization),在保持模型精度的同時(shí),大大降低了訓(xùn)練參數(shù),減小了模型大小。
運(yùn)動(dòng)模糊產(chǎn)生的主要原因是在曝光時(shí)間內(nèi)相機(jī)發(fā)生了相對(duì)移動(dòng),在曝光時(shí)間內(nèi)成像系統(tǒng)與目標(biāo)物體之間產(chǎn)生了相對(duì)移動(dòng),對(duì)此一般有兩種解決方案,一是減少曝光時(shí)間,降低成像系統(tǒng)移動(dòng)概率或者移動(dòng)距離,但圖像的信噪比會(huì)相應(yīng)降低,且曝光時(shí)間不可能一直減少;二是通過(guò)建立數(shù)學(xué)模型來(lái)擬合圖像的梯度分布,根據(jù)退化模型進(jìn)行反向操作,從而恢復(fù)出期望的清晰圖像。研究學(xué)者將圖像退化的過(guò)程模擬為原圖像與點(diǎn)擴(kuò)散函數(shù)的卷積操作,非均勻模糊模型的通用公式如下:

其中IB表示模糊圖像;k(M)表示由運(yùn)動(dòng)場(chǎng)M確定的未知模糊核;IS表示清晰的圖像,?表示卷積,N 表示加性噪聲處理。通常模糊函數(shù)都是未知的,并且盲去模糊算法需要估計(jì)模糊核k(M)和清晰圖像IS。
Goodfellow 等[13]提出生成對(duì)抗網(wǎng)絡(luò)的概念,生成對(duì)抗網(wǎng)絡(luò)在兩個(gè)競(jìng)爭(zhēng)網(wǎng)絡(luò)模型之間定義一個(gè)游戲:生成模型(Generative model,G)和判別模型(Discriminative model,D)。如圖1 所示,生成網(wǎng)絡(luò)G 從給定符合某簡(jiǎn)單分布的隨機(jī)噪聲z 中(一般指均勻分布或者正態(tài)分布)產(chǎn)生與真實(shí)圖像X 尺寸一致的合成數(shù)據(jù)G(z),利用真實(shí)樣本存在的分布關(guān)系來(lái)生成符合這一分布的新的樣本。判別模型D 是其實(shí)就是一個(gè)二分類(lèi)器,用于判斷分辨輸入時(shí)生成網(wǎng)絡(luò)的輸出G(z)和真實(shí)樣本數(shù)據(jù)x 的概率,當(dāng)輸入真實(shí)樣本x時(shí),期望輸出概率值趨向1,當(dāng)輸入生成網(wǎng)絡(luò)合成的數(shù)據(jù)G(z)時(shí),盡可能輸出低概率;而生成網(wǎng)絡(luò)G 則是要盡可能地生成和真實(shí)樣本類(lèi)似的數(shù)據(jù),這樣才可以“欺騙”判別模型,使偽造的樣本被判別網(wǎng)絡(luò)D 判別而輸出的概率也盡可能地接近于1,這就形成了雙方之間的博弈游戲。

圖1 生成對(duì)抗網(wǎng)絡(luò)結(jié)構(gòu)
在實(shí)際訓(xùn)練的過(guò)程中,會(huì)固定兩個(gè)網(wǎng)絡(luò)中的任意一方,然后利用一方網(wǎng)絡(luò)的輸出來(lái)更新另一方網(wǎng)絡(luò)的參數(shù),兩者不斷交替迭代,形成了螺旋式上升,導(dǎo)致兩個(gè)模型的能力都不斷進(jìn)步,直至最后兩個(gè)網(wǎng)都收斂了,也就是說(shuō)生成器可以偽造“真實(shí)”的數(shù)據(jù),而判別器無(wú)法判斷數(shù)據(jù)的真實(shí)性,判斷概率為1/2。生成式對(duì)抗網(wǎng)絡(luò)的目標(biāo)函數(shù)描述如下:

其中,Pdata是真實(shí)樣本分布,PG是由生成器產(chǎn)生的樣本分布。在(近似)最優(yōu)判別器下,最小化上述目標(biāo)函數(shù)等價(jià)于最小化GAN 中的值函數(shù)等價(jià)轉(zhuǎn)化為真實(shí)樣本Pdata和生成分布PG之間的JS 散度,Arjovsky等[14]討論了JS散度近似引起的GAN 訓(xùn)練的困難狀況,并提出使用Wassertein 距離作為優(yōu)化方式訓(xùn)練GAN,即Wasserstein GAN,簡(jiǎn)稱(chēng)WGAN,在原 始GAN 的基礎(chǔ)上,加入了Wasserstein 距離。使得生成對(duì)抗網(wǎng)絡(luò)中的生成器損失函數(shù)變?yōu)槭剑?)、判別器損失函數(shù)變?yōu)槭剑?):

深度可分離卷積(Depthwise Separable Convolution)將傳統(tǒng)的卷積分解為一個(gè)深度卷積(Depthwise Convolution)和一個(gè)逐點(diǎn)卷積(Pointwise Convolution),如圖2所示。

圖2 標(biāo)準(zhǔn)卷積與深度可分離卷積
概言之,就是將原來(lái)一個(gè)卷積層分成兩個(gè)卷積層,其中深度卷積層的每個(gè)濾波器都只跟輸入的每個(gè)通道進(jìn)行卷積;逐點(diǎn)卷積就是利用一個(gè)1×1 的卷積層,將上一層卷積的結(jié)果進(jìn)行合并。普通卷積需要同時(shí)考慮通道和區(qū)域的改變,而深度可分離卷積只需先單獨(dú)考慮區(qū)域,再考慮通道,從而實(shí)現(xiàn)了通道和區(qū)域的分離,大幅度降低參數(shù)量和計(jì)算量,提升了運(yùn)算效率。
He[12]提出的深度殘差網(wǎng)絡(luò)(ResNet)是深度學(xué)習(xí)模型中一個(gè)重要里程碑,其主要思想就是在標(biāo)準(zhǔn)的網(wǎng)絡(luò)結(jié)構(gòu)中,加入跳躍連接,殘差塊由多個(gè)卷積層堆疊形成,網(wǎng)絡(luò)期望輸出是網(wǎng)絡(luò)預(yù)測(cè)加上與輸入張量殘差。殘差模塊(residual block)與基本模塊的對(duì)比如圖3所示。
如圖3 右圖所示,當(dāng)輸入x 通過(guò)卷積-ReLU 加權(quán)運(yùn)算操作后,產(chǎn)生的結(jié)果為F(x),與原始輸入x相加,就有H(x)=F(x)+x。與基礎(chǔ)莫酷啊輸出H(x)=F(x)+x 相比,殘差網(wǎng)絡(luò)是將卷積輸出F(x)與輸入x相加,相當(dāng)于對(duì)輸入x計(jì)算了一個(gè)微小變化,這樣得到的輸出H(x)就是x 與變化的疊加。經(jīng)過(guò)梯度傳播后,現(xiàn)在傳到前一層的梯度就多了一個(gè)x的梯度,殘差結(jié)構(gòu)人為制造了恒等映射,讓整個(gè)結(jié)構(gòu)朝著恒等映射的方向去收斂,確保最終的錯(cuò)誤率不會(huì)因?yàn)樯疃鹊淖兇蠖絹?lái)越差。殘差網(wǎng)絡(luò)有效地緩解了深層神經(jīng)網(wǎng)絡(luò)的退化問(wèn)題,提高了網(wǎng)絡(luò)性能。

圖3 基本模塊(左)和殘差模塊(右)
本文將殘差模塊與深度可分離卷積相結(jié)合,設(shè)計(jì)了三層深度卷積核為3×3 的殘差可分離卷積,如圖4 所示,其中,DesConv3×3 表示一個(gè)卷積核為3×3深度卷積核一個(gè)卷積核為1×1的逐點(diǎn)卷積,如圖4虛框中所示。每?jī)蒁esConv3×3 層之間增加一個(gè)ReLU 激活函數(shù)和一個(gè)Dropout 層,ReLU 激活函數(shù)將非線(xiàn)性因素引入模型,Dropout 層是一種常用的正則化方法,在每次訓(xùn)練時(shí),以一定的概率使得一部分節(jié)點(diǎn)的輸出值變?yōu)?,它能夠有效地防止過(guò)擬合,提升網(wǎng)絡(luò)的準(zhǔn)確率。當(dāng)輸入圖像與輸出圖像尺寸不匹配時(shí),在跳躍連接中對(duì)輸入執(zhí)行一個(gè)1×1 卷積核并調(diào)整步長(zhǎng)大小來(lái)匹配輸入輸出維度。最后,去除了最外層的ReLU層。這種結(jié)構(gòu)極大地降低了網(wǎng)絡(luò)復(fù)雜度,同時(shí)避免了網(wǎng)絡(luò)過(guò)深導(dǎo)致的退化問(wèn)題。

圖4 本文設(shè)計(jì)的殘差可分離卷積模塊
同時(shí),在本文設(shè)計(jì)的殘差可分離卷積模塊中,去除了原本殘差結(jié)構(gòu)中的BatchNormalization(BN)層。BN 層的計(jì)算量和一個(gè)卷積層幾乎持平,移除后訓(xùn)練時(shí)可以節(jié)約很大的空間。殘差網(wǎng)絡(luò)的提出是為了解決high-level 問(wèn)題,而不能直接套用到超分辨和圖像去模糊這種low-level視覺(jué)問(wèn)題上,結(jié)果也證明去除BN層,在圖像去模糊問(wèn)題上,能夠保證精度穩(wěn)定的情況下,大大提高了訓(xùn)練速度。
本文基于Wasserstein 生成對(duì)抗網(wǎng)絡(luò)模型和殘差可分離模塊,提出了本文的去運(yùn)動(dòng)模糊網(wǎng)絡(luò)模型結(jié)構(gòu)DeepDeblur。主要由一個(gè)生成網(wǎng)絡(luò)G 和判別網(wǎng)絡(luò)D 組成。其中,生成網(wǎng)絡(luò)CNN 架構(gòu)如圖5 所示,其中Input 表示輸入層、Conv1×1 表示卷積核為1×1 的卷積層、Conv7×7 表示卷積核為7×7 的卷積層、DesConv3×3表示深度卷積核為3×3的深度可分離卷積模塊、ReLU表示修正線(xiàn)性單元激活函數(shù)層、BilinearUpsampling 表示雙線(xiàn)性插值上采樣層、Dropout表示隨機(jī)丟棄層、Output表示輸出層。

圖5 DeepDeblur生成網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)
DeepDeblur判別網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)如表1所示,其中Conv4×4 表示卷積核為4×4 的卷積層,s表示步長(zhǎng)為2,IN表示實(shí)例規(guī)范層(Instance Normalization),LReLU 表示泄露修正線(xiàn)性單元(LeakyRe-LU)層。這是一個(gè)類(lèi)似VGG結(jié)構(gòu)的二分類(lèi)器,用于估計(jì)一個(gè)圖像來(lái)自于訓(xùn)練數(shù)據(jù)集(非生成數(shù)據(jù))的概率。如果生成器生成的圖像“騙過(guò)”判別器,則最終獲得一個(gè)標(biāo)簽。全連接層比較容易過(guò)擬合,影響整個(gè)模型的泛化能力,因此本文加入全局池化,即對(duì)每個(gè)特征圖一整張圖片進(jìn)行全局均值池化操作,這樣每張?zhí)卣鲌D都可以對(duì)應(yīng)一個(gè)輸出。這種采用均值池化的操作,大大減少了網(wǎng)絡(luò)參數(shù),避免了過(guò)擬合。LeakyReLU層參數(shù)為0.2。

表1 判別網(wǎng)絡(luò)結(jié)構(gòu)與輸出尺寸
為了優(yōu)化本文的生成對(duì)抗網(wǎng)絡(luò),本文將損失函數(shù)表示為內(nèi)容和對(duì)抗性損失的組合:

其中,LGAN表示對(duì)抗損失,LX表示內(nèi)容損失,λ 取100。式(5)為參數(shù)更新提供了梯度,同時(shí)也決定了生成網(wǎng)絡(luò)模型收斂的方向。對(duì)去運(yùn)動(dòng)模糊任務(wù)而言,模糊圖像對(duì)應(yīng)的生成圖像與清晰圖像內(nèi)容、輪廓接近,對(duì)抗損失控制大體內(nèi)容的差距,內(nèi)容損失控制細(xì)節(jié)內(nèi)容的差距。其中,對(duì)抗損失定義如下所示:

通過(guò)加入Wasserstein距離將對(duì)抗損失變成:

內(nèi)容損失函數(shù)選擇的是感知損失[15],其兩個(gè)經(jīng)典選擇是原始像素上的L1 或MAE 損失,L2 或MSE損失。由于像素空間中可能的解決方案的像素平均值,使用這些函數(shù)作為唯一的優(yōu)化目標(biāo)導(dǎo)致生成的圖像上的模糊偽像[16]。而感知損失是一種基于真實(shí)圖片卷積得到的特征圖與生成圖片卷積得到的特征圖作比較的L2 損失,使得高層信息(內(nèi)容和全局結(jié)構(gòu))接近,也就是感知的意思。它定義如下:

其中φ函數(shù)是將真實(shí)圖片IS和模糊圖像IB經(jīng)過(guò)生成器生成后的圖片G(IB)一起輸入到預(yù)先訓(xùn)練好的VGG19網(wǎng)絡(luò)模型中,φi,j是在VGG19網(wǎng)絡(luò)內(nèi)的第i個(gè)最大化層之前通過(guò)第j個(gè)卷積(激活之后)獲得的特征 圖 ,在ImageNet[17]上 預(yù) 訓(xùn) 練 ,Wi,j和Hi,j是 特 征圖。本文實(shí)驗(yàn)中使用來(lái)自VGG3,3卷積層的激活。更深層次的激活代表了更高抽象的特征[16,18]。感知損失側(cè)重于恢復(fù)一般內(nèi)容[16,19],而對(duì)抗性損失則側(cè)重于恢復(fù)紋理細(xì)節(jié)。在沒(méi)有感知損失或像素上使用簡(jiǎn)單MSE 訓(xùn)練實(shí)驗(yàn)不會(huì)收斂到有意義的狀態(tài)。
本實(shí)驗(yàn)環(huán)境包括硬件環(huán)境和軟件環(huán)境。實(shí)驗(yàn)的硬件環(huán)境是一臺(tái)Intel Xeon 服務(wù)器,CPU 型號(hào)E5-2637 v4,搭 配 兩 塊NVIDIA Quadro P5000 的GPU,每塊顯存16G,共32G;實(shí)驗(yàn)軟件環(huán)境,平臺(tái)是64位Ubuntu 16.04.1操作系統(tǒng),Tensorflow 1.4,CUDA 8.0,Python3.5。
使用keras2.2.2 深度學(xué)習(xí)框架實(shí)現(xiàn)算法模型,在在Intel Xeon服務(wù)器單塊GPU上進(jìn)行訓(xùn)練。遵循Arjovsky 等[14]的方法,在判別網(wǎng)絡(luò)D 上執(zhí)行五個(gè)梯度下降步驟,然后在生成網(wǎng)絡(luò)G 上執(zhí)行一步,再經(jīng)過(guò)多次實(shí)驗(yàn)調(diào)參選優(yōu)確定了各超參數(shù)值,接著使用RMSProp 優(yōu)化策略,初始學(xué)習(xí)率設(shè)置為1×10-4,當(dāng)經(jīng)過(guò)150 個(gè)epoch 之后,在后面的150 個(gè)epoch 中將學(xué)習(xí)率線(xiàn)性的衰減到0。為了獲得更好的圖片復(fù)原效果,batchsieze 設(shè)置為1。訓(xùn)練階段,訓(xùn)練一個(gè)本文算法模型需要六天。經(jīng)過(guò)多次實(shí)驗(yàn)驗(yàn)證,本章去運(yùn)動(dòng)模糊實(shí)驗(yàn)的模型在訓(xùn)練集訓(xùn)練6×105次后,達(dá)到收斂狀態(tài)。
本文實(shí)驗(yàn)采用Nah 等[20]公開(kāi)的Gopro 數(shù)據(jù)集,該數(shù)據(jù)集包含來(lái)自多個(gè)街景的人工模糊圖像。根據(jù)場(chǎng)景的不同,該數(shù)據(jù)集在不同子文件夾中分類(lèi)。實(shí)驗(yàn)中,將Gopro 數(shù)據(jù)集分為模糊圖片和清晰圖片,各自擁有訓(xùn)練集2103張720p質(zhì)量的訓(xùn)練圖片,和1111 張測(cè)試圖片,每張圖尺寸為1280×720。訓(xùn)練時(shí)的輸入圖像縮小兩倍到640×360,模型訓(xùn)練輸入是在此尺寸上隨機(jī)截取256×256尺寸大小。
本文采用被廣泛應(yīng)用在圖像處理評(píng)價(jià)的峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)和結(jié)構(gòu)相似性(Structural SIMilarity,SSIM),作為運(yùn)動(dòng)模糊圖像去模糊后的圖像質(zhì)量的參考評(píng)價(jià)指標(biāo)。
本文以WGAN 為基礎(chǔ)結(jié)構(gòu)復(fù)現(xiàn)了目前最好的由Kupyn 等[9]提出的去運(yùn)動(dòng)模糊算法的模型,表2給出了Kupyn 等和本文的DeepDeblur 兩種模型算法在1111 張測(cè)試集上去運(yùn)動(dòng)模糊的平均PSNR 和平均SSIM 的對(duì)比,以及各自的單圖運(yùn)行時(shí)間。本文設(shè)計(jì)的模型在各項(xiàng)參數(shù)上都表現(xiàn)出更優(yōu)異的結(jié)果。

表2 評(píng)價(jià)指標(biāo)對(duì)比
在實(shí)際應(yīng)用中,用戶(hù)的需求一般都是實(shí)時(shí)的或者接近實(shí)時(shí)的,這就要求算法能夠快速的求解。同時(shí),運(yùn)算設(shè)備的性能也會(huì)成為模型的瓶頸,為了能夠適應(yīng)更多的設(shè)備,也需要對(duì)算法的模型進(jìn)行簡(jiǎn)化。Kupyn 的模型的生成網(wǎng)絡(luò)訓(xùn)練參數(shù)量高達(dá)1.137×107,模型大小達(dá)到了45.7MB,這就大大降低了實(shí)際使用性,而本文模型生成網(wǎng)絡(luò)訓(xùn)練參數(shù)量?jī)H有2.35×106,計(jì)算量縮小了5 倍,且模型9.8MB,減少了近3/4,更符合了實(shí)際應(yīng)用中限制模型大小的要求。

圖6 測(cè)試圖對(duì)比
為驗(yàn)證各算法的處理效果,顯示實(shí)驗(yàn)結(jié)果的客觀合理,選取三幅有代表性的圖進(jìn)行對(duì)比。實(shí)驗(yàn)結(jié)果如圖6 所示。圖中圖像從左到右依次為清晰圖像、模糊圖像、Kupyn 的算法復(fù)原圖像以及本文所提模型DeepDeblur 的復(fù)原圖像。從去運(yùn)動(dòng)模糊的結(jié)果來(lái)看,本文實(shí)驗(yàn)的去模糊圖像與Kupyn去運(yùn)動(dòng)模糊效果相接近。而本文所提出的模型在保證圖像保真度的同時(shí),有效約束了圖像的邊緣,保證了圖像的復(fù)原質(zhì)量。同時(shí)由于模型規(guī)模的大大縮減,對(duì)于運(yùn)算設(shè)備而言,負(fù)擔(dān)大大減小,同時(shí)訓(xùn)練時(shí)間也有所減小,更貼近實(shí)時(shí)需求。
針對(duì)攝像機(jī)在成像時(shí)產(chǎn)生的運(yùn)動(dòng)模糊圖像,本文提出了一種較為可行的解決方案,利用生成對(duì)抗網(wǎng)絡(luò)實(shí)現(xiàn)了去運(yùn)動(dòng)模糊圖像的端到端的盲圖像復(fù)原方法。為了將模型更貼合實(shí)際應(yīng)用中,本文算法加入了殘差可分離卷積,去除了生成器中的批標(biāo)準(zhǔn)化,開(kāi)發(fā)了一種改進(jìn)去運(yùn)動(dòng)模糊模型的新思路。通過(guò)實(shí)驗(yàn)分析對(duì)比,本文算法有效地復(fù)原出了一幅較為清晰的運(yùn)動(dòng)模糊圖像,且模型縮放了4.7倍。