張玉波 王建陽 韓爽 王冬梅



摘要: 針對現(xiàn)有圖像去模糊算法存在細(xì)節(jié)模糊不清、 計算資源占用較大且圖像處理速度較慢等問題,提出一種輕量級的圖像盲去模糊網(wǎng)絡(luò). 首先,網(wǎng)絡(luò)主體使用多尺度架構(gòu),將不同分辨率的圖像輸入網(wǎng)絡(luò),通過循環(huán)處理逐步優(yōu)化細(xì)節(jié); 其次,設(shè)計非對稱結(jié)構(gòu)以加強編碼器的特征提取能力和解碼器的特征融合能力. 在編碼器中,提出混合多尺度卷積層和殘差金字塔模塊,以強化特征提取并減少網(wǎng)絡(luò)的參數(shù)量; 在解碼器階段,使用跳躍連接引入深層語義,并提出多尺度聯(lián)合結(jié)構(gòu)損失函數(shù)進行優(yōu)化. 最后,在兩個廣泛使用的數(shù)據(jù)集GoPro和Kohler上使用兩種評價指標(biāo),將該方法與其他經(jīng)典方法進行性能對比. 實驗結(jié)果表明,該網(wǎng)絡(luò)的去模糊效果優(yōu)于傳統(tǒng)方法以及其他經(jīng)典深度學(xué)習(xí)方法,不僅在峰值信噪比(PSNR)和結(jié)構(gòu)相似性(SSIM)上均有一定提升,且處理時間更短.
關(guān)鍵詞: 圖像處理; 盲去模糊; 金字塔結(jié)構(gòu); 多尺度網(wǎng)絡(luò)
中圖分類號: TP391.41; TP183 ?文獻標(biāo)志碼: A ?文章編號: 1671-5489(2023)02-0362-09
An Asymmetric Lightweight Image Blind Deblurring Network
ZHANG Yubo,WANG Jianyang,HAN Shuang,WANG Dongmei
(School of Electrical & Information Engineering,Northeast Petroleum University,Daqing 163318,Heilongjiang Province,China)
收稿日期: 2022-01-04.
第一作者簡介: 張玉波(1982—),女,漢族,碩士,副教授,從事人工智能、 深度學(xué)習(xí)和圖像處理的研究,E-mail: zhangyubo@nepu.edu.cn.
通信作者簡介: 王建陽(1997—),男,漢族,碩士研究生,從事圖像處理的研究,E-mail: wjy971013@163.com.
基金項目: 黑龍江省自然科學(xué)基金(批準(zhǔn)號: LH2022F005)和東北石油大學(xué)引導(dǎo)基金(批準(zhǔn)號: 15071202202).
Abstract: Aiming at? the problems of blurred details,large computer resource occupation,and slow image processing for the existing image deblurring algorithms,
we proposd a lightweight image blind deblurring network. Firstly,the main framework of the network used a multi-scale architecture to input images of different resolutions into the network,
and gradually optimized the datails through cyclic processing.? Secondly,the asymmetric structure was designed to enhance the feature extraction
ability of the encoder and the feature fusion ability of decoder. In the encoder,the mixed multi-scale convolutional layer and residual pyramid module were proposed to enhance feature
extraction and? reduce the number of network parameters. In the decoder stage,deep semantics were introduced? by using jump linkage,and the multi-scale joint struc
ture? loss function was proposed for optimization. Finally,we used two evaluation indicators to compare the performance of the method with the other classical methods on two widely used
GoPro and Kohler datasets. The experimental results show that the effect of the network? is better than that of the traditional methods and other classical deep learning mehtods.
It not only improves the peak signal-to-noise ratio (PSNR) and structural similarity (SSIM),but also shortens the processing time.
Keywords: image processing; blind deblurring; pyramid structure; multi-scale network
近年來,隨著影像技術(shù)的不斷發(fā)展,圖像所承載的信息量也越來越大,在地質(zhì)勘探、 天文航空、 交通醫(yī)療等領(lǐng)域尤為突出,因此獲得一張清晰無誤的圖像十分重要. 而圖像去模糊技術(shù)可很好地提升圖像的質(zhì)量,并復(fù)原圖像的缺失信息[1-4]. 圖像去模糊任務(wù)是從一張模糊的圖像中復(fù)原出清晰的圖像,并盡可能真實地復(fù)原圖像細(xì)節(jié). 其中,根據(jù)復(fù)原任務(wù)中的模糊核是否已知,可將其分為盲去模糊和非盲去模糊兩類.
早期的研究主要是非盲去模糊任務(wù),即在已知模糊核的情況下使圖像清晰化. 但在實際應(yīng)用中,大多數(shù)情況下圖像的模糊核未知. 盲去模糊需要對模糊核進行計算估計,從而將圖像去模糊問題轉(zhuǎn)化為模糊核的計算問題,該類問題常利用原始圖像中的圖像先驗信息進行計算,從而迭代估計出模糊核.
傳統(tǒng)的去模糊常用方法包括Wiener濾波、 最大似然估計、 基于正則化等. 如Tai等[5]提出的邏緝回歸(logistic-regression,L-R)算法通過對原始圖像的模糊分布進行估計,將加性噪聲設(shè)為零,迭代計算其收斂的最大似然解,最終將圖像去模糊化,該方法在早期研究中應(yīng)用廣泛; Li等[6]則使用Wiener濾波的方法解決了旋轉(zhuǎn)模糊問題,通過將濾波后的圖像利用模糊原理對原圖像進行填充,實現(xiàn)旋轉(zhuǎn)圖像的模糊復(fù)原; 譚海鵬等[7]使用正則化方法對圖像進行處理,通過設(shè)計圖像金字塔將模糊圖像在系統(tǒng)中反復(fù)處理,可很好地對遙感圖像進行處理. 此外,非盲去模糊還有利用暗通道先驗、 稀疏先驗等方法,但由于該類方法基本依賴于圖像的有限處理計算模糊核,因此會產(chǎn)生許多多余的紋理細(xì)節(jié),如常見的振鈴效應(yīng)等.
隨著計算機硬件技術(shù)的發(fā)展,深度學(xué)習(xí)技術(shù)發(fā)展較快,卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)被廣泛應(yīng)用于圖像去模糊任務(wù)中,并展示了極大的優(yōu)越性[8-11].
Sun等[12]利用卷積網(wǎng)絡(luò)反向計算出圖像的模糊核,并利用其進行圖像復(fù)原,與傳統(tǒng)方法相比取得了更好的去模糊效果; Nah等[13]搭建了一種從粗到細(xì)的多尺度卷積框架對圖像進行去模糊,并在使用視頻合成的真實模糊圖像數(shù)據(jù)集上取得了較好效果; Tao等[14]通過使用金字塔逐步恢復(fù)不同尺度清晰圖像的策略,提出了一種標(biāo)度循環(huán)卷積網(wǎng)絡(luò)的編解碼結(jié)構(gòu),并在不同標(biāo)度的子網(wǎng)絡(luò)中共享參數(shù),實現(xiàn)了從粗到精的端到端去模糊; Kupyn等[15]利用生成對抗網(wǎng)絡(luò)設(shè)計了一個新的圖像去模糊網(wǎng)絡(luò),通過條件生成對抗網(wǎng)絡(luò)(GAN)進行去模糊,與一般的深度學(xué)習(xí)方法相比,處理速度增加了數(shù)倍,開啟了GAN在圖像去模糊上的應(yīng)用; 此后,Kupyn等[16]又搭建了一種具備雙鑒別器的GAN網(wǎng)絡(luò),在框架中使用了特征塔形結(jié)構(gòu),同時由于該框架使用了最新的輕量化網(wǎng)絡(luò),使得其較其他經(jīng)典網(wǎng)絡(luò)在計算上快了近百倍; Gong等[17]搭建了一種可進行自學(xué)習(xí)的去模糊GAN框架,該框架在處理圖像的小范圍模糊去除上獲得了理想的結(jié)果; Lu等[18]提出了用解纏網(wǎng)絡(luò)分離圖像的語義和特征,通過將模糊特征編入網(wǎng)絡(luò)提升網(wǎng)絡(luò)的處理能力. 但上述的深度學(xué)習(xí)算法存在的普遍問題是網(wǎng)絡(luò)模型越來越大,且損失函數(shù)較單一,使得神經(jīng)網(wǎng)絡(luò)的優(yōu)勢并未被充分利用,單張圖像的平均處理時間也相對較長.
基于此,本文提出一種非對稱的輕量級圖像盲去模糊網(wǎng)絡(luò),該網(wǎng)絡(luò)通過從低尺度到高尺度的方法逐步復(fù)原圖像,提出用混合多尺度卷積層對原始圖像進行多尺度的處理,通過殘差金字塔模塊增大網(wǎng)絡(luò)的感受野,并使用擴張卷積實現(xiàn)輕量化架構(gòu). 采用圖像特征跨層直連強化網(wǎng)絡(luò)的去模糊性能,使用的損失函數(shù)可綜合計算圖像的亮度、 結(jié)構(gòu)、 對比度以及均方誤差,提升了去模糊后圖像的真實性. 實驗結(jié)果表明,在指標(biāo)對比和圖像主觀測試上,該方法都優(yōu)于近年來廣泛使用的經(jīng)典盲去模糊網(wǎng)絡(luò),可實現(xiàn)較好的圖像去模糊效果,同時在單張圖像處理速度上性能優(yōu)異.
1 算法設(shè)計
1.1 圖像退化模型
在圖像拍攝、 存放及多次拷貝過程中,由于拍攝環(huán)境不佳、 相機硬件故障以及使用圖像處理軟件進行錯誤操作或頻繁存取壓縮圖像都會導(dǎo)致圖像出現(xiàn)模糊現(xiàn)象,而實際應(yīng)用中的圖像模糊原理可建模為
B=I*K+N,(1)
其中I為原清晰圖像,K為模糊核,*為卷積操作,N為加性噪聲. 一張模糊圖像可視為是原圖像在模糊核的作用下受加性噪聲影響形成的,而模糊核的作用原理與圖像攝取環(huán)境等條件相關(guān).
1.2 編碼器-解碼器網(wǎng)絡(luò)
在網(wǎng)絡(luò)模型的設(shè)計上本文使用編解碼網(wǎng)絡(luò),其通常是由編碼器和解碼器組合而成的對稱結(jié)構(gòu),其中編碼器對圖像進行下采樣提取特征,解碼器利用上采樣將高級語義特征進行融合,并在輸出端輸出圖像.
與傳統(tǒng)編解碼網(wǎng)絡(luò)不同,本文在其中引入了非對稱思想,將圖像在相同參數(shù)的三層編碼器-解碼器網(wǎng)絡(luò)中使用不同分辨率進行循環(huán)處理,對編碼器和解碼器分別采用不同的設(shè)計,從而對網(wǎng)絡(luò)進行強化,網(wǎng)絡(luò)框架如圖1所示.
由圖1可見: 在編碼器中,本文設(shè)計了混合多尺度卷積層(mixed multi-scale convolution module,MMCM)對圖像進行初始特征強化提取. 為增強特征提取能力的同時降低參數(shù)量,本文利用擴張卷積設(shè)計了輕量級的殘差金字塔模塊(residual pyramid module,RPM); 在解碼階段,使用跳躍連接思想,將深層高級特征跨層接入到輸出,并經(jīng)過最后一層卷積輸出圖1中灰色部分的圖像后,進入尺度循環(huán). 通過這種非對稱的結(jié)構(gòu)設(shè)計,實現(xiàn)對圖像去模糊能力的強化.
在網(wǎng)絡(luò)模型上,為增強網(wǎng)絡(luò)的去模糊能力,本文采用文獻[14]的圖像尺度循環(huán)處理方法,實現(xiàn)流程如圖2所示. 該方法首先對原始圖像進行兩次下采樣,然后送入到網(wǎng)絡(luò)框架中進行去模糊處理,處理后將重建的、 去模糊后的次級清晰圖像進行上采樣操作,循環(huán)輸入到訓(xùn)練好參數(shù)的去模糊網(wǎng)絡(luò)中,并在二次、 三次循環(huán)中使用同一套網(wǎng)絡(luò)參數(shù), 這里的參數(shù)重用機制可在不同分辨率下很好地利用之前網(wǎng)絡(luò)訓(xùn)練好的特征信息. 文獻[14]研究表明,三層的網(wǎng)絡(luò)可在網(wǎng)絡(luò)復(fù)雜度和最終圖像質(zhì)量間得到較好的平衡,并最終通過多尺度的循環(huán)處理機制,使圖像具備不同尺度的細(xì)粒度特征,實現(xiàn)比單層網(wǎng)絡(luò)更好的去模糊效果.
1.3 混合多尺度卷積層
為實現(xiàn)在圖像輸入后,對圖像初始特征進行更充分地提取,可以用ResNet[19]的基本結(jié)構(gòu)進行網(wǎng)絡(luò)構(gòu)建. 實驗表明,對ResNet進行堆疊加深可增強網(wǎng)絡(luò)的性能,但會增加網(wǎng)絡(luò)的參數(shù)量,導(dǎo)致網(wǎng)絡(luò)訓(xùn)練緩慢,過深時會無法收斂,導(dǎo)致梯度消失. 為避免出現(xiàn)這種現(xiàn)象,同時增強網(wǎng)絡(luò)的特征提取能力,本文設(shè)計了混合多尺度卷積層作為網(wǎng)絡(luò)初始階段的特征提取器,如圖3所示.
由圖3可見,本文在混合多尺度卷積層中采用了并聯(lián)的網(wǎng)絡(luò)結(jié)構(gòu),經(jīng)過降采樣后的圖像輸入網(wǎng)絡(luò)后,會分別送入由不同大小卷積核構(gòu)成的兩個分支中. 在神經(jīng)網(wǎng)絡(luò)中,這種雙分支的結(jié)構(gòu)可增加網(wǎng)絡(luò)的特征提取能力,但不過度加深網(wǎng)絡(luò). 本文在雙通路中分別采用不同大小的卷積核,以便于對輸入圖像的不同尺度進行特征提取; 然后使用Concat函數(shù)對不同尺度的特征進行初步特征交融,以增加特征圖的細(xì)粒度; 最后使用1×1大小的卷積核對特征圖進行總體特征融合,同時具有通道維度整合的作用,并將特征圖傳遞至下一級網(wǎng)絡(luò).
1.4 殘差金字塔模塊
圖像在經(jīng)過初始的特征提取后,需在當(dāng)前分辨率下對特征圖進行進一步的強化提取,這里可通過對網(wǎng)絡(luò)進行加深實現(xiàn)從模糊圖像到清晰圖像更好地擬合. 不同于傳統(tǒng)的端到端對稱編解碼結(jié)構(gòu)使用的簡單堆疊方式,本文設(shè)計了如圖4所示的殘差金字塔模塊實現(xiàn)對特征的多尺度處理.
由圖4可見,為實現(xiàn)對特征的強化提取,本文設(shè)計了三層不同大小感受野的卷積層,構(gòu)成了圖像金字塔. 但為減少網(wǎng)絡(luò)的參數(shù)量,在更大尺度感受野的卷積核上,本文使用3×3大小的、 擴張率為2的擴張卷積[20]. 與傳統(tǒng)的卷積相比,擴張卷積可在相同大小的感受野上比5×5傳統(tǒng)卷積降低近3倍的參數(shù)量,并在訓(xùn)練中實現(xiàn)與傳統(tǒng)卷積相近的效果,極大加快了網(wǎng)絡(luò)的訓(xùn)練速度和圖像處理速度. 在殘差金字塔模塊中,通過擴張卷積與傳統(tǒng)卷積的組合構(gòu)建金字塔結(jié)構(gòu)的輕量級特征提取器. 最后,通過引入殘差連接解決網(wǎng)絡(luò)退化問題,并通過1×1的卷積進行特征的再融合及通道維度的整合.
1.5 解碼器設(shè)計
在編碼器-解碼器網(wǎng)絡(luò)中,編碼器負(fù)責(zé)特征提取,解碼器負(fù)責(zé)特征融合. 因此在解碼器部分不進行復(fù)雜的尺度操作增加計算量,而考慮在深層語義特征的跨層引入融合. 如圖1中虛線所示,本文將編碼器提取的高低語義特征引入到解碼器末端的特征圖中,將高級特征與低級特征進行交互融合,實現(xiàn)解碼器整體的殘差塊設(shè)計,以獲得更優(yōu)良的圖像去模糊效果.
為避免編碼器的輕量設(shè)計導(dǎo)致解碼器出現(xiàn)擬合困難的現(xiàn)象,本文在解碼器中采用文獻[14]多層ResNet嵌套設(shè)計的殘差卷積組,如圖5所示. 由圖5可見,卷積核內(nèi)部采用5×5大小的卷積,盡量在編碼器參數(shù)較少的情況下強化解碼器的特征融合效果. 由于解碼器的跳躍連接設(shè)計與ResNet較強的擬合能力,該模塊在網(wǎng)絡(luò)訓(xùn)練中可實現(xiàn)對特征的有效融合.
2 實 驗
2.1 實驗數(shù)據(jù)集
本文實驗采用在圖像去模糊領(lǐng)域廣泛使用的模糊數(shù)據(jù)集GoPro[13]. 該數(shù)據(jù)集使用了GoPro運動攝影機拍攝的高清圖像,并利用影像的相鄰幀合成類真實的模糊圖像,使用臨近幀的中間幀表示清晰圖像,構(gòu)建了大量的清晰-模糊圖像對,本文使用其中的3 214對圖像進行實驗,包括2 103對用于網(wǎng)絡(luò)訓(xùn)練,1 111對用于結(jié)果測試.
為保證實驗和網(wǎng)絡(luò)設(shè)計的有效性,本文使用數(shù)據(jù)集Kohler[21]進一步進行指標(biāo)對比. 數(shù)據(jù)集Kohler由4張圖像在12種不同類型的卷積核上卷積而成,由于模糊核種類較多,形成的模糊十分復(fù)雜,因此可綜合地衡量網(wǎng)絡(luò)的去模糊能力.
2.2 模型訓(xùn)練
本文算法采用Python3.8語言進行編寫,并使用Tensorflow2.5[22]深度學(xué)習(xí)框架進行搭建. 在Ubuntu16.04系統(tǒng)的服務(wù)器上,用Nvidia 1080Ti顯卡進行訓(xùn)練與實驗. 實驗中采用數(shù)據(jù)集GoPro進行網(wǎng)絡(luò)訓(xùn)練,訓(xùn)練時圖像會被隨機裁切為256×256大小的尺寸,訓(xùn)練批尺寸為16,損失函數(shù)超參數(shù)為0.04,經(jīng)過4 000次迭代訓(xùn)練完成,得到基本的網(wǎng)絡(luò)模型.
2.3 實驗結(jié)果及分析
將本文方法與近年來在深度學(xué)習(xí)領(lǐng)域中廣受好評的圖像去模糊的經(jīng)典算法進行指標(biāo)對比,不同方法在兩個數(shù)據(jù)集中的對比結(jié)果分別列于表1和表2.
由表1可見: 在數(shù)據(jù)集GoPro上,與傳統(tǒng)單尺度結(jié)構(gòu)的深度學(xué)習(xí)方法相比,本文方法具有較大優(yōu)勢; 與尺度循環(huán)架構(gòu)的深度學(xué)習(xí)方法相比,如文獻[14]方法等,本文方法也有一定的提升; 與采用生成對抗網(wǎng)絡(luò)結(jié)構(gòu)的文獻[16]、 文獻[26]方法等相比,本文方法則具有更優(yōu)秀的去模糊能力. 此外,本文方法在PSNR與SSIM指標(biāo)之間取得了相對的均衡,未出現(xiàn)如文獻[25]等方法的PSNR指標(biāo)較高但SSIM相對較低的情況. 本文方法的SSIM指標(biāo)較其他方法有明顯提升,進一步證明了本文設(shè)計的多尺度結(jié)構(gòu)相似損失對圖像去模糊方法的有效性.
由表2可見,本文方法與深度學(xué)習(xí)領(lǐng)域經(jīng)典的開源去模糊方法在數(shù)據(jù)集Kohler上進行比較,也取得了較好結(jié)果,綜合PSNR與SSIM指標(biāo),取得了較均衡的效果,進一步證明了本文方法的穩(wěn)定性與泛化能力,可在多種不同模糊核的數(shù)據(jù)集上取得很好的去模糊效果.為驗證本文方法在輕量化方面的指標(biāo)情況進行對比實驗,實驗數(shù)據(jù)集為數(shù)據(jù)集GoPro的測試集圖像,指標(biāo)為單圖像的去模糊處理時間,不同方法圖像處理時間的對比結(jié)果列于表3.
由表3可見,與去模糊領(lǐng)域的經(jīng)典方法相比,本文方法在單圖像去模糊速度上具有一定優(yōu)勢,證明了本文提出的輕量級金字塔模塊對循環(huán)多尺度架構(gòu)輕量化的有效性.
在具體圖像的定性直觀分析上,將本文方法與采用了文獻[14]的SRN網(wǎng)絡(luò)和文獻[16]的DeblurGAN網(wǎng)絡(luò)方法進行對比分析,SRN網(wǎng)絡(luò)與本文網(wǎng)絡(luò)同樣為編解碼結(jié)構(gòu),均采用了多尺度循環(huán)架構(gòu)且去模糊效果相對較好,因此更具對比價值; DeblurGAN則在生成對抗網(wǎng)絡(luò)結(jié)構(gòu)去模糊中有較好的去模糊效果,且圖像處理速度較快. 對比使用的數(shù)據(jù)為GoPro測試集中的圖像,對比結(jié)果如圖6所示. 本文在數(shù)據(jù)集Kohler上也進行了細(xì)節(jié)對比,對比結(jié)果如圖7所示.
由圖6和圖7可見,本文方法復(fù)原的圖像在特征輪廓、 光影和亮度上與文獻[14]的方法較相似,與真實圖像相比同樣較貼近. 但文獻[14]方法復(fù)原的圖像有時存在較明顯的偽影與亮斑,該現(xiàn)象在本文方法復(fù)原的圖像中則較少出現(xiàn). 而文獻[16]方法在圖像處理速度上與本文相似,但圖像的具體去模糊效果較差. 在數(shù)據(jù)集Kohler上,文獻[14]方法復(fù)原的圖像結(jié)構(gòu)輪廓與觀感上較清晰,但存在少量的偽影. 文獻[16]方法振鈴效應(yīng)較明顯,物體的輪廓特征也較模糊. 因此,在直觀的圖像對比分析上,本文方法具有較優(yōu)的去模糊效果.
為檢驗相關(guān)改進的有效性,本文進行了消融實驗. 基礎(chǔ)網(wǎng)絡(luò)為對稱的基本編碼器-解碼器結(jié)構(gòu),損失函數(shù)為去模糊領(lǐng)域較常用的MSE損失. 通過逐步替換混合多尺度卷積層、 殘差金字塔模塊、 跳躍連接和損失函數(shù),計算前后的PSNR、 SSIM和單張圖像的處理速度綜合比較,評測數(shù)據(jù)集為GoPro,比較結(jié)果列于表4.
由表4可見,在加入RPM模塊后,單張圖像的處理速度提升了近5倍,而在剩余的改進中,保證了在不增加過多計算量的同時對網(wǎng)絡(luò)指標(biāo)進行提升,經(jīng)過改進后的網(wǎng)絡(luò),兼顧了網(wǎng)絡(luò)性能與圖像處理速度,達到了輕量化的去模糊目標(biāo).
綜上所述,針對當(dāng)前去模糊算法圖像處理緩慢的問題,本文設(shè)計了一種非對稱的輕量級圖像盲去模糊網(wǎng)絡(luò). 網(wǎng)絡(luò)以多尺度循環(huán)的編解碼網(wǎng)絡(luò)為基礎(chǔ),提出用混合多尺度卷積層對圖像的初始特征進行提取,通過殘差金字塔模塊增大網(wǎng)絡(luò)的感受野,實現(xiàn)對多尺度更細(xì)粒度的計算,并使用擴張卷積進行輕量化處理. 在解碼器中,采用圖像特征跨層直連加強網(wǎng)絡(luò)的去模糊性能,并使用了全新的多尺度結(jié)構(gòu)相似性損失函數(shù)對網(wǎng)絡(luò)進行優(yōu)化. 實驗結(jié)果表明,本文提出的網(wǎng)絡(luò)及損失函數(shù)可在多個數(shù)據(jù)集上獲得較好的圖像盲去模糊效果,綜合指標(biāo)與現(xiàn)有的經(jīng)典傳統(tǒng)方法及深度學(xué)習(xí)去模糊方法相比具有一定的優(yōu)勢,綜合去模糊性能較好,同時具有更輕量化的骨架和更快的圖像盲去模糊速度.
參考文獻
[1] 李若森,雒江濤,許國良. 面向盲去模糊的選擇性內(nèi)核卷積混合連接編解碼網(wǎng)絡(luò) [J]. 重慶郵電大學(xué)學(xué)報(自然科學(xué)版),2021,33(6): 977-983.
(LI R S,LUO J T,XU G L. Selective-Kernel Convolution Mixed Link Encoder-Decoder Network for Blind Deblur [J]. Journal of Chongqing University of Posts and Telecommunications
(Natural Science Edition),2021,33(6): 977-983.)
[2] 郭志軍,劉帥. 基于卷積神經(jīng)網(wǎng)絡(luò)的數(shù)字圖像模糊增強算法 [J]. 吉林大學(xué)學(xué)報(工學(xué)版),2022,52(10): 2399-2404. (GUO Z J,LIU S.
Digital Image Fuzzy Enhancement Algorithm Based on Convolutional Neural Network [J]. Journal of Jilin University (Engineering and Technology Edition),2022,52(10): 2399-2404.)
[3] 郝琨,王闊,趙璐,等. 基于圖像增強與改進YOLOv3的水下生物檢測算法 [J]. 吉林大學(xué)學(xué)報(工學(xué)版),2022,52(5): 1088-1097.
(HAO K,WANG K,ZHAO L,et al. Underwater Biological Detection Algorithm Based on Image Enhancement and Improved YOLOv3 [J]. Journal of Jilin University
(Engineering and Technology Edition),2022,52(5): 1088-1097.)
[4] 李亮,魯錚,趙靖華,等. 基于暗光環(huán)境下光條紋去糊的車牌識別 [J]. 吉林大學(xué)學(xué)報(信息科學(xué)版),2022,40(5): 836-845. (LI L,LU Z,ZHAO J H,
et al. License Plate Recognition Based on Light Streak Deblurring in Dim Light Environment [J]. Journal of Jilin University (Information Science Edition),2022,40(5): 836-845.)
[5] TAI Y W,TAN P,BROWN M S. Richardson-Lucy Deblurring for Scenes under a Projec
tive Motion Path [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2010,33(8): 1603-1618.
[6] LI Y C,JIA F X,JIANG X,et al. A Proportional Algorithm for Rotary Motion Blurred Images Restoration [C]//2019 2nd International Confe
rence on Information Systems and Computer Aided Education (ICISCAE). Piscataway,NJ: IEEE,2019: 288-292.
[7] 譚海鵬,曾炫杰,牛四杰,等. 基于正則化約束的遙感圖像多尺度去模糊 [J]. 中國圖象圖形學(xué)報,2015,20(3): 386-394. (TAN H P,Z
ENG X J,NIU S J,et al. Remote Sensing Image Multi-scale Deblurring Based on Regularization Constraint [J]. Journal of Image and Graphics,2015,20(3): 386-394.)
[8] 王詩言,曾茜,周田,等. 基于注意力機制與特征融合的圖像超分辨率重建 [J]. 計算機工程,2021,47(3): 269-275. (WANG S Y,ZENG X,ZHOU T,
et al. Image Super-Resolution Reconstruction Based on Attention Mechanism and Feature Fusion [J]. Computer Engineering,2021,47(3): 269-275.)
[9] 郁強,王寬,王海. 一種多尺度YOLOv3的道路場景目標(biāo)檢測算法 [J]. 江蘇大學(xué)學(xué)報(自然科學(xué)版),2021,42(6): 628-633. (YU Q,WANG K,WANG H.
A Multi-scale YOLOv3 Detection Algorithm of Road Scene Object [J]. Journal of Jiangsu University (Natural Science Edition),2021,42(6): 628-633.)
[10] 王德興,吳若有,袁紅春,等. 基于多尺度注意力融合和卷積神經(jīng)網(wǎng)絡(luò)的水下圖像恢復(fù) [J]. 吉林大學(xué)學(xué)報(工學(xué)版),2021,51(4): 1396-1404.
(WANG D X,WU R Y,YUAN H C,et al. Underwater Image Restoration Based on Multi-scale Attention Fusion and Convolutional Neural Network [J].
Journal of Jilin University (Engineering and Technology Edition),2021,51(4): 1396-1404.)
[11] 李萌,孫艷歌,郭華平,等. 多層次融合與注意力機制的人群計數(shù)算法 [J]. 吉林大學(xué)學(xué)報(信息科學(xué)版),2022,40(6): 1009-1016.
(LI M,SUN Y G,GUO H P,et al. Multi-level Fusion and Attention Mechanism Based Crowd Counting Algorithm [J]. Journal of Jilin University (Information Science Edition),2022,40(6): 1009-1016.)
[12] SUN J,CAO W F,XU Z B,et al. Learning a Convolutional Neural Network for Non-uniform Motion Blur Removal [C]//Proceedings of th
e IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE,2015: 769-777.
[13] NAH S,KIM T H,LEE K M. Deep Multi-scale Convolutional Neural Network for Dynamic Scene Deblurring [C]//
Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE,2017: 3883-3891.
[14] TAO X,GAO H Y,SHEN X Y,et al. Scale-Recurrent Network for Deep Image Deblurring [C]//Proceedings of the IEEE Conference on Computer
Vision and Pattern Recognition. Piscataway,NJ: IEEE,2018: 8174-8182.
[15] KUPYN O,BUDZAN V,MYKHAILYCH M,et al. Deblurgan: Blind Motion Deblurring Using Conditional Adversarial Networks [C]//Proceedings
of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE,2018: 8183-8192.
[16] KUPYN O,MARTYNIUK T,WU J,et al. Deblurgan-V2: Deblurring (Orders-of-Magnitude) Faster and Better [C]//Proceedings of the IEE
E/CVF International Conference on Computer Vision. Piscataway,NJ: IEEE,2019: 8878-8887.
[17] GONG G L,ZHANG K. Local Blurred Natural Image Restoration Based on Self-reference Deblurring Generative Adversarial Networks [C]//20
19 IEEE International Conference on Signal and Image Processing Applications (ICSIPA). Piscataway,NJ: IEEE,2019: 231-235.
[18] LU B Y,CHEN J C,CHELLAPPA R. Unsupervised Domain-Specific Deblurring via Disentangled Representations [C]//
Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE,2019: 10225-10234.
[19] HE K M,ZHANG X Y,REN S Q,et al. Deep Residual Learning f
or Image Recognition [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE,2016: 770-778.
[20] YU F,KOLTUN V. Multi-scale Context Agregation by Dilated Convolutions [EB/OL]. (2016-04-30)[2021-12-01]. https://arxiv.org/abs/1511.07122v1.
[21] KHLER R,HIRSCH M,MOHLER B,et al. Recording and Playback of Camer
a Shake: Benchmarking Blind Deconvolution with a Real-World Database [C]//European Conference on Computer Vision. Berlin: Springer,2012: 27-40.
[22] ABADI M,BARHAM P,CHEN J M,et al. Tensorflow: A System for Large-Scale Machine Learning [C]//12th USENIX Symposium on Opera
ting Systems Design and Implementation. New York: ACM,2016: 265-283.
[23] ZHENG S,ZHU Z F,CHENG J,et al. Edge Heuristic G
AN for Non-uniform Blind Deblurring [J]. IEEE Signal Processing Letters,2019,26(10): 1546-1550.
[24] YUAN Y,SU W,MA D D. Efficient Dynamic Scene Deblurring Using Spatially Variant Deconvolution Network with Optical Flow Guided
Training [C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE,2020: 3555-3564.
[25] LIU Y M,LUO Y F,HUANG W Z,et al. Semantic Informa
tion Supplementary Pyramid Network for Dynamic Scene Deblurring [J]. IEEE Access,2020,8: 188587-188599.
[26] NIU W J,XIA K W,PAN Y K. Contiguous Loss for Motion-Based,Non-aligned Image Deblurring [J]. Symmetry,2021,13(4): 630-1-630-16.
[27] XU L,ZHENG S C,JIA J Y. Unnatural L0 Sparse Representation for Natural Image
Deblurring [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE,2013: 1107-1114.
[28] ZHANG J W,PAN J S,REN J,et al. Dynamic Scene Deblurring Using Spatially Variant Recurrent Neural Networks [C]//
Proceedings of the IEEE Conference on Computer Vision And Pattern Recognition. Piscataway,NJ: IEEE,2018: 2521-2529.
[29] GAO H Y,TAO X,SHEN X Y,et al. Dynamic Scene Deblurring with Parameter Selective Sharing and Nested Skip Connections [C]//Proc
eedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE,2019: 3848-3856.
[30] WU D,ZHAO H T,ZHENG S B. Motion Deblurring Method Based on DenseNets [J]. Image Graph,2020,25(5): 890-899.
(責(zé)任編輯: 韓 嘯)