朱 俊, 陳長偉
(1.金陵科技學院 計算機工程學院, 南京 211169; 2.南京曉莊學院 信息工程學院, 南京 2111711;3.江蘇省社會安全圖像與視頻理解重點實驗室(南京理工大學), 南京 210094)
結合總變差和組稀疏性的壓縮感知重構方法
朱 俊1,3, 陳長偉2
(1.金陵科技學院 計算機工程學院, 南京 211169; 2.南京曉莊學院 信息工程學院, 南京 2111711;3.江蘇省社會安全圖像與視頻理解重點實驗室(南京理工大學), 南京 210094)
為了提高圖像重建的質量,基于壓縮感知理論,提出了一種基于總變差和組稀疏性的圖像重建方法,同時考慮圖像像素灰度值的梯度稀疏性和重疊圖像塊的非局部相似性兩種先驗知識。為了準確挖掘先驗知識,本文選擇非凸lp范數描述,并利用交替方向乘子法求解產生的重構模型。實驗結果表明,與當前主流的重建算法相比,所提算法能夠獲得更高的圖像重構結果。
壓縮感知;總變差;組稀疏性;交替方向乘子算法
壓縮感知(Compressive Sensing,CS)理論[1]能夠以非常少的采樣數目準確重構出原始信號,采樣數目遠遠少于傳統奈奎斯特采樣定理所需求的數量(信號帶寬的兩倍以上),因此CS技術逐漸取代了傳統的采樣和恢復方法,成為圖像處理領域的熱門研究方向,并且廣泛的應用在衛星遙感、醫學成像等多個領域。
圖像作為現實中頻繁使用、結構復雜的一種二維信號,如何準確重構出圖像信號是近年來壓縮感知理論應用的研究熱點和難點。傳統的思路是挖掘圖像在某一字典下的稀疏性先驗[2]。字典選擇的合適與否直接影響著圖像的重建質量,自適應字典可以好的重建結果,但是學習自適應字典需要一定的復雜度開銷。圖像中都會存在或多或少的相似結構,如果對圖像進行分塊處理,那么對一個參考圖像塊來說,在圖像中的不同位置上可以找到跟它相似的許多圖像塊。因此,許多學者基于上述先驗設計出了許多更優秀的壓縮感知算法[3-5],實驗也證明這些算法的有效性。董偉生等提出了一種基于非局部低秩約束的圖像壓縮感知重建算法,利用非局部相似圖像塊構成的群組矩陣的低秩性,進而重建圖像。張健等提出了一種基于組稀疏性的圖像復原方法,約束構造的群組矩陣滿足組稀疏性,既考慮了單個圖像塊的稀疏性,又考慮了相似塊稀疏表示系數之間的關系,在圖像復原領域取得了很好的效果。
為了獲得高質量的重建圖像,本文基于壓縮感知理論,提出了一種基于總變差和群組稀疏性的圖像重建方法,同時考慮圖像像素灰度值的梯度稀疏性和重疊圖像塊的非局部相似性兩種先驗知識。為了準確挖掘先驗知識,本文選擇非凸lp范數描述,并利用交替方向乘子法求解產生的重構模型。實驗結果表明,本文算法可以顯著提高圖像重構質量,峰值信噪比優于其他算法0.86 dB以上。
1.1模型構造
令圖像為x∈Rn,測量矩陣為Φ∈5m×n(mlt;lt;n), 壓縮感知旨在從少量的測量值y∈Rm恢復出圖像x。因為mlt;lt;n,因此存在無數多解x∈Rn滿足y=Φx。為了準確重構出圖像,需要利用圖像的先驗知識。本文提出了一種基于總變差和組稀疏性的圖像壓縮感知方法,同時考慮圖像像素灰度值的梯度稀疏性和重疊圖像塊的非局部相似性兩種先驗知識,重建模型為

s.t.y=Φx,Pix=Ψiαi
(1)
其中Pix=[Pi1x,Pi2x,…,Pihx]表示由圖像塊xj∈Rd的h個相似塊組成的群組矩陣,αi是群組矩陣在變換域Ψi下的稀疏表示系數,η是正則化參數。本文選擇l0范數的總變差||x||TV=||Dx||0約束圖像局部信息,其中D=[D1,D2],D1和D2分別是橫軸和縱軸的有限差分算子。因此,上式可以重新定義為:

s.t.y=Φx,Pix=Ψiαi
(2)
1.2 數值求解算法
由于式(2)很難直接求解,選擇交替方向乘子算法將上述復雜問題轉化成簡單子問題,然后迭代求解這些子問題。添加輔助變量g,式(2)重新定義為:

s.t.y=Φx,Pix=Ψiαi,g=Dx
(3)
引入拉格朗日乘子,上述約束問題的等價形式為


(4)
由于式(4)包含l0范數,它是一個非確定多項式問題,因此選擇lq范數近似l0范數,上式轉化為


(5)
式(5)的優化包含如下三個子問題:
(6)
(7)
(8)


(9)
1.2.1g子問題
g子問題是一個非凸問題,無法獲得全局最優解,但可以通過一種迭代加權方法去求解。令
(10)


(11)
1.2.2Ψi子問題
由于固定的字典不能保證對所有的圖像最優,因此,構造自適應的字典。受文獻[15]的啟發,對每個群組矩陣的估計值Pixk進行奇異值分解
Pixk=URV
(12)

1.2.3αi子問題
類似于g子問題,采用相同的處理方式,可以得到如下的迭代解析解:

(13)

1.2.4x子問題
對x求導,令其導數為0,則圖像x重建問題轉化為
(14)
因此,可以獲得圖像估計值xk+1。
(15)
算法流程總結如下:

算法1 基于總變差和組稀疏性的圖像壓縮感知重建算法輸入:測量矩陣Φ,測量向量y;初始化:x0=g0=b0=e0=c0=zeros(n,1),Li=zeros(d,h)。主迭代:當圖像x不滿足收斂 (a)利用估計圖像xk對每個圖像塊xki計算提取矩陣Pi;(b)通過式(11)估計gk+1;(c)通過式(12)估計Ψk+1i;(d)通過式(13)估計αk+1i;(e)通過式(15)估計xk+1;(f)更新拉格朗日乘子; bk+1←bk-τβ3(gk+1-Dxk+1); ek+1←ek-τβ1(y-Φxk+1); ck+1←ck-τβ2(Ψk+1iαk+1i-Pixk+1);輸出:估計圖像x。
在本節中,通過多組實驗來證明本文算法的優越性。選取6幅自然灰度圖像Barbara、House、Lena、Cameraman、 Foreman、Parrots(如圖1)進行測試,圖像大小均為256×256。算法中的參數設置如下:采樣率為m/n;群組矩陣的大小為36×45,即圖像塊的維數為36,對每一個參考圖像塊尋找45個最相似的圖像塊;沿著橫軸和縱軸方向,每隔5個像素點選取重疊參考塊xi∈Rd;圖像的重建質量由峰值信噪比(PSNR)來評價,PSNR值越高,則重構圖像與參考圖像就越逼近,算法效果越好。

圖1 六幅測試圖像
將本文算法分別與總變差(Total Variation,TV)方法[16],基于BM3D(Block Matching and 3D filtering,BM3D)的CS方法[17],非局部低秩約束(Nonlocal Low-rank Regularization,NLR)方法[11]進行比較。TV方法是利用梯度域的稀疏性進行圖像重建;BM3D是一種基于塊匹配三維變換迭代收縮的圖像重構算法,它是目前已公開發表文獻中去噪性能優秀的算法之一;NLR方法利用圖像非局部低秩先驗知識,獲得了當前文獻中最好的重建結果。
為了公平比較這些方法,調整每種算法的參數使得它們獲得最優重構結果。本文方法測試20次取平均值。六幅測試圖像在采樣率分別為2.5%、5%、10%、15%、20%的重建結果如表1所示。由表1可以看出,1)TV重構算法由于僅采用了圖像的梯度稀疏先驗,忽略了圖像的非局部相似性,難以重建復雜紋理信息。雖然BM3D重構算法的PSNR值明顯高于TV算法,但在邊緣部分的失真非常大,而且每次迭代過程中會引入噪聲,所以比NLR算法和本文算法低;2)本文算法同時考慮了圖像的梯度稀疏性和組稀疏性兩種先驗知識,獲得了最好的重構結果,相比其他算法平均至少有0.86 dB的提升;3)在測試圖像Foreman上,采樣率為20%的情況下,本文算法的PSNR值分別比TV、BM3D和NLR高出7.67 dB、4.67 dB和1.67 dB。

表1 不同算法在不同圖像上的峰值信噪比

圖像算法采樣率/%2.55101520CameramanTV22.1625.0928.6331.4834.20BM3D23.4327.1230.2733.8836.91NLR24.7228.3632.3036.1039.16本文26.1129.6033.8137.8541.11ForemanTV30.2132.5036.0238.3440.49BM3D31.0233.1036.8539.0040.73NLR33.3435.7039.3941.9844.02本文34.2036.3140.2243.0145.28ParrotsTV24.5627.6531.8434.7637.00BM3D25.5429.1333.6336.6238.79NLR28.9732.1836.5639.5641.44本文30.1233.3437.9140.9243.03

圖2 圖像Barbara在2.5%采樣率下的重建結果

圖3 圖像House在2.5%采樣率下的重建結果

圖4 圖像Foreman在2.5%采樣率下的重建結果
本文在利用圖像總變差的基礎上,提出了基于總變差和組稀疏性的壓縮感知圖像重建算法,同時挖掘圖像像素灰度值的梯度稀疏性和重疊圖像塊的非局部相似性兩種先驗知識,并選擇非凸lp范數近似l0范數準確挖掘先驗信息。另外,選擇交替方向乘子法將復雜的優化模型分解成多個簡單的子問題,準確求解產生的非凸優化問題。實驗結果表明,與主流的重建算法相比,本文算法在客觀指標PSNR和主觀視覺效果方面都有顯著地提高。
[1] DONOHO D L.Compressed sensing[J].IEEE Trans.Inf.Theory.2006,52(4): 1289-1306.
[2] FENG L,SUN H.Blind compressive sensing method via local sparsity and nonlocal similarity[J].Journal of Nanjing University of Science amp; Technology,2017,41(4):399-404.
[3] FENG L,SUN H,SUN Q,et al.Compressive sensing via nonlocal low-rank tensor regularization[J].Neurocomputing,2016,216(C):45-60.
[4] FENG L,SUN H,SUN Q,et al.Image compressive sensing via truncated schatten-p,norm regularization[J].Signal Processing Image Communication,2016,47:28-41.
[5] 朱俊,陳長偉,蘇守寶等.基于局部和非局部正則化的圖像壓縮感知[J].數據采集與處理,2016(6):1148-1155.
(責任編輯楊繼森)
CompressiveSensingReconstructionMethodViaTotalVariationandGroupSparstiy
ZHU Jun1,3, CHEN Changwei2
(1.Jinling Institute of Technology College of Computer Engineering, Nanjing 211169, China; 2.Information Engineering Institute, Nanjing Xiaozhuang University, Nanjing 211171, China;3.Key Laboratory of Image and Video Understanding for social Safety (Nanjing University of Science and Technology), Nanjing 201194, China)
In order to improve the quality of the recovered image, based on the theory of compressive sensing (CS), this paper proposes a total variation and group sparsity based image reconstruction method toward exploiting the local gradient sparsity of image pixels and nonlocal similarity of overlapped image patches. In order to accurately exploit the prior knowledge, this paper selects nonconvexlpnorm and takes alternating direction method of multipliers method (ADMM) to solve the resulting nonconvex optimization model. The experimental results have demonstrated that the proposed approach outperforms current mainstream CS algorithms.
compressive sensing (CS); total variation; group sparsity; alternating direction method of multipliers
2017-08-20;
2017-09-10
金陵科技學院博士啟動金項目“基于聚類融合特征配準圖像魯棒拼接算法”(Jit-b-201508); 江蘇省社會安全圖像與視頻理解重點實驗室創新基金項目(30916014107);江蘇省高等學校自然科學研究面上資助項目(16KJB520014)
朱俊(1981—),男,博士研究生,講師,主要從事模式識別、圖像特征處理研究。
信息科學與控制工程
10.11809/scbgxb2017.11.025
本文引用格式:朱俊,陳長偉.結合總變差和組稀疏性的壓縮感知重構方法[J].兵器裝備工程學報,2017(11):114-117,128.
formatZHU Jun, CHEN Changwei.Compressive Sensing Reconstruction Method Via Total Variation and Group Sparstiy[J].Journal of Ordnance Equipment Engineering,2017(11):114-117,128.
TN911.73
A
2096-2304(2017)11-0114-04