999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于聚類與稀疏字典學習的近似消息傳遞

2024-05-03 20:13:43司菁菁王亞茹王愛婷程銀波
燕山大學學報 2024年2期

司菁菁 王亞茹 王愛婷 程銀波

摘要:基于傳統字典學習的近似消息傳遞(approximate message passing,AMP)算法對訓練樣本數量的需求較高,且運算成本較高。本文引入雙稀疏模型,構建基于稀疏字典學習的AMP框架,降低迭代過程中字典學習對訓練樣本數量的需求,提高壓縮感知圖像重建的質量與效率。進一步,提出基于聚類與稀疏字典學習的AMP算法,在迭代過程中依據圖像塊特征進行分類,并為各類圖像塊分別學習稀疏字典,實現自適應去噪。與基于傳統字典學習的AMP算法相比,基于聚類與稀疏字典學習的AMP算法能夠將重建圖像的峰值信噪比提高0.20~1.75 dB,并且能夠將運算效率平均提高89%。

關鍵詞:圖像重構;近似消息傳遞;字典學習;稀疏字典;聚類

中圖分類號:TN911.73文獻標識碼: ADOI:10.3969/j.issn.1007-791X.2024.02.006

0引言

壓縮感知(compressed sensing,CS)[1-2]突破了奈奎斯特采樣定理的限制,能夠同時實現稀疏信號或可壓縮信號的采樣與壓縮,并可以從欠采樣的測量數據中準確地重構出原始信號[3]。該理論一經提出便引起學術界及工業界的廣泛關注。

自然圖像中含有大量冗余信息,可有效地進行稀疏表示。若利用CS將圖像的采樣和壓縮同時進行,則可以在不犧牲圖像重建質量的前提下,大大簡化圖像處理系統采樣端的硬件結構并降低存儲設備的容量。重構算法是基于CS的成像過程的核心研究內容之一。

近似消息傳遞(approximate message passing,AMP)[4]是一種基于迭代閾值的CS重構算法,具有收斂速度快、運算復雜度低等優點,能夠利用少量的線性測量值恢復稀疏信號,非常適用于圖像重建等大數據量應用領域。當將AMP應用于圖像重建時,迭代過程中濾波操作的設計與實現及其對信號結構特征的利用能力,在很大程度上影響著整個重建算法的性能。

圖像在小波域上的稀疏性是現有的基于AMP的圖像重構算法常用的先驗信息[5]之一。文獻[6]將振幅不變貝葉斯估計與小波域自適應Wiener濾波應用到AMP框架中,提出了AMP-ABE和AMP-Wiener兩種圖像重建算法。文獻[7]提出了基于小波域Cauchy先驗的AMP算法。此外,針對小波域稀疏先驗不適用于包含較多非平滑信息圖像的問題,文獻[8]提出了利用梯度稀疏先驗保留圖像邊緣和紋理信息的AMP算法。文獻[9]提出了基于去噪的AMP (denoising based approximate message passing,DAMP),在AMP的迭代過程中,利用BM3D[10-11]等經典變換域圖像去噪算子實現濾波,獲得了較高的圖像重建性能。

設計與待濾波信號稀疏特性相匹配的去噪算子是提高DAMP圖像重建性能的關鍵。字典學習是實現圖像去噪的一種有效技術[12-13]。基于MOD (method of optimal directions)、K-SVD (K-means singular value decomposition)[14-16]和SGK (sequential generalization of K-means)[17]等字典學習算法實現的圖像去噪具有優于小波域圖像去噪算子的性能。文獻[18]將字典學習與AMP相結合,提出了基于字典學習的AMP (dictionary learning based AMP,DL-AMP),在迭代過程中利用字典學習實現圖像去噪,能夠獲得優于基于固定變換域去噪算子的DAMP的圖像重建性能。

然而,訓練數據的數量直接影響著K-SVD等字典學習算法的性能。在DL-AMP的每次迭代中,字典學習算法可用的訓練數據完全來源于當前待濾波信號,數量非常有限。這就使得K-SVD等字典學習算法能夠實現的去噪性能受到了限制。另一方面,K-SVD等字典學習算法的運行時間較長,而在DL-AMP的每次迭代中需要完整運行兩次字典學習算法,使得DL-AMP的運行時間較長。

針對上述問題,本文將基于稀疏字典進行圖像稀疏表示的雙稀疏模型[19]引入AMP,研究基于稀疏字典學習的AMP (sparse dictionary learning based AMP,SDL-AMP),降低字典學習對訓練樣本數量的需求,提高重建質量。此外,為了進一步提高稀疏字典學習的效率與去噪性能,本文提出了基于聚類與稀疏字典學習的AMP (clustering and sparse dictionary learning based AMP,CSDL-AMP),在迭代過程中依據圖像塊特征進行分類,并為各類圖像塊分別學習稀疏字典,實現自適應去噪。仿真實驗結果表明,與基于固定變換域去噪算子的DAMP相比,SDL-AMP和CSDL-AMP具有明顯提高的圖像重建性能;與DL-AMP相比,SDL-AMP和CSDL-AMP不但具有較高的圖像重建性能,而且具有顯著提高的運算效率。

1基礎算法

y=Φx+ω,(1)

式中,ω∈RM表示測量噪聲,其中元素符合高斯分布N(0,σ2)。

現有的DAMP方案多采用BM3D等經典圖像去噪算法實現固定的Dσt-1(·)。若能夠在每次迭代中依據當前待濾波信號xt-1+ΦTzt-1的特征,自適應地調整Dσt-1(·),則有望進一步提高DAMP的重建性能。

DL-AMP將基于字典學習的圖像去噪引入DAMP框架,在迭代過程中依據當前待濾波信號xt-1+ΦTzt-1進行字典學習,利用圖像信號x可以進行稀疏表示而噪聲vt-1卻不能的特性實現去噪。DL-AMP的第t次迭代可以表示為

式中,DL(·)表示基于字典學習的圖像去噪子,以待濾波信號xt-1+ΦTzt-1、噪聲標準差σt-1和初始字典Dt-1為輸入,輸出濾波結果xt與訓練出的字典D*t-1。DL′(·)表示DL(·)的求導運算,以xt-1+ΦTzt-1、σt-1和初始字典D*t-1為輸入,輸出divt與二次訓練出的字典D**t-1,其中

與DAMP相比,DL-AMP能夠進一步提高重建圖像的質量。然而,訓練數據的數量直接影響著K-SVD等字典學習算法的性能。在DL-AMP框架下,第t次迭代中能夠用于字典學習的訓練數據完全來源于待濾波信號xt-1+ΦTzt-1,數量有限。另一方面,由于K-SVD等字典學習算法的運算時間較長,且在DL-AMP框架下的每次迭代中需要進行D*t-1和D**t-1兩個字典的訓練,因此DL-AMP的實現速度較慢。針對以上問題,本文研究基于稀疏字典學習的AMP框架SDL-AMP,進而研究基于聚類與稀疏字典學習的AMP框架CSDL-AMP。

2基于稀疏字典學習的AMP框架

雙稀疏模型假設字典D=d1,d2,…,dH∈RG×H能夠在基字典B∈RG×P上進行稀疏表示,即D=BA,(11)式中,A=a1,a2,…,aH∈RP×H為稀疏表示矩陣,其中的第j列aj∈RP表示字典D中的第j個原子dj∈RG在基字典B上的稀疏表示向量。設任意列aj中非零元素的個數‖aj‖0≤p。與普通字典相比,稀疏字典具有更強的適應性,且更易于存儲和傳輸。

以訓練樣本xi∈RG:i=1,2,…,U為列構成訓練數據矩陣X∈RG×U。設X在如式(11)所示的字典D上是稀疏的,即X可稀疏表示為X=DΓ=BAΓ,(12)式中,Γ=γ1,γ2,…,γU∈RH×U為樣本矩陣X在字典D上的稀疏表示矩陣,其中的第i列γi∈RH表示樣本xi在D上的稀疏表示向量。設任意列γi中非零元素的個數‖γi‖0≤q。

稀疏字典的訓練可以通過求解如下優化問題來實現:

式中,‖·‖F表示Frobenius范數。

本文將能夠實現此優化問題近似求解的稀疏K-SVD字典學習算法總結為算法1,用于在本文設計的SDL-AMP框架與CSDL-AMP框架中實現基于稀疏字典學習的圖像去噪算子SDL(·)。

算法1基于稀疏K-SVD字典學習算法實現的圖像去噪算子SDL(·)

輸入:信號矩陣X∈RG×U,基字典B∈RG×P,初始字典稀疏表示系數矩陣A0∈RP×H,目標原子稀疏度p,稀疏編碼誤差容限e,迭代次數K;

初始化:A=A0;

迭代過程:

For n=1,2,…,K do

1) 根據當前字典BA,更新信號矩陣X的稀疏表示矩陣Γ:

For i=1,2,…,U do

γi=argminγ‖γ‖0s.t. ‖xi-BAγ‖22≤e

End for

Γ=γ1,γ2,…,γU

2) 根據當前信號稀疏表示矩陣Γ,更新字典稀疏表示矩陣A:

For j=1,2,…,H do

aj=0

I={X中用aj參與表示的信號索引};

g=ΓTj,I

g=g/‖g‖2

E=XI-BAΓI

z=Eg

aj=arg mina‖z-Ba‖22s.t.‖a‖0≤p,

aj=aj/‖Baj‖2

Γj,I=(XTIBaj-(BAΓI)TBaj)T

End For

End For

在算法1中,XI表示由信號矩陣X中序號在集合I中的列構成的矩陣;ΓI表示由系數矩陣Γ中序號在集合I中的列構成的矩陣;Γj,I表示矩陣ΓI中的第j行。與原始K-SVD字典學習算法相比,稀疏K-SVD字典學習對樣本數量的需求明顯降低[19]。

本文將稀疏字典學習引入AMP,研究基于稀疏字典學習的AMP框架SDL-AMP,具體設計了基于稀疏K-SVD字典學習的AMP算法SK-SVD-AMP,如算法2所示。

算法2SK-SVD-AMP算法

輸入:測量值向量y∈RM,測量矩陣Φ∈RM×N,迭代次數L,塊尺寸B,分塊步長S,基字典B∈RG×P,初始字典稀疏表示系數矩陣A0∈RP×H,目標原子稀疏度p,稀疏K-SVD迭代次數K;

迭代過程:

For t=1, 2,…,L do

1) qt-1=xt-1+ΦTzt-1

Q*=Vector2Matrix(qt-1)

C*=BlockDivide(Q*,B,S)

2) 利用算法1實現基于稀疏字典學習的去噪:

(C**,A*)=SDL(C*,B,At-1,p,1.15σt-1,K)

Q**=BlockMerge(C**,B,S)

xt=Matrix2Vector(Q**)

3) 生成隨機向量b∈RN,其中任意元素符合標準正態分布;令τ=‖qt-1‖∞/1 000;

Q*=Vector2Matrix(qt-1+τb)

C*=BlockDivide(Q*,B,S)

4) 利用算法1實現基于稀疏字典學習的去噪:

(C**,At)=SDL(C*,B,A*,p,1.15σt-1,K)

Q**=BlockMerge(C**,B,S)

x*=Matrix2Vector(Q**)

5) divt=bT(x*-xt)/τ

在算法2的每次迭代中,步驟1)~2)利用基于稀疏K-SVD字典學習的去噪算子SDL(·)實現信號xt的估計;步驟3)~5)利用Monte Carlo技術[20]實現divt的計算;步驟6)~7)計算殘差并估計其標準差。X=Vector2Matrix(x)表示將向量x∈RN排列成矩陣形式X∈RN×N;x=Matrix2Vector(X)表示相反的操作,即將矩陣X∈RN×N還原成向量形式x∈RN。C=BlockDivide(X,B,S)表示以B×B為塊尺寸、S為步長,對矩陣X進行重疊分塊,并將每個塊中的元素排列成列向量,組合成矩陣C;X=BlockMerge(C,B,S)表示相反的操作,即將矩陣C中的每一列還原成B×B的塊,以S為步長、利用重合平均的方式融合成矩陣X。‖·‖∞表示∞-范數。

與DL-AMP相比,本文設計的SDL-AMP算法SK-SVD-AMP在迭代過程中利用稀疏字典學習實現圖像去噪,降低了對訓練樣本數量的要求,且在每次迭代中訓練出的字典更符合待濾波信號的結構特征。

3基于聚類與稀疏字典學習的AMP方案

為了進一步提高稀疏字典學習的效率與基于稀疏字典學習的去噪算子的自適應性,本文將聚類引入SDL-AMP,研究基于聚類與稀疏字典學習的AMP框架CSDL-AMP,并具體設計了基于K-means聚類與稀疏K-SVD字典學習的AMP算法CSK-SVD-AMP,如算法3所示。

算法3CSK-SVD-AMP算法

輸入:測量值向量y∈RM,測量矩陣Φ∈RM×N,迭代次數L,塊尺寸B,分塊步長S,基字典B∈RG×P,初始字典稀疏表示系數矩陣A0∈RP×H,目標原子稀疏度p,稀疏K-SVD迭代次數K,類別數量W;

迭代過程:

For t=1,2,…, L do

1) qt-1=xt-1+ΦTzt-1

Q*=Vector2Matrix(qt-1)

C*=BlockDivide(Q*,B,S)

2) 以均值為特征,利用K-means對C*中的列向量進行聚類,以屬于第w類的列向量構成子矩陣Ptw,w=1,2,…,W。

3) 利用算法1分別對各子矩陣進行基于稀疏字典學習的去噪:

For w=1,2,…,W do

(C**w,Atw)=SDL(Ptw,B,At-1w,p,1.15σt-1,K)

End for

4) 將子字典At1,At2,…,AtW合并為一個總字典A*=At1,At2,…,AtW;

5) 將子矩陣C**w:w=1,2,…,W按照步驟2)中子矩陣劃分的逆過程合并成矩陣C**;

Q**=BlockMerge(C**,B,S)

xt=Matrix2Vector(Q**)

6) 生成隨機向量b∈RN,其中任意元素符合標準正態分布;令τ=‖qt-1‖∞/1 000;

Q*=Vector2Matrix(qt-1+τb)

C*=BlockDivide(Q*,B,S)

7) 利用字典A*對C*進行稀疏表示,實現去噪:

Col=矩陣C*中的列數;

For i=1,2,…,Col do

ci=C*中的第i列

End for

C**=BA*γ1,BA*γ2,…,BA*γCol

Q**=BlockMerge(C**,B,S)

x*=Matrix2Vector(Q**)

8) divt=bT(x*-xt)/τ

在算法3的每次迭代中,步驟1)~5)利用K-means對圖像塊進行聚類,并利用SDL(·)分別對各類圖像塊進行基于稀疏字典學習的去噪,實現信號xt的估計;步驟6)~8)利用Monte Carlo技術實現divt的計算,其中qt-1+τb的去噪利用基于當前已知字典A*的稀疏表示進行,而未進行二次字典學習;步驟9)~10)計算殘差并估計其標準差。

與算法2相比,算法3中對圖像塊進行了聚類,并針對每類圖像塊分別進行了基于稀疏字典學習的去噪,能夠提高字典學習的效率以及字典與圖像塊特征的匹配程度。

4實驗結果分析

為了驗證本文提出的SK-SVD-AMP算法和CSK-SVD-AMP算法的有效性,將它們與基于BM3D的DAMP算法BM3D-AMP、基于LRA_SVD的DAMP算法LRA_SVD-AMP[21]、基于FRIST的DAMP算法FRIST-AMP[22]、基于SNSS的DAMP算法SNSS-AMP[23]和基于K-SVD的DL-AMP算法K-SVD-AMP進行性能比較。在SK-SVD-AMP算法和CSK-SVD-AMP算法中,設置分塊尺寸為8×8、步長為1,選用64×256的過完備離散余弦基作為基字典。

以128×128像素的Lake、Flinstones、Starfish、Crowd和Man等5幅標準灰度測試圖像作為實驗對象。仿真實驗所用計算機的硬件配置為Intel Core i7-9700 四核 CPU、3.00 GHz主頻、8 GB內存;軟件環境為64位Windows 10系統下的MATLAB 2019b。以峰值信噪比(peak signal-to-noise ratio,PSNR)作為衡量算法重構性能的客觀指標。

首先,分析迭代次數L對LRA_SVD-AMP、FRIST-AMP、SNSS-AMP、BM3D-AMP、K-SVD-AMP、SK-SVD-AMP和CSK-SVD-AMP七種算法重建性能的影響。圖1以Flinstones圖像為例,在不考慮測量噪聲、采樣率M/N=0.5、設置SK-SVD-AMP和CSK-SVD-AMP的目標原子稀疏度p分別為65和25的情況下,顯示了七種算法重建圖像的PSNR值隨迭代次數的變化情況。如圖1所示,在迭代次數達到20之后,七種算法獲得的PSNR值均變化較小。在其他采樣率、噪聲水平、目標原子稀疏度設置下進行的實驗均獲得了相似的結果。因此,本文后續以迭代次數L=20為例,展示仿真實驗結果。

然后,在不同測量噪聲水平下,比較LRA_SVD-AMP、FRIST-AMP、SNSS-AMP、BM3D-AMP、K-SVD-AMP、SK-SVD-AMP和CSK-SVD-AMP七種算法獲得的PSNR值。以重建Lake圖像為例,設置SK-SVD-AMP和CSK-SVD-AMP的目標原子稀疏度p分別為65和25。圖2、圖3和圖4分別在不考慮測量噪聲、測量噪聲方差σ2=10和σ2=20的情況下,展示了七種算法在不同采樣率下獲得的PSNR值。如圖2~圖4可見,在相同條件下,基于字典學習或稀疏字典學習的K-SVD-AMP、SK-SVD-AMP和CSK-SVD-AMP獲得的PSNR值高于LRA_SVD-AMP、FRIST-AMP、SNSS-AMP和BM3D-AMP。在相同條件下,SK-SVD-AMP獲得的PSNR值與K-SVD-AMP基本相當;CSK-SVD-AMP獲得的PSNR值在大多數情況下高于K-SVD-AMP和SK-SVD-AMP。

接下來,比較LRA_SVD-AMP、FRIST-AMP、SNSS-AMP、BM3D-AMP、K-SVD-AMP、SK-SVD-AMP和CSK-SVD-AMP七種算法重建圖像的主觀視覺效果。圖5以重建Lake圖像為例,在不考慮測量噪聲、采樣率M/N=0.4、設置SK-SVD-AMP和CSK-SVD-AMP的目標原子稀疏度p分別為65和25的情況下,展示了七種算法的重建圖像。如圖5可見,七種算法重建圖像清晰度由高到低的順序依次為CSK-SVD-AMP、SK-SVD-AMP、K-SVD-AMP、FRIST-AMP、BM3D-AMP、LRA_SVD-AMP和SNSS-AMP。此外,比較七幅重建圖像中的方框區域可見,CSK-SVD-AMP重建圖像中的細節最清晰且最接近原圖像。

最后,比較K-SVD-AMP、SK-SVD-AMP、CSK-SVD-AMP、LRA_SVD-AMP、FRIST-AMP和SNSS-AMP六種重建算法的運行時間。以在不考慮測量噪聲的情況下重建Flinstones圖像為例,在不同采樣率下分別比較六種算法的運行時間。以采樣率為0.7時K-SVD-AMP算法的運行時間為基準,表1顯示了六種算法在不同采樣率下的運行時間與該基準時間的相對值。由表1可見,在任意采樣率下,CSK-SVD-AMP、SK-SVD-AMP和LRA_SVD-AMP的運行時間均遠低于K-SVD-AMP、FRIST-AMP和SNSS-AMP。與SK-SVD-AMP、FRIST-AMP相比,CSK-SVD-AMP的運行時間更低。

綜合以上實驗結果可見,本文設計實現的基于稀疏字典學習的CSK-SVD-AMP算法和SK-SVD-AMP算法獲得的PSNR值明顯高于基于固定變換域去噪算子的BM3D-AMP、FRIST-AMP、LRA_SVD-AMP和SNSS-AMP,且不低于基于字典學習的K-SVD-AMP。與BM3D-AMP、FRIST-AMP、LRA_SVD-AMP、SNSS-AMP和K-SVD-AMP相比,CSK-SVD-AMP和SK-SVD-AMP的重建圖像中具有更清晰的細節信息。與K-SVD-AMP相比,SK-SVD-AMP和CSK-SVD-AMP的運算時間顯著縮短。

5結論

本文將雙稀疏模型引入AMP,構建了基于稀疏字典學習的SDL-AMP框架,獲得了明顯優于DAMP和DL-AMP的圖像重建性能。進一步,提出了結合聚類與稀疏字典學習的CSDL-AMP方案,獲得了優于DL-AMP的圖像重建性能。仿真實驗結果表明,與DL-AMP相比,CSDL-AMP能夠將重建圖像的PSNR值提高0.20~1.75 dB,且重建圖像中保留了更清晰的圖像細節。同時,CSDL-AMP的運行時間平均僅為DL-AMP運行時間的0.108倍。

參考文獻

[1] DONOHO D L. Compressed sensing[J]. IEEE Transactions on Information Theory, 2006, 52(4): 1289-1306.

[2] GREL N M, KARA K, STOJANOV A, et al. Compressive sensing using iterative hard thresholding with low precision data representation:theory and applications[J]. IEEE Transactions on Signal Processing, 2020, 68: 4268-4282.

[3] KHOBAHI S, SOLTANALIAN M. Model-based deep learning for one-bit compressive sensing[J]. IEEE Transactions on Signal Processing, 2020, 68: 5292-5307.

[4] DONOHO D L, MALEKI A, MONTANARI A. Message-passing algorithms for compressed sensing[J]. Proceedings of the National Academy of Sciences of the United States of America, 2009, 106(45): 18914-18919.

[5] SOM S, SCHNITER P. Compressive imaging using approximate message passing and a Markov-tree prior[J]. IEEE Transactions on Signal Processing, 2012, 60(7): 3439-3448.

[6] TAN J, MA Y T, BARON D. Compressive imaging via approximate message passing with image denoising[J]. IEEE Transactions on Signal Processing, 2015, 63(8): 2085-2092.

[7] HILL P R, KIM J H, BASARAB A, et al. Compressive imaging using approximate message passing and a Cauchy prior in the wavelet domain[C]//2016 IEEE International Conference on Image Processing,Phoenix, USA, 2016: 2514-2518.

[8] WANG X, LIANG J. Multi-resolution compressed sensing reconstruction via approximate message passing[C]// 2015 IEEE International Conference on Image Processing,Quebec, Canada, 2015: 4352-4356.

[9] METZLER C A, MALEKI A, BARANIUK R G. From denoising to compressed sensing[J]. IEEE Transactions on Information Theory, 2016, 62(9): 5117-5144.

[10] DABOV K, FOI A, KATKOVNIK V, et al. Image denoising by sparse 3-D transform-domain collaborative filtering[J]. IEEE Transactions on Image Processing, 2007, 16(8): 2080-2095.

[11] BASHAR F, EL-SAKKA M R. BM3D image denoising using learning-based adaptive hard thresholding[C]//Proceedings of the 11th Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications, Rome, Italy, 2016: 204-214.

[12] XUE S Y, YIN C, SU Y, et al. Airborne electromagnetic data denoising based on dictionary learning[J]. Applied Geophysics, 2020, 17(2): 306-313.

[13] XU M R, HU D L, LUO F L, et al. Limited-angle X-ray CT reconstruction using image gradient 0-norm with dictionary learning[J]. IEEE Transactions on Radiation and Plasma Medical Sciences, 2021, 5(1): 78-87.

[14] AHARON M, ELAD M, BRUCKSTEIN A. K-SVD:an algorithm for designing overcomplete dictionaries for sparse representation[J]. IEEE Transactions on Signal Processing, 2006, 54(11): 4311-4322.

[15] SCETBON M, ELAD M, MILANFAR P. Deep K-SVD denoising[J]. IEEE Transactions on Image Processing, 2021, 30: 5944-5955.

[16] 封常青, 李予國, 吳云具, 等. 利用K-SVD字典學習算法壓制海洋大地電磁噪聲[J]. 地球物理學報, 2022, 65(5): 1853-1865.

FENG C Q, LI Y G, WU Y J, et al. A noise suppression method of marine magnetotelluric data using K-SVD dictionary learning [J]. Chinese Journal of Geophysics, 2022, 65(5): 1853-1865.

[17] SAHOO S K, MAKUR A. Dictionary training for sparse representation as generalization of K-means clustering[J]. IEEE Signal Processing Letters, 2013, 20(6): 587-590.

[18] LI Z C, HUANG H, MISRA S. Compressed sensing via dictionary learning and approximate message passing for multimedia internet of things[J]. IEEE Internet of Things Journal, 2017, 4(2): 505-512.

[19] RUBINSTEIN R, ZIBULEVSKY M, ELAD M. Double sparsity:learning sparse dictionaries for sparse signal approximation[J]. IEEE Transactions on Signal Processing, 2010, 58(3): 1553-1564.

[20] RAMANI S, BLU T, UNSER M. Monte-Carlo sure:a black-box optimization of regularization parameters for general denoising algorithms[J]. IEEE Transactions on Image Processing, 2008, 17(9): 1540-1554.

[21] GUO Q, ZHANG C, ZHANG Y,et al. An efficient SVD-based method for image denoising[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2016, 26(5): 868-880.

[22] WEN B, BRESLER Y, RAVISHANKAR S. FRIST-flipping and rotation invariant sparsifying transform learning and applications[J]. Inverse Problems, 2017, 33(7): 074007.

[23] ZHA Z, YUAN X, ZHOU J, et al. Image restoration via simultaneous nonlocal self-similarity priors[J]. IEEE Transactions on Image Processing, 2020, 29:8561-8576.

Clustering and sparse dictionary learning based

approximate message passing

Abstract: Dictionary learning based approximate message passing (AMP) has a high demand on the number of training samples, and its computational cost is high.The double sparse model is introduced to study sparse dictionary learning based AMP, which reduces the demand on the number of training samples in the iterations and improves imaging quality and efficiency. Furthermore, the clustering and sparse dictionary learning based AMP is proposed. In iterations, the clustered blocks are denoised adaptively with sparse dictionary learning. In comparison to traditional dictionary learning based AMP, the clustering and sparse dictionary learning based AMP can achieve 0.20~1.75 dB higher peak signal-to-noise ratio of the reconstructed images, and improve the computational efficiency by 89% in average.

Keywords: image reconstruction; approximate message passing; dictionary learning; sparse dictionary; clustering

主站蜘蛛池模板: 国产精品综合久久久| 亚洲成人在线免费| 国产白浆在线观看| 伊人蕉久影院| 亚洲国产清纯| 成人在线亚洲| 国内精品九九久久久精品| 成人福利视频网| 国产理论精品| 一区二区三区毛片无码| 9久久伊人精品综合| 亚洲国产精品一区二区第一页免 | 99偷拍视频精品一区二区| 成人免费视频一区| 成人免费黄色小视频| 国产精品55夜色66夜色| 日本a级免费| 国产精品色婷婷在线观看| 日本福利视频网站| 91无码国产视频| 国产精品尹人在线观看| 亚洲αv毛片| 国产亚洲男人的天堂在线观看| 巨熟乳波霸若妻中文观看免费| 手机在线免费不卡一区二| 亚洲色图欧美视频| 国内精品久久久久久久久久影视| 在线看免费无码av天堂的| 亚洲欧美一区二区三区图片| 在线精品自拍| 亚洲手机在线| 一级毛片网| 久久青草热| 国产欧美日韩另类| 久久精品电影| 一级香蕉视频在线观看| 欧美日韩成人| 亚洲成a人在线播放www| 国产小视频a在线观看| 色综合久久久久8天国| 亚洲午夜国产精品无卡| 国产在线一区视频| 欧美成人午夜影院| 夜精品a一区二区三区| 国产一区亚洲一区| 久久国产精品国产自线拍| 国产福利小视频高清在线观看| 99在线观看国产| 欧美一级大片在线观看| 尤物视频一区| 日韩视频免费| 很黄的网站在线观看| 色偷偷一区二区三区| 亚洲人成影视在线观看| 一级成人欧美一区在线观看| 国产成人精品免费av| 亚洲无码37.| 操美女免费网站| 99精品这里只有精品高清视频 | 久久久无码人妻精品无码| 无码精品福利一区二区三区| 婷婷色在线视频| 成年免费在线观看| 国产黄在线免费观看| 亚洲色图综合在线| 日本免费高清一区| 国产精品99r8在线观看| 午夜老司机永久免费看片| 国产无码在线调教| 精品人妻一区无码视频| 亚洲中文字幕在线一区播放| 日韩av电影一区二区三区四区| 日韩精品成人在线| 欧美在线三级| 4虎影视国产在线观看精品| 国内精品视频在线| 老司机精品一区在线视频| 国产精品漂亮美女在线观看| 日韩大片免费观看视频播放| 啊嗯不日本网站| 久久久久国产一区二区| 99r在线精品视频在线播放 |