徐少平 劉婷云 李崇禧 唐祎玲 胡凌燕
(南昌大學信息工程學院 南昌 330031)
對于圖像超分辨率重建[1-2]、圖像去模糊[3]、圖像降噪[4-5]等各類圖像復原算法來說,噪聲水平值是一個至關重要的輸入參數,不準確的噪聲水平值會在很大程度上影響這些算法的性能.然而,大多數已提出的圖像復原算法[6]都屬于非盲類型的(non-blind),即需要人工手動設置并調整相應的噪聲水平值才能獲得最佳的圖像復原效果,這嚴重限制了它們的實際應用范圍.因此,研究自動化的圖像噪聲水平評估(noise level estimation, NLE)算法是很有必要的.
現有的大多數NLE算法的核心技術路線是先將圖像內容信號和噪聲信號分離,然后根據分離出的噪聲信號提取特征進而估計噪聲水平值.例如Immerkr利用1個3×3的矩陣掩模,對圖像局部鄰域內的加性0均值高斯噪聲求和,再根據方差估算出噪聲水平值[7].雖然該算法的執行效率很高,但其噪聲水平估計準確率較低;Zoran等人[8]認為圖像噪聲是引起邊緣帶通濾波器響應分布峰度值(kurtosis value)變化的主要因素,通過構建優化模型對噪聲水平值進行估計.該算法在中低水平噪聲條件下的估計準確度較高,但是在噪聲水平較高的情況下其估計效果不理想,執行時間較長.近期Katase等人[9]提出了一種基于離散余弦變換(discrete cosine transform, DCT)系數特征的NLE算法.該算法根據DCT系數中高頻部分的標準方差選取平滑的圖塊,利用噪聲圖像中的高頻系數計算出噪聲水平值,它在噪聲水平較低的情況下性能良好,對于高水平噪聲,預測效果不夠理想.Rakhshanfar等人[10]根據亮度值和方差對圖像分解的圖塊進行分類,基于噪聲統計特性和圖像同質區域,將與噪聲模型相似程度最高的圖塊群(patches clusters)用于估計噪聲方差.該方法可以處理多種類型圖像噪聲,在預測準確性表現相對良好,但是其執行效率與圖像內容的復雜度密切相關.當噪聲水平值較高時,執行時間顯著增加.Chen等人[11]通過研究發現無失真圖像中提取的圖塊通常位于所謂的低維子空間(low-dimensional subspace),可以利用主成分分析(principal component analysis, PCA)方法獲得冗余維度上的特征值,將其用于估計噪聲方差.該算法用循環窮舉的方式來確定冗余維度上的特征值,導致算法效率不高.
總體上來說,上述算法都屬于所謂的基于單圖像的噪聲水平估計(single-image based noise level estimation,SNLE)算法.在估計噪聲水平值時僅有待評價圖像本身的信息可以利用,因此需要設計復雜的處理流程將噪聲信號從圖像中分離(提取)出來后才能進一步基于噪聲信號部分進行估計,在執行效率方面并不是很理想.NLE算法作為眾多圖像處理算法的預處理模塊,除了預測準確性外,執行效率也是重要的評價指標.近年來,筆者試圖通過基于訓練的方法,充分利用蘊藏在已知多幅圖像中的規律性的信息,從圖像中提取反映噪聲水平值高低的特征值后實現快速的噪聲水平映射(預測),這種方法被稱為基于多圖像的噪聲水平估計(multiple-image based noise level estimation, MNLE)算法.例如在文獻[12]中,提出了用梯度幅值和拉普拉斯變換2種算子提取噪聲水平感知特征(noise level-aware feature, NLAF),然后基于在大量訓練數據上獲得的NLAF特征值以及相應的噪聲水平值利用支持向量回歸(support vector regression, SVR)完成預測模型的訓練.預測模型所預測的噪聲水平值能使BM3D(block-matching and 3D filtering)降噪算法獲得最佳降噪效果.基于訓練的MNLE算法的執行效率比現有經典算法具有明顯優勢,但是預測精度水平較主流算法尚有一定差距.提高基于MNLE算法的預測準確性需要從2個方面入手,即提取高質量的能反映噪聲水平高低的NLAF特征和利用機器學習算法訓練非線性映射能力更強的預測模型完成從NLAF特征值到噪聲水平值的映射[12-13].
為了提取對噪聲水平值更為敏感的NLAF特征,高質量地將圖像內容與噪聲信號分離是基礎性的工作.為此,將近年來出現的非線性逼近能力強大的卷積神經網絡(convolutional neural network, CNN)[14-16]技術引入到MNLE算法中來,提出一種基于CNN噪聲分離模型的噪聲水平估計算法.該算法利用CNN網絡訓練一個專門的預測模型完成將噪聲信號從噪聲圖像中剝離出來的任務,然后利用通用高斯模型(generalized Gaussian distribution, GGD)對噪聲映射圖(noise mapping)進行建模并利用模型參數值作為反映圖像噪聲水平高低的NLAF特征值.最后利用改進的BP映射模型完成從NLAF特征值到噪聲水平值的預測任務.相對于已有的各類NLE算法,所提出的NLE算法的優勢主要體現在3個方面:
1) 噪聲信號分離效果好.充分利用了CNN強大的非線性逼近能力,在已知噪聲水平下的樣本圖像集合中學習先驗知識,高質量地將噪聲信號從噪聲圖像中分離出來,為構建高敏感度的NLAF特征打下了很好的基礎.
2) NLAF特征到噪聲水平的映射能力強.采用改進的BP神經網絡技術獲得了比常規SVR支持向量回歸映射更高的預測正確率.
3) 執行效率高.改進算法的特征值提取和噪聲水平值的映射工作是由CNN和改進BP(back propagation)神經網絡來完成的.一旦訓練完成,其執行效率非常高,尤其是CNN卷積網絡在GPU(graphics processing unit)硬件支持下運行時間很短,幾乎可以忽略.

(1)
在卷積層中,用濾波器與上一層若干個特征映射圖(feature map)進行卷積,計算出新的特征映射圖,通過激活函數將特征保留并輸出到下一層結構.近年來研究者們主要采用修正線性單元(rectified linear unit, ReLU)[19]作為激活函數,其數學形式表述為ψ(x)=max(x,0),將負值置0.ReLU能夠加快整個網絡的收斂速度,而不影響卷積層的感受野(receptive field),大大提高了激活函數的性能[20].卷積后產生q維的特征映射圖(feature map)

(2)

(3)
其中,l=1,2,…,q,N(u)是u的鄰域,P是某種類型的池化函數(可以是最大值、均值等類型).基本的CNN卷積神經網絡可以表示為卷積層和可選的池化層的多次組合,即
ΦH(X)=(CH(K)…P…°CH(2)°CH(1))(X),
(4)
其中,P為可缺省的池化操作,H=(H(1),H(2),…,H(K))是網絡參數(卷積核的系數值)的超矢量(hyper-vector).通常,在卷積神經網絡中的卷積層或者池化層之后可以連接全連接層(fully connected layer),全連接層在整個CNN中用來獲得特征,為后面的分類或者回歸任務做準備.另外,為了減少內部協變量轉移對網絡參數的影響,批歸一化層(batch normalization, BN)[21]常被用來對卷積神經網絡隱藏層的輸出數據進行批歸一化處理,從而加快神經網絡的收斂速度并獲得穩定性.
如圖1所示,改進算法技術路線的關鍵之處在于:首先高質量地將噪聲圖像的內容信號與噪聲信號進行分離獲得噪聲映射圖;進而基于噪聲映射圖提取NLAF特征;最后通過訓練學習獲得映射能力強的預測模型將NLAF特征準確地映射為噪聲水平值.具體地,在訓練階段:1)選擇大量具有代表性的自然圖像添加不同噪聲水平的高斯噪聲獲得噪聲圖像集合,噪聲圖像、無失真圖像、噪聲圖像與無失真圖像相減獲得的噪聲映射圖以及對應的噪聲水平值構成訓練數據集合;2)通過訓練CNN網絡在噪聲圖像和噪聲映射圖之間構建CNN噪聲分離模型,利用該模型即可完成將噪聲信號從噪聲圖像中剝離出來的任務;3)分離噪聲信號后,采用GGD模型對噪聲映射圖進行建模并利用模型參數值作為反映圖像噪聲水平高低的NLAF特征值;4)基于從訓練集中的噪聲圖像上提取出的特征值及相應的真實噪聲水平值,訓練改進的BP映射模型完成從NLAF特征值到噪聲水平值的預測任務.在預測階段:1)將噪聲圖像輸入到CNN噪聲分離模型分離出噪聲映射圖;2)用GGD特征提取模型提取其NLAF特征并由改進的BP映射模型最終映射為噪聲水平值.

Fig. 1 The overall framework of the proposed method圖1 改進算法流程框圖
本文主要工作是利用CNN網絡強大的學習能力,達到從噪聲圖像中分離出噪聲信號的目的.一般來講,受到噪聲干擾的圖像的數據模型可以定義為
y=x+n,
(5)

基于上述設計需求,與一般利用CNN卷積神經網絡完成分類或者回歸任務不同,所提出的算法需要基于輸入的噪聲圖像各個像素點的亮度值得到對應像素點的噪聲值,故輸入模型的圖像大小和輸出圖像的大小相同.因此,所設計的CNN卷積神經網絡中不使用池化層和全連接層結構,僅包括卷積層、BN和ReLU共3種類型的網絡部件,具體結構如圖2所示.從圖2中可以看出,網絡從左到右共分3段:
1) Conv+ReLU.第1段用64個大小為3×3的卷積核生成64個特征圖像.
2) Conv+BN+ReLU.第2段與第1段的區別是使用了BN批歸一化層,使用BN層的目的是為了保證每一層網絡的輸入具有相同的分布、加快訓練進程并提高噪聲水平預測準確率.
3) Conv.最后1段采用1個大小為3×3×64的卷積核來輸出噪聲映射圖.

Fig. 2 The network architecture of CNN-based noise separation model圖2 CNN噪聲分離模型的網絡體系架構圖
為了驗證卷積神經網絡對噪聲圖像中的噪聲信號部分的實際分離效果,以1幅512×512大小的Lena圖像為例,對其分別添加噪聲級別為5,10,20,40,50的高斯噪聲,然后利用所提出的CNN分離模型將噪聲信號分離出來得到噪聲映射圖,計算噪聲映射圖中系數值分布情況,系數分布直方圖如圖3所示(為了便于顯示和比較,圖3中的橫坐標值所代表的殘差系數值(噪聲值)被歸一化到[-1,1]之間,而縱坐標則是像素點個數除以1 000以后的結果).由圖3可知,噪聲映射圖的系數值分布具有顯著的類高斯分布特征,可用GGD廣義高斯分布對噪聲映射圖進行建模.

Fig. 3 The distribution histogram of coefficient values圖3 系數值分布直方圖
GGD模型[22]是一種應用非常廣泛的分布模型,一般定義為

(6)
其中,Γ(·)是Gamma函數,即:

(7)
式(6)中的α為尺度(scale)參數,控制著GGD密度函數的擴散程度.β為形狀(shape)參數,用于修正峰度值的衰減速度.參數α和β與GGD分布的標準差σ滿足關系式:

(8)

用GGD模型為噪聲映射圖系數值分布建模后,模型中共有2個參數,即α和β.為了測試模型中的2個參數是否能夠作為NLAF特征值使用,用GGD模型為圖2中5個級別的噪聲映射圖建模,所提取的模型參數如表1所列.從表1中可以看出:α參數值與相應噪聲水平值之間的Pearson線性相關系數(Pearson linear correlation coefficient, PLCC)為1,表明這2者之間具有極強的相關性;β參數值與相應噪聲水平值之間的PLCC系數為0.649 6,表明這2者之間的相關性處于中等水平.為了全面驗證該參數是否與噪聲值具有強相關性,在100幅圖像上執行與圖2相同的處理過程并提取GGD模型的2個參數值,再計算它們分別與真實噪聲水平值之間的PLCC相關系數.經計算,α值與真實噪聲水平值的線性相關系數為0.998 7,繼續保持非常高的相關性.而β值與真實噪聲水平值的線性相關系數為0.668 3,有所提高但仍然處于中等水平.為了獲得魯棒的噪聲水平值,將參數值α和β組合作為NLAF噪聲水平感知特征矢量F=(α,β)來使用.
Table 1Correlation Coefficients Between the Noise Levels andParameters of GGD Model

表1 GGD參數值與噪聲水平值的相關系數

Fig. 4 Pipeline of the improved BP neural network圖4 改進BP神經網絡工作原理
用GGD模型在大量訓練圖像上提取噪聲映射圖的特征值后,理論上即可利用任何回歸分析技術將特征值(構成矢量形式)映射為最終的噪聲水平預測值(標量).由于所使用的特征值只有2維,維數較少,利用常規的SVR構建預測模型的預測準確性不是很理想.如圖4所示,為了進一步提升預測準確性,首先利用若干個BP網絡構建預測能力相對較弱的弱預測器,然后利用AdaBoost算法[23]在多個弱預測器的基礎上構建比較健壯、準確的強預測器.AdaBoost算法原本的設計思想是利用若干個弱分類器構建強分類器的分類問題,這里將其運用到回歸問題中來,所用的預測模型稱為改進的BP映射模型.
選取K幅圖像進行訓練,對每幅圖像添加已知噪聲水平值為σi的高斯噪聲,用GGD模型提取對應的特征矢量Fi(其中i=1,2,…,K)構成訓練集合{(F1,σ1),(F2,σ2),…,(FK,σK)}?R2×R,訓練出預測函數φ(·)以實現特征矢量到噪聲水平值之間的映射.改進BP映射算法的具體執行過程如下:首先,確定弱預測器的數量(根據實驗數據T=5時,已能滿足精度要求且同時兼顧執行效率).從第1個弱預測器開始,利用BP神經網絡建立特征矢量Fi和噪聲水平值σi之間的映射關系,第j條訓練數據對預測結果的權重更新方法為

(9)
其中,Di,j代表在第i個弱預測器中第j條訓練數據對預測誤差的權重,C為[0,1]之間的常數.對于第1個弱預測器來說,各個訓練數據的權重初始化為1K,從第2個弱預測器開始,則根據前一個預測器預測結果的誤差利用二值函數(binary function)

(10)
進行修正.根據實驗數據,設定參數C=0.1,threshold=0.1.第i個弱預測器整體的預測誤差可以定義為用第i個預測器所預測的噪聲估計值與真實噪聲水平值之間的差值和訓練數據權重乘積的累積和,從數學形式上描述為
(11)
利用凸函數將每個弱預測器的預測誤差轉換為弱預測器在最終預測結果中的權重.這樣使得那些預測誤差較小的弱預測器的權重增加,而誤差較大的弱預測器的權重減小.第i個弱預測器的權重定義為

(12)

(13)
實驗數據表明使用過多或者過少的弱預測器都將導致預測準確性下降.另外一方面,隨著使用更多的弱預測器,執行效率也將隨之下降.文中最終使用5個弱預測器構建改進的BP映射模型,在這個配置下能在預測準確性和執行效率這2個方面獲得最佳平衡點(限于篇幅,這里不再給出具體實驗數據).綜上所述,基于多個BP網絡模型利用AdaBoost算法提升預測準確性的偽代碼描述如下:
算法1.改進BP神經網絡模型訓練過程.
輸入:訓練圖像集{(F1,σ1),(F2,σ2),…,(FK,σK)}?R2×R;
輸出:各預測器模型{BPi|1≤i≤5,i∈N+}及對應的權重值w={w1,w2,…,w5}.
① 初始化基于BPi網絡的弱預測器的分布D1,j、計算對應的估計誤差Err1及權值w1;
② fori=2,3,…,5
③ 根據式(11)計算第i個弱預測器BPi的估計誤差Erri;
④ 根據式(9)計算第i個弱預測器BPi的分布Di,j;
⑤ 根據式(12)計算第i個弱預測器BPi的權值wi;
⑥ 歸一化弱預測器的分布Di,j;
⑦ end for
⑧ 輸出各個BP預測器并歸一化它們的權值.
從BSD(Berkeley segmentation dataset)數據庫[24]中隨機選取了100幅圖像,對這些圖像添加51個級別(0,1,…,50)的高斯噪聲作為訓練圖像集合,基于訓練圖像集合訓練預測模型.測試圖像集包括2個:第1個由在各類圖像處理相關文獻中常用的10幅圖像組成,如圖5所示;為了增加測試難度,在BSD數據庫另選了與訓練集合不同的50幅紋理圖像構成第2個測試集合.BSD數據庫原本作為紋理分割的基準測試數據庫,其圖像中的紋理細節非常豐富,很多NLE算法的性能在該數據庫上表現不佳,比較適合用來作為測試圖像集合.參與比較的NLE算法包括Immerkr算法[7]、Zoran算法[8]、Liu算法[25]、Chen算法[11]、Rakhshanfar算法[10]和Xu算法[1],其中Xu算法是筆者之前基于主成分分析和SVR實現的NLE算法.為了驗證改進的BP映射模型的性能,本文對比了4種從NLAF特征到噪聲水平值的映射模型.其中,直接利用常規SVR和BP構建映射模型的NLE算法分別記為CNN+SVR和CNN+BP;基于SVR和BP利用AdaBoost算法改進的映射模型實現的NLE算法分別記為CNN+AdaSVR和CNN+AdaBP,這樣共有10個NLE算法參與對比實驗.通過比較以上各個算法在不同噪聲水平下的噪聲估計準確性以及執行時間,來測試所提出算法的綜合性能.實驗在Matlab R2017b(運行在Intel?CoreTMi7-6700 CPU RAM 8 GB主機上)環境下完成.

Fig. 5 Commonly used images in the literature圖5 各類文獻中常用的圖像集合
在常用圖像集合中的圖像上施加噪聲級別為5~50、間隔為5的噪聲,統計各對比算法在每幅圖像上的預測結果,以噪聲水平預測值與真實值之間的絕對偏差值作為衡量算法預測準確性的指標.限于篇幅,這里僅給出在Couple圖像的預測結果,預測結果排名前3的算法加粗標出,準確性最高的另用下劃線標出.由表2可知,Immerkr算法、Zoran算法、Chen算法、Xu算法、CNN+SVR算法和CNN+AdaSVR算法在Couple圖像上的預測結果較其他對比算法還不夠理想;Liu算法、Rakhshanfar算法、CNN+BP算法和所提出的CNN+AdaBP算法在各個噪聲級別下表現出良好的預測準確性.從整體上看,Rakhshanfar算法的預測準確性在不同噪聲水平值上變化較大,穩定性較差;Liu算法在各噪聲水平下尤其是低水平噪聲條件下預測性能最好,但Liu算法是以執行時間為代價才獲得高準確性的.CNN+BP算法和CNN+AdaBP算法的預測準確性與Liu算法的相差不大,但執行效率則具有顯著優勢,因此所提出的CNN+AdaBP算法綜合性能更好.

Table 2 Estimation Results Obtained with Different Algorithms on Couple Image at Different Noise Levels表2 不同噪聲水平下各算法在Couple圖像上的評估結果
Note: The top 3 results are bold, and the best values are underlined.
在單幅圖像上的噪聲水平估計值的對比并不能全面地評價某個算法的魯棒性.因此,對于圖5中的10幅測試圖像,計算各個算法對它們噪聲水平的估計值與真實值之間的均方根誤差(root mean squared error, RMSE),結果列在表3中.在各噪聲水平下,前3個最好的算法加粗標出,最小的RMSE值另用下劃線標出.從表3中的數據可以看出:各算法性能與在單幅圖像上情況近似,CNN+SVR和CNN+AdaSVR算法的預測準確性比較差,未進入前3名,這說明SVR不適合用于完成噪聲水平值的映射任務,而Adaboost技術也不能顯著提高SVR的映射能力;Liu算法、CNN+BP算法和CNN+AdaBP算法的均方根誤差排名前3,其中Liu算法在低噪聲水平條件下的均方根誤差非常小(以執行時間為代價),在中高噪聲水平條件下的均方根誤差相對于低噪聲水平卻要大許多,穩定性不夠好;CNN+BP算法整體上均方根誤差的平均值比CNN+AdaBP算法稍差.CNN+AdaBP算法在各個級別的噪聲條件下的均方根誤差都比較小,且預測準確性比較穩定.這說明了CNN+AdaBP算法利用Adaboost技術提升BP映射模型的性能是成功的,這是因為CNN+AdaBP算法中BP網絡弱預測器本身具有一定的預測能力,且適當個數的弱預測器之間能形成互補,在Adaboost框架下組合利用多個BP弱預測器后其預測準確性得到進一步提升.

Table 3 RMSE Between Estimated Results and Ground Truths on Ten Commonly Used Images表3 各算法在10幅常用圖像集合上預測結果的均方根誤差
Note: The top 3 results are bold, and the best values are underlined.

Table 4 RMSE Between Estimated Results and Ground Truths on Fifty Images from BSD Database表4 不同噪聲水平下不同算法在50幅BSD圖像上預測結果的均方根誤差
Note: The top 3 results are bold, and the best values are underlined.
為了驗證算法對測試圖像的魯棒性,隨機選取了BSD數據庫50幅圖像作為測試集,分別給圖像加入級別為5~50、間隔為5的高斯噪聲,并計算各個算法預測結果與真實值之間的均方根誤差,列在表4中(排名標記方法與上文相同).由表4中可知:各個算法的預測準確性在難度很大的紋理圖像上有所下降,但是排名情況總體與表3類似,所提出的CNN+AdaBP算法仍然具有最好的性能.
為了驗證CNN+AdaBP算法的泛化能力,對BSD數據庫中的50幅圖像添加2.5,7.5,12.5,17.5,22.5,27.5,32.5,37.5,42.5,47.5這10個在訓練模型時未用到的噪聲水平值,并計算對應的均方根誤差,結果如表5所示.
從表5可以看出:所提出的CNN+AdaBP算法能夠很好地預測噪聲級別在0~50之間的任意噪聲水平值,且算法的預測準確性足夠穩定.綜上所述,CNN+AdaBP算法具有良好且穩定的預測準確性,其原因在于該算法是根據自然圖像統計規律在大量自然圖像上訓練學習獲得的.

Table 5 RMSE of the Estimated Results at Different Noise Levels
為了進一步驗證CNN+AdaBP算法的實際應用效果,用經典BM3D降噪算法對分別加入不同噪聲級別的Lena圖像進行降噪,表6列出了分別使用真實噪聲水平值和根據CNN+AdaBP算法預測出的噪聲值作為BM3D算法的輸入參數進行降噪后的圖像的峰值信噪比(peak signal to noise ratio, PSNR).

Table 6 PSNR of Image Denoised by BM3D Algorithm Using Ground Truth and Estimated Noise Levels表6 BM3D分別使用真實噪聲值和預測噪聲值的降噪結果 dB
從表6中的數據可以看出,使用CNN+AdaBP算法預測出的噪聲水平值作為參數的降噪效果與使用真實噪聲水平值作為參數的降噪效果差別很小,這充分說明了CNN+AdaBP算法的實用性和有效性.
對于一個圖像噪聲水平估計算法來說,不應僅僅根據算法的預測準確性來評判該算法性能是否良好,執行效率也是非常重要的評價指標.為了充分證明所提出的算法性能良好,筆者對各個算法的執行時間進行了比較.將各算法在1幅大小為512×512的Lena圖像上重復執行20次,計算算法估計該圖像噪聲水平值的平均執行時間,各算法在不同噪聲級別下平均執行時間如表7所示.從表7可以看出:Zoran算法和Liu算法的執行時間非常長,不適合應用于時間要求比較嚴格的系統中.相比而言,Chen算法和Rakhshanfar算法的執行效率一般.由表2~4中的數據可知,這2個算法的預測精度也一般.Immerkr算法和Xu算法的執行時間非常快,但是從表3~4中的數據可知,這2種算法的評價準確性比較其他算法要差一些.CNN+SVR算法、CNN+AdaSVR算法、CNN+BP算法和CNN+AdaBP算法作為基于訓練的MNLE算法,模型一旦訓練完成,執行速度處于所有參與比較算法中的前列.綜上所述,所提出的CNN+AdaBP算法在預測準確率和執行效率這2個方面的綜合性能較其他算法更優.

Table 7 Average Execution Time of Different NLE Methods at Different Noise Levels表7 各算法在不同噪聲級別下的平均執行時間 s
傳統基于單幅圖像的SNLE算法中將圖像內容與噪聲信號分離的關鍵模塊在算法設計上比較復雜,導致執行效率比較低.為此,提出了一種利用CNN在多幅圖像上通過訓練學習實現快速分離噪聲信號獲得噪聲映射圖的新方法.然后,利用廣義高斯分布GGD模型為噪聲映射圖建模,并以模型參數值作為反映噪聲嚴重程度的NLAF特征值.最后,訓練改進后的BP網絡模型實現從NLAF特征值到噪聲水平值的預測任務.與現有的算法相比,CNN+AdaBP算法從提取高質量的NLAF特征和構建非線性映射能力強大的映射模型2個方面入手,在保持高效率的前提下,進一步提高了MNLE這類算法的預測準確率,獲得了一種預測準確性和執行效率的綜合性能更好的噪聲水平評估算法.