郭和煬,劉俊如,趙漢理
(溫州大學智能信息系統研究所,溫州 325035)
圖像是一種重要的視覺信息表達媒介,通常會包含各種紋理信息。紋理體現了物體表面的共有內在屬性,包含了物體表面結構組織排列的重要信息以及其與周圍的聯系[1]。圖像紋理濾波器可以有效地過濾圖像中的紋理細節信息,同時較好地保持顯著的結構邊緣信息。因此,基于結構保持的圖像紋理濾波器可以將圖像中的紋理信息和顯著結構信息進行有效地分離。并且,圖像紋理濾波算法經常作為一些圖像處理應用的預處理操作,可以用來改善輸入圖像的信息,方便計算機理解圖像。圖像紋理濾波器可以優化諸如邊緣檢測和圖像分割等圖像處理應用。
本文提出了一種新的圖像紋理濾波算法。首先,該圖像紋理濾波算法采用一種改進的基于方向的相對總變差尺度mdRTV(modified directional Relative Total Variation)來區分圖像的顯著結構邊界和紋理細節區域。然后,基于最大-最小圖像棧確定自適應紋理濾波半徑,運用自適應中值濾波生成一幅引導圖像。最后,對輸入圖像使用基于引導圖像的聯合雙邊濾波,得到最終的結構保持的紋理濾波圖像。
圖像紋理濾波算法在圖像處理領域有著重要的作用,越來越多的研究學者專注于該課題的研究。近年來,已有很多優秀的基于邊緣保持的圖像濾波算法被提出。
一種是基于細節信息過濾的圖像濾波算法。該種類型的濾波算法將圖像中的紋理濾除并保留圖像的顯著結構信息。形態學濾波[2]是其中一個經典的算法,基于時域信號處理,可以有效防止信號幅度衰減和相位移動的問題,同時信號的保真度也保持得較好。但是,形態學濾波可能會破壞圖像的細節和邊緣。雙邊濾波[3]則是結合了圖像中像素灰度值的相似性和像素之間的空間距離,既能保持圖像邊緣,又能達到抑制噪聲的效果。但是,雙邊濾波器還不能做到平滑任意尺度的圖像細節。Buades等[4]提出了基于塊相似性的非局部均值濾波算法,Perona等[5]提出了基于偏微分方程的各向異性擴散濾波算法。Ma等[6]提出了一種加權中值濾波算法進行圖像濾波和邊界保持操作。這些算法雖然在圖像濾波的過程中很好地保持了圖像的邊界結構信息,但是并不能很好地處理圖像中的復雜紋理信息。
另一種是基于紋理信息過濾的圖像濾波算法。該種類型的濾波算法通過相應操作對圖像中的紋理信息和顯著結構信息進行區分并且建立一幅引導圖像,然后基于引導圖像對輸入圖像進行結構保持的紋理濾波。Xu等[7]提出了一種基于相對總變差尺度(RTV,Relative Total Variation)的紋理濾波算法,從帶有復雜紋理信息的圖像中有效地提取出顯著結構信息。Kara?can等[8]提出了一種基于局部區域協方差的紋理過濾方法。Cho等[9]提出了一種改進的相對總變差尺度(mRTV,modified Relative Total Variation),運用圖像塊偏移的思想建立引導圖像,實現對輸入圖像的紋理濾波。最近,Jeon等[10]則提出了基于方向的相對總變差尺度(dRTV,directional Relative Total Variation),設計了一種基于自適應高斯濾波半徑的紋理尺度感知的圖像紋理濾波方法。
圖1示意了本文算法的主要步驟,算法流程具體如下。首先,根據輸入圖像(如圖1a所示)計算出一種新的用于區分圖像中顯著結構信息和復雜紋理信息的尺度mdRTV。其次,將所生成mdRTV尺度圖像進行歸一化處理,并且運用中值濾波對歸一化后的mdRTV尺度圖像進行平滑過濾(如圖1b所示)。然后,計算出每個像素的自適應濾波半徑,并且根據自適應濾波半徑對輸入圖像進行自適應中值濾波以生成一幅引導圖像(如圖1c所示)。最后,基于該引導圖像對輸入圖像進行聯合雙邊濾波,獲得所要輸出的結構保持的紋理濾波圖像(如圖1d所示)。
基于Cho等[9]的mRTV和Jeon等[10]的mRTV,本文提出了改進的基于方向的相對總變差尺度mdRTV,其具體定義如下:



圖1 本文算法流程圖
式中,Iq表示輸入圖像I中像素點q的像素值,Np表示以像素點p為中心點的方形圖像塊,?∈[0,2π)表示圖像塊的旋轉角度,參數ε=10-3用于防止計算時出現分母為0的情況。因此,Tp(?)表示以像素點p為中心的圖像塊Np順時針旋轉?角度后的紋理特征尺度。
在具體實現中,在0到2π的角度范圍中等間距地遍歷12個角度值,分別計算出各個角度下的Tp(?)值。接著,將12個Tp(?)值中的最大值作為像素p所對應的mdRTV值,此時所對應的角度稱為最大方向角。如果像素點p對應的mdRTV值較小,則像素點p位于紋理特征顯著區域或者較平坦區域。如果像素點p對應的mdRTV值較大,則像素點p位于結構邊界區域。具體地,最大方向角的計算公式如下:

對于彩色圖像的mdRTV值的計算,本文采用Cho等[9]的方法,首先對彩色圖像R、G、B三個通道分別計算mdRTV值,然后將三個通道的mdRTV值相加得到最終的mdRTV值。
圖像中位于結構邊界附近的紋理區域像素點的mdRTV值可能會與結構邊界上像素點的mdRTV值差異并不太明顯。
首先,本文采用Jeno等[10]的方法對mdRTV進行歸一化:

式中,σe用于調控結構邊界到紋理區域的像素點對應的mdRTV值過渡情況,本文設為0.1。
然后,使用中值濾波對該歸一化后的mdRTV圖進行平滑。中值濾波能夠很好地保持圖像顯著結構信息,還能有效地濾除高對比度噪聲。在中值濾波前,將濾波窗口根據中心像素對應的最大方向角進行旋轉,得到最終參與濾波的窗口像素。圖2給出了mRTV算法、dRTV算法和mdRTV算法的效果對比圖,圖中藍色表示RTV值較小,綠色和紅色表示RTV值較大。從效果對比圖和一些細節放大對比中可以看出dRTV算法以及本文提出的mdRTV算法在結構信息地保持上都比mRTV算法做得更好,尤其是在一些角點的地方,dRTV算法和mdRTV算法得到的結果圖在連貫性和完整性上都比mRTV算法得到的效果圖更好。

圖2 mRTV、dRTV與mdRTV結果比較
使用自適應濾波半徑的中值濾波生成引導圖像,中值濾波定義如下:

式中,每一個像素點p的濾波核大小不一定相同,在顯著結構邊界的像素點的濾波核半徑較小,而在紋理區域的像素點濾波半徑較大。自適應濾波半徑能夠使得引導圖像在經過中值濾波后能夠達到結構邊界信息保持清晰以及紋理區域過渡自然的效果,同時能夠過濾高對比的噪聲。
本文基于最大-最小圖像棧方法[11]來計算自適應濾波半徑的大小。為了對顯著結構區域的濾波半徑進行有效限制,定義一個二值限制函數[11]:

式中,ξ表示當前鄰近像素點與中心像素點p的距離,R為閾值參數。如果圖像大小是N×M個像素點,則建立最大-最小圖像棧時,圖像棧將有log2(max(N,M))張N×M個像素點大小的圖片,每一張圖像稱為圖像棧的一層。在第0層中圖像包含了EP的原始向量元素。第1層中任意坐標值記為(m,n)的向量元素包含了第0層中像素坐標值為:
(m±[0 ,20],n±[0 ,20])的3×3鄰域內的最大值和最小值。以此類推,建立最大-最小圖像棧。通過遍歷最大-最小圖像棧就能夠得到任意像素點p周圍像素點的最大值和最小值在[EP-R,EP+R]范圍內對應的最高圖像層編號,并記為 fP,則像素p的濾波半徑就為2fP-1。
與Cho等[9]的做法類似,對輸入圖像基于引導圖像進行聯合雙邊濾波,得到最終的輸出圖像:

式中,fσI(?)與 gσg(?)分別為聯合雙邊紋理濾波器的空間權重和值域權重函數。
對于彩色圖像,分別對R、G、B三個通道進行聯合雙邊濾波得到最終的彩色濾波結果。
本文實驗在一臺配置了酷睿i5 3470 CPU和8 GB內存的個人電腦上進行測試。本文方法通常僅需要一次迭代就能過濾圖像中的噪聲和小尺度的紋理。對于大尺度的紋理,也只需2~3次迭代。本文算法主要有兩個調節參數,一個參數是迭代次數n∈{1,2,3},另一個參數是濾波核大小K∈{5,7,9}。聯合雙邊濾波中濾波核大小設為3K×3K,值域標準差設為σr∈{0.08,0.16},空域標準差設為 σs∈{K-1,K+1}。
圖3給出了本文算法與Cho等[9]和Jeon等[10]算法的紋理濾波對比效果。Cho等[9]的算法雖然能夠保持住大部分的結構邊界信息,但是對一些低對比度的局部特征保持得不好,例如大魚眼睛的睫毛部分比較模糊。并且,Cho等[9]的算法和Jeon等[10]的算法不能很好地過濾結構內部的高對比度紋理,例如圖像的黑色背景還是能夠看到一些離散的白斑點。本文的算法能夠使得在結構邊界和局部特征區域的像素點對應的濾波半徑較小,而在紋理區域的像素點對應的濾波半徑較大。因此,基于自適應中值濾波的引導圖像能夠在較好地保持結構邊界和局部特征的同時,將復雜紋理背景過濾得更平滑。

圖3 算法結果比較
圖4示意了運用本文的基于自適應中值濾波半徑的紋理濾波算法所生成的更多紋理濾波效果。從圖中可以看出,本文算法有效地過濾了輸入圖像中的紋理細節信息,也保持了顯著的結構邊界信息。

圖4 本文算法的濾波效果
本文提出了一種新的區分圖像的顯著結構邊界和復雜紋理區域的尺度,基于最大-最小圖像棧的方式確定自適應中值濾波半徑并生成引導圖像,最終運用聯合雙邊濾波對圖像的紋理進行過濾。通過與其他算法的實驗比較證明了本文算法的有效性。
但是,本文方法還存在一些不足。一方面,對低對比度的結構邊界不一定能完整的保持。另一方面,局部紋理特征可能會出現濾波過度的情況。在今后的工作中,將研究相關的方法解決這些缺點。
[1]Haralick R M.Statistical and Structural Approaches to Texture[J].Proceedings of the IEEE,1979,67(5):786-804.
[2]Maragos P A.Morphological Filters-Part II:Their Relations to Median,Order-Static,and Stack Filters[J].IEEE Trans Assp,1987,35:1170-1184.
[3]Tomasi C,Manduchi R.Bilateral Filtering for Gray and Color Images[C].6th International Conference on Computer Vision.Bombay.India:IEEE,1998:839-846.
[4]Buades A,Coll B,Morel J M.Neighborhood Filters and PDE's[J].Numerical Mathematics,2006,105:1-34.
[5]Perona P,Malik J.Scale-Space and Edge Detection Using Anisotropic Diffusion[J].IEEE Transactions on Pattern Analysis&Machine Intelligence,2002,12(7):629-639.
[6]Ma Z,He K,Wei Y,et al.Constant Time Weighted Median Filtering for Stereo Matching and Beyond[C].IEEE International Conference on Computer Vision.IEEE,2014:49-56.
[7]Xu L,Yan Q,Xia Y,ct al.Structure Extraction from Texture Via Relative Total Variation[J].ACM Transactions on Graphics,2012,31(6):439-445.
[8]Karacan L,Erdem E,Erdem A.Structure-Preserving Image Smoothing Via Region Covariances[J].ACM Transactions on Graphics,2013,32(6):1-11.
[9]Lee H,Lee H,Lee S,et al.Bilateral Texture Filtering[J].Acm Transactions on Graphics,2014,33(4):128.
[10]Jeon J,Lee H,Kang H,et al.Scale aware Structure Preserving Texture Filtering[J].Computer Graphics Forum,2016,35(7):77-86.
[11]Choudhury P,Tumblin J.The Trilateral Filter for High Contrast Images and Meshes[C].Eurographics Workshop on Rendering Techniques,Leuven,Belgium,June.DBLP,2005:5.