999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于雙廣義高斯模型和多尺度融合的紋理圖像檢索方法

2016-10-13 13:50:03李永福汪榮貴薛麗霞張清楊
電子與信息學(xué)報(bào) 2016年11期
關(guān)鍵詞:方法模型

楊 娟 李永福 汪榮貴 薛麗霞 張清楊

?

基于雙廣義高斯模型和多尺度融合的紋理圖像檢索方法

楊 娟 李永福 汪榮貴 薛麗霞*張清楊

(合肥工業(yè)大學(xué)計(jì)算機(jī)與信息學(xué)院 合肥 230009)

紋理因素是描述圖像的重要特征之一,為了準(zhǔn)確地刻畫(huà)紋理特征,增強(qiáng)圖像的區(qū)分能力,該文提出一種基于雙樹(shù)復(fù)數(shù)小波域統(tǒng)計(jì)特征的紋理圖像檢索方法。首先對(duì)圖像采用雙樹(shù)復(fù)數(shù)小波變換得到各子帶系數(shù),由于系數(shù)存在細(xì)微不完全對(duì)稱(chēng)分布特性,將其建模為雙廣義高斯模型。其次,因?yàn)楦髯訋禂?shù)之間不完全獨(dú)立也不完全沖突,存在不確定關(guān)系,所以采用模糊集合和證據(jù)理論(FS-DS)的方法,融合各子帶系數(shù)特征。最后,對(duì)Brodatz和彩色紋理圖像庫(kù)進(jìn)行仿真實(shí)驗(yàn),并與多種統(tǒng)計(jì)建模的方法相比較。結(jié)果表明,該方法有效地提高了紋理圖像的平均檢索率。

紋理圖像檢索;雙樹(shù)復(fù)數(shù)小波;雙廣義高斯分布;模糊集合;證據(jù)理論

1 引言

隨著互聯(lián)網(wǎng)的高速發(fā)展與計(jì)算機(jī)的普遍應(yīng)用,數(shù)字圖像的應(yīng)用越來(lái)越廣泛。在面對(duì)數(shù)以萬(wàn)計(jì)的海量圖像,如何快速、準(zhǔn)確地檢索到所需的圖像成為一個(gè)急需解決的難題。目前,基于內(nèi)容的圖像檢索(Content Based Image Retrieval, CBIR)[1]作為解決在海量圖像檢索的一個(gè)有效途徑,成為研究圖像信息處理領(lǐng)域的熱點(diǎn)研究課題。基于內(nèi)容的圖像檢索,關(guān)鍵在于如何將圖像內(nèi)容進(jìn)行合理表示和相似性的有效度量。從研究現(xiàn)狀來(lái)看,沒(méi)有一種有效的描述子能夠充分表達(dá)圖像的內(nèi)容信息。紋理是描述圖像的一個(gè)重要特征,相對(duì)于形狀、顏色特征,紋理特征包含信息量較多。通過(guò)紋理分析,可以獲得較多的圖像特性信息,因此如何通過(guò)紋理分析獲得對(duì)圖像內(nèi)容的有效表達(dá)是一個(gè)非常值得研究的課題。

目前,紋理分析方法分為4大類(lèi),即統(tǒng)計(jì)分析法、結(jié)構(gòu)分析法、基于模型的方法和基于頻譜的方法。由于紋理特征的復(fù)雜性和多樣性,這些方法都各自有其優(yōu)點(diǎn)和局限性。統(tǒng)計(jì)分析方法能夠描述圖像的局部信息且具有一定的魯棒性,效果相對(duì)較好。但是,該方法難以確定有效的模型參數(shù)、尺度單一,導(dǎo)致算法建模效果與圖像信息存在偏差,不能充分刻畫(huà)圖像的內(nèi)容信息。針對(duì)這個(gè)問(wèn)題,本文旨在通過(guò)建立有效統(tǒng)計(jì)模型,且通過(guò)充分融合多尺度圖像特征進(jìn)行紋理圖像檢索,提高算法的檢索精度。

早在20世紀(jì)70年代文獻(xiàn)[5]就在圖像空域上提出了共生矩陣的概念,由于共生矩陣提取的信息量較少,導(dǎo)致不能充分表達(dá)圖像的紋理信息。Gabor濾波器組雖具有多分辨率功能,但參數(shù)選擇復(fù)雜,計(jì)算量大。但從20世紀(jì)90年代,具有“數(shù)學(xué)顯微鏡”之稱(chēng)的小波分析不斷發(fā)展,小波變換具有良好的時(shí)頻局部特征和變焦特征,采用逐漸精細(xì)的時(shí)域或者空域步長(zhǎng),可以聚焦到分析對(duì)象的任意細(xì)節(jié)。隨著小波理論的不斷完善,各種小波變換被研究構(gòu)造。小波變換方法在空域和頻域都具有較好的局部化能力,是統(tǒng)計(jì)紋理特征分析的有效工具[8]。但是傳統(tǒng)的實(shí)數(shù)小波方向分辨率差,僅包含水平、垂直及對(duì)角線(xiàn)方向,缺乏良好的平移不變性和方向選擇性。因此本文采用文獻(xiàn)[9]提出的雙樹(shù)復(fù)數(shù)小波變換(DT-CWT)[10],提取小波系數(shù)進(jìn)行統(tǒng)計(jì)紋理分析。

選擇合理的函數(shù)模型描述小波系數(shù)分布是目前研究有效的方式之一,大部分系數(shù)分布于零點(diǎn)附近,因此文獻(xiàn)[11]提出廣義高斯密度函數(shù)。除此之外,由于統(tǒng)計(jì)采樣系數(shù)零均值與假設(shè)有細(xì)小偏差,如文獻(xiàn)[15]提出構(gòu)建廣義伽馬模型和文獻(xiàn)[16]對(duì)細(xì)節(jié)子帶幅值系數(shù)采用貝葉斯模型[17]。雖然這些模型都能很好地刻畫(huà)系數(shù)圍繞零均值附近的分布情況,但是從小波系數(shù)直方圖的細(xì)微觀察分析中可以發(fā)現(xiàn),小波域系數(shù)密度函數(shù)不完全符合對(duì)稱(chēng)分布,從部分紋理圖像的小波系數(shù)分布直方圖顯得尤為突出,針對(duì)此問(wèn)題本文引入了雙廣義高斯混合模型;此外,各尺度下子帶小波系數(shù)之間密度函數(shù)并非獨(dú)立分布,存在不確定關(guān)系,因此針對(duì)以上問(wèn)題進(jìn)行研究。

為了準(zhǔn)確地提取有效的紋理描述子,本文提出一種基于模糊集和證據(jù)理論(FS-DS)的信息融合方法,通過(guò)該方法融合小波域子帶的系數(shù)特征形成一種有效的紋理分析統(tǒng)計(jì)特征,由此實(shí)現(xiàn)對(duì)紋理圖像的檢索。具體思路:首先經(jīng)過(guò)雙樹(shù)復(fù)數(shù)小波變換得到子帶系數(shù)矩陣,并建模為雙廣義高斯模型,采用反函數(shù)曲線(xiàn)擬合的方法進(jìn)行參數(shù)估計(jì),克服小波系數(shù)分布函數(shù)不完全對(duì)稱(chēng)問(wèn)題;針對(duì)各子帶之間存在不確定關(guān)系,采用模糊集合和證據(jù)理論(FS-DS)的方法融合各子帶系數(shù)特征進(jìn)行紋理圖像檢索。

2 雙樹(shù)復(fù)數(shù)小波系數(shù)的雙廣義高斯分布模型

在圖像處理領(lǐng)域的實(shí)際應(yīng)用中,數(shù)據(jù)分布是未知概率密度函數(shù)的近似擬合建模,并且建模的誤差程度和時(shí)間復(fù)雜度是考核建模的重要標(biāo)準(zhǔn)。目前,廣義高斯密度函數(shù)(GGD)已經(jīng)在小波域廣泛應(yīng)用。

離散小波變換(DWT)會(huì)產(chǎn)生較大混疊,帶來(lái)畸變,嚴(yán)重影響小波系數(shù)表征原圖像紋理特征的能力。導(dǎo)致這種缺陷的原因表現(xiàn)在兩個(gè)方面:平移變化性和弱的方向選擇性,為了克服這些弊端,文獻(xiàn)[9]提出了DT-CWT變換。得到任何一個(gè)子帶小波系數(shù)的期望值基本近似為零,因此本文采用零均值雙廣義高斯分布來(lái)描述雙樹(shù)復(fù)數(shù)小波子帶系數(shù)分布,分別對(duì)小波域系數(shù)的正數(shù)部分和負(fù)數(shù)部分進(jìn)行函數(shù)擬合,其中廣義高斯密度函數(shù)為

其中,

圖1(a)和(b)繪制的是來(lái)自Brodatz紋理圖像庫(kù)的D26.gif紋理圖像以及該圖像的子帶系數(shù)直方圖。根據(jù)直方圖形狀可以看出其分布接近零均值GGD函數(shù)密度分布曲線(xiàn),在之間基本滿(mǎn)足對(duì)稱(chēng)分布,符合GGD模型,但是在之外能夠稍微顯現(xiàn)分布不對(duì)稱(chēng)情況。

圖1(c)和(d)繪制的是來(lái)自Brodatz紋理圖像庫(kù)的D55.gif紋理圖像以及該圖像的雙樹(shù)復(fù)數(shù)小波子帶系數(shù)直方圖。從這幅紋理圖像的小波域系數(shù)統(tǒng)計(jì)直方圖就可以很明顯地看出分布的不完全對(duì)稱(chēng)情況,以零均值為中心,在負(fù)數(shù)域的系數(shù)密度分布明顯大于在正數(shù)域的密度分布。

圖1 Brodatz紋理圖像以及雙樹(shù)復(fù)數(shù)小波系數(shù)直方圖

雙樹(shù)復(fù)數(shù)小波變換與一般實(shí)數(shù)小波變換類(lèi)似,得到的系數(shù)矩陣中,大部分系數(shù)分布于零域附近,但部分紋理圖像存在上述不完全對(duì)稱(chēng)問(wèn)題,因此本文引入了雙廣義高斯混合模型,在負(fù)數(shù)域和正數(shù)域分別進(jìn)行擬合廣義高斯分布函數(shù)。

雙廣義高斯混合模型具體建模如下:

(1)依據(jù)DT-CWT原理,對(duì)圖像進(jìn)行多層小波變換,提取每幅圖像的雙樹(shù)復(fù)數(shù)小波各子帶系數(shù);

(2)采用矩陣分解的方法將子帶系數(shù)矩陣進(jìn)行正負(fù)系數(shù)分離,即=+,其中是原系數(shù)矩陣,是正數(shù)部分,是負(fù)數(shù)部分;

(3)將兩個(gè)分解后的系數(shù)矩陣重構(gòu)為對(duì)稱(chēng)分布,和-組合,和-組合,形成了兩個(gè)標(biāo)準(zhǔn)對(duì)稱(chēng)分布,分別采用廣義高斯擬合系數(shù)密度分布函數(shù)。

3 參數(shù)估計(jì)

廣義高斯密度函數(shù)的尺度參數(shù)和形狀參數(shù)的估計(jì)算法復(fù)雜性導(dǎo)致其在實(shí)際應(yīng)用中的局限性問(wèn)題,典型的估計(jì)方法有3種:矩估計(jì)法、熵匹配法和最大似然(ML)估計(jì)法,其中最大似然估計(jì)法相對(duì)較好,但是由于反函數(shù)的解析式很難求得,需要迭代計(jì)算,計(jì)算效率很低。本文借助基于反函數(shù)曲線(xiàn)擬合的GGD形狀參數(shù)和尺度參數(shù)方法[18],使算法效率大大提高。由于GGD對(duì)稱(chēng)分布,其一階原點(diǎn)矩為零,故采用絕對(duì)矩方法對(duì)參數(shù)估計(jì)推導(dǎo)得到:

采用曲線(xiàn)函數(shù)擬合的反函數(shù)快速估計(jì)雙廣義高斯分布模型中形狀參數(shù)和尺度參數(shù),實(shí)驗(yàn)證明在不影響參數(shù)估計(jì)精度的條件下,大大提高了檢索的效率,同時(shí)降低了時(shí)間復(fù)雜度。

4 基于FS-DS特征融合的紋理圖像檢索方法

文獻(xiàn)[19]提出了基于模糊集合和證據(jù)理論(FS- DS)信息融合方法,利用模糊集合理論中的隸屬函數(shù)獲得各信息源的局部決策,并采用“決策距離”的概念對(duì)各個(gè)信息源的一致性進(jìn)行檢驗(yàn)。該方法利用模糊集合理論隸屬度函數(shù)范圍的優(yōu)點(diǎn),以模糊置信距離測(cè)度的大小表示數(shù)據(jù)之間的相互支持程度,解決了支持概率的絕對(duì)化問(wèn)題。該方法定義不確定信息的模糊支持概率,由隸屬函數(shù)得到各個(gè)信息源的可信度,對(duì)各個(gè)信息源的信任程度進(jìn)行量化處理,利用上述結(jié)果的得到證據(jù)理論中的mass函數(shù),最后利用D-S準(zhǔn)則對(duì)多信息源進(jìn)行融合,使融合結(jié)果更加準(zhǔn)確、可信。

針對(duì)雙樹(shù)復(fù)數(shù)小波變換的各子帶系數(shù)的統(tǒng)計(jì)特征,同一幅圖像各子帶之間存在不完全獨(dú)立,同樣也不完全沖突,所以采用模糊集合和證據(jù)理論(FS- DS)[19]方法能有效地融合各子帶特性。在經(jīng)過(guò)雙樹(shù)復(fù)數(shù)小波變換的統(tǒng)計(jì)特征時(shí),利用DT-CWT變換對(duì)圖像進(jìn)行分解生成多分辨率圖像,在每個(gè)分辨率尺度上的圖像被分解成8個(gè)子帶圖像,其中2個(gè)為低通濾波子圖像,6個(gè)為高通濾波子圖像。低頻信息反映了紋理的基本信息,高頻信息反映了紋理的細(xì)節(jié)信息。

由于各子帶系數(shù)之間的不確定關(guān)系,所以各子帶中包含的紋理信息也有所不同,為了能客觀衡量各自在紋理信息描述中的分量,采用模糊集合理論進(jìn)行計(jì)算。首先為了各子帶系數(shù)在同分布下進(jìn)行比較,進(jìn)行歸一化處理:

根據(jù)公式:

其次對(duì)查詢(xún)圖像和候選圖像的個(gè)子帶系數(shù)Dual-GGD分布的參數(shù),構(gòu)造個(gè)信任函數(shù),利用文獻(xiàn)[15]提出的SKLD公式推導(dǎo)方法構(gòu)造信任函數(shù):

構(gòu)造信任函數(shù)如下:

綜上所述,基于雙廣義高斯模型和多尺度融合的紋理圖像檢索方法的算法步驟描述如下:

步驟1 隨機(jī)地從測(cè)試圖像庫(kù)中抽取查詢(xún)的紋理圖像樣本,進(jìn)行檢索實(shí)驗(yàn);

步驟2 圖像經(jīng)過(guò)雙樹(shù)小波變換得到各子帶系數(shù)矩陣,根據(jù)系數(shù)分布關(guān)于零點(diǎn)的不完全對(duì)稱(chēng)情況,零作為分布的界點(diǎn),可以采用矩陣分解實(shí)現(xiàn)正負(fù)系數(shù)分離;

步驟3 對(duì)各子帶系數(shù)矩陣進(jìn)行建模,采用反函數(shù)曲線(xiàn)擬合的方法求取對(duì)應(yīng)的雙廣義高斯模型的參數(shù);

步驟4 對(duì)查詢(xún)圖像與測(cè)試圖像庫(kù)圖像子帶系數(shù)分別進(jìn)行歸一化,通過(guò)模糊集合理論計(jì)算各子帶之間的置信距離測(cè)度,即相互支持程度,確定各子帶先后融合次序;

步驟5 將SKLD公式計(jì)算結(jié)果作為各子帶對(duì)應(yīng)的信任函數(shù)值,根據(jù)步驟4中的順序依次融合各子帶的信任函數(shù)值。其最終結(jié)果為相似度度量值并進(jìn)行排序,輸出前個(gè)最高相似度圖像。

5 實(shí)驗(yàn)結(jié)果與分析

在測(cè)試紋理圖像檢索實(shí)驗(yàn)時(shí),一個(gè)查詢(xún)的紋理圖像樣本應(yīng)該是隨機(jī)的從測(cè)試圖像庫(kù)中選取,檢索結(jié)果根據(jù)最終相似性從大到小依次排列。本文將評(píng)估檢索性能的平均檢索率(),其計(jì)算公式如式(14):

5.1 基于DT-CWT系數(shù)的雙廣義高斯模型

提取圖像的紋理特征,在多尺度變換域,準(zhǔn)確有效地提取各子帶的統(tǒng)計(jì)分布特征是非常重要的。通過(guò)觀察系數(shù)矩陣密度函數(shù)分布直方圖,針對(duì)紋理圖像系數(shù)矩陣密度分布不嚴(yán)格對(duì)稱(chēng)問(wèn)題,本文提出了基于雙廣義高斯混合模型(Dual-GGD)提取紋理特征。

在GGD參數(shù)估計(jì)中,文獻(xiàn)[11]采用Newton- Raphson迭代的方式作為參數(shù)估計(jì)的方法,但精度存在問(wèn)題。文獻(xiàn)[21]提出最大似然估計(jì)方法(ML)中,同樣采用Newton-Raphson迭代方法估計(jì)形狀參數(shù),的初始值由偏度查詢(xún)表獲得,這種方法能夠有效地估計(jì)分布參數(shù),但迭代算法運(yùn)算時(shí)間復(fù)雜度與收斂性密切相關(guān),一般都較耗費(fèi)時(shí)間。除此之外,如圖2所示,該直方圖是Brodatz紋理圖像庫(kù)的D18.gif小波域系數(shù)分布直方圖,采用這種方法不能對(duì)有些子類(lèi)圖像準(zhǔn)確建模,產(chǎn)生此問(wèn)題的原因是由于Newton-Raphson迭代方法對(duì)初始值選取要求較高,只有當(dāng)所選的初始值和真實(shí)值相接近時(shí),估計(jì)的結(jié)果才相對(duì)準(zhǔn)確。

根據(jù)圖1中顯示的兩張來(lái)自Brodatz紋理圖像庫(kù)的D26.gif和D55.gif紋理圖像,并與單廣義高斯模型曲線(xiàn)進(jìn)行比較。具體實(shí)驗(yàn)如下:采用DT-CWT原理,對(duì)圖像進(jìn)行雙樹(shù)復(fù)數(shù)小波變換,提取每幅圖像的各子帶系數(shù),通過(guò)統(tǒng)計(jì)子帶系數(shù)分布直方圖近似代替小波系數(shù)概率分布函數(shù),檢驗(yàn)概率分布曲線(xiàn)是否近似雙廣義高斯分布模型,并且與單廣義高斯密度分布函數(shù)曲線(xiàn)作比較。模擬的實(shí)驗(yàn)結(jié)果如圖3,圖4,圖5所示。

通過(guò)對(duì)圖3和圖4實(shí)驗(yàn)結(jié)果分析,GGD和Dual- GGD實(shí)驗(yàn)結(jié)果中函數(shù)曲線(xiàn)差異較小,原因在于原圖的小波域系數(shù)基本符合對(duì)稱(chēng)分布,所以差異不大。但是從圖5來(lái)自Brodatz紋理圖像庫(kù)的D55.gif的擬合曲線(xiàn)存在較為明顯的左右差異,位于零界點(diǎn)左邊分布密度略大,正如圖1(d)所示。綜上通過(guò)對(duì)實(shí)驗(yàn)結(jié)果的分析,雙廣義高斯混合模型能夠克服紋理圖像小波域系數(shù)分布不對(duì)稱(chēng)情況,合理描述圖像內(nèi)容信息,充分地刻畫(huà)紋理特征。

5.2 基于FS-DS特征融合的紋理圖像檢索

在多尺度變換域,低頻信息反映了紋理的基本信息,但是高頻子帶的統(tǒng)計(jì)分布特征對(duì)于描述圖像的紋理信息也非常重要。為此本文根據(jù)各子帶系數(shù)之間存在的不確定關(guān)系,在紋理圖像檢索時(shí),利用模糊集合和證據(jù)理論(FS-DS)的方法融合各子帶系數(shù)紋理特征,求得綜合相似程度,彌補(bǔ)假定各細(xì)節(jié)子帶是獨(dú)立同分布所帶來(lái)的偏差,與距離直和法(the sum of distance)進(jìn)行對(duì)比實(shí)驗(yàn)。

為了便于比較,在下面的檢索試驗(yàn)中都采用對(duì)稱(chēng)KL距離(Symmetrized Kullback-Leibler Distance, SKLD)[15],目的是為了實(shí)現(xiàn)兩個(gè)圖像的統(tǒng)計(jì)模型差異的更均衡測(cè)量。實(shí)驗(yàn)結(jié)果如圖6所示,圖6(a)中,橫坐標(biāo)表示單尺度分解下各方向子帶的數(shù)量,其中“1”表示的方向自帶數(shù)為2,“2”表示方向子帶數(shù)為6,“3”表示的方向子帶數(shù)為8;圖6(b)中,橫坐標(biāo)表示3個(gè)尺度分解下各方向子帶的數(shù)量,其中“1”表示的方向子帶數(shù)排列為(2,2,2),“2”表示的方向子帶數(shù)為(2,2,6),“3”表示方向子帶數(shù)為(2,6,6),“4”表示方向子帶數(shù)為(2,6,8),下文的實(shí)驗(yàn)結(jié)果顯示均采用此標(biāo)注方法。實(shí)驗(yàn)結(jié)果說(shuō)明,采用本文的融合各子帶信息可以較好地改善紋理圖像檢索的性能。

本文提出的基于雙廣義高斯模型和多尺度紋理圖像檢索方法的性能也和其他的檢索方法進(jìn)行了對(duì)比。實(shí)驗(yàn)結(jié)果如圖7所示。能量方法(Energy)采用的特征是子帶系數(shù)的均值和方差,相似性度量采用歸一化歐氏距離[22];廣義伽馬分布方法(Generalized Gamma Density (Gamma))采用的基于廣義伽馬模型統(tǒng)計(jì)小波域系數(shù)特征[14];廣義高斯分布方法(Generalized Gaussian Density(Gauss))方法采用的是單廣義高斯模型統(tǒng)計(jì)子帶系數(shù)特征[23];WD方法采用的特征為子帶系數(shù)的Welbull分布參數(shù);它們的相似性度量均采用SKLD方法,F(xiàn)S-DS是本文的設(shè)計(jì)的檢索方法。根據(jù)實(shí)驗(yàn)結(jié)果圖7所示,本文算法具有較好的檢索性能。此外,表1所示的是典型的3層分解(4,8,8)情況下各種紋理圖像檢索方法的實(shí)驗(yàn)結(jié)果,其中包含本文檢索結(jié)果還和其他方法(即Kwitt方法[21]和Gabor方法)的結(jié)果進(jìn)行了對(duì)比,這些方法采用了和本文相同的檢索性能的評(píng)價(jià)標(biāo)準(zhǔn)。

圖2 兩種參數(shù)估計(jì)方法的擬合性能比較

圖3 D26.gif的GGD擬合曲線(xiàn)?????圖4 D26.gif的Dual-GGD擬合曲線(xiàn)?????圖5 D55.gif的曲線(xiàn)擬合

圖6 不同子帶間信息融合方法檢索性能比較

圖7 不同方法下的檢索性能比較

Gabor變換在特征提取需要較高的運(yùn)算復(fù)雜度,并且傳統(tǒng)的小波變換方法具有平移不變性性和弱的方向選擇性等缺點(diǎn)。基于以上的問(wèn)題,本文引入了雙樹(shù)復(fù)數(shù)小波變換(DT-CWT),根據(jù)文獻(xiàn)[9]有效地提高了檢索圖像的方向選擇性和旋轉(zhuǎn)不變性的特點(diǎn)。通過(guò)表1結(jié)果顯示,采用FS-DS融合雙樹(shù)復(fù)數(shù)小波變換域各子帶系數(shù)特征進(jìn)行檢索的性能明顯提高,主要是本文算法提取了更加豐富的紋理特征信息,并且有效地融合了各子帶之間對(duì)檢索決策的不確定關(guān)系。

表1基于Brodatz紋理庫(kù)的檢索性能比較

方法FS-DSGammaGaussWDEnergyKwittGabor 平均檢索率(%)82.2479.2179.5077.9875.7080.2174.37

為了進(jìn)一步客觀地評(píng)價(jià)本文算法的實(shí)用性和有效性,對(duì)彩色紋理圖像進(jìn)行對(duì)比實(shí)驗(yàn)。由于彩色圖像屬于多通道圖像,首先需要進(jìn)行通道分離,直接采用RGB 3通道轉(zhuǎn)化為灰度紋理圖像。本文挑選多組彩色紋理圖像,分為28個(gè)類(lèi)別,每組由20多幅相似紋理圖像構(gòu)成的彩色紋理圖像的實(shí)驗(yàn)庫(kù)。隨機(jī)的從測(cè)試圖像庫(kù)中選取一個(gè)查詢(xún)圖像,進(jìn)行紋理檢索實(shí)驗(yàn)。其實(shí)驗(yàn)結(jié)果依次顯示前個(gè)相似圖像紋理圖像,為了避免偶然性,同上述方法,并通過(guò)多次重復(fù)試驗(yàn)得到平均檢索率。在相同的實(shí)驗(yàn)環(huán)境下,與其它檢索算法進(jìn)行比較。

表2所示的是在彩色紋理圖像RGB 3通道分解下的各種紋理圖像檢索方法的實(shí)驗(yàn)結(jié)果,其中包含本文檢索結(jié)果還和其他方法(即Gamma, Gauss, WD, Energy, Kwitt和Gabor方法)的結(jié)果進(jìn)行了對(duì)比,這些方法采用了和本文相同的檢索性能的評(píng)價(jià)標(biāo)準(zhǔn)。

通過(guò)實(shí)驗(yàn)數(shù)據(jù)分析,在彩色紋理圖像檢索中,Gamma法和Gauss法相比其他方法有一定程度的提高,但本文方法具有更高效的檢索性能,在平均檢索率上均有3%~5%不同程度的提高。除此之外,彩色紋理圖像相對(duì)于單通道灰度紋理圖像具有更加豐富圖像內(nèi)容信息,平均檢索率的精度也略有增加。綜上所述,本文方法在彩色紋理圖像檢索應(yīng)用中同樣具有良好的檢索性能。

6 結(jié)論

本文提出一種基于雙廣義高斯模型和多尺度融合紋理圖像檢索算法。通過(guò)實(shí)驗(yàn)結(jié)果表明:在雙樹(shù)復(fù)數(shù)小波變換下,采用雙高斯混合模型有效地保證了小波域系數(shù)密度分布不完全對(duì)稱(chēng)的情況,而且采取曲線(xiàn)擬合的參數(shù)估計(jì)方法,有效地保證了估計(jì)算法的效率。此外,本文還提供了通過(guò)模糊集合和證據(jù)理論(FS-DS)的方法融合各子帶系數(shù)之間的不確定關(guān)系,改善了檢索精度。與目前多種方法進(jìn)行對(duì)比實(shí)驗(yàn),本文算法充分利用了所有細(xì)節(jié)子帶的信息,以及有效融合各尺度子帶系數(shù)特征,多尺度融合更好地刻畫(huà)了紋理圖像的特征,增強(qiáng)了紋理圖像的區(qū)分能力,有效地改善了檢索性能。

表2基于彩色紋理庫(kù)的平均檢索率比較

方法FS-DSGammaGaussWDEnergyKwittGabor 平均檢索率(%)86.1780.7683.4380.5074.6481.1976.15

[1] GUO Jingming and PRASETYO H. Content-based image retrieval using features extracted from halftoning-based block truncation coding[J]., 2015, 24(3): 1010-1024. doi: 10.1109/TIP.2014. 2372619.

[2] GUO Xian, HUANG Xin, and ZHANG Liangpei. Three- dimensional wavelet texture feature extraction and classification for multi/hyperspectral imagery[J]., 2014, 11(12): 2183-2187. doi: 10.1109/LGRS.2014.2323963.

[3] HONG Xiaopeng, ZHAO Guoying, PIETIKAINEN M,Combining LBP difference and feature correlation for texture description[J].,2014, 23(6):2557-2568. doi: 10.1109/TIP.2014.2316640.

[4] ARASHLOO S R and KITTLER J. Dynamic texture recognition using multiscale binarized statistical image features[J].,2014, 16(8): 2099-2109. doi: 10.1109/TMM.2014.2362855.

[5] HARALICK R M, SHANMUGAM K, and DINSTEIND I. Texture feature for image classification[J].,,, 1973, 3(6): 610-621.

[6] LI Chaorong, DUAN Guiduo, and ZHONG Fujin. Rotation invariant texture retrieval considering the scale dependence of Gabor wavelet[J]., 2015, 24(8): 2344-2354. doi: 10.1109/TIP.2015.2422575.

[7] RIAZ F, HASSAN A, REHAN S,Texture classification using rotation- and scale-invariant Gabor texture features[J]., 2013, 20(6): 607-610. doi: 10.1109/LSP.2013.2259622.

[8] SCHARFENBERGER C, WONG A, and DAVID A. Clausi. Structure-guided statistical textural distinctiveness for salient region detection in natural images[J].,2015, 24(1): 457-470. doi: 10.1109/TIP.2014.2380351.

[9] KINGABURY N. Complex wavelets for shift inavriant analysis and filtering of Signals[J]., 2001, 10(3): 234-253.

[10] ANANTRASIRICHAI N, BURN J, and BULL D R. Robust texture features based on undecimated dual-tree complexwavelets and local magnitude binary patterns[C]. 2015 IEEE International Conference on Image Processing (ICIP), Québec, 2015: 3957-3961.

[11] DO M N and VETTLI M. Wavelet-based texture retrieval using generalized gaussian density and kullbackleiber distance[J]., 2002, 11(2): 146-158. doi: 10.1109/83.982822.

[12] LASMAR N E and BERTHOUMIEU Y. Gaussian copula multivariate modeling for texture image retrieval using wavelet transforms[J]., 2014, 23(5): 2246-2261. doi: 10.1109/TIP.2014. 2313232.

[13] ARANI M N and ZHANG Xiaoping.Generalized Gaussian mixture conditional random field model for image labeling[C]. 2014 IEEE Global Conference on, Signal and Information Processing (GlobalSIP), Atlanta GA, 2014: 1068-1072.

[14] ALLILI M S, BAAZIZ N, and MEJRI M. Texture modeling using contourlets and finite mixtures of generalized Gaussian distributions and applications[J]., 2014, 16(3): 772-784.doi: 10.1109/TMM.2014. 2298832.

[15] CHOY S K and TONG C S. Statistical wavelet subband characterization based on generalized Gamma density and its application in texture retrieval[J]., 2010, 19(2): 281-289. doi: 10.1109/TIP. 2009.2033400.

[16] KWITT R, MEERWALD P, and UHL A. Efficient texture image retrieval using copulas in a Bayesian framework[J]., 2011, 20(7): 2063-2077. doi: 10.1109/TIP.2011.2108663.

[17] COMBREXELLE S, WENDT H, DOBIGEON N,Bayesian estimation of the multifractality parameter for image texture using a whittle approximation[J]., 2015, 24(8): 2540-2551. doi: 10.1109/TIP.2015.2426021.

[18] WANG Taiyue, LI Hongwei, LI Zhiming,A fast parameter estimation of generalized Gaussian distribution[C]. 2006 8th International Conference on Signal Processing, Beijing, 2006, 1: 1-4. doi: 10.1109/ICOSP.2006.345546.

[19] 韓峰, 楊萬(wàn)海, 袁曉光. 基于模糊集合的證據(jù)理論信息融合方法[J]. 控制與決策, 2010, 25(3): 449-452. doi: 10.13195/j.cd. 2010.03.132.hanf.023.

HAN Feng, YANG Wanhai, and YUAN Xiaoguang. Evidence theory information fusion method based on fuzzy set[J]., 2010, 25(3): 449-452. doi: 10.13195/ j.cd.2010.03.132.hanf.023.

[20] DANIEL C. On the solution of linear differential equations with singular coefficients[J]., 1982, 46(2): 310-323.

[21] KWITT R and UHL A. Lightweight probabilistic texture retrieval[J], 2010, 19(1): 241-253.doi: 10.1109/TIP.2009.2032313.

[22] MANJUNATH B S and MA W Y. Texture feature features for browsing and retrieval of image data[J]., 1996, 18(8): 837-842. doi: 10.1109/34.531803.

[23] QU H J, PENG Y H, and SUN W F. Texture image retrival based on Contourlet coefficient modeling with generalized Gaussian distribution[J]., 2007, 4683: 493-502.

Texture Image Retrieval Method Based on Dual-generalized Gaussian Model and Multi-scale Fusion

YANG Juan LI Yongfu WANG Ronggui XUE Lixia ZHANG Qingyang

(,,230009,)

Texture factor is one of the most important characteristics in the image description. In order to describe the texture feature accurately, and enhance image distinguish ability, a method of texture image retrieval is proposed based on Dual-Tree Complex Wavelet Transform (DT-CWT) in this paper. Firstly, each sub-band coefficient is obtained by DT-CWT, because the coefficient distribution exists slight incomplete symmetrical feature, which is modeled as dual-generalized Gaussian model. Secondly, there is incomplete independent anduncertain conflict between the sub-band coefficients, therefore the Fuzzy Set and Dempster-Shafer (FS-DS) evidence theory are applied to blending the characteristics of each subband coefficients. The performance of the propose algorithm is tested on the Brodatz and color texture image library, and also compared with a variety of statistical modeling methods. The experimental results demonstrate that the proposed method can improve the average retrieval rate of the texture images effectively.

Texture image retrieval; Dual tree complex wavelet; Dual-generalized Gaussian distribution; Fuzzy set; Evidence theory

TP391.4

A

1009-5896(2016)11-2856-08

10.11999/JEIT160181

2016-03-01;改回日期:2016-07-01;

2016-09-08

薛麗霞 xlxzzm@163.com

中國(guó)博士后基金(2014M561817),安徽省自然科學(xué)基金(J2014AKZR0055)

China Postdoctoral Fund (2014M561817), The Natural Science Foundation of Anhui Province (J2014AKZR 0055)

楊 娟: 女,1983年生,講師,研究方向?yàn)橐曨l信息處理、視頻大數(shù)據(jù)處理技術(shù)等.

李永福: 男,1991年生,碩士生,研究方向?yàn)閳D形圖像處理與計(jì)算機(jī)視覺(jué).

汪榮貴: 男,1966年生,教授,研究方向?yàn)橹悄芤曨l處理與分析、視頻大數(shù)據(jù)與云計(jì)算等.

薛麗霞: 女,1976年生,副教授,研究方向?yàn)橐曨l大數(shù)據(jù)檢索與分析.

張清楊: 男,1990年生,博士生,研究方向?yàn)閮?yōu)化分析處理.

猜你喜歡
方法模型
一半模型
重要模型『一線(xiàn)三等角』
重尾非線(xiàn)性自回歸模型自加權(quán)M-估計(jì)的漸近分布
學(xué)習(xí)方法
3D打印中的模型分割與打包
用對(duì)方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢(qián)方法
捕魚(yú)
主站蜘蛛池模板: 亚洲最大在线观看| 国产一级精品毛片基地| 色婷婷亚洲综合五月| 欧美一级色视频| 欧美色综合久久| 国产99视频精品免费视频7| 亚洲人成网18禁| 国产精品欧美激情| 亚洲一本大道在线| 中文一级毛片| 午夜国产精品视频黄| 亚洲国产中文精品va在线播放 | 黄色a一级视频| 呦系列视频一区二区三区| 亚洲免费人成影院| 久久狠狠色噜噜狠狠狠狠97视色 | 992tv国产人成在线观看| 中文字幕永久在线观看| 女人18一级毛片免费观看| 精品视频一区二区三区在线播| 2020精品极品国产色在线观看 | 久久精品最新免费国产成人| 国产欧美日韩18| 亚洲欧美在线综合图区| 欧美一级高清片欧美国产欧美| 九色91在线视频| 国产女人在线观看| 91成人在线免费视频| 国产精品视频3p| 色综合中文综合网| 99国产精品免费观看视频| 少妇极品熟妇人妻专区视频| 国产精品熟女亚洲AV麻豆| 成人国产精品2021| 欧美一区二区啪啪| 国产精品不卡永久免费| 韩国v欧美v亚洲v日本v| 中国国语毛片免费观看视频| 亚洲日韩AV无码一区二区三区人 | 久青草免费在线视频| 国产成人高清精品免费| 天堂网亚洲系列亚洲系列| 国产69囗曝护士吞精在线视频| 美女无遮挡免费视频网站| 免费观看成人久久网免费观看| 国产网友愉拍精品| 77777亚洲午夜久久多人| 亚洲一区色| 永久在线播放| 日本午夜视频在线观看| 亚洲中文字幕97久久精品少妇| 国内精自视频品线一二区| 国产欧美日韩资源在线观看 | 91 九色视频丝袜| 91成人免费观看在线观看| 日韩视频福利| 2020国产免费久久精品99| 精品亚洲国产成人AV| 无码高清专区| 亚洲综合九九| 91久久国产成人免费观看| 亚洲综合一区国产精品| 成人国产小视频| 国产91特黄特色A级毛片| 亚洲爱婷婷色69堂| 亚洲欧美日韩成人高清在线一区| 无码人妻免费| 99re热精品视频中文字幕不卡| 伊人久久青草青青综合| 欧美日韩中文国产| 日韩精品欧美国产在线| 91av国产在线| 在线va视频| AV不卡无码免费一区二区三区| 蜜臀AVWWW国产天堂| 精品福利一区二区免费视频| 丰满人妻久久中文字幕| 精品久久久久久中文字幕女| 日韩成人午夜| 亚洲婷婷在线视频| 无码在线激情片| 人人澡人人爽欧美一区|