999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于最大特征點(diǎn)對(duì)互信息的圖像配準(zhǔn)

2008-01-01 00:00:00廖勇軍張小洪

摘要:定義了局部特征點(diǎn)對(duì)互信息量,并在兩個(gè)合理的假設(shè)下提出了基于最大特征點(diǎn)對(duì)互信息量的一種新的圖像配準(zhǔn)方法。該方法包含了兩個(gè)搜索過程:第一個(gè)過程是基于特征點(diǎn)對(duì)的全局搜索過程,該過程得到初始匹配點(diǎn)對(duì);第二個(gè)過程是在初始匹配點(diǎn)對(duì)的鄰域內(nèi)利用互信息基本性質(zhì)的局部搜索,該過程可以進(jìn)一步提高匹配點(diǎn)對(duì)的精度。全局搜索過程能夠提高搜索效率,而局部搜索又可以克服依賴于準(zhǔn)確提取特征點(diǎn)的不足。最后通過理論分析和實(shí)驗(yàn)證明了所提出方法的有效性。

關(guān)鍵詞:互信息; 特征點(diǎn)對(duì); 圖像配準(zhǔn)

中圖分類號(hào):TP391文獻(xiàn)標(biāo)志碼:A

文章編號(hào):1001-3695(2008)03-0939-03

基于互信息量的全局圖像配準(zhǔn)方法吸引了許多研究者的興趣,目前已成為計(jì)算機(jī)視覺和圖像處理的研究熱點(diǎn)[1]。該方法引入了聯(lián)合熵、相對(duì)熵和互信息等信息論的概念,而且是基于圖像中所有像素的配準(zhǔn)方法,無須對(duì)圖像作預(yù)處理,所以不但其自動(dòng)化程度高,而且精度高,可達(dá)到亞像素級(jí)[2,3]。但是,當(dāng)圖像受噪聲、低采樣、變形等因素影響時(shí),將導(dǎo)致誤匹配魯棒性問題[4]。這些魯棒性問題使得互信息量的目標(biāo)函數(shù)存在大量局部極值,從而使優(yōu)化過程可能收斂到局部極值點(diǎn);另一方面,基于幾何特征的圖像配準(zhǔn)也是一種重要的圖像配準(zhǔn)方法,該方法通過提取圖像的幾何特征,如對(duì)應(yīng)的特征點(diǎn)、邊界、表面等,建立基于這些幾何特征的目標(biāo)函數(shù),并通過最優(yōu)化搜索技術(shù)得到配準(zhǔn)參數(shù)。然而該方法依賴于特征點(diǎn)的準(zhǔn)確提取,也受噪聲的影響,使得優(yōu)化過程極易陷入局部極值[5]。

為了尋找圖像間更加穩(wěn)定的相似性測(cè)度來改善各種圖像配準(zhǔn)方法的穩(wěn)定性,以克服圖像配準(zhǔn)存在的魯棒性問題,將幾何特征和像素相似性的方法相結(jié)合,實(shí)現(xiàn)兩者優(yōu)勢(shì)互補(bǔ),是一種有效和可行的思路。雖然,文獻(xiàn)[4]利用圖像的梯度信息提出了融合傳統(tǒng)互信息和梯度場(chǎng)相似測(cè)度的方法,文獻(xiàn)[6]提出了基于形狀最大互信息的圖像配準(zhǔn)方法,但并沒有從本質(zhì)上改變沿x、y、θ方向搜索得到最大互信息量。另外,在文獻(xiàn)[7,8]中利用特征點(diǎn)和互相關(guān)、對(duì)齊度等方法有效地實(shí)現(xiàn)了圖像匹配,但這些方法依賴于特征點(diǎn)的準(zhǔn)確提取。本文基于以上方法的不足,在定義圖像特征點(diǎn)對(duì)互信息的基礎(chǔ)上,提出了基于特征點(diǎn)對(duì)互信息的匹配準(zhǔn)則。該方法有兩個(gè)過程:a)把基于x、y、θ等多個(gè)方向的搜索變成了基于特征點(diǎn)對(duì)的全局搜索,得到初始匹配點(diǎn)對(duì);b)利用互信息的性質(zhì),在初始匹配特征點(diǎn)的局部范圍內(nèi)搜索,以提高初始匹配點(diǎn)的定位精度。這樣,全局搜索過程由于避免了x、y、θ等多個(gè)方向的搜索,從而可以提高搜索效率;同時(shí),局部搜索又可以克服依賴于特征點(diǎn)準(zhǔn)確提取的局限性,使得所提出的方法更加有效。最后,本文不但從大量的實(shí)驗(yàn)及其對(duì)比來驗(yàn)證了方法的有效性,而且還從理論分析的角度來證明所提出方法的正確性和合理性。

1基于互信息量的圖像配準(zhǔn)原理

設(shè)兩幅圖像A、B為兩個(gè)隨機(jī)變量,pAB(a,b)是圖像A、B的灰度聯(lián)合概率密度分布,pA(a)和pB(b)

是A、B的灰度邊緣概率密度分布。根據(jù)隨機(jī)變量的性質(zhì),如果A、B相互獨(dú)立,那么pAB(a,b)=pA(a)pB(b);如果A、B完全相關(guān),那么pAB(a,b)=pA(a)=pB(b)。隨機(jī)變量A、B的互信息量描述了兩個(gè)隨機(jī)變量A、B之間的統(tǒng)計(jì)相關(guān)性,即一個(gè)隨機(jī)變量中所包含的另一個(gè)隨機(jī)變量中信息的量,度量了兩個(gè)隨機(jī)變量A、B之間的相關(guān)性與獨(dú)立不相關(guān)的程度。如果使用Kullback Leibler測(cè)度,隨機(jī)變量A、B的互信息量可表示為

根據(jù)式(4),當(dāng)兩幅圖像配準(zhǔn)時(shí),它們的空間位置將達(dá)到一致,使得圖像之間的相關(guān)性最大,灰度聯(lián)合概率密度分布pAB(a,b)最集中,圖像之間的聯(lián)合信息量H(A,B)最小,即這兩幅圖像的互信息應(yīng)為最大。由此可見,基于互信息量測(cè)度下的圖像配準(zhǔn)可以表示為

值得注意的是:雖然互信息量反映了當(dāng)前位置下待配準(zhǔn)圖像之間的相關(guān)性,但為了獲得圖像之間的變換關(guān)系f,需要從x、y、θ等多個(gè)方向進(jìn)行搜索,從而使得計(jì)算量非常大。同時(shí),當(dāng)圖像噪聲較大,待匹配圖像所包含的有效信息較少時(shí),可能使互信息函數(shù)收斂到局部極值點(diǎn)。正是基于這些問題的考慮,本文把特征點(diǎn)和互信息有效地結(jié)合,建立了一種新的匹配準(zhǔn)則,從而可以有效地避免上述問題。

2特征點(diǎn)對(duì)互信息及其配準(zhǔn)準(zhǔn)則

一般地,設(shè)待配準(zhǔn)圖像A和B提取出來的特征點(diǎn)集為PA={pi=(pix,piy,θpi)t}i=1,2,…,N1和PB={qj=(qjx,qjy,θqj)t}j=1,2,…,N2。其中θpi和θqj分別是點(diǎn)pi和qj的方向。如圖1(a)和(b)所示,設(shè)(pi,θi)和(qj,θj)分別是參考圖像A和待匹配圖像B的任意特征點(diǎn),θi和θj分別是圖像特征點(diǎn)的輻角,而Δθi, j=θi-θj是其輻角之差,表示了圖像A與B之間的旋轉(zhuǎn)角度。(pi,qj,Δθi, j)(i=1,…,n; j=1,…,m)是圖像A和B的特征點(diǎn)對(duì)集合中任意兩個(gè)特征點(diǎn)的互信息,定義為

I(A, fpi,qj,Δθi, j(B))=H(A)+

H(fpi,qj,Δθi, j(B))-H(A, fpi,qj,Δθi, j(B))(6)

其意義如圖1(c)所示。把圖像B旋轉(zhuǎn)Δθi, j度,然后圖像B平移到A之上,使pi和qj重合,這時(shí)圖像A和B的互信息就是特征點(diǎn)對(duì)(pi,θi)和(qj,θj)的互信息。

(a) 參考圖像(b) 待匹配圖像(c) 基于特征點(diǎn)對(duì)的計(jì)算互信息

在大量的實(shí)驗(yàn)中筆者發(fā)現(xiàn),在兩幅具有相關(guān)性的圖像中,通過特征點(diǎn)的選取,可以使得下面的假設(shè)成立。

假設(shè)1設(shè)pi(i=1,2,…,n)和qj(j=1,2,…,m)分別是具有相關(guān)性的圖像A、B的特征點(diǎn)集,Δθi, j是任意兩個(gè)特征點(diǎn)對(duì)的角度之差,那么在(pi,qj,Δθi, j)(i=1,…,n; j=1,…,m)中,至少存在一對(duì)對(duì)應(yīng)的匹配點(diǎn)對(duì)(p,q,Δθ)。

通過大量的實(shí)驗(yàn)證明了如下事實(shí):對(duì)任意一對(duì)匹配點(diǎn),隨著平移的增大,其互信息量將迅速遞減。實(shí)際上,互信息量的含義也反映了這個(gè)事實(shí)。圖2(a)是實(shí)驗(yàn)結(jié)果圖3(a)匹配點(diǎn){(45,205),(94,167)}中的特征點(diǎn)(45,205)與特征點(diǎn)(94,167)的10×10鄰域的點(diǎn)集互信息;圖2(b)是實(shí)驗(yàn)結(jié)果圖3(b) 匹配點(diǎn){(45,205),(94,167)}中特征點(diǎn)(45,205)與特征點(diǎn)(94,167)的10×10鄰域的點(diǎn)集互信息。因此,可以提出假設(shè)2。

圖2基于匹配點(diǎn)對(duì)的10×10鄰域的互信息變化

假設(shè)2設(shè){p,q}是匹配點(diǎn)對(duì),而{p,q}是非匹配點(diǎn)對(duì),那么匹配點(diǎn)互信息大于非匹配點(diǎn)互信息,即I(A, fp,q,Δθ(B))>I(A,fp,q,Δθ(B))。

基于假設(shè)1和2,可以提出基于特征點(diǎn)互信息量測(cè)度下的圖像配準(zhǔn)的匹配準(zhǔn)則:

fp,q,Δθ=arg maxi, j I(A, fpi,qj,Δθi, j(B))(7)

注:a)在式(6)中引入了特征點(diǎn)信息,擴(kuò)充了互信息的定義;

b)式(7)與(5)的最大區(qū)別在于包含了特征點(diǎn),從而把基于x、y、θ三個(gè)方向的搜索變成了基于特征點(diǎn)搜索,使得搜索效率提高,這就是全局搜索過程;

c)同時(shí),由式(7)得到的匹配點(diǎn)對(duì),還可以利用式(5)在該匹配點(diǎn)對(duì)的小鄰域內(nèi)進(jìn)行搜索,可以進(jìn)一步提高匹配的精度,從而使得該匹配準(zhǔn)則不依賴于特征點(diǎn)的準(zhǔn)確提取,這就是局部搜索過程;

d)如果圖像A和B的特征點(diǎn)對(duì)集合(pi,qj,Δθi, j)存在多對(duì)匹配點(diǎn)對(duì),那么通過遍歷所有的特征點(diǎn)對(duì),可以得到匹配點(diǎn)對(duì)集合{(p,q)|p,q是匹配點(diǎn)對(duì)}。

3理論分析

1)設(shè)(p,q,Δθ)和(p,q,Δθ)是兩對(duì)匹配點(diǎn)對(duì),那么I(A, fp,q,Δθ(B))=I(A, fp,q,Δθ(B))。事實(shí)上,根據(jù)匹配點(diǎn)對(duì)和特征點(diǎn)對(duì)互信息的意義,由這兩對(duì)匹配點(diǎn)對(duì)得到的圖像重疊是相同的,所以有結(jié)論成立。可以通過實(shí)驗(yàn)證明,如果兩幅圖像之間沒有旋轉(zhuǎn)只有平移,那么其匹配點(diǎn)的互信息完全相等。

2)設(shè)在圖像A、B的(pi,qj,Δθi, j)中存在匹配點(diǎn)對(duì),且I(A, fp,q,Δθ(B))在所有I(A, fpi,qj,Δθi, j(B))中是最大的互信息,那么(p,q)是匹配點(diǎn)對(duì)。這實(shí)際上是匹配準(zhǔn)則所表達(dá)的意義。

3)設(shè)(p,q,Δθ)是匹配點(diǎn)對(duì),且它的互信息與(p,q,Δθ)的互信息相等,即I(A, fp,q,Δθ(B))=I(A, fp,q,Δθ(B)),則(p,q)是匹配點(diǎn)對(duì)。事實(shí)上,如果(p,q)不是匹配點(diǎn),那么由假設(shè)2可以得到I(A, fp,q,Δθ(B))>I(A, fp,q,Δθ(B)),這與假設(shè)2矛盾。

4)根據(jù)假設(shè)1和前面的結(jié)論,一定可以得到匹配點(diǎn)對(duì),從而算法得到證明。

注意,即使(p,q,Δθ)和(p,q,Δθ)都是匹配點(diǎn)對(duì),這兩點(diǎn)分別得到的圖像重疊是相同的,但由于計(jì)算互信息要受插值和噪聲的影響,一般情況下,互信息I(A, fp,q,Δθ(B))和I(A, fp,q,Δθ(B))不會(huì)完全相等。然而兩者相差較小,可以看成近似相等。這將由第4章的實(shí)驗(yàn)得到驗(yàn)證。

4實(shí)驗(yàn)結(jié)果及分析

本節(jié)將通過實(shí)驗(yàn)驗(yàn)證所提出的匹配準(zhǔn)則的正確性和有效性。下面的實(shí)驗(yàn)數(shù)據(jù)及結(jié)果都是在MATLAB 6.5環(huán)境下得到的結(jié)論,且在所有實(shí)驗(yàn)中,特征點(diǎn)是通過小波多尺度積而提取的邊緣特征點(diǎn)[7,9]。

為了說明本文方法的有效性,筆者選取了高度形變旋轉(zhuǎn)角度較大的航空?qǐng)D像,以及傳感器圖像和雷達(dá)圖像、景物圖像,還有它們的噪聲圖像。圖 3表示了配準(zhǔn)原圖像(http://nayana.ece.ucsb.edu/registration)。

例如,圖4(a)表示高度形變 (highly distorted)且旋轉(zhuǎn)角度較大的圖像配準(zhǔn)結(jié)果;(b)表示不同時(shí)間以及不同傳感器圖像(urban SPOT band 3 (08/08/95) 和TM band 4 (06/07/94))的配準(zhǔn)結(jié)果;(c)表示不同時(shí)間雷達(dá)圖像(JERS1 radar (10/10/95) 和(08/13/96))的配準(zhǔn)結(jié)果。圖5分別表示航空、景物以及加噪圖像的配準(zhǔn)結(jié)果。其中(b)(d)是增加了高斯白噪聲(σ=0.002)的圖像。從配準(zhǔn)效果和表1、2的實(shí)驗(yàn)數(shù)據(jù)可以看出所提出方法的有效性。其中,表1列出了圖4和5的部分實(shí)驗(yàn)數(shù)據(jù)。為了參考,在表1中列出了網(wǎng)上的Regweb ( http://nayana.ece.ucsb.edu/registration ) 所做的結(jié)果, 從其對(duì)比實(shí)驗(yàn)來看,所提出的方法達(dá)到了理想效果。表2的數(shù)據(jù)是圖4(a)的實(shí)驗(yàn)結(jié)果。它表明了所提出方法的優(yōu)點(diǎn),根據(jù)特征點(diǎn)進(jìn)行的全局搜索得到匹配點(diǎn)可以進(jìn)一步通過局部搜索以提高匹配的精度。例如全局匹配結(jié)果為rotation angle=-19.726,(DX,DY)=(141.99,73.102),scale=1.021 1;局部搜索得到的結(jié)果為rotation angle=-19.758,(DX,DY)=(142.79,75.507),scale=1.001 5,匹配精度進(jìn)一步提高。圖6表示把圖4的特征點(diǎn)對(duì)互信息量按從小到大的順序排列。從該圖中可以看出,最大互信息量與其他互信息量有一個(gè)明顯的突變過程,這說明了匹配點(diǎn)的互信息量是很容易區(qū)分出來的,也說明了理論分析的合理性和正確性。另外,針對(duì)圖5的圖像配準(zhǔn)實(shí)驗(yàn),在都沒有進(jìn)一步考慮優(yōu)化的情況下,表3是特征點(diǎn)對(duì)互信息量的計(jì)算量和按x、y、θ三個(gè)方向搜索方法所得到的計(jì)算量之間的對(duì)比。在按此三個(gè)方向的搜索方法中,其步長(zhǎng)分別是5、5、1。從平均時(shí)間之比來看至少可以提高8.309 8倍。

5結(jié)束語

本文針對(duì)圖像配準(zhǔn)中的互信息方法和特征方法的不足,提出了特征點(diǎn)對(duì)互信息的概念,并依據(jù)兩個(gè)合理的假設(shè),建立了基于最大特征點(diǎn)互信息量的圖像配準(zhǔn)準(zhǔn)則。該準(zhǔn)則把基于x、y、θ等方向的搜索問題轉(zhuǎn)換成了基于特征點(diǎn)的搜索問題。從大量的對(duì)比實(shí)驗(yàn)可以看出,所提出的方法能有效地提高搜索效率。同時(shí)該準(zhǔn)則不依賴于特征點(diǎn)的準(zhǔn)確提取。因?yàn)楫?dāng)特征點(diǎn)得到之后,可以利用互信息的特性在該特征點(diǎn)的局部范圍內(nèi)搜索,從而使得所提出的方法可以進(jìn)一步提高匹配特征點(diǎn)對(duì)的定位精度,并優(yōu)于其他算法。本文還從兩個(gè)合理的假設(shè)出發(fā),分析了特征點(diǎn)對(duì)互信息的一些簡(jiǎn)單性質(zhì),證明了該方法的正確性。最后,通過實(shí)驗(yàn)和數(shù)據(jù)分析,驗(yàn)證了該方法的正確性和有效性。

參考文獻(xiàn):

[1]PLUIM J P W, MAINTZ P J B, VIERGEVER M A. Mutual information based registration of medical images: a survey[J]. IEEE Trans on Medical Imaging,2003,22(8):9861004.

[2]MAES F, COLLIGNON A. Multimodality image registration by maximization of mutual information[J]. IEEE Trans on Medical Imaging, 1997,16(2):187198.

[3]HOLDEN M,DENTON D L G. Voxel similarity measures for 3D serial MR brain image registration[J]. IEEE Trans on Medical Imaging, 2000,19(2):94102.

[4]陳明,陳武凡.基于互信息量和模糊梯度相似性的醫(yī)學(xué)圖像配準(zhǔn)[J].電子學(xué)報(bào), 2003,31(12):18351838.

[5]張二虎,卞正中.基于最大熵和互信息最大化的特征點(diǎn)配準(zhǔn)算法[J].計(jì)算機(jī)研究與發(fā)展,2004,41(7):11941199.

[6]羅述謙,李響.基于最大互信息的多模醫(yī)學(xué)圖像配準(zhǔn)[J].中國圖象圖形學(xué)報(bào), 2000,5(7):551-558.

[7]HSIEH J W. Image registration using a new edgebased approach[J]. Computer Vision and Image Understanding, 1997,67(2):112130.

[8]YANG Dan, GEYongxin, ZHANG Xiaohong. A new method for image registration based on alignment metric of edge feature points[C]//Proc of the 6th International Progress on Wavelet Analysis and Active Media Technology. 2005:894-899.

[9]楊丹,張小洪. 基于小波多尺度積的邊緣檢測(cè)算法[J].計(jì)算機(jī)科學(xué), 2004,31(1):133135.

[10]PLUIM J P W, MAINTZ J B A, VIERGEVER M A. Interpolation artifacts in mutual information based image registration[J]. Computer Vision and Image Understanding,2000,77(2):211-232.

“本文中所涉及到的圖表、注解、公式等內(nèi)容請(qǐng)以PDF格式閱讀原文”

主站蜘蛛池模板: 深爱婷婷激情网| 在线观看免费黄色网址| 国产福利不卡视频| 欧美亚洲国产一区| 久久婷婷色综合老司机| 九九热精品免费视频| 成人午夜福利视频| 中文字幕无码av专区久久| 动漫精品啪啪一区二区三区| 人妻精品久久无码区| 国产精品欧美在线观看| 国产一区二区三区日韩精品| 成人av手机在线观看| 国产精品成人一区二区不卡| 国产精品综合色区在线观看| 国产精品福利导航| 欧美精品啪啪| 夜夜拍夜夜爽| 任我操在线视频| av性天堂网| 好久久免费视频高清| 四虎永久在线精品影院| 中国国语毛片免费观看视频| 人人澡人人爽欧美一区| 国产一区二区人大臿蕉香蕉| 福利片91| 国产丝袜91| 国产一二三区视频| 欧美亚洲一区二区三区在线| 欧美日韩亚洲综合在线观看| 3p叠罗汉国产精品久久| 国产成人精品一区二区三区| 97精品伊人久久大香线蕉| 亚洲天堂精品视频| 国产网友愉拍精品| 亚洲va欧美ⅴa国产va影院| 97精品久久久大香线焦| 黄色网在线| 亚洲无码视频图片| 国产精品播放| 2020精品极品国产色在线观看| 综合天天色| 99爱在线| 色婷婷在线影院| 国内嫩模私拍精品视频| 伊人大杳蕉中文无码| 亚洲国产成人综合精品2020| 中文字幕永久视频| 亚洲天堂网在线视频| 国产中文一区二区苍井空| 亚洲资源站av无码网址| 久久99国产视频| 无码专区国产精品一区| 免费xxxxx在线观看网站| 亚洲欧美成aⅴ人在线观看| 免费国产小视频在线观看| 日本欧美中文字幕精品亚洲| 久青草国产高清在线视频| 最新国产你懂的在线网址| 国产福利拍拍拍| 国产极品粉嫩小泬免费看| 精品无码专区亚洲| 久久无码免费束人妻| 日本国产一区在线观看| 国产精品久久自在自线观看| 国产精品亚洲а∨天堂免下载| 国产成人精彩在线视频50| 91无码人妻精品一区| 欧美中日韩在线| 国产成人无码AV在线播放动漫| 久久香蕉国产线看观看式| 国产一区二区在线视频观看| 欧美精品v欧洲精品| 青青草综合网| 在线毛片免费| 国产欧美日韩资源在线观看| 亚洲无码电影| 国产精品女在线观看| 综合天天色| 日本人又色又爽的视频| 欧美性久久久久| 久久亚洲国产一区二区|