999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于帶匯點Laplace擴散模型的顯著目標檢測

2017-10-14 14:45:12王寶艷王新剛
電子與信息學報 2017年8期
關(guān)鍵詞:檢測模型

王寶艷 張 鐵 王新剛

?

基于帶匯點Laplace擴散模型的顯著目標檢測

王寶艷*①張 鐵②王新剛③

①(東北大學信息科學與工程學院 沈陽 110819)②(東北大學理學院 沈陽 110819)③(東北大學秦皇島分校控制工程學院 秦皇島 066004)

該文基于Laplace相似度量的構(gòu)造方法,針對兩階段顯著目標檢測中顯著種子的不同類型(稀疏或稠密),提出了相應(yīng)的顯著性擴散模型,從而實現(xiàn)了基于擴散的兩階段互補的顯著目標檢測。尤其是第2階段擴散模型中匯點的融入,一方面更好地抑制了顯著性圖中的背景,同時對于控制因子的取值更加穩(wěn)健。實驗結(jié)果表明,當顯著種子確定時,不同的擴散模型會導致顯著性擴散程度的差異。基于帶匯點Laplace的兩階段互補的擴散模型較其他擴散模型更有效、更穩(wěn)健。同時,從多項評價指標分析,該算法與目前流行的5種顯著目標檢測算法相比,具有較大優(yōu)勢。這表明此種用于圖像檢索或分類的Laplace相似度量的構(gòu)造方法在顯著目標檢測中也是適用的。

目標檢測;顯著性;匯點;Laplace矩陣;擴散模型

1 引言

顯著區(qū)域是指在視頻和圖像中包含較大的信息量、能顯著地吸引人的注意力的區(qū)域。近年來,顯著目標檢測在計算機視覺領(lǐng)域已成為一個熱門的研究問題,它在目標檢測和識別[1,2],圖像和視頻壓縮[3,4],圖像分割和質(zhì)量評價[5,6]以及基于內(nèi)容的圖像檢索和編輯[7,8],視覺跟蹤[9]等領(lǐng)域具有廣泛的應(yīng)用前景。

目前,大量研究人員針對“顯著目標檢測”問題進行研究,并建立了很多經(jīng)典、有效的算法[10]。這些既有算法大致被分為3類:基于顏色對比度的方法,基于學習的方法,基于圖的方法。基于顏色對比度的方法:這類方法通常假設(shè)圖像中的顯著目標相對于背景在顏色分布上有較高的對比度,顯著目標檢測模型就可以通過圖像局部和全局的顏色對比度來建立。基于學習的方法:這類方法的主要思想是通過各種學習方法得到圖像各個特征的權(quán)值系數(shù),以此系數(shù)對各個特征進行融合,從而得到圖像的顯著性值。基于圖的方法:通過設(shè)定圖像的節(jié)點集和邊集,構(gòu)造圖像的無向加權(quán)圖。圖像的顯著目標檢測問題就可歸結(jié)為圖節(jié)點的顯著性值的計算。利用上述這3類方法進行顯著目標檢測時,往往相互交叉應(yīng)用,同時還會結(jié)合一些其他的先驗算法,比如中心先驗,空間分布先驗,背景先驗,似物性采樣先驗等[11,12]方法。除此之外,還有一些其他的顯著目標檢測算法。文獻[13]依據(jù)顯著目標在圖像中的稀疏性,背景的低秩性,利用低秩矩陣分解法將顯著目標檢測出來。文獻[14]選取圖像的邊界為背景模板,利用背景模板分別計算每一個超像素的稠密、稀疏重構(gòu)誤差,并將重構(gòu)誤差進行擴展、多尺度合并,分別得到基于稠密、稀疏重構(gòu)的顯著性圖,最后借助貝葉斯方法將顯著性圖進行合并,得到最終的顯著性圖。

在基于圖的顯著性模型中,一種普遍的模型是基于圖擴散的顯著模型。這些模型的閉合解都可歸結(jié)為一個統(tǒng)一的框架形式。其中,擴散矩陣是由圖的鄰接矩陣衍生得到的,它控制顯著信息的擴散程度;是一個包含了顯著種子信息的指標向量,它對圖中節(jié)點的顯著性水平作出初步的評估;與的乘積則表示經(jīng)過顯著擴散后,圖中各個節(jié)點的顯著性值。事實上,不同的顯著模型解出的擴散矩陣是不同的。對于這些形式不同的擴散矩陣,我們自然會提出一個疑問:在顯著種子確定的條件下,即指標向量確定時,如何選擇最佳的擴散矩陣?以往解決這個問題的途徑都是通過實驗完成的,并未有一個成熟的理論做指導。近日,文獻[22]的研究引起我們的注意:依據(jù)查詢所在類的不同,選擇適當?shù)南嗨贫攘靠梢蕴岣邫z索或分類的準確率。同時,文中給出了一定的理論證明和分析,感興趣的讀者可參看文獻[22]。基于此研究,本文依據(jù)兩階段中顯著種子所在類的不同確定適當?shù)臄U散矩陣(關(guān)鍵取決于對角矩陣),實現(xiàn)基于擴散的兩階段互補的顯著目標檢測。特別地,第2階段擴散模型中匯點的引入,既提高了檢測效果,又增強了擴散模型的魯棒性。這是本文主要的創(chuàng)新點。通過對數(shù)據(jù)集MSRA-10K的測試表明,針對兩階段中顯著種子所在類的不同,選取不同的擴散模型對顯著目標的檢測結(jié)果會產(chǎn)生一定的影響,而本文所設(shè)計的兩階段互補的擴散模型更有效、更穩(wěn)健。這說明文獻[22]中用于圖像檢索或分類的Laplace相似度量的構(gòu)造方法在顯著目標檢測中也是適用的。同時,數(shù)據(jù)集MSRA-10K, ECSSD和Judd-A的測試表明,從多種測試指標分析,本文算法較目前流行的5種顯著目標檢測算法更有優(yōu)勢。

2 圖的構(gòu)建

對于一幅圖像,首先利用SLIC算法[23]將圖像進行超像素分割,不妨設(shè)超像素的個數(shù)為。假設(shè)超像素對應(yīng)的節(jié)點為,由構(gòu)成節(jié)點集。由于相鄰的節(jié)點很有可能相似,其顯著性值也會很相近,因此選取正則圖來揭示節(jié)點間的空間關(guān)系。本文選取相鄰的層,即每個節(jié)點和其相鄰的節(jié)點是連接的,同時與其相鄰節(jié)點的鄰節(jié)點也是連接的;除此之外,選定圖像上、下、左、右4個方向最外層的超像素作為邊界超像素,其對應(yīng)的節(jié)點為邊界節(jié)點,由上、下、左、右邊界節(jié)點構(gòu)成的集合記為,它們的和集記為邊界點集,并假設(shè)中邊界節(jié)點是完全連接的。節(jié)點集中任意相鄰節(jié)點的權(quán)值定義為

3 兩階段互補的顯著目標檢測模型

本文提出的顯著目標檢測模型是基于圖擴散方法建立的。當模型將顯著種子的顯著性信息通過擴散矩陣擴散到整幅圖像時,便可得到圖像中各個節(jié)點的顯著性值。其中,穩(wěn)健的擴散矩陣的選取對擴散模型的建立非常重要。文獻[22]提出了用于圖像檢索和分類的形如的相似度量,并分析了“查詢所在類的不同對相似度量中對角矩陣的影響”:查詢所在的類是稀疏的,選用(度矩陣)作為相似度量可以可靠地檢索出此查詢所在的稀疏類;若查詢所在的類是稠密的,選用(單位矩陣)作為相似度量會更好地檢索出查詢所在的稠密類。基于文獻[22]的研究,本文選取相似度量作為擴散矩陣。通過兩階段不同類型顯著種子的確定,將這些種子分別與相應(yīng)的擴散矩陣結(jié)合,構(gòu)造出兩階段互補的顯著目標檢測算法。具體的算法將在3.1節(jié),3.2節(jié)展開,圖1為本文算法的流程圖。

圖1 本文算法的流程圖

3.1第1階段顯著性圖的生成

(3)

第1階段的檢測選取邊界節(jié)點為顯著種子。由于邊界節(jié)點被認為是完全連接的,并且它們大都屬于顏色均勻變化的背景,所以它們的度都比較大,其所在的類應(yīng)屬于稠密類。結(jié)合文獻[22]關(guān)于“查詢所在類的不同對相似度量的影響”的研究,故選取中的對角矩陣為單位矩陣,即第1階段擴散模型中的擴散矩陣為

為了提高檢測效果,仿照文獻[15]中的SC算法完成第1階段的顯著目標檢測。首先,分別以為顯著種子,利用顯著性擴散模型得到相應(yīng)的顯著性圖,然后將這些顯著性圖融合,構(gòu)造出第1階段的顯著性圖。這種先分離再結(jié)合的方法稱為SC算法。以為顯著種子為例,設(shè)為指標向量,其元素的定義為

將擴散矩陣與指標向量結(jié)合,得到圖節(jié)點的顯著性值,

(6)

3.2 第2階段顯著目標檢測中匯點的引入

將第1階段提純后的顯著性圖采用Ostu算法[24]進行二值分割。通過二值分割,選取顯著目標節(jié)點作為顯著種子,其余的節(jié)點作為匯點引入到第2階段的擴散模型中。設(shè)表示Ostu二值分割得到的顯著種子集,表示匯點集,滿足且。假設(shè)為第2階段顯著種子對應(yīng)的指標向量,其元素的定義如式(9):

第2階段的檢測選取顯著目標節(jié)點作為顯著種子。由于圖像中的顯著目標大都是稀疏的,并且它們的顏色變化是不連續(xù)的,所以它們的度都比較小,則其所在的類應(yīng)屬于稀疏類。文獻[13]正是基于“圖像中背景部分對應(yīng)的矩陣是低秩的,而前景部分對應(yīng)的矩陣是稀疏”的考慮,將顯著性檢測問題通過“低秩矩陣分解”的方法來研究的。同樣,基于文獻[22]提出的關(guān)于“查詢所在類對相似度量中對角矩陣的影響”的研究,考慮到第2階段的顯著種子屬于稀疏類,故選取中的對角矩陣作為第2階段擴散模型中的擴散矩陣。同時,為了進一步突出顯著目標,本文使用矩陣來加強擴散矩陣中的元素,即得到第2階段的擴散矩陣。

(10)

圖2(a)表明,對式(11)生成的顯著性圖,原圖像中心的背景部分并未被很好地抑制。此外,隨著取值的減小,顯著目標的檢測效果越來越差,即由式(10)確定的擴散矩陣對控制因子的變化比較敏感。因此,本文考慮通過設(shè)計一種新型的擴散矩陣以解決上述提到的兩個問題。基于文獻[25]的做法,將匯點集引入到式(10)中,構(gòu)造出一種更加穩(wěn)健的擴散矩陣。

(12)

同樣仿照式(6)的做法,第2階段的顯著性值可重新定義為

(14)

4 實驗結(jié)果

通過3個數(shù)據(jù)集評價本文提出的SSLS算法,第1個數(shù)據(jù)集是MSRA-10K[26],它包含了10000幅圖像。第2個數(shù)據(jù)集是ECSSD[15],它包含了1000幅語義上有意義且結(jié)構(gòu)復雜的自然圖像。第3個數(shù)據(jù)集是Judd-A[27],它由多個顯著目標及復雜背景的900幅圖像所組成的。這3個數(shù)據(jù)集的Ground- Truth都是人工標記的。我們將SSLS算法與目前流行的5種顯著目標檢測算法相比較:DSR[14], MC[16], RBD[28], MR[15], GS[11]。

4.1 參數(shù)的選擇及評價指標

4.2 MSRA-10K數(shù)據(jù)集

本文在MSRA-10K數(shù)據(jù)集上進行4個測試:(1) 在“第2階段引入?yún)R點及兩階段的顯著性圖均考慮提純”的前提下,驗證本文提出的顯著性模型的有效性。圖3(a)中的“對比1”表示第1,第2階段擴散矩陣中的對角矩陣均選取單位矩陣;“對比2”表示第1,第2階段擴散矩陣中的對角矩陣均選取度矩陣;“對比3”表示第1階段擴散矩陣的對角矩陣選取度矩陣,而第2階段選取單位矩陣。由圖3(a)中的P-R曲線顯示,兩階段不同的擴散矩陣會影響顯著目標的檢測結(jié)果。本文提出的兩階段互補的擴散模型要優(yōu)于模型“對比1”,“對比2”和“對比3”,這說明文獻[22]的研究理論同樣適用于顯著目標檢測。(2)當?shù)?階段擴散模型由式(4)式(8)確定時,研究第2階段擴散模型中引入?yún)R點前的模型(由式(9)式(11)確定)及引入?yún)R點后的模型(由式(12)式(14)確定),參數(shù)取值對檢測結(jié)果的影響。此實驗仍考慮“兩階段提純”的步驟。圖3(b)中實線表示匯點引入前的P-R曲線,虛線表示匯點引入后的P-R曲線。如圖3(b)所示,第2階段的擴散模型在引入了匯點后,檢測效果要比引入?yún)R點前明顯提高,且引入?yún)R點后的擴散模型對參數(shù)的取值更加穩(wěn)健。(3)兩階段的顯著性圖在提純前后的比較。圖3(c)中“對比4”表示第1,第2階段的顯著性圖均未提純;“對比5”表示第1階段的顯著性圖提純而第2階段未提純;“對比6”表示第2階段的顯著性圖提純而第1階段未提純。如圖3(c)所示,提純后的第1,第2階段的檢測結(jié)果較提純前有了一定的改善。(4)本文的SSLS算法與目前流行的5種顯著目標檢測算法從多種評價指標進行比較。圖4(a)顯示了P-R曲線的比較結(jié)果;圖4(b)通過正確率,響應(yīng)率和 F-measure指標評價各種算法;表1列舉了各種算法的MAE指標值。綜合多種評價指標分析,SSLS算法在MSRA-10K數(shù)據(jù)集上超越了目前流行的5種顯著目標檢測方法。

圖2 隨著的取值變化,引入?yún)R點前后的顯著性圖

圖3 不同設(shè)計的算法生成的P-R曲線

4.3 ECSSD和Judd-A數(shù)據(jù)集

本文的SSLS算法與前面提到的5種顯著目標檢測算法還分別在ECSSD和Judd-A數(shù)據(jù)集上進行比較。圖5(a)和圖6(a)分別顯示了P-R曲線的比較結(jié)果;圖5(b)和圖6(b)分別通過正確率,響應(yīng)率和F-measure的指標來評價各種算法;表1給出了相應(yīng)的數(shù)據(jù)集關(guān)于 MAE指標值。綜合多種評價指標分析,SSLS算法在ECSSD和Judd-A數(shù)據(jù)集上較5種顯著目標檢測算法更有優(yōu)勢。

4.4算法運行時間

本文實驗環(huán)境為Intel Xeon E5-1620 CPU, 8 G內(nèi)存的計算機。本文的SSLS算法和目前流行的5種顯著目標檢測算法的運行時間見表2。在數(shù)據(jù)集MSRA-10K, ECSSD和Judd-A上,SSLS算法進行顯著目標檢測的平均耗時分別約為0.0131 s, 0.0095 s和0.0471 s。由于數(shù)據(jù)集Judd-A較MSRA-10K和ECSSD復雜,所以其平均耗時要更長。通過表2各個算法的耗時比較, SSLS算法運行速度較快。同時,由4.2節(jié)和4.3節(jié)中的實驗結(jié)果分析可知,SSLS算法的量化評價指標占優(yōu)。因此,相對于目前流行的5種顯著目標檢測算法,SSLS算法具有較大的優(yōu)勢。

5 結(jié)束語

基于Laplace相似度量的研究,針對兩階段顯著目標檢測中顯著種子的不同類型(稀疏或稠密),本文提出了兩階段互補的基于擴散的顯著目標檢測算法。尤其在第2階段檢測中,融入了匯點的擴散模型一方面可以更好地抑制顯著性圖中的背景部分,同時對控制因子取值的變化更加穩(wěn)健。兩階段顯著性圖的提純方法使得目標的顯著性取值更加均衡,從而進一步突出了顯著目標。實驗結(jié)果表明,相對于其他擴散模型,如文中4.2節(jié)給定的模型對比1,對比2,對比3及算法MR[15], MC[16],本文提出的擴散模型更有效,這也證實了文獻[22]提出的用于圖像檢索或分類的Laplace相似度量的構(gòu)造方法在顯著目標檢測中同樣適用的。除此之外,通過3個數(shù)據(jù)集上的多種評價指標分析,本文的SSLS算法較目前流行的5種顯著目標檢測算法更有優(yōu)勢。然而,由SSLS算法得到的顯著目標檢測結(jié)果受到第2階段顯著種子的影響,也就是受到第1階段的顯著性圖的影響。因此,第1階段顯著性圖的提高會改善第2階段的檢測結(jié)果。

圖4 SSLS算法與目前流行的5種算法在數(shù)據(jù)集MSRA-10K的比較

圖5 SSLS算法與目前流行的5種算法在數(shù)據(jù)集ECSSD的比較

圖6 SSLS算法與目前流行的5種算法在數(shù)據(jù)集Judd-A的比較

表1本文的SSLS算法與目前流行的5種算法

在3個數(shù)據(jù)集上的MAE指標值

算法數(shù)據(jù)集 MSRA-10KECSSDJudd-A DSR0.1210.1710.196 MC0.1450.2020.231 RBD0.1110.1710.212 MR0.1350.1900.241 GS0.1400.1640.242 SSLS0.1090.1560.191

在3個數(shù)據(jù)集上的平均運行時間(s)

算法數(shù)據(jù)集 MSRA-10KECSSDJudd-A DSR0.01540.01390.0713 MC0.01170.01100.0472 RBD0.01120.01090.0467 MR0.01540.01390.0500 GS0.01520.01420.0509 SSLS0.01310.00950.0471

[1] SHEN Hao, LI Shuxiao, ZHU Chengfei,. Moving object detection in aerial video based on spatiotemporal saliency[J]., 2013, 26(5): 1211-1217. doi: 10.1016/j.cja.2013.07.038.

[2] WANG Tiantian, XIU Chunbo, and CHENG Yi. Vehicle recognition based on saliency detection and color histogram [C]. 54th IEEE Conference on Decision and Control, Osaka, Japan, 2015:2532-2535. doi: 10.1109/CCDC.2015.7162347.

[3] GUO Chenlei and ZHANG Liming. A novel multiresolution spatiotemporal saliency detection model and its applications in image and video compression[J]., 2010, 19(1): 185-198. doi: 10.1109/TIP. 2009.2030969.

[4] ITTI L. Automatic foveation for video compression using a neurobiological model of visual attention[J]., 2004, 13(10): 1304-1318. doi: 10.1109/TIP.2004.834657.

[5] QIN Chanchan, ZHANG Guoping, ZHOU Yicong,. Integration of the saliency-based seed extraction and random walks for image segmentation[J]., 2014, 129(4): 378-391. doi: 10.1016/j.neucom.2013.09.021.

[6] LI Ang, SHE Xiaochun, and SUN Qizhi. Color image quality assessment combining saliency and FSIM[C]. Fifth International Conference on Digital Image Processing, Beijing, China, 2013: 88780I-1-88780I-5. doi: 10.1117/12. 2030719.

[7] LI Liang, JIANG Shuqiang, ZHA Zhengjun,. Partial- duplicate image retrieval via saliency-guided visual matching [J]., 2013, 20(3): 13-23. doi: 10.1109/ MMUL.2013.15.

[8] NA I S, LE H, KIM S H,. Extraction of salient objects based on image clustering and saliency[J]., 2015, 18(3): 667-675. doi: 10.1007/s10044- 015-0459-1.

[9] HAN Jie, GUO Baolong, and SUN Wei. Target tracking method in aerial video based on saliency fusion[C]. International Conference on Mechatronics, Electronic, Industrial and Control Engineering, Shanghai, China, 2015: 723-727. doi: 10.2991/meic-15.2015.165.

[10] BORJI A, CHENG Mingming, JIANG Huaizu,. Salient object detection: A benchmark[J]., 2015, 24(12): 5706-5722. doi: 10.1007/ 978-3-642-33709-3_30.

[11] WEI Yichen, WEN Fang, ZHU Wangjiang,. Geodesic saliency using background priors[C]. 12th European Conference on Computer Vision, Florence, Italy, 2012: 29-42. doi: 10.1007/978-3-642-33712-3_3.

[12] FU Keren, GU I Y H, GONG Chen,. Robust manifold- preserving diffusion-based saliency detection by adaptive weight construction[J]., 2015, 175: 336-347. doi: 10.1016/j.neucom.2015.10.066.

[13] SHEN Xiaohui and WU Ying. A unified approach to salient object detection via low rank matrix recovery[C]. IEEE Conference on Computer Vision and Pattern Recognition, Providence, USA, 2012: 853-860. doi: 10.1109/CVPR.2012. 6247758.

[14] LI Xiaohui, LU Huchuan, ZHANG Lihe,. Saliency detection via dense and sparse reconstruction[C]. IEEE Conference on Computer Vision, Sydney, Australia, 2013: 2976-2983. doi: 10.1109/ICCV.2013.370.

[15] YANG Chuan, ZHANG Lihe, LU Huchuan,. Saliency detection via graph-based manifold ranking[C]. IEEE Conference on Computer Vision and Pattern Recognition, Oregon, USA, 2013: 3166-3173. doi: 10.1109/CVPR.2013. 407.

[16] JIANG Bowen, ZHANG Lihe, LU Huchuan,. Saliency detection via absorbing markov chain[C]. IEEE Conference on Computer Vision, Oregon, USA, 2013: 1665-1672. doi: 10.1109/ICCV.2013.209.

[17] ZHOU Li, YANG Zhaohui, YUAN Qing,. Salient region detection via integrating diffusion-based compactness and local contrast[J]., 2015, 24(11): 3308-3320. doi: 10.1109/TIP.2015.2438546.

[18] HWANG I, LEE S H, PARK J S,. Saliency detection based on seed propagation in a multi-layer graph[J].&, 2017, 76(2): 2111-2129. doi: 10.1007 /s11042-015-3171-7.

[19] GOPALAKRISHNAN V, HU Yiqun, and RAJAN D. Random walks on graphs to model saliency in images[C]. IEEE Conference on Computer Vision, Miami, USA, 2009: 1698-1705. doi: 10.1109/CVPR.2009.5206767.

[20] FU Keren, GU I Y H, and YANG Jie. Learning full-range affinity for diffusion-based saliency detection[C]. 41st IEEE International Conference on Acoustics, Speech and Signal Processing, Shanghai, China, 2016: 1926-1930.

[21] GONG Chen, TAO Dacheng, LIU Wei,. Saliency propagation from simple to difficult[C]. IEEE Conference on Computer Vision and Pattern Recognition, Boston, USA, 2015: 2531-2539. doi: 10.1109/CVPR.2015.7298868.

[22] WU Xiaoming, LI Zhenguo, and CHANG Shihfu. New insights into Laplacian similarity search[C]. IEEE Conference on Computer Vision and Pattern Recognition, Boston, USA, 2015: 1949-1957. doi: 10.1109/CVPR.2015. 7298805.

[23] ACHANTA R, HEMAMI S, ESTRADA F,. SLIC superpixels compared to state-of-the-art superpixel methods [J]., 2012, 34(11): 2274-2282. doi: 10.1109/TPAMI. 2012.120.

[24] OTSU N. A threshold selection method from gray level histograms[J].,,, 1979, 9(1): 62-66. doi: 10.1109/TSMC.1979. 4310076.

[25] CHEN Shuhan, ZHENG Ling, HU Xuelong,. Discriminative saliency propagation with sink points[J]., 2016, 60: 2-12. doi: 10.1016/j.patcog. 2016.05.016.

[26] CHENG Mingming. MSRA10K Salient Object Database [OL]. http://mmcheng.net/msra10k/,2016.9.

[27] BIRJI A. What is a salient object? a dataset and a baseline model for salient object detection[J]., 2015, 24(2): 742-756. doi: 10.1109/TIP. 2014.2383320.

[28] ZHU Wangjiang, LIANG Shuang, WEI Yichen,. Saliency optimization from robust background detection[C]. IEEE Conference on Computer Vision and Pattern Recognition, Columbus, USA, 2014: 2814-2821. doi: 10.1109/CVPR.2014.360.

[29] ACHANTA R, HEMAMI S, ESTRADA F,. Frequency- tuned salient region detection[C]. IEEE Conference on Computer Vision and Pattern Recognition, Anchorage, USA, 2009: 1597-1604. doi: 10.1109/CVPR.2009.5206596.

Salient Object Detection Based on Laplace Diffusion Models with Sink Points

WANG Baoyan①ZHANG Tie②WANG Xingang③

①(,,110819,)②(,,110819,)③(,,066004,)

Based on Laplace similarity metrics, corresponding diffusion-based saliency models are proposed according to different clusters (sparse or dense) of salient seeds in the two-stage detection, a diffusion-based two-stage complementary method for salient object detection is therefore investigated. Especially for the introduction of sink points in the second stage, saliency maps obtained by this proposed method can well restrain background parts, as well as become more robust with the change of control factor. Experiments show that different diffusion models will cause diversities of saliency diffusion degree when salient seeds are determined. In addition, the two-stage Laplace-based diffusion model with sink points is more effective and robust than other two-stage diffusion models. Meanwhile, the proposed algorithm is superior over the existing five state-of-the-art methods in terms of different metrics. This exactly shows that the similarity metrics method applied to image retrieval and classification is also available for salient objects detection.

Object detection; Saliency; Sink points; Laplace matrix; Diffusion model

The National Natural Science Foundation of China (51475086), The Natural Science Foundation of Liaoning Province (2014020026)

TP391

A

1009-5896(2017)08-1934-08

10.11999/JEIT161296

2016-11-28;

改回日期:2017-04-25;

2017-06-14

王寶艷 wangbaoyan2005@163.com

國家自然科學基金(51475086),遼寧省自然科學基金(2014020026)

王寶艷: 女,1979年生,博士,研究方向為數(shù)字圖像處理、計算機視覺.

張 鐵: 男,1956年生,教授,研究方向為數(shù)字圖像處理、偏微分方程數(shù)值解.

王新剛: 男,1979年生,副教授,研究方向為可靠度與靈敏度分析.

1)超像素與節(jié)點是一一對應(yīng)的,故本文對二者不做嚴格區(qū)分

猜你喜歡
檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
3D打印中的模型分割與打包
小波變換在PCB缺陷檢測中的應(yīng)用
主站蜘蛛池模板: 欧美亚洲综合免费精品高清在线观看| 色偷偷一区二区三区| 免费中文字幕一级毛片| 女人18毛片水真多国产| 久久精品国产电影| 色婷婷视频在线| 久久国语对白| 成人中文字幕在线| 亚洲国产av无码综合原创国产| 91无码人妻精品一区二区蜜桃| 亚洲自拍另类| 国产91精品久久| 国产剧情一区二区| 噜噜噜久久| 亚洲精品动漫在线观看| 亚洲欧美日韩天堂| 久久综合色88| 国产无遮挡猛进猛出免费软件| 麻豆精品在线播放| 免费毛片a| 国产成人综合亚洲欧美在| 99精品在线看| 国产成人永久免费视频| 欧美一区福利| 亚洲国产欧美国产综合久久| 夜夜操天天摸| 国产精品手机视频一区二区| 91精品福利自产拍在线观看| 亚洲码在线中文在线观看| 亚洲中文字幕久久精品无码一区| 久久中文电影| 亚洲va精品中文字幕| 亚洲日韩久久综合中文字幕| 国产幂在线无码精品| 久久熟女AV| 久久永久精品免费视频| 日韩精品成人在线| 亚洲无限乱码| 国产午夜精品一区二区三| 国产精品久久久精品三级| 欧美一区二区啪啪| 国产爽爽视频| 性色生活片在线观看| 亚洲美女一级毛片| 亚卅精品无码久久毛片乌克兰 | 免费无码又爽又黄又刺激网站| 一区二区三区四区精品视频| 欧美视频在线第一页| 欧美在线一二区| 国产免费黄| 国产中文一区a级毛片视频| 在线观看免费国产| 国产在线自乱拍播放| 五月婷婷丁香色| 热伊人99re久久精品最新地| 国产美女无遮挡免费视频网站| 欧美福利在线观看| 国产福利小视频在线播放观看| 伊人久久大香线蕉综合影视| 久久精品无码中文字幕| 国产免费一级精品视频 | 成人字幕网视频在线观看| 国产婬乱a一级毛片多女| 国产精品一区在线麻豆| 国产成熟女人性满足视频| 中文成人在线| 伊人久久大香线蕉aⅴ色| 婷婷亚洲视频| 直接黄91麻豆网站| 欧美日韩在线成人| 精品国产aⅴ一区二区三区| 成人免费网站在线观看| av在线无码浏览| 色亚洲成人| 国产午夜一级毛片| 亚洲a免费| 伊人久久大线影院首页| 粉嫩国产白浆在线观看| 国产91色在线| 黄色一级视频欧美| 亚洲欧洲AV一区二区三区| 国产免费久久精品99re不卡|