999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于圖和稀疏主成分分析的多目標顯著性檢測

2018-05-28 03:06:45梁大川李東民
計算機研究與發展 2018年5期
關鍵詞:區域檢測方法

梁大川 李 靜 劉 賽 李東民

1(南京航空航天大學計算機科學與技術學院 南京 211106) 2 (南瑞集團有限公司(國網電力科學研究院有限公司) 南京 210003) (dacliang@nuaa.edu.cn)

顯著性檢測是目前計算機視覺領域的熱點研究方向之一,經過近10年的發展,已經成功應用于圖像壓縮[1]、目標跟蹤[2]、場景分類[3]、圖像分割[4]等多種計算機視覺任務.

目前,顯著性目標檢測方法大多只針對2個以下目標且背景較為單一的情況,但實際應用中要面臨更為復雜的情況,現有顯著性檢測方法往往無法滿足實際需求,本文針對包含多個顯著目標且背景較為復雜的圖像,提出了一種基于全連接圖與稀疏主成分分析的顯著性目標檢測方法.本文利用對像素信息變化較為敏感的測地線距離[5]計算方式快速獲取圖像中所有顯著性目標的大致位置,將其作為目標先驗知識以提取預選顯著目標區域.在不同的分割尺度上利用SLIC(simple linear iterative clustering)超像素分割算法[6]進行超像素劃分并構造全連接圖,然后利用基于圖的顯著模型GBVS[7]獲取超像素級初始顯著圖.而現有超像素分割算法都存在一定的局限性,即超像素區域不可能完全按照目標輪廓劃分,GBVS顯著圖中顯著目標的超像素中可能包含背景區域,或缺失部分顯著區域.因此,基于超像素得到的顯著圖一般不夠準確.此外,由于超像素是分塊的,顯著性目標的不同超像素區域的顯著值也可能不一致.為了解決上述問題,本文結合目標先驗知識來獲取不同尺度下GBVS顯著圖的預選顯著目標區域,并利用預選目標區域與背景區域的相似性對預選目標區域進行優化,使預選目標區域盡可能地只包含顯著目標區域.在預選顯著目標區域的基礎上,通過提取相應位置上像素點的顏色、空間、緊密度等特征構造像素特征矩陣.然后,通過截斷冪稀疏主成分分析[8]提取像素矩陣的稀疏主成分特征并計算顯著性,從而得到更加精確且顯著值一致性更好的像素級顯著圖.由于不考慮背景區域僅利用目標先驗知識獲取預選顯著目標區域,并針對預選顯著目標區域進行后續像素特征的提取和顯著性計算,因此,本文方法可以在較大程度降低計算復雜度提高檢測效率的同時,得到更加精確的顯著性檢測結果.

1 相關工作

顯著性檢測的本質是模擬人類視覺系統建立的視覺注意模型(visual attention model)[9].首個視覺注意模型—KU模型是由Koch和Ullman[10]在顯著圖(saliency map)概念基礎上構建而成,為視覺注意建模研究的發展奠定了良好的基礎.

文獻[11]在KU視覺注意模型的基礎上,提出了經典的Itti顯著性檢測方法.針對多尺度圖像,根據人眼視覺特性通過底層特征的中心-周圍對比度得到相應的顯著圖,通過顯著圖融合獲取最終顯著結果.該模型已成為現有算法的一個標準模型;文獻[12]采用混合高斯模型將顏色相似的像素聚為區域,綜合考慮各區域的顏色對比度和空間分布,以概率模型計算顯著圖.該方法有效地引入緊密度特征,通過對圖像全局屬性進行建模,能夠較好地檢測出整個目標,但計算復雜度較高;文獻[13]根據圖像邊界區域大多是背景的假設,采用流形排序方法對前景信息進行加強得到最終的顯著圖;文獻[14]以稀疏表示原理為基礎,將原始圖像進行多尺度分割,并以圖像邊界超像素作為背景樣本集,對每個超像素進行稠密和稀疏重構,進而通過多尺度重構殘差得到最終的顯著圖;文獻[15]使用稀疏直方圖簡化圖像顏色表示,采用基于圖的分割方法將圖像劃分為多個區域,根據空間位置距離加權的顏色對比度之和計算圖像區域的顯著性;文獻[16] 采用自底向上的注意力機制,對圖像進行Haar小波分解,在垂直方向進行側投影和多層閾值分割,得到針對自然圖像中建筑物的顯著圖;文獻[5]提出一種基于最小障礙距離轉換的快速顯著目標檢測算法——MBS,該算法以行像素為單位進行計算,無需進行區域分割.該方法以像素為單位進行顯著性計算,得到的顯著圖具有較好的一致性,但過于依賴邊界連通性,對位于邊界或較小的多目標檢測效果不太理想.

近幾年,一些基于圖論的顯著性檢測方法也取得較大進展.文獻[7]在Itti模型之上在顯著圖生成的過程引入Markov鏈,將生物視覺原理與數學計算結合,用數學計算求其平衡分布而得到顯著圖;文獻[17]利用全連通K-正則圖的隨機游走性質,獲取顯著性節點和背景節點,結合兩種節點提取顯著性區域得到顯著圖;文獻[18]根據吸收Markov鏈模型計算節點顯著性,以節點吸收時間作為全局相似性度量提取顯著性目標;文獻[19]按照正規隨機游走排序,通過基于超像素預估前景與背景的顯著性計算像素顯著性值;文獻[20]以超像素為節點構造無向圖,提取相應區域的顏色、對比度和紋理特征,并通過背景先驗進行顯著圖優化;文獻[21]提出了一種基于抽象全連圖模型的時空顯著性檢測方法,以視頻幀的像素點作為節點,以時空特征距離為邊來構造全連接圖,將顯著性問題轉化為求解全連接圖中具有最少節點的抽象全連接圖優化問題;文獻[22]提出了一種基于稠密子圖的顯著性檢測算法,采用隨機行走的Markov鏈獲取顯著圖,然后通過稠密K子圖增強圖像顯著性區域,得到最終的顯著圖.

上述方法大多是以超像素為基本單位進行顯著性計算,不可避免地會因為超像素分割的局限性而影響檢測結果的準確性.而且以超像素為單位的顯著性計算雖然能提高檢測速度,但會出現顯著圖中同一目標不同區域的顯著值不一致的情況.本文采用與文獻[17,22]相似的方法,通過構造以超像素為節點的全連接圖,計算節點初始顯著性值,并提取與圖論相關的緊密度等特征,在此基礎上結合目標先驗知識提取和優化預選顯著目標區域.利用基于像素的顯著性計算優勢,通過提取預選目標區域內像素的稀疏主成分特征,計算像素的顯著性來進行一步細化基于圖的顯著性結果,得到更加準確的顯著圖.

2 多目標顯著性檢測方法

本節對提出的多目標顯著性檢測方法進行詳細介紹,其總體架構如圖1所示.對給定的輸入圖像I,在多個尺度上采用SLIC超像素分割算法將輸入圖像分割成多個超像素塊,通過快速檢測算法MBS得到目標先驗圖MGD,獲取顯著目標的粗略位置和顯著性值.與此同時,根據基于圖的顯著性模型GBVS得到超像素級的初始顯著圖MGBVS.根據二值化的目標先驗圖MGDB,提取MGBVS中相應位置的初始顯著區域構成超像素集Supselect.計算Supselect中超像素與背景超像素的相似性,對預選顯著性區域進行優化.通過提取優化后的超像素集Supselect中所有像素的空間、顏色、亮度、緊密度、節點度等特征構造樣本矩陣.然后,采用稀疏主成分分析(sparse principal component analysis, sPCA)算法提取矩陣的主要特征,并計算顯著性值.最后將多個尺度的顯著圖M(s)進行融合得到最終顯著圖Mfinal.

Fig. 1 The overall framework of our method圖1 多目標顯著性檢測方法的總體框架圖

2.1 多尺度分割

為了更好地獲取待測圖像的結構信息,保留顯著圖的目標邊界,利用SLIC超像素分割算法將原始圖像分割成多個分布均勻且緊湊的超像素塊.

文獻[2]證明2種顏色空間Lab和RGB結合可以有效提高顯著性檢測的準確性.因此,本文采用Lab和RGB兩種顏色空間來表示像素圖像塊的特征.

首先,將RGB圖像轉換為Lab格式,然后在3個尺度空間上(1,1/2,1/4)用SLIC將圖像分割多個超像素,每超像素可表示為包含的像素點的平均顏色特征和空間位置坐標的特征向量Spi=(x,y,R,G,B,L,a,b).

2.2 顯著目標區域提取

在每個尺度上提取亮度(L)、顏色(R,G,B,a,b)、緊密度(compactness)特征.大部分顯著目標往往具有緊密的區域和良好的邊界,緊密度可以保證背景區域中相對稀疏的區域具有較低的顯著性值.按照文獻[23]中的方法來計算緊密度:

(1)

其中,σi,x和σi,y是區域Spi中像素度坐標x和y的標準偏差,α是經驗值,W與H分別表示圖像的寬度與高度.由式(1)可得到超像素區域Spi的某一特征的緊密度.

(2)

其中,i表示超像區域Spi,k表示Spi不同的特征,分別對應5種顏色R,G,B,a,b和亮度特征L.式(2)求取最終的緊密度,計算基于圖的GBVS顯著圖.

2.2.1 GBVS顯著圖

在超像素分割基礎上,以超像素為節點、不同區域的空間距離和特征距離為邊來構造圖Gimage,連接節點i和j的邊的權值是由特征距離wf(i,j),空間距離ws(i,j)和緊密度權重wc(i,j)按照基本模型GBVS[6]聯合得到.

節點i和j之間空間距離可表示為

(3)

其中,Ii,k和Ij,k分別表示i和j的特征k的值.

節點i和j之間空間距離可表示為

(4)

其中,xi和yi表示節點i(或超像素Spi)的重心或坐標平均值.D是圖像的對角線長度.

節點i和j之間的緊密度權重:

(5)

其中,Ci和Cj分別表示超像素Spi和Spi的緊密度.

節點i和j之間最終的邊權重:

wcombine(i,j)=wf(i,j)×ws(i,j)×wc(i,j).

(6)

在圖Gimage基礎上,可以得到N×N轉換矩陣TP,其中N是圖Gimage中節點的數量.元素TP(i,j)正比于圖的邊權值wcombine(i,j),表示從節點i隨機轉移到節點j的概率.節點的度可用所有與之相連邊的權重和來表示.

根據轉換矩陣TP按隨機行走的方式形成Markov鏈[24].Markov鏈的均衡分布π滿足條件:π=TP·π.對任意節點i,Pi=π(i),其中π(i)是平穩分布π的第i個元素,表示在平穩條件下隨機行走在節點i停留的概率.Pmax和Pmin分別表示所有節點中π的最大值和最小值.節點i的顯著性可通過

(7)

計算,由式(7)得到的基于圖的顯著圖MGBVS,不僅能夠有效增強目標區域的顯著值,而且還能抑制背景區域的顯著值.

2.2.2 目標先驗圖

為了獲取顯著目標的大致空間分布,使用MBS算法中基于測地線距離的對比算法GD[5]對輸入圖像進行快速顯著性計算,可得到顯著區域中心較為模糊的目標先驗圖MGD,獲取目標先驗知識,粗略判斷顯著目標的空間分布及顯著性.

為了便于確定顯著區域的位置,本節采用一種自適應的閾值策略對MGD進行二值化處理,將MGD的值劃分為K個通道,計算閾值T:

(8)

2.2.3 顯著性區域提取與優化

由于MBS算法的局限性,超像素集Supselect中可能包含一些背景區域或缺失部分顯著性區域.通過預選顯著性超像素與背景區域的相似性或相異性,刪除Supselect中可能的背景區域和添加背景區域中可能缺失的顯著區域,對Supselect進行優化.

首先,通過顏色、亮度、空間、緊密度等特征的歐氏距離構造超像素之間的相異矩陣DifMatrix,表示超像素之間的相似性或相異性.DifMatrix是一個N階對稱矩陣,N是超像素個數.對于任意Spi∈Supselect,計算Spi的相鄰顯著區域的平均相異度:

(9)

其中,Spj∈Supselect且i≠j,N表示當前Supselect中的超像素個數.Dif(Spi,Spj)表示相異矩陣DifMatrix在(i,j)上的元素值.

同樣地,計算Spi與其相鄰的背景區域的平均相異度:

(10)

其中,Spl?Supselect,且Spi與Spl相鄰,N′表示背景區域中與Spi相鄰的超像素個數.如果MavDif(Spi)

同樣,對于任意Sph?Supselect,可計算Sph與相鄰背景區域中的平均相異度MavDif(Sph)′,及Sph與相鄰預選顯著區域的平均相異度MavDif(Sph).如果滿足條件MavDif(Sph)′>MavDif(Sph),則說明與其他背景區域相比,Sph與相鄰顯著區域的相似度更高,則將Sph加到Supselect中.

通過不斷更新預選顯著性超像素集Supselect,直到Supselect中超像素數量不再變化為止,預選顯著區域的優化過程結束.

2.3 稀疏主成分特征提取

通過對輸入的原始圖像進行顯著性區域提取和特征提取后,使用截斷冪方法在抽取的底層特征上進行稀疏主成分分析,提取稀疏主特征.

2.3.1 截斷冪稀疏主成分分析

給定像素矩陣A∈n×p,n為像素個數,p為特征個數,對矩陣A進行正則化并計算協方差矩陣Σ=ATA,則稀疏主成分分析的求解為

(11)

稀疏主成分的模型求解是一個非凸優化問題,求解方法可以大致分為閾值壓縮、近似回歸、正定規劃、局部優化和冪收縮[25].綜合考慮求解主成分的可解釋能力、負載因子的稀疏度和算法的運行時間等因素,本文選用截斷冪方法[26]對圖像特征矩陣進行稀疏主特征提取.截斷冪方法結合了冪迭代和矩陣收縮求解稀疏主成分,算法1描述了截斷冪方法的計算流程[27].在每次迭代過程中,應用冪方法求解主成分負載因子,然后根據定義的截斷算子對其進行稀疏化處理:

(12)

Σ′=(Ip×q-x*xT)Σ(Ip×q-x*xT).

(13)

在所有的主成分確定之后,根據式(13)對協方差矩陣進行收縮操作[28]以保證提取的主成分具有主次之分,即所有主成分的方差是呈下降趨勢.

算法1. 截斷冪sPCA算法.

輸入:數據集矩陣A∈n×p,包含n個樣本,p個屬性,m個主成分,協方差矩陣Σ∈p×p,負載因子的基數向量k∈{k1,k2,…,km};

輸出:負載因子向量x=(x1,x2,…,xm).

fori=1:m

do {

1) 使用冪迭代法計算

}while(直到收斂);

協方差矩陣進行收縮;

Σ=(I-xixiT)Σ(I-xixiT),I∈p×p

end for

2.3.2 基于截斷冪的稀疏特征提取

將2.2.3節提取到的顯著目標區域Supselect中的所有像素按行排列構成數據矩陣An×p,并按照文獻[8]中的步驟來確定參數:

1) 將數據矩陣A標準化,計算特征點間的協方差矩陣Σ;

3) 使用局部迭代搜索的方法來確定每個主成分的非零個數.首先,給定一個方差閾值δ,則對于第i個主成分的方差范圍可表示為(pevi-δ,pevi+δ),pevi是第i個主成分的方差,可近似地計算出每個主成分的非零個數的下限ψ和上限φ.在[ψ,φ]內進行局部搜素,當滿足│pev(t)-pev│<ζi,則可確定最佳非零個數.

經過上述3個步驟,可以確定所需的2個稀疏處理參數.然后,使用基于截斷冪方法的稀疏主成分分析方法對提取的圖像塊底層特征矩陣進行稀疏降維并獲取求解出的稀疏負載因子X.最終,所要提取的稀疏特征為

F=A×X,F∈n×m.

(14)

2.4 顯著圖融合

2.4.1 顯著性計算

通過提取到的稀疏主成分特征F,按照與式(7)類似的方法來計算像素的顯著性值:

(15)

其中,Pi是F的第i個像素,Pmax和Pmin分別是F中的最大值和最小值.由式(5)計算所有顯著性像素的顯著值,而不包含在數據矩陣A中圖像的像素的顯著值設為0,從而得到當前尺度下的顯著圖Ms.

2.4.2 顯著圖融合

按照上述過程可得到所有尺度的顯著圖,并通過顯著圖融合得到最終的顯著圖.目前,常用的顯著圖或特征融合方法有線性融合[29]、基于像素的點乘融合[30]、條件隨機場融合[31]等,通過實驗對比發現線性融合方法可以很好地滿足本文方法的需要.

(16)

3 實驗結果與分析

為了驗證本文方法的有效性,分別在目前比較通用的多目標數據集SED2[32]和HKU-IS[29]上進行了實驗,并與一些經典算法進行比較分析.

3.1 評估標準

通過對比顯著圖的準確率P(precision)-召回率R(recall)曲線、準確率-召回率-F-measure值柱狀圖(以下分別簡稱P-R曲線、F-measure柱狀圖)與平均絕對誤差(mean absolute error,MAE)柱狀圖來評價顯著性檢測的性能.

針對顯著性模型產生的顯著圖用閾值進行分割,其中閾值的取值范圍為0~255.由此可以得到256個平均的準確率與召回率,以橫軸為召回率、縱軸為準確率,將這些點平滑地連接起來,產生準確率-召回率P-R曲線.

與準確率-召回率曲線不同,在繪制準確率-召回率-F-measure值柱狀圖時,使用每幅圖像的自適應閾值T對圖像進行分割[33]:

(17)

其中,參數W與H分別表示圖像的寬度與高度.對每個數據集中的顯著圖,計算他們的平均準確率與召回率.F-measure值用于綜合評價準確率與召回率,為了強調準確率的重要性,設置β2=0.3[33],并根據

(18)

計算平均的F-measure值.

平均絕對誤差是通過對比顯著圖與人工分割圖的差異來評價顯著性模型[15].根據

(19)

計算每個輸入圖像的MAE值,利用MAE值繪制柱狀圖.

3.2 數據集

數據集SED2是目前比較常用的多目標數據集,它包含了100張圖像和相應的人工標注圖,每張圖像中都包含了2個顯著目標.HKU_IS包含4 447張由作者整理挑選的圖像,每張圖像中至少包含了1個顯著目標,并且目標與背景的顏色信息比較復雜,同時提供了人工標注的真實圖.本文是主要針對多目標圖像的顯著性檢測方法,從HKU_IS中選擇具有2個以上目標的1 000張圖片進行實驗.

在2個數據集中隨機選取100張圖像,使用文獻[8]中的方法確定稀疏化參數,主成份個數為3時,非零個數確定為9;經驗值α,ε分別設置為10和0.75;在3個尺度上超像素分割的數量N分別取值為200,150和100.

3.3 對比分析

為驗證本文提出的多目標顯著性檢測方法的性能,在2個數據集上同近幾年比較經典的10種算法進行對比,包括FT09[34],GC13[12],DSR13[14],GM13[13],MC13[18],HS13[33],PISA13[35],HC15[15],MBS15[5],SBG16[20].所有顯著性檢測模型獲取的顯著圖都被標準化到[0,255].

圖2顯示了本文方法與10種對比算法在數據集SED2上的顯著圖對比情況.從左至右依次是:原始輸入圖像INPUT,對比算法DSR,FT,GC,GM,HC,HS,MBS,MC,PISA,SBG的顯著圖,以及本文方法OUR和人工標注的真值圖GT.通過對比可以看出,OUR算法對位于圖像邊緣的目標(如圖2中行⑤、行⑧)的檢測效果明顯優于對比算法.本文方法結合了超像素與像素2種顯著性計算方法,在初始的超像素級顯著圖的基礎上,進行一步計算像素的顯著值,從而可以保留顯著目標的更多細節,如圖2中行②、行⑥、行⑦圖像中的小目標區域.圖3和圖4是算法在復雜多目標數據集HKU_IS上的顯著圖對比情況.與圖2相比,圖3中圖像的背景和顯著目標都具有相對復雜的顏色信息,通過顯著圖的對比效果可以看出本文方法OUR在圖像的背景(如圖4的行①和行②)及目標信息(如圖3中行③和行⑥)較為復雜的情況下的檢測效果同樣明顯.

Fig. 2 The saliency maps on the SED2 dataset圖2 算法在數據集SED2上的多的視覺顯著圖

Fig. 3 The saliency maps on the HKU_IS dataset圖3 算法在數據集HKU_IS上的視覺顯著圖

Fig. 4 The multi-object saliency maps on the HKU_IS dataset圖4 算法在數據集HKU_IS上的多目標視覺顯著圖

與圖2和圖3相比,圖4中的圖像都包含3個以上的顯著目標.本文方法通過對像素顏色變化較為敏感的方法獲取目標先驗知識,可以有效獲取多個目標的空間信息,保證了多目標檢測的有效性.從與其他算法的顯著圖對比可以看出本文方法在多目標的檢測效果上具有較為明顯的優勢.

為了更加直觀地比較本文方法與其他算法的效果,本文根據不同的評價標準,在2個數據集上進行了對比實驗.

圖5和圖6是根據準確率-召回率和準確率-召回率-F-measure值評價標準分別在數據集SED2和HKU_IS上得到的P-R曲線圖和F-measure值柱狀圖.通過圖5對比分析可以看出本文方法在P-R曲線及F-measure值柱狀圖上與DSR和PISA算法相當,優于SBG,HC,HS等算法.而本文提出的算法更適合于復雜的多目標情況.而從圖6的P-R曲線與F-measure值柱狀圖上可以看出,本文方法在復雜多目標數據集HKU_IS上的P-R曲線與F-measure值柱狀圖與其他的算法相比都具有相對明顯的優勢.本文方法與DSR,PISA都取得較好的P-R曲線,在F-measure值上,本文方法分別比DSR與PISA算法高出6.7%,5.3%.在P-R曲線和F-measure值上相對與其他對比算法的優勢更加明顯.這是由于本文的目標先驗知識是通過顏色信息變化來獲取多個顯著性目標的空間信息,而在SED2數據集中的圖像的顯著性目標或背景信息較為簡單,目標先驗知識并沒有起到太大的作用,但本文方法仍然可以達到與DSR和PISA算法相當的效果.相反對于圖像信息相對復雜的數據集HKU_IS,圖像顏色信息更加豐富,一般的算法都是基于圖像中心來進行空間加權的,而本文方法通過目標先驗知識可以獲取多個目標的空間分布,并以目標中心進行空間加權,從而檢測效果更加精確.這也充分體現了本文方法在圖像信息復雜的多目標場景中的優越性,如顯著性目標位于圖像邊緣、多個顯著性目標、顯著性目標包含多個對比度明顯的區域等.

Fig. 5 The P-R curves and F-measure histograms respectively on the SED2 dataset圖5 算法在數據集SED2上的P-R曲線和F-measure柱狀圖

Fig. 6 The P-R curves and F-measure histograms respectively on the HKU_IS dataset圖6 算法在數據集HKU_IS上的P-R曲線和F-measure柱狀圖

由于本文方法中預選顯著性目標區域的提取優化和顯著值計算主要基于顏色特征,導致圖像中顯著目標與背景區域顏色相似性較高時區域優化效果較差,因而影響最終的檢測效果,如圖7所示:

Fig. 7 The failure case of our method圖7 本文方法檢測失敗案例

圖8是根據平均絕對誤差這一評價標準得到的MAE柱狀圖.對于SED2數據集,本文方法MAE=0.1396,僅次于MAE=0.1384的算法DSR,與MBS,PISA算法相當.在數據集HKU_IS上,所有算法的平均絕對誤差MAE值都有所上升,OUR算法MAE=0.1422,DSR與PISA的MAE值分別為0.1485,0.1479,與其他對比算法相比優勢更加明顯.這與上面的P-R曲線與F-measure值柱狀圖的分析結果相一致.

本文方法利用目標先驗知識獲取預選目標區域,可以很大程度地減少計算量.為了驗證本文方法在簡化計算方面的作用,實驗在2個數據集上隨機選取100幅圖像進行檢測,然后計算每幅圖的平均檢測時間,對比結果如表1所示.實驗借助MATLAB工具在Intel CoreTMi3-3220處理器,4 GB內存的硬件環境下進行.其中,超像素分割的時間不計入處理時間.本文OUR算法每幅圖像平均檢測時間為0.073 s.

Fig. 8 The MAE histograms respectively on the SED2 and HKU_IS dataset圖8 算法在數據集SED2和HKU_IS上的MAE柱狀圖

MethodsCodeTypeAverageDetectionTime∕sDSRMatlab3.534FTC++0.023GCC++0.095GMMatlab0.252HCC++0.018HSC++0.492MBSMatlab0.008MCMatlab&C++0.146PISAC++0.685SBGMatlab3.882OURMatlab0.073

4 總 結

本文提出了一種基于全連接圖和稀疏主成分分析的多目標檢測方法,并在2個多目標數據集上與經典顯著性檢測算法進行了性能對比分析,結果表明本文方法對于顯著性目標位于邊界、目標信息復雜、包含多個目標等情況,都可以得到較為精確的檢測結果.結合超像素與像素顯著性計算的優勢,可在顯著性檢測過程中簡化計算提高效率的同時提高檢測的準確性.但對于顯著目標與背景區域的顏色對比度較低的情況,本文方法往往不能很好地檢測出完整的顯著目標.針對存在的不足,下一步研究的主要目標是通過引入深度特征來提高自然場景中復雜圖像顯著性檢測的魯棒性.

[1]Zünd F, Pritch Y, Sorkine-Hornung A, et al. Content-aware compression using saliency-driven image retargeting[C] //Proc of the 2013 IEEE Int Conf on Image Processing. Piscataway, NJ: IEEE, 2013: 1845-1849

[2]Borji A, Itti L. State-of-the-art in visual attention modeling[J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2013, 35(1): 185-207

[3]Qi Mengshi, Wang Yunhong. DEEP-CSSR: Scene classification using category-specific salient region with deep features[C] //Proc of the 2016 IEEE Int Conf on Image Processing. Piscataway, NJ: IEEE, 2016: 1047-1051

[4]Shui Linlin. Aptive image segmentation based on saliency detection[J]. International Journal on Smart Sensing & Intelligent Systems, 2015, 8(1): 408-428

[5]Zhang Jianming, Sclaroff S, Lin Zhe, et al. Minimum barrier salient object detection at 80 fps[C] //Proc of the 2015 IEEE Int Conf on Computer Vision. Piscataway, NJ: IEEE, 2015: 1404-1412

[6] Achanta R, Shaji A, Smith K, et al. SLIC superpixels compared to state-of-the-art superpixel methods[J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2012, 34(11): 2274-2282

[7]Harel J, Koch C, Perona P. Graph-Based Visual Saliency[C] //Proc of Int Conf on Neural Information Processing Systems. Cambridge: MIT Press, 2006: 545-552

[8]Shen Ningmin, Li Jing, Zhou Peiyun, et al. BSFCoS: Block and sparse principal component analysis based fast co-saliency detection method[J]. International Journal of Pattern Recognition & Artificial Intelligence, 2015, 30(1): 1655003

[9]Osberger W M. Visual attention model: US, Patent 6.670.963[P]. 2003-12-30

[10]Koch C, Ullman S. Shifts in Selective Visual Attention: Towards the Underlying Neural Circuitry[M]. Berlin: Springer, 1987: 115-141

[11]Itti L, Koch C, Niebur E. A model of saliency-based visual attention for rapid scene analysis[J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 1998, 20(11): 1254-1259

[12]Cheng Mingming, Warrell J, Lin Wenyan, et al. Efficient salient region detection with soft image abstraction[C] //Proc of the 2013 IEEE Int Conf on Computer Vision. Piscataway, NJ: IEEE, 2013: 1529-1536

[13]Yang Chuan, Zhang Lihe, Lu Huchuan, et al. Saliency Detection via Graph-Based Manifold Ranking[C] //Proc of the 2013 IEEE Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2013: 3166-3173

[14]Li Xiaohui, Lu Huchuan, Zhang Lihe, et al. Saliency detection via dense and sparse reconstruction[C] //Proc of the 2013 IEEE Int Conf on Computer Vision. Piscataway, NJ: IEEE, 2013: 2976-2983

[15]Cheng Mingming, Mitra N J, Huang Xiaolei, et al. Global contrast based salient region detection[J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2015, 37(3): 569-582

[16]Qu Yanyun, Zheng Nanning, Li Cuihua, et al. Salient building detection based on SVM[J]. Journal of Computer Research and Development, 2007, 44(1): 141-147

[17]Gopalakrishnan V, Hu Yiqun, Rajan D. Random walks on graphs for salient object detection in images[J]. IEEE Trans on Image Processing, 2010, 19(12): 3232-3242

[18]Jiang Bowen, Zhang Lihe, Lu Huchuan, et al. Saliency detection via absorbing markov chain[C] //Proc of the 2013 IEEE Int Conf on Computer Vision. Piscataway, NJ: IEEE, 2013: 1665-1672

[19]Li Changyang, Yuan Yuchen, Cai Weidong, et al. Robust saliency detection via regularized random walks ranking[C] //Proc of the IEEE Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2015: 2710-2717

[20]Wang Qiaosong, Zheng Wen, Piramuthu R. GraB: Visual saliency via novel graph model and background priors[C] //Proc of the IEEE Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2016: 535-543

[21]Karimi A H, Shafiee M J, Scharfenberger C, et al. Spatio-temporal saliency detection using abstracted fully-connected graphical models[C] //Proc of the Int Conf on Image Proc. Piscataway, NJ: IEEE, 2016: 694-698

[22]Chakraborty S, Mitra P. A dense subgraph based algorithm for compact salient image region detection [J]. Computer Vision and Image Understanding, 2016, 145(C): 1-14

[23]Kim J S, Sim J Y, Kim C S. Multiscale saliency detection using random walk with restart[J]. IEEE Trans on Circuits and Systems for Video Technology, 2014, 24(2): 198-210

[24]Norris J R. Markov Chains[M]. London: Cambridge University Press, 1998

[25]Hu Zhenfang, Pan Gang, Wang Yueming, et al. Sparse principal component analysis via rotation and truncation[J]. IEEE Trans on Neural Networks & Learning Systems, 2015, 27(4): 875-890

[26]Yuan Xiaotong, Zhang Tong. Truncated power method for sparse eigenvalue problems[J]. Journal of Machine Learning Research, 2011, 14(1): 899-925

[27]Saad Y. Numerical Methods for Large Eigenvalue Problems[M]. Manchester: Manchester University Press, 1992

[28]Mackey L. Deflation methods for sparse PCA[C] //Proc of the 21st Int Conf on Neural Information Processing Systems. New York: Curran Associates Inc., 2008: 1017-1024

[29]Li Guanbin, Yu Yizhou. Visual saliency based on multiscale deep features[C] //Proc of the 2015 IEEE Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2015: 5455-5463

[30]Fu Huazhu, Cao Xiaochun, Tu Zhuowen. Cluster-based co-saliency detection[J]. IEEE Trans on Image Processing, 2013, 22(10): 3766-3778

[31]Mai Long, Niu Yuzhen, Liu Feng. Saliency aggregation: A data-driven approach[C] //Proc of the IEEE Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2013: 1131-1138

[32]Borji A, Sihite D N, Itti L. Salient object detection: A benchmark[G] //Computer Vision—ECCV 2012. Berlin: Springer, 2012: 414-429

[33]Yan Qiong, Liu Xu, Shi Jianping, et al. Hierarchical saliency detection[C] //Proc of the IEEE Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2013: 1155-1162

[34]Achanta R, Hemami S, Estrada F, et al. Frequency-tuned salient region detection[C] //Proc of the IEEE Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2009: 1597-1604

[35]Shi Keyang, Wang Keze, Lu Jiangbo, et al. Pisa: Pixelwise image saliency by aggregating complementary appearance contrast measures with spatial priors[C] //Proc of the 2013 IEEE Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2013: 2115-2122

猜你喜歡
區域檢測方法
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
小波變換在PCB缺陷檢測中的應用
關于四色猜想
分區域
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
基于嚴重區域的多PCC點暫降頻次估計
電測與儀表(2015年5期)2015-04-09 11:30:52
主站蜘蛛池模板: 日韩无码黄色| 午夜国产精品视频| 强奷白丝美女在线观看| AV在线天堂进入| 成年A级毛片| 欧美日韩在线国产| 91激情视频| 久久精品人人做人人爽97| 国产a v无码专区亚洲av| 欧美亚洲国产精品第一页| 凹凸国产分类在线观看| 午夜高清国产拍精品| 亚洲天堂久久新| 精品国产美女福到在线不卡f| 高清精品美女在线播放| AV老司机AV天堂| 国产呦视频免费视频在线观看| av手机版在线播放| 91青青视频| 亚洲成人www| 韩国福利一区| 激情综合激情| 亚洲一级无毛片无码在线免费视频| 美女潮喷出白浆在线观看视频| 1024你懂的国产精品| 91丝袜乱伦| 亚洲AV免费一区二区三区| 欧美精品xx| 欧美国产日韩在线| 亚洲精品大秀视频| 99re热精品视频国产免费| 97国产一区二区精品久久呦| 欧美日韩午夜| 免费黄色国产视频| 真人免费一级毛片一区二区| 伊人成色综合网| 91精品亚洲| 成人福利在线免费观看| 人妻出轨无码中文一区二区| 亚洲综合极品香蕉久久网| 福利视频一区| 国产一在线观看| 亚洲欧美成aⅴ人在线观看 | 久青草国产高清在线视频| 99视频在线看| 青青青国产精品国产精品美女| 女人爽到高潮免费视频大全| 国产欧美日韩精品第二区| 久久无码免费束人妻| 国产精品污视频| 中国一级毛片免费观看| 欧美在线精品怡红院| 在线观看网站国产| 日韩国产一区二区三区无码| 一级成人欧美一区在线观看| 国产嫖妓91东北老熟女久久一| 久久黄色免费电影| 亚洲欧美日韩精品专区| 亚洲人成成无码网WWW| 免费激情网址| 国产成人高清精品免费软件| 色婷婷色丁香| 国产拍揄自揄精品视频网站| 91口爆吞精国产对白第三集| 五月婷婷伊人网| 国产精品任我爽爆在线播放6080| 国产精品亚洲天堂| 蜜芽国产尤物av尤物在线看| 欧美高清国产| 一区二区三区国产精品视频| 伊人AV天堂| 中文国产成人精品久久| 中文字幕免费视频| 色综合久久88| 人妻丰满熟妇AV无码区| 国产乱人乱偷精品视频a人人澡| 亚洲一区二区三区在线视频| 国产a网站| 成人一级免费视频| 国产视频欧美| 欧美激情视频在线观看一区| 午夜啪啪网|