999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于像素級估計的視頻顯著性檢測

2022-06-15 12:50:47李春華郝娜娜劉玉坤白玉華
河北工業(yè)科技 2022年3期

李春華 郝娜娜 劉玉坤 白玉華

摘 要:為了減少背景噪聲干擾,準確地從復雜視頻中提取顯著目標,提出一種具有時空一致性的視頻顯著區(qū)域檢測算法。將視頻幀劃分為超像素,以超像素為基本單元提取光流特征,在時空一致性原則指導下動態(tài)融合顏色、邊界信息和光流特征,獲取視頻顯著圖。在此基礎上,借助視頻幀的細節(jié)和區(qū)域特征對視頻顯著圖進行細化增強。實驗結果表明,算法的準確率召回率曲線在復雜圖像數(shù)據(jù)庫中高于傳統(tǒng)經(jīng)典算法,具有足夠高的魯棒性,能夠減少相機運動和背景運動以及突變情況對跟蹤檢測的影響。所提方法能夠在各種運動模式下和外觀復雜場景中較為完整地提取顯著目標,可作為預處理技術,改善目標跟蹤、行為檢測、視頻壓縮等的性能。

關鍵詞:計算機圖像處理;光流梯度;運動顯著圖;前景顯著性估計;像素級顯著性估計

中圖分類號:TP391?? 文獻標識碼:A

DOI: 10.7535/hbgykj.2022yx03003

Video saliency detection based on pixel-level estimation

LI Chunhua,HAO Nana,LIU Yukun,BAI Yuhua

(School of Information Science and Engineering,Hebei University of Science and Technology,Shijiazhuang,Hebei 050018,China)

Abstract:In order to reduce the interference of background noise and accurately extract salient targets from complex videos,the design combined the optical flow characteristics generated by foreground motion in the video with superpixel estimation to detect salient targets in the video.Firstly,the video frame was segmented by super-pixel,and the motion saliency map was generated by combining the intra-frame color,boundary information and the optical flow gradient of inter-frame motion variation.This method has sufficient robustness to extract the foreground objects with various motion patterns and complex appearance scenes.Then,considering the details and regional features of the video frame,the pixel-level saliency map was formed by using the background and foreground saliency estimation of the super-pixel.These clues enhance the refinement of saliency.Finally,the motion saliency map and the pixel level saliency map were dynamically fused by spatiotemporal consistency.The experimental results show that the accuracy-recall rate curve of the algorithm is higher than that of the traditional classical algorithm in complex image databases.The designed video detection algorithm can be used as the processing plug-in of target tracking to reduce the influence of camera motion,background motion and mutation on tracking detection.

Keywords:

computer image processing;optical flow gradient;motion sketch;foreground visibility estimation;pixel level saliency estimation

視覺系統(tǒng)能夠迅速捕捉到視野中的重要對象,這種認知過程使得人類可以實時解讀復雜場景。顯著性檢測技術模仿人類這一視覺機能,預測觀察者可能注視的場景區(qū)域。近年來,顯著性檢測廣泛應用于目標檢測和識別[1-2]、行為檢測[3]和圖像或視頻壓縮[4-5]中,成為計算機視覺的研究熱點。根據(jù)人類視覺系統(tǒng)的注意機制,顯著區(qū)域的檢測可分為兩類:一類自上而下[6-7],與任務控制處理相關,由高級認知任務驅動,使用圖像高級別特征來計算顯著區(qū)域,如利用人臉檢測模型或局部對稱預測人體固定點的位置;另一類自下而上[8],利用底層特征如顏色特征、紋理特征和空間距離等來構造視覺顯著圖。相對而言,自下而上的視覺注意機制更加簡單易行,便于推廣應用。

作為一項開創(chuàng)性的工作,ITTI等[9]基于生物學上的視覺注意結構和特征整合理論提出了一個眾所周知的顯著性檢測模型。該模型首先使用不同尺度的中心環(huán)繞算子計算亮度、顏色和方向特征圖,然后進行歸一化求和生成顯著性圖,該顯著性模型分別標注出亮度、顏色和方向特征中與其周圍區(qū)域具有高對比度的區(qū)域。ZHU等[10]利用初始先驗的思想級聯(lián)中心先驗、暗道先驗獲得圖像的顯著性值,但對于待檢測視頻中包含快速變化、復雜背景或運動方向變化不定時,檢測性能不盡人意。李春華等[11]使用超像素先驗條件,借助三維凸包定位顯著目標區(qū)域,得到更加準確的顯著圖。

與圖像顯著性相比,提取動態(tài)場景中顯著目標的算法較少,這主要是因為時間維度增加了檢測難度。視頻序列中目標運動模式多樣、場景復雜多變、存在相機運動,使得視頻顯著性檢測具有挑戰(zhàn)性?,F(xiàn)有的視頻顯著性檢測算法大多只是簡單地將運動特征添加到圖像顯著性模型中,計算運動顯著概率[12-13]。這些方法通常忽略了視頻顯著性應當具有時空一致性的約束,即前景或背景區(qū)域的顯著性值不應當沿著時間軸顯著變化。

針對現(xiàn)有視頻顯著性檢測算法存在時空不一致的問題,本文將顏色和邊界信息與光流梯度結合識別視頻顯著目標,以運動映射圖的形式將每幀圖像顯著目標的像素級特征動態(tài)結合,提取顯著性區(qū)域。實驗結果表明,加入顏色和邊界信息的光流梯度可以有效減少相機運動以及背景運動造成顯著對象定位不準確的問題。

1 算法描述

本文提出的算法包括運動顯著圖、像素級顯著性估計以及顯著圖融合3部分。算法的實現(xiàn)過程如圖1所示。首先在超像素分割的基礎上利用光流梯度特征初步獲取當前幀與前一幀的運動變化,結合幀內(nèi)顏色和邊界信息將其轉化為運動顯著圖;利用視頻幀的細節(jié)特征,對每一幀進行像素級顯著性估計;最后,將獲得的運動映射圖與顯著性估計動態(tài)加權融合得到最后的時空顯著圖。

1.1 運動顯著圖

光流梯度方法利用圖像序列中像素在時間域上的變化以及相鄰幀之間的相關性來找到上一幀和當前幀之間的對應關系,從而計算出相鄰幀之間物體的運動信息。由于運動梯度比運動顯著線索更可靠[14],本文通過運動梯度與顏色梯度結合生成時空梯度來計算運動顯著圖。

輸入一個視頻序列I=I1,I2,…,In,使用線性迭代聚類 (simple linear iterative clustering,SLIC)[15]分割每幀的超像素,保留視頻內(nèi)容的初始結構元素。邊界和不連續(xù)性揭示了視頻幀的重要內(nèi)容,它們作為超像素之間的邊界,被保留下來。令第k幀Ik的超像素集為Pk=Pk,1,Pk,2,…,對各超像素計算X=x,y處的顏色梯度值:

MckX=SymbolQC@I′kX,(1)

式中I′k是幀Ik的超像素抽象模型。

令Ik的光流場為ck,通過相鄰幀之間的光流變化量,利用大位移運動估計法[16]計算Ik幀的光流梯度:

MdkX=SymbolQC@ckX。(2)

將得到的顏色梯度值和光流梯度值整合到幀Ik的時空梯度場Mk中:

MkX=MckX·1-exp-λ·MdkX, max(Mdk)>1,MckX, max(Mdk)≤1,(3)

式中:λ是指數(shù)函數(shù)的比例因子,根據(jù)經(jīng)驗令λ=1;當max(Mdk)≤1時,光流梯度值可以忽略不計,時空梯度場中只有顏色梯度參與計算,場景幾乎靜止不動;當maxMdk>1時,光流算法對于運動目標具有極強的分辨能力。因此光流梯度特征顯著圖較為準確地指出視頻中的顯著目標區(qū)域。

對于視頻幀的每個像素,利用時空梯度場上、下、左、右4個方向的梯度流值最小的像素流值作為運動顯著梯度流,對最小的像素梯度值大于0.2的前景進行灰度膨脹,區(qū)分出視頻幀的顯著目標,作為視頻的運動顯著圖S1。

由于光流顯著圖包含了視頻幀中所有的運動變化量,所以將顏色、邊界信息與光流梯度特征結合,可以有效去除背景運動、相機運動以及突變情況造成的影響,提高檢測結果的準確性。

運動顯著圖形成過程如圖2所示。

1.2 像素級顯著性估計

在上節(jié)邊界檢測中沒有考慮圖像細節(jié)特征,所以需要進行幀內(nèi)顯著性估計,將圖像的細節(jié)特征體現(xiàn)出來。文獻[17]利用邊界信息從圖像超像素中收集背景種子,從背景顯著圖中選擇前景種子,計算出前景顯著圖,然后將背景顯著圖和前景顯著圖統(tǒng)一映射,這種算法在復雜背景以及前景不顯著的情況下,檢測效果仍然不佳。文獻[18]側重背景區(qū)域分割,將前景種子集進行流行排序,通過4個方向的顯著圖映射得到了良好的效果。但是這種方式不宜用于視頻顯著性檢測。為解決上述難題,本文采用前景種子隨機游走排序算法。首先通過去除錯誤邊界來優(yōu)化圖像邊界,并通過背景查詢生成顯著性估計概率;然后,通過背景估計的互補值生成前景顯著性估計概率;最后,從前景顯著性估計中提取種子作為參考,并使用文獻[19]所提出的正則化隨機游走排序算法計算像素級顯著圖。

1.2.1 背景顯著性估計

對于輸入視頻幀序列,如果一個超像素與背景種子具有較大的顏色差異,那么它更有可能成為顯著對象。另一方面,背景種子對距離較近的超像素貢獻較大,而對距離較遠的超像素貢獻較小。因此,利用空間加權的顏色對比度來估計基于背景的顯著性,將背景種子集表示為BG,所以Ik幀中第i個超像素的顯著性:

Sbi=∑n≠i,n∈BGd(ai,an)(1-d(bi,bn)/θ),(4)

式中:dai,an和dbi,bn分別為背景種子集BG中第i個超像素和第n個超像素的顏色和空間距離的歐幾里得的歸一化值;θ為調(diào)節(jié)因子,用于調(diào)節(jié)顏色和空間距離的重要性。為了避免有些超像素出現(xiàn)零自相似性,通過式(5)重新計算所有基于邊界背景的顯著性估計概率:

S-bi=1BG(Sbi+1BG-1∑m∈BGδ(m,i)Sbm),(5)

δ(m,i)=1, m=i,0, m≠i,(6)

式中:BG為背景種子集的數(shù)值表示;Sbm為第m個超像素的背景顯著圖。

1.2.2 前景顯著性估計

首先使用自適應閾值算法對背景的顯著圖進行二值化,然后選擇基于背景的顯著值大于閾值的超像素來組成前景種子集。使用自適應閾值生成的前景種子比使用固定閾值生成的前景種子更準確和可靠,因為顯著性值的范圍在不同圖像中是變化不定的。前景種子為前景顯著圖計算提供了足夠的對象信息,如圖3 c)所示,其中非前景種子被遮蔽。

用前景種子計算每個超像素的空間顏色相似度,來描述超像素的前景顯著性:

Sfi=∑n≠i,n∈FGβd(ai,an)+d(bi,bn),(7)

式中:dai,an和dbi,bn分別為前景種子集FG中第i個超像素和第n個超像素的顏色和空間距離的歐幾里得表示;β和是用于平衡顏色和位置距離之間重要性。圖3 d)示出了一些前景顯著圖,從中可以看出,由于背景噪聲與所選前景種子形成強烈對比,背景的顯著圖中的背景噪聲被較好抑制。盡管如此,還是有一些失敗的案例。例如,在圖3 d)的底部行中,背景顯著圖中錯誤地將一些背景區(qū)域檢測為顯著對象,導致前景種子將噪聲引入前景顯著圖中。

1.2.3 像素級顯著性估計

重啟隨機游走是基于過去的表現(xiàn),無法預測將來的發(fā)展步驟和方向[13]。正則化隨機行走排序顯著優(yōu)于隨機游走,本節(jié)使用它優(yōu)化前面獲取的顯著性圖。將1.2.1節(jié)和1.2.2節(jié)獲得的背景種子和前景種子整合到PkM中。當k=1時,對應背景種子集BG;當k=2時,對應前景種子集FG。k=2的情況下,將前景種子集作為參考,利用隨機游走算法重新排序,獲得優(yōu)化的前景顯著圖,即像素級顯著圖S2,其尺寸與輸入圖像的尺寸一致。如圖3 e)所示。

1.3 時空顯著圖

通過光流梯度特征和背景、前景顯著性估計,分別獲得了運動顯著圖和超像素級顯著圖?;诠饬魈荻忍卣鞯娘@著圖能夠更加準確地突出視頻中運動變化,而基于背景、前景的像素級顯著性估計能夠更好地抑制背景噪聲,突出顯著目標的細節(jié)特征。因此,采用了一種動態(tài)集成機制區(qū)域,綜合利用光流和背景前景信息,如式(8)和式(9)所示:

S=ρ×S1+(1-ρ)×S2,(8)

ρ=mean(S1×S2)mean(S1×S2)+mean(S1+S2)/2,(9)

式中:S1,S2分別表示運動顯著圖和像素級顯著圖;ρ為空間顯著性的權重,由時間顯著性的散度來決定。當運動目標較小或運動區(qū)域較集中時,應減小ρ值,從而增加時間顯著性的權重。當運動目標分散時,增加空間顯著性的權重。通過這種方法可以得到更真實的時空顯著圖。

2 實驗結果分析

將本節(jié)算法與現(xiàn)有7種經(jīng)典流行算法進行比較,7種經(jīng)典算法分別為MST算法[20]、SIVM算法[21]、SST算法[22]、TIMP算法[23]、SPVM算法[24]、RWRV算法[13]、RRWR算法[19],在SegTrack_v2[25]和DAVIS[26]兩大公開數(shù)據(jù)集中進行測試。在本次測試對比中,采用主觀效果比較和客觀指標比較。

2.1 主觀效果比較

本節(jié)將各種經(jīng)典算法與本章算法在視覺主觀方面進行比較,圖4表示傳統(tǒng)經(jīng)典算法和本文算法在SegTrack_v2數(shù)據(jù)庫和DAVIS數(shù)據(jù)庫中的測試結果。從圖4中可以看出,本文算法可以完整、準確地顯示顯著區(qū)域,保持清晰的目標邊界,還能夠有效抑制背景噪聲。

圖4中GT為真實檢測,結果從圖4中可以看出,MST算法能檢測出簡單背景視頻中的目標區(qū)域,但當背景雜亂時,背景噪聲沒有被充分抑制消除且與前景對比度低,檢測效果不理想,如圖4中的soccerball,girl,原因在于MST算法是在頻域范圍內(nèi)進行的顯著性定義,當處理復雜背景時,容易將高頻部分的噪聲區(qū)域誤判定為前景區(qū)域,使得檢測效果不佳;SST算法不管是處理目標突出的視頻還是背景復雜的視頻檢測效果都不好;SIVM算法能夠檢測出前景區(qū)域,但在抑制背景噪聲方面的性能較差;TIMP算法雖然能將前景目標都完整地檢測出,但是仍然會有背景噪聲影響,并且檢測物不明亮會造成目標細節(jié)缺失;SPVM算法相較與TIMP算法更好地抑制背景噪聲,但是在背景模糊的情況下,如圖4 frog中犧牲了前景細節(jié),且把soccerball中的部分目標當成背景抑制掉了;RWRV算法基于重啟隨機游走算法,運用運動獨特性、時間一致性以及突變特征找到時間顯著性和運動顯著性,然后將兩者結合找出運動目標的轉移概率,為下一幀做映射,從而進行迭代計算顯著性,雖然這種方法考慮了視頻檢測的時空一致性,但是在抑制背景噪聲方面還有待提高;RRWR算法基于正則化隨機游走排序算法,該方法在前景種子基礎上對超像素進行排序,達到了較好的效果,但是由于超像素分割不精確,也會出現(xiàn)檢測結果不理想的情況,如圖4 girl,本文算法(OUR算法)針對以上檢測方法的不足,提出了基于光流梯度特征和像素級估計算法,本文算法的檢測結果能夠較好地抑制背景噪聲,完整地檢測出顯著區(qū)域,整體性能優(yōu)于對比算法。

雖然本文算法能夠對大部分視頻中的顯著區(qū)域完整檢測出,但當目標對象出現(xiàn)在圖像邊緣附近或者目標區(qū)域顏色接近背景區(qū)域時,檢測結果不盡人意。圖5為本文算法的部分失敗案例。原因在于當圖像中目標所占的比例過于低和當目標區(qū)域顏色接近背景區(qū)域時,構建的像素級顯著估計不能完整地將顯著區(qū)域包裹在內(nèi),圖像的檢測結果不夠完整,準確度降低。

2.2 定量實驗分析

為了避免僅憑主觀效果評價顯著圖算法的局限性,本節(jié)算法分別在SegTrack_v2和DAVIS數(shù)據(jù)集中進行測試,并采用準確率-召回率(precision-recall,PR曲線)、F-measure值和平均絕對誤差(MAE)來定量分析算法的性能。準確率表示的是得到的顯著圖中正確區(qū)域所占的比例,召回率表示的是顯著圖與圖集中的真值圖相對應的正確區(qū)域的比例。PR曲線的初始值越高,隨著召回率的增大曲線越平穩(wěn)則表明算法檢測效果越佳。F-measure測量值用來評價算法的總體性能。

precision=∑Gt(x,y)×S(x,y)∑S(x,y),(10)

recall=∑Gt(x,y)×S(x,y)∑Gt(x,y),(11)

F-maesure=(1+β2)precision×recallβ2×precision+recall,(12)

式中:Gt(x,y)表示Ground Truth圖;S(x,y)為顯著圖,根據(jù)經(jīng)驗β2=0.3。

平均絕對誤差(MAE)表示二值圖與真值圖的接近程度,數(shù)值越小,兩種圖像越接近算法性能越好。它被定義為

MAE=1W×H∑Wx=1∑Hy=1S(x,y)-G(x,y)。(13)

在SegTrack_v2數(shù)據(jù)集上選用6個不同場景的視頻段(bmx,frog,cheetah,soldier,girl和monkey),包含222張300×300的視頻幀參與測試。如圖6所示為樣本測試的PR曲線、客觀評價指標數(shù)值和MAE值。由圖6 a)可以看到本文算法的PR曲線略高于RRWR,SPVM,SIVM等算法的曲線,說明在相同召回率的情況下,本文算法準確率的值高于其他算法,本文算法提取到的顯著區(qū)域更加準確。隨著召回率的增加,分割閾值逐漸減小,使得更多區(qū)域被判斷為顯著區(qū)域,所以各個算法對應的準確率下降,唯獨MST算法的準確率比本章算法稍高一點。圖6 b)表示在自適應閾值下得到的各項指標數(shù)值,可以看出本文算法的綜合指標F-measure值最高。由圖6 c)可以看出本文算法的錯誤率最低,說明準確率更高。

在DAVIS數(shù)據(jù)集上選用6個不同場景的視頻段(kite-surf,bus,car-turn,bmx-bumps,hike和soccerball),包含420張300×300的視頻幀參與測試。如圖7所示為樣本數(shù)據(jù)得到測試的PR曲線和指標數(shù)值。圖7 a)可以看出PR曲線在召回率比較小時,本文算法比其他算法性能好。但是隨著召回率升高,本文算法和RWRV算法性能接近,表明在圖像數(shù)據(jù)復雜度變高時,這兩種算法檢測效果具有穩(wěn)定性。在對比結果評價指標方面,可以看出precision值高于其他算法,有相對較高的查準率,綜合評價指標F-measure值最高,MAE值最低。綜合兩種結果表明本文算法在該數(shù)據(jù)集中有良好的表現(xiàn),性能有所提升。

3 結 語

提出了一種像素級視頻顯著性檢測算法,將光流顯著圖與像素級顯著圖動態(tài)結合進行時空一致化處理,獲得了較為準確、完整的視頻顯著性圖。首先,運動光流梯度特征聯(lián)合顏色和邊界信息準確定位視頻中顯著目標,為檢測結果的準確性提供了基礎;其次,將背景種子、前景種子作為參考,進行幀內(nèi)像素級估計,為檢測結果的完整性提供了保障;最后,運動顯著圖和像素級顯著圖動態(tài)融合,分情況考慮視頻內(nèi)容,使本文算法更具有普遍性。在公開數(shù)據(jù)集SegTrack_v2和DAVIS數(shù)據(jù)庫中的測試實驗結果,反映了本文算法的客觀評價指標PR曲線和F-measure值優(yōu)于傳統(tǒng)算法,其中F-measure值在2個數(shù)據(jù)集中分別為0.631和0.679。本文算法利用加入邊界和顏色因素的光流梯度特征能夠較好地解決傳統(tǒng)視頻檢測模型中前景提取效果差的問題,充分突出了改進光流和動態(tài)融合方式的時空一致性優(yōu)勢。但是,當目標對象出現(xiàn)在邊緣附近或者目標區(qū)域顏色接近背景區(qū)域時,檢測結果不理想。接下來將就當目標物出現(xiàn)在邊緣以及目標區(qū)域與背景區(qū)域顏色接近的視頻中時,如何提高顯著區(qū)域檢測結果的準確性繼續(xù)開展深入研究。

參考文獻/References:

[1] SULTAN S,JENSEN C D.Metadata based need-to-know view in large-scale video surveillance systems[J].Computers & Security,2021,111:102452.

[2] 薛培林,吳愿,殷國棟,等.基于信息融合的城市自主車輛實時目標識別[J].機械工程學報,2020,56(12):165-173.

XUE Peilin,WU Yuan,YIN Guodong,et al.Real-time target recognition for urban autonomous vehicles based on information fusion[J].Journal of Mechanical Engineering,2020,56(12):165-173.

[3] LAHOULI I,KARAKASIS E,HAELTERMAN R,et al.Hot spot method for pedestrian detection using saliency maps,discrete Chebyshev moments and support vector machine[J].IET Image Processing,2018,12(7):1284-1291.

[4] ZHENG Bowen,ZHANG Jianping,SUN Guiling,et al.Fully learnable model for task-driven image compressed sensing[J].Sensors,2021,21(14):4662.

[5] REKHA B,KUMAR R,SCIENCE C.High quality video assessment using salient features[J].ndonesian Journal of Electrical Engineering,2017,7(3):767-772.

[6] MARCHESOTTI L,CIFARELLI C,CSURKA G.A framework for visual saliency detection with applications to image thumbnailing[C]//2009 IEEE 12th International Conference on Computer Vision.Kyoto:IEEE,2009:2232-2239.

[7] KANAN C,TONG M H,ZHANG Lingyun,et al.SUN:Top-down saliency using natural statistics[J].Visual Cognition,2009,17(6/7):979-1003.

[8] CHENG Mingming,MITRA N J,HUANG Xiaolei,et al.Global contrast based salient region detection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2015,37(3):569-582.

[9] ITTI L,KOCH C,NIEBUR E.A model of saliency-based visual attention for rapid scene analysis[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1998,20(11):1254-1259.

[10]ZHU Chunbiao,LI Ge,WANG Wenmin,et al.An innovative salient object detection using center-dark channel prior[C]//2017 IEEE International Conference on Computer Vision Workshops (ICCVW).Venice:IEEE,2017:1509-1515.

[11]李春華,秦云凡,劉玉坤.改進凸包的貝葉斯模型顯著性檢測算法[J].河北科技大學學報,2021,42(1):30-37.

LI Chunhua,QIN Yunfan,LIU Yukun.Bayesian model saliency detection algorithm based on improved convex hull[J].Journal of Hebei University of Science and Technology,2021,42(1):30-37.

[12]XI Tao,ZHAO Wei,WANG Han,et al.Salient object detection with spatiotemporal background priors for video[J].IEEE Transactions on Image Processing,2017,26(7):3425-3436.

[13]KIM H,KIM Y,SIM J Y,et al.Spatiotemporal saliency detection for video sequences based on random walk with restart[J].IEEE Transactions on Image Processing,2015,24(8):2552-2564.

[14]WANG Wenguan,SHEN Jianbing,SHAO Ling.Consistent video saliency using local gradient flow optimization and global refinement[J].IEEE Transactions on Image Processing,2015,24(11):4185-4196.

[15]ACHANTA R,SHAJI A,SMITH K,et al.SLIC superpixels compared to state-of-the-art superpixel methods[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2012,34(11):2274-2282.

[16]CHEN Jun,CAI Zemin,LAI Jianhuang,et al.Efficient segmentation-based patchmatch for large displacement optical flow estimation[J].IEEE Transactions on Circuits and Systems for Video Technology,2019,29(12):3595-3607.

[17]WANG Jianpeng,LU Huchuan,LI Xiaohui,et al.Saliency detection via background and foreground seed selection[J].Neurocomputing,2015,152:359-368.

[18]YANG Chuan,ZHANG Lihe,LU Huchuan,et al.Saliency detection via graph-based manifold ranking[C]//2013 IEEE Conference on Computer Vision and Pattern Recognition.Portland:IEEE,2013:3166-3173.

[19]LI Changyang,YUAN Yuchen,CAI Weidong,et al.Robust saliency detection via regularized random walks ranking[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Boston:IEEE,2015:2710-2717.

[20]TU W C,HE Shengfeng,YANG Qingxiong,et al.Real-time salient object detection with a minimum spanning tree[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Las Vegas:IEEE,2016:2334-2342.

[21]RAHTU E,KANNALA J,SALO M,et al.Segmenting Salient Objects from Images and Videos[M].Heidelberg:Springer,2010:366-379.

[22]SEO H J,MILANFAR P.Static and space-time visual saliency detection by self-resemblance[J].Journal of Vision,2009,9(12):15.1-27.

[23]ZHOU Feng,KANG S B,COHEN M F.Time-mapping using space-time saliency[C]//2014 IEEE Conference on Computer Vision and Pattern Recognition.Columbus:IEEE,2014:3358-3365.

[24]LIU Zhi,ZHANG Xiang,LUO Shuhua,et al.Superpixel-based spatiotemporal saliency detection[J].IEEE Transactions on Circuits and Systems for Video Technology,2014,24(9):1522-1540.

[25]PERAZZI F,PONT-TUSET J,MCWILLIAMS B,et al.A benchmark dataset and evaluation methodology for video object segmentation[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Las Vegas:IEEE,2016:724-732.

[26]LI Fuxin,KIM T,HUMAYUN A,et al.Video segmentation by tracking many figure-ground segments[C]//2013 IEEE International Conference on Computer Vision.Sydney:IEEE,2013:2192-2199.

主站蜘蛛池模板: 国产精品专区第1页| jizz亚洲高清在线观看| 欧美黄色a| 国产精品亚欧美一区二区三区| 成年看免费观看视频拍拍| 麻豆精品视频在线原创| 久草网视频在线| 中文字幕人妻无码系列第三区| 99er精品视频| 一本大道视频精品人妻| 国产午夜不卡| 999国产精品永久免费视频精品久久| 亚国产欧美在线人成| 久久黄色毛片| 日本91视频| 97国产在线视频| 宅男噜噜噜66国产在线观看| 尤物精品国产福利网站| 超碰免费91| 久久精品免费看一| 国产无码精品在线| 在线观看av永久| 无码中文字幕乱码免费2| 日韩精品亚洲一区中文字幕| 亚洲aaa视频| 国产91无码福利在线| 国产亚洲精品97在线观看| 亚洲性影院| 亚洲天堂免费在线视频| 青草视频在线观看国产| 性欧美久久| 亚洲国产成人精品青青草原| 日韩精品一区二区三区中文无码| 日本一区二区不卡视频| 久久 午夜福利 张柏芝| 久久婷婷人人澡人人爱91| 十八禁美女裸体网站| 网友自拍视频精品区| 又黄又湿又爽的视频| 欧美在线黄| 色天堂无毒不卡| 亚洲精品无码AⅤ片青青在线观看| 日本在线视频免费| 亚洲综合激情另类专区| 天天躁夜夜躁狠狠躁躁88| 亚洲国模精品一区| 91精品视频网站| 欧美一级高清免费a| 亚洲人视频在线观看| 亚洲欧美天堂网| 亚洲国产中文精品va在线播放| 人妻无码中文字幕第一区| 国内精品伊人久久久久7777人| 狠狠五月天中文字幕| 欧美成a人片在线观看| 亚洲三级a| 亚洲色中色| 亚洲久悠悠色悠在线播放| 国产老女人精品免费视频| 四虎影视8848永久精品| 呦视频在线一区二区三区| 国产麻豆精品久久一二三| 秋霞午夜国产精品成人片| 国产精品xxx| 国产精品视频第一专区| 国产精品亚洲一区二区在线观看| 久久精品丝袜高跟鞋| 五月激激激综合网色播免费| 欧美精品黑人粗大| 乱人伦视频中文字幕在线| 一本综合久久| 久久综合九色综合97婷婷| 亚洲国产精品一区二区第一页免| WWW丫丫国产成人精品| 亚洲最大福利网站| 午夜色综合| 人妻丝袜无码视频| 五月婷婷欧美| 激情無極限的亚洲一区免费| 日韩欧美国产成人| 国产精品欧美激情| 制服丝袜亚洲|