999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種改進(jìn)的時(shí)空線索的視頻顯著目標(biāo)檢測(cè)方法

2015-04-17 02:45:54秦利斌劉純平王朝暉
關(guān)鍵詞:區(qū)域檢測(cè)方法

秦利斌,劉純平,王朝暉,季 怡

QIN Libin,LIU Chunping,WANG Zhaohui,JI Yi

蘇州大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,江蘇 蘇州215006

Shool of Computer Science and Technology,Soochow University,Suzhou,Jiangsu 215006,China

1 引言

顯著區(qū)域檢測(cè)是計(jì)算機(jī)視覺(jué)的一項(xiàng)重要的技術(shù),其目的是將靜態(tài)圖像或者視頻中顯著的物體與背景分離開(kāi)來(lái),為圖像或視頻中物體的快速定位、特征提取、圖像和視頻的分析等后續(xù)工作提供重要的基礎(chǔ)。顯著區(qū)域檢測(cè)的研究是在人眼視覺(jué)注意模型研究的基礎(chǔ)上對(duì)其做出的一個(gè)實(shí)用性的模擬過(guò)程,即人眼視覺(jué)注意模型是理論層次的概念級(jí)模型,而顯著區(qū)域檢測(cè)模型則是對(duì)視覺(jué)注意模型的量化表示。

顯著性檢測(cè)方法通常分為三類:自頂向下的方法、自底向上的方法和混合方法[1]。自頂向下的方法是由任務(wù)驅(qū)動(dòng)的,在檢測(cè)之前已知目標(biāo)的先驗(yàn)知識(shí)。這種方法基于人腦的認(rèn)知知識(shí),是一個(gè)自發(fā)的過(guò)程。傳統(tǒng)的基于規(guī)則或者基于訓(xùn)練的目標(biāo)檢測(cè)都是這類方法的例子。自底向上的方法通常被稱作刺激驅(qū)動(dòng)的方法。這類方法基于人類對(duì)外部刺激的反應(yīng),例如明亮的顏色、特殊的形狀或者是反常的運(yùn)動(dòng),這是一種強(qiáng)制的過(guò)程[2]。早期的顯著區(qū)域檢測(cè)大多以靜態(tài)圖像作為研究對(duì)象,而對(duì)于視頻中的顯著區(qū)域檢測(cè)是近年來(lái)的主流研究。

視頻的顯著區(qū)域檢測(cè)模型不僅要考慮視頻幀內(nèi)圖像的空間顯著性,而且要考慮視頻幀間的時(shí)間顯著性。傳統(tǒng)的視頻中顯著區(qū)域檢測(cè)是從靜態(tài)圖像的顯著區(qū)域檢測(cè)模型進(jìn)行擴(kuò)展,如Itti 等在經(jīng)典Itti98 的基礎(chǔ)上增加了運(yùn)動(dòng)特征及幀間閃爍[3],從而將該模型的應(yīng)用擴(kuò)展到視頻中的時(shí)空顯著圖的計(jì)算。Guo[4]將譜殘差法做了相應(yīng)改進(jìn)并擴(kuò)展到視頻中,首先對(duì)視頻中各幀分別提取運(yùn)動(dòng)、紅綠對(duì)比色、藍(lán)橙對(duì)比色和亮度等特征,然后使用四元傅里葉變換獲取上述四種特征的相位譜,最終得到融合多個(gè)通道的顯著圖。Lu 等人[5]在他們的視覺(jué)顯著模型中使用了底層特征如顏色、紋理和運(yùn)動(dòng)以及認(rèn)知特征,比如皮膚和臉,同時(shí)也用了不同種類的圖像。Cheng[6]等人在視覺(jué)注意模型中加入了運(yùn)動(dòng)信息,他們的模型分析水平方向和垂直方向的像素運(yùn)動(dòng)的大小。但是在實(shí)際應(yīng)用中,通過(guò)靜態(tài)疊加方式混合時(shí)空特征的方法,難以滿足不同的應(yīng)用需求,很多研究也表明時(shí)空特征的靜態(tài)混合效果并不理想。Zhai 和Shah 提出一種利用特征點(diǎn)匹配的方法獲取運(yùn)動(dòng)信息,并采用動(dòng)態(tài)權(quán)重融合策略獲取混合時(shí)空特征的顯著區(qū)域檢測(cè)方法[2]。Bioman[7]等提出檢測(cè)視頻中時(shí)間空間域上不規(guī)則性的方法,該方法并不直接采用實(shí)際的運(yùn)動(dòng)信息,而是將視頻塊的2 維和3 維紋理和訓(xùn)練數(shù)據(jù)集進(jìn)行比較,從而得到視頻中不規(guī)則運(yùn)動(dòng)的信息。Meur[8]等提出了基于視覺(jué)注意的時(shí)間空間域模型,通過(guò)分析仿射參量來(lái)生成運(yùn)動(dòng)顯著圖。Kienzle[9]通過(guò)對(duì)眼動(dòng)數(shù)據(jù)的學(xué)習(xí)構(gòu)建了基于時(shí)空興趣的檢測(cè)子,通過(guò)這些檢測(cè)子對(duì)輸入視頻信號(hào)分別在時(shí)域和空域內(nèi)濾波,從而檢測(cè)得到其中的顯著對(duì)象。Duan 等人[10]利用空間加權(quán)相異性來(lái)進(jìn)行顯著性檢測(cè)。Mahadevan 和Vasconcelos[11]針對(duì)高度動(dòng)態(tài)的場(chǎng)景,提出了時(shí)空顯著性檢測(cè)方法,以有效地提出前景中的顯著目標(biāo)。Mahadevan 和Vasconcelos[12]利用中心-周圍的顯著機(jī)制進(jìn)行類似生物激勵(lì)的目標(biāo)跟蹤。Ren 等人[13]利用稀疏重構(gòu)過(guò)程去捕捉中心-周圍高對(duì)比度的區(qū)域作為空間顯著性,對(duì)于時(shí)間顯著性則利用重構(gòu)誤差、稀疏性規(guī)則化和局部軌跡對(duì)比度進(jìn)行運(yùn)動(dòng)顯著性的測(cè)量,并將時(shí)間和空間顯著性進(jìn)行合并,在人眼固定視頻數(shù)據(jù)庫(kù)上具有較好性能。Décombas 等人[14]從時(shí)間和空間特征角度出發(fā),利用局部對(duì)比度和全局稀少特征作為顯著性,從顏色和方位提取空間特征,從運(yùn)動(dòng)維度和方向提取時(shí)間特征,提出時(shí)空稀少顯著模型。因此從時(shí)空特征出發(fā)進(jìn)行視頻中顯著區(qū)域檢測(cè)方法的研究成為視頻顯著性分析的重點(diǎn),不同的時(shí)空顯著性檢測(cè)方法各具特色。

本文基于Zhai 和Shah 提出的時(shí)空顯著檢測(cè)方法,提出基于HSL 顏色空間的視頻空間特征顯著性的描述方法,并結(jié)合原來(lái)的時(shí)間顯著性計(jì)算方法,通過(guò)動(dòng)態(tài)權(quán)重分配自動(dòng)融合時(shí)、空顯著性而得到最終的顯著圖,最終以顯著圖的搜索獲取視頻中的顯著區(qū)域。

2 改進(jìn)時(shí)空線索顯著區(qū)域檢測(cè)方法

Zhai 和Shah 提出的時(shí)空線索的顯著模型是一種自底向上的視覺(jué)顯著性檢測(cè)方法。這種方法能夠檢測(cè)出視頻序列中的注意區(qū)域和注意動(dòng)作。圖1 給出了基于時(shí)空線索的視頻顯著性檢測(cè)的框架。本文依照Z(yǔ)hai 和Shah 提出的方法框架,在空間顯著性的計(jì)算方面進(jìn)行改進(jìn),獲得了比原方法更好的顯著區(qū)域檢測(cè)效果。

圖1 基于時(shí)空線索的視頻顯著性檢測(cè)框架

2.1 時(shí)間顯著圖生成

運(yùn)動(dòng)是視頻區(qū)別于靜態(tài)圖像的一個(gè)重要特征,時(shí)間顯著性的計(jì)算就是要找出視頻中的運(yùn)動(dòng)區(qū)域并且以顯著度來(lái)定量表示運(yùn)動(dòng)區(qū)域的顯著性大小。時(shí)間顯著性檢測(cè)中,時(shí)間顯著圖往往是計(jì)算圖像像素之間的運(yùn)動(dòng)對(duì)比得到,傳統(tǒng)的方法多數(shù)是基于密集光流場(chǎng)。如果場(chǎng)景中存在多個(gè)運(yùn)動(dòng)圖層,那么邊緣像素的光流就會(huì)很“嘈雜”,而且密集光流在紋理較少的區(qū)域可能產(chǎn)生錯(cuò)誤。除此之外光流場(chǎng)對(duì)噪聲的魯棒性也比較差,而特征點(diǎn)的匹配(也稱為稀疏光流)表示的運(yùn)動(dòng)軌跡則比較精確和穩(wěn)定,因此Zhai 和Shah 提出了基于SIFT[15-16]特征特征提取與匹配和RANSAC[17]運(yùn)動(dòng)聚類的時(shí)間顯著圖生成的方法。在顯著度計(jì)算中使用圖像間的以平面運(yùn)動(dòng)作為運(yùn)動(dòng)片段的模型幾何變換,該方法主要分為三步:

(1)用SIFT 特征提取與匹配算法得到特征點(diǎn)的運(yùn)動(dòng)軌跡。

(2)用RANSAC 算法進(jìn)行運(yùn)動(dòng)聚類,得到運(yùn)動(dòng)平面。在這個(gè)過(guò)程中采用迭代的方式獲取不同的運(yùn)動(dòng)平面。具體是將每次聚類的內(nèi)點(diǎn)作為一個(gè)找到的運(yùn)動(dòng)平面,然后對(duì)該次聚類的外點(diǎn)繼續(xù)采用RANSAC 聚類尋找新的內(nèi)點(diǎn)作為運(yùn)動(dòng)平面,直到再也找不到符合運(yùn)動(dòng)平面聚類的內(nèi)點(diǎn)為止。

(3)計(jì)算運(yùn)動(dòng)平面的顯著度。運(yùn)動(dòng)平面的顯著度是基于特征點(diǎn)的運(yùn)動(dòng)對(duì)比計(jì)算得到的。這和原來(lái)論文中的計(jì)算方式一樣,主要是利用運(yùn)動(dòng)平面的單應(yīng)性矩陣的幾何變換誤差來(lái)進(jìn)行顯著圖的計(jì)算。

圖2 給出了一組使用SIFT 和RANSAC 方法得到的運(yùn)動(dòng)平面顯著性檢測(cè)實(shí)驗(yàn)結(jié)果。

圖2 時(shí)間顯著圖生成實(shí)驗(yàn)結(jié)果

圖2 中第一列和第二列是視頻序列中的兩幀圖片,第三列是時(shí)間顯著圖,從時(shí)間顯著圖上可以發(fā)現(xiàn),前兩行的例子中找到了運(yùn)動(dòng)平面,第三行的例子卻沒(méi)有找到。通過(guò)跟蹤程序的運(yùn)行發(fā)現(xiàn),在第三個(gè)例子中兩幅圖片共有6 對(duì)匹配點(diǎn),而要通過(guò)RANSAC 找到運(yùn)動(dòng)平面必須滿足這6 個(gè)點(diǎn)全部是內(nèi)點(diǎn),但實(shí)際上僅有4 個(gè)內(nèi)點(diǎn),所以在這個(gè)例子中沒(méi)有找到運(yùn)動(dòng)平面。因此這也是該方法進(jìn)行時(shí)間顯著性檢測(cè)可能不能正確獲取運(yùn)動(dòng)平面顯著性的一個(gè)主要原因所在。

2.2 空間顯著區(qū)域提取

心理學(xué)研究表明人類感知系統(tǒng)對(duì)顏色、亮度、紋理這些視覺(jué)信號(hào)的對(duì)比很敏感。在Zhai 和Shah 的空間顯著模型中只考慮了圖像的亮度信息而沒(méi)有考慮顏色和紋理的信息,所以空間顯著區(qū)域的提取的準(zhǔn)確性不高,圖3 是原有方法的一個(gè)失敗的例子,可以看到圖中的紅色小汽車比較吸引人的注意,但最后的空間顯著區(qū)域并沒(méi)有覆蓋它。為此,本文在空間顯著性的計(jì)算中加入了顏色信息,為了更好地描述人眼的視覺(jué)特性,采用HSV顏色空間,從像素級(jí)和區(qū)域級(jí)兩個(gè)層次來(lái)表示顯著性。

圖3 原始方法的一個(gè)失敗例子

HSV 模型在1978 年由埃爾維·雷·史密斯創(chuàng)立,它是三原色光模式的一種非線性變換。HSV 在數(shù)學(xué)上定義為在RGB 空間中的顏色的R,G 和B 的坐標(biāo)的變換。它比RGB 更準(zhǔn)確地描述了感知和顏色的聯(lián)系。在HSV 顏色空間中,H 指hue(色相),S 指saturation(飽和度),V 指value(色調(diào))。從RGB 空間轉(zhuǎn)換到HSV 空間的公式如下:

其中w1、w2和w3是權(quán)值,實(shí)驗(yàn)中對(duì)w1,w2和w3在0.1 到0.9 之間進(jìn)行調(diào)試,由于亮度受到光照等因素的影響,使得同一目標(biāo)也有可能呈現(xiàn)出不同的亮度特征,因此w3過(guò)大則會(huì)使得亮度分量在顯著圖生成中占主導(dǎo),得到的效果和改進(jìn)前的方法相比,沒(méi)有顯著提高,也不利于不同光照下的顯著對(duì)象的檢測(cè),而w3過(guò)小則會(huì)使得在顯著圖生成過(guò)程中亮度這一重要的信息幾乎不起作用,這樣對(duì)于大多數(shù)情況都不能得到很好的效果,因此適當(dāng)?shù)募s束亮度,增加色調(diào)和飽和度的權(quán)重,可以比較好的反映真實(shí)場(chǎng)景中的原始信息。在論文的實(shí)驗(yàn)中w1、w2和w3取0.4,0.3,0.3 時(shí)總體效果最好。

得到了像素級(jí)的顯著圖之后,找出其中的局部極大值點(diǎn),以這些點(diǎn)為中心初始化矩形的種子區(qū)域,然后通過(guò)分析矩形內(nèi)外兩側(cè)的能量,將矩形向矩形四邊的方向擴(kuò)展。這樣矩形將會(huì)在像素級(jí)顯著圖的亮暗區(qū)域的交界處停止擴(kuò)展。由于存在不同種子區(qū)域擴(kuò)展后覆蓋同一塊顯著區(qū)域的情況,通過(guò)分析矩形的重疊率,將重疊率高的矩形合并起來(lái),最后,將矩形內(nèi)像素的平均灰度值作為該矩形顯著區(qū)域的顯著度。圖4 給出了原有空間顯著區(qū)域檢測(cè)和改進(jìn)的空間顯著區(qū)域檢測(cè)的實(shí)驗(yàn)結(jié)果對(duì)比。從圖4 可以看出改進(jìn)的方法可以有效地找出靜態(tài)圖像中的顯著區(qū)域。因?yàn)楦倪M(jìn)的方法中加入了顏色信息,更加符合人類的視覺(jué)特性,所以找到的顯著區(qū)域比原來(lái)更準(zhǔn)確,如圖3 中的例子,在圖4 中改進(jìn)的方法得到了比較準(zhǔn)確的顯著區(qū)域。

圖4 原有方法(奇數(shù)行)與改進(jìn)方法(偶數(shù)行)空間顯著區(qū)域檢測(cè)結(jié)果對(duì)比

2.3 時(shí)空動(dòng)態(tài)融合

得到了時(shí)間顯著圖和空間顯著圖,還需要將時(shí)間和空間的顯著圖通過(guò)一定的方法融合到一起形成包含時(shí)空顯著性的時(shí)空顯著圖。本文依然采用原來(lái)論文中提出的動(dòng)態(tài)權(quán)重融合的方式進(jìn)行時(shí)空顯著圖的最終計(jì)算,采用兩個(gè)動(dòng)態(tài)權(quán)值kT和kS對(duì)時(shí)間和空間顯著圖進(jìn)行融合。首先定義偽方差PVarT來(lái)衡量時(shí)間顯著圖中運(yùn)動(dòng)的大小,其定義如下:

kT和kS是根據(jù)PVarT來(lái)計(jì)算的,其定義為:

最后的時(shí)空顯著圖計(jì)算如下:

當(dāng)時(shí)間顯著圖中運(yùn)動(dòng)較大,那么kT的值就比較大,時(shí)間顯著度占主導(dǎo),反之kS的值較大,空間顯著度占主導(dǎo)。

3 實(shí)驗(yàn)結(jié)果與分析

本文實(shí)驗(yàn)環(huán)境如下:CPU 是Intel Corei3 2.13 GHz,內(nèi)存為2.00 GB。所使用的操作系統(tǒng)是Microsoft Windows 7(32 位),開(kāi)發(fā)環(huán)境是Visual Studio 2010、OpenCV2.4.2以及GSL1.8。為驗(yàn)證改進(jìn)算法的有效性,對(duì)標(biāo)準(zhǔn)視頻進(jìn)行了實(shí)驗(yàn),視頻來(lái)自PETS2001、I2R、KTH 數(shù)據(jù)庫(kù)以及優(yōu)酷網(wǎng)。

圖5 和圖6 是一組對(duì)比實(shí)驗(yàn)的結(jié)果,圖5 使用Zhai和Shah 的空間顯著模型,圖6 是本文改進(jìn)的方法。

圖5 原有方法的時(shí)空融合顯著目標(biāo)檢測(cè)實(shí)驗(yàn)結(jié)果

圖6 改進(jìn)方法的時(shí)空融合顯著目標(biāo)檢測(cè)實(shí)驗(yàn)結(jié)果

從圖4 和圖6 中顯著目標(biāo)檢測(cè)的結(jié)果可以看出,圖4中原始圖像的第一、三、四行是背景復(fù)雜的圖像,除了運(yùn)動(dòng)的前景本身之外,背景也存在運(yùn)動(dòng),圖4 中原始圖像的第二行以及圖6 中的示例圖像是光照不均勻的情況,在本例中存在陰影,從原有方法和改進(jìn)方法目標(biāo)的檢測(cè)結(jié)果來(lái)看,改進(jìn)的方法的檢測(cè)結(jié)果優(yōu)于原有方法。因此本文所述方法對(duì)于光照不均勻和運(yùn)動(dòng)背景的情況,有不錯(cuò)的效果。相對(duì)于原有方法有明顯改進(jìn)。

從圖5 和圖6 的結(jié)果來(lái)看,圖5 的最后兩個(gè)例子的結(jié)果中沒(méi)有比較準(zhǔn)確地找到運(yùn)動(dòng)的物體所在區(qū)域。而圖6 中則能比較準(zhǔn)確地找到它們。這說(shuō)明對(duì)于這組實(shí)驗(yàn)數(shù)據(jù),用改進(jìn)的方法得到的時(shí)空融合和目標(biāo)檢測(cè)的效果要好于原有方法。對(duì)于最后一個(gè)例子,由于運(yùn)動(dòng)目標(biāo)少的特征點(diǎn)匹配太少(3 對(duì)),而RANSAC 需要至少4 對(duì)匹配點(diǎn),所以在時(shí)間顯著模型中沒(méi)有找到其所在的運(yùn)動(dòng)平面,但由于通過(guò)改進(jìn)的空間顯著性檢測(cè)比較準(zhǔn)確地找到了運(yùn)動(dòng)物體位置,而且在融合的時(shí)候空間顯著模型占主導(dǎo),所以圖6 中最后還是檢測(cè)出了運(yùn)動(dòng)物體,并且使用高斯濾波平滑了噪聲,使顯著圖連續(xù)性得到增強(qiáng),所以對(duì)于運(yùn)動(dòng)目標(biāo)的檢測(cè)較為完整。而原有方法只對(duì)圖像的亮度計(jì)算顯著圖,并且沒(méi)有作高斯濾波,得到的空間顯著區(qū)域較小,使得最后檢測(cè)的目標(biāo)不完整。對(duì)于第四個(gè)例子,在時(shí)間顯著圖中雖然找到了小車所在的運(yùn)動(dòng)平面,但這一運(yùn)動(dòng)平面顯然并不準(zhǔn)確,它還包含一大塊小車以外的區(qū)域,表1 是該運(yùn)動(dòng)平面對(duì)應(yīng)的單應(yīng)性矩陣的內(nèi)點(diǎn)。

從表1 中不難發(fā)現(xiàn)在這些內(nèi)點(diǎn)中最后一個(gè)點(diǎn)的縱坐標(biāo)和其他點(diǎn)的縱坐標(biāo)差別很大,這個(gè)點(diǎn)顯然不在目標(biāo)紅色小汽車上,這是一個(gè)異常的點(diǎn),而它的運(yùn)動(dòng)和小汽車的運(yùn)動(dòng)相似,所以也被當(dāng)作內(nèi)點(diǎn),由于這個(gè)異常點(diǎn)的存在,最終得到的運(yùn)動(dòng)平面與真實(shí)的運(yùn)動(dòng)平面有很大的差距,又因?yàn)轱@著度和運(yùn)動(dòng)平面面積有關(guān),所以最終得到的運(yùn)動(dòng)平面的顯著度與真實(shí)情況也會(huì)有一定差距。不過(guò),由于改進(jìn)的方法在空間顯著圖上比較準(zhǔn)確地找到了這個(gè)目標(biāo),彌補(bǔ)了時(shí)間顯著圖計(jì)算的錯(cuò)誤,所以最后得到的結(jié)果還不錯(cuò)。

表1 紅色小車運(yùn)動(dòng)平面對(duì)應(yīng)的單應(yīng)矩陣的內(nèi)點(diǎn)和匹配點(diǎn)坐標(biāo)

從圖4,圖5 和圖6 看到,由于改進(jìn)的方法在空間顯著圖的生成過(guò)程中加入了圖像的色彩這一人眼十分敏感的視覺(jué)信息,在顯著度計(jì)算的過(guò)程中使用能反映人類視覺(jué)特性的顏色空間HSV,使得到的顯著圖更加能夠反映人眼的真實(shí)的注意機(jī)制,因此最終得到的顯著目標(biāo)的檢測(cè)效果比改進(jìn)前有明顯提高。

4 結(jié)束語(yǔ)

本文在充分分析Zhai 和Shah 提出的時(shí)空線索的顯著區(qū)域檢測(cè)方法的基礎(chǔ)上,提出了一種基于HSV 顏色模型的空間顯著區(qū)域提取方法,并將這一方法和Zhai和Shah 的時(shí)間顯著區(qū)域提取和動(dòng)態(tài)時(shí)空融合的方法相整合,實(shí)現(xiàn)視頻顯著目標(biāo)的檢測(cè),提高了顯著目標(biāo)提取的準(zhǔn)確性。

當(dāng)然本文所用的方法也存在不足,首先使用SIFT特征匹配的方法無(wú)法保證提供足夠的特征點(diǎn)匹配來(lái)計(jì)算正確的單應(yīng)性矩陣;其次復(fù)雜場(chǎng)景中背景上較多的匹配點(diǎn)會(huì)影響運(yùn)動(dòng)平面的估計(jì);再次是使用SIFT 特征提取與匹配的方法計(jì)算復(fù)雜度高,無(wú)法實(shí)時(shí)處理視頻;最后是沒(méi)有考慮在空間模型中加入紋理特征,使得空間顯著區(qū)域的提取在背景紋理復(fù)雜的情況下變得不準(zhǔn)確。這些方面都有待進(jìn)一步的研究,來(lái)提高目標(biāo)檢測(cè)的效果和效率。

[1] Wolfe J M,Cave K R,F(xiàn)ranzel S L.Guided search:an alternative to the feature integration model of visual search[J].Journal of Experimental Psychology,1989,15:419-433.

[2] Zhai Yun,Shah M.Visual attention detection in video sequences using spatiotemporal cues[C]//14th Annual ACM International Conference on Multimedia,Santa Barbara,USA,2006:815-824.

[3] Itti L,Koch C.Computational modeling of visual attention[J].Nature Review Neuroscience,2001,2(3):194-203.

[4] Guo C,Zhang L.A novel multiresolution spatiotemporal saliency detection model and its applications in image and video compression[J].IEEE Transactions on Image Processing,2010,19(1):185-198.

[5] Lu Z,Lin W,Yang X,et al.Modeling visual attentions modulatory after effects on visual sensitivity and quality evaluation[J].T-IP,2005,14(11):1928-1942.

[6] Cheng W H,Chu W T,Kuo J H,et al.Automatic video region-of-interest determination based on user attention model[J].ISCAS,2005,4:3219-3222.

[7] Boiman O,Irani M.Detecting irregularities in images and in video[C]//ICCV,2005,1:462-469.

[8] Le Meur O,Thoreau D,Le Callet P,et al.A spatio-temporal model of the selective human visual attention[C]//ICIP,2005,3:1188-1191.

[9] Kienzle W,Scholkopf B,Wichmann F A,et al.How to find interesting locations in video:a spatiotemporal interest point detector learned from human eye movements[C]//Proceedings of DAGM-Symposium,2007:405-414.

[10] Duan Lijuan,Wu Chunpeng,Miao Jun,et al.Visual saliency detection by spatially weighted dissimilarity[C]//IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2011:473-480.

[11] Mahadevan V,Vasconcelos N.Spatiotemporal saliency in highly dynamic scenes[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2010,32(1):171-177.

[12] Mahadevan V,Vasconcelos N.Biologically inspired object tracking using center-surround saliency mechanisms[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2013,35(3):541-554.

[13] Ren Zhixiang,Gao Shenghua,Rajan Deepu,et al.Spatiotemporal saliency detection via sparse representation[C]//IEEE ICME,2012:158-163.

[14] Décombas M,Riche N,Dufaux F,et al.Spatio-temporal saliency based on rare model[C]//IEEE International Conference on Image Processing(ICIP),2013.

[15] Lowe D.Distinctive image features from scale-invariant keypoints[J].International Journal of Computer Vision,2004,60(2):91-110.

[16] 王永明,王錦貴.圖像局部不變性特征與描述[M].北京:國(guó)防工業(yè)出版社,2010.

[17] Fischler M A,Bolles R C.Random sample consensus:a paradigm for model fittingwith applications to image analysis and automated cartography[J].Communications of the ACM,1981,24(6):381-395.

猜你喜歡
區(qū)域檢測(cè)方法
“不等式”檢測(cè)題
“一元一次不等式”檢測(cè)題
“一元一次不等式組”檢測(cè)題
小波變換在PCB缺陷檢測(cè)中的應(yīng)用
關(guān)于四色猜想
分區(qū)域
用對(duì)方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚(yú)
基于嚴(yán)重區(qū)域的多PCC點(diǎn)暫降頻次估計(jì)
主站蜘蛛池模板: 四虎免费视频网站| 一级毛片网| 欧美一级夜夜爽www| 亚洲国产日韩在线观看| 亚洲视频免| 狠狠色丁香婷婷| 亚洲福利一区二区三区| 欧美日韩一区二区三区四区在线观看| 亚洲国产一成久久精品国产成人综合| 精品自窥自偷在线看| 99久久精彩视频| 九色视频最新网址| 国产人人射| 日本午夜影院| 国产精品七七在线播放| 亚洲一级毛片在线观| 国产裸舞福利在线视频合集| 性色在线视频精品| 色婷婷成人| 国产91在线|日本| 中文字幕佐山爱一区二区免费| 国产精品网址在线观看你懂的| 国产欧美日本在线观看| 日韩一区二区三免费高清| 亚洲制服丝袜第一页| 国产剧情一区二区| 精品91在线| 波多野结衣在线一区二区| 国产日韩欧美一区二区三区在线| 国产成人在线无码免费视频| 国产乱子伦精品视频| 欧美一级专区免费大片| 一级毛片基地| 99尹人香蕉国产免费天天拍| 在线观看亚洲国产| 国产女人在线| 成人日韩精品| 国产精品久久久精品三级| 国产一区二区三区日韩精品| 亚洲欧美自拍视频| 欧美成人A视频| 亚洲 日韩 激情 无码 中出| 女高中生自慰污污网站| 国产成年女人特黄特色毛片免| 激情爆乳一区二区| 91极品美女高潮叫床在线观看| 日本中文字幕久久网站| 99er这里只有精品| 久久无码免费束人妻| 欧美区一区二区三| 国产va在线| 国产人成在线视频| 国产丰满成熟女性性满足视频| 国产成人无码Av在线播放无广告| 国产欧美日韩视频怡春院| 55夜色66夜色国产精品视频| 香港一级毛片免费看| 欧洲成人在线观看| 亚洲精品福利网站| 午夜欧美理论2019理论| 免费激情网址| 亚洲男人在线天堂| 国产成人资源| www精品久久| 亚洲av无码成人专区| 欧美自慰一级看片免费| 欧美精品xx| 久久人搡人人玩人妻精品一| 高清久久精品亚洲日韩Av| 欧美激情视频二区三区| 色综合久久综合网| av天堂最新版在线| 国产欧美日韩专区发布| 老司机久久精品视频| 999国内精品久久免费视频| 毛片基地视频| 国产尤物jk自慰制服喷水| 亚洲国产系列| 国产日韩欧美在线播放| 国产清纯在线一区二区WWW| 四虎国产精品永久在线网址| 97人人做人人爽香蕉精品|