999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學(xué)習(xí)的雙閾值圖像局部分塊視覺(jué)跟蹤

2021-11-17 07:09:00韓開(kāi)旭袁淑芳
計(jì)算機(jī)仿真 2021年5期
關(guān)鍵詞:深度區(qū)域方法

韓開(kāi)旭,袁淑芳

(1. 北部灣大學(xué)電子與信息工程學(xué)院,廣西 欽州 535011;2. 北部灣大學(xué)理學(xué)院,廣西 欽州 535011)

1 引言

在視頻文件分析過(guò)程中,視覺(jué)跟蹤是一個(gè)至關(guān)重要的環(huán)節(jié),尤其是在安全監(jiān)督、視頻壓縮和機(jī)器人視覺(jué)系統(tǒng)等方面更是尤為重要。雖然相關(guān)科研人員從未停止對(duì)視頻跟蹤的研究,但是由于各種噪聲、目標(biāo)姿態(tài)變化和光照改變等因素,依舊是科研過(guò)程中的技術(shù)難題,尤其當(dāng)視覺(jué)跟蹤的目標(biāo)是非剛性物體時(shí),跟蹤過(guò)程困難度更大。

陳國(guó)軍等人[1]提出了基于深度學(xué)習(xí)的單目視覺(jué)圖像目標(biāo)跟蹤方法,采用訓(xùn)練過(guò)的深度卷積神經(jīng)網(wǎng)絡(luò)算法計(jì)算視頻中的每個(gè)圖像的傳輸圖,從而實(shí)現(xiàn)視覺(jué)跟蹤。但是該方法存在一定的弊端,當(dāng)圖像背景較復(fù)雜,或者目標(biāo)姿態(tài)和光照突然改變時(shí),將會(huì)導(dǎo)致漂移,難以準(zhǔn)確地跟蹤目標(biāo)。蒲磊等人[2]提出了基于空間可靠性約束的魯棒視覺(jué)跟蹤方法,利用預(yù)先經(jīng)過(guò)訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)模型提取目標(biāo)的多層深度特征,與各層的濾波器進(jìn)行加權(quán)融合,從而實(shí)現(xiàn)視覺(jué)跟蹤。但是在圖像復(fù)雜的情況下,難以對(duì)圖像作出全面的描述或者分離出目標(biāo),往往會(huì)出現(xiàn)目標(biāo)漂移的情況。

基于此,本文提出了基于深度學(xué)習(xí)的雙閾值圖像局部分塊視覺(jué)跟蹤方法,并通過(guò)仿真驗(yàn)證了該方法的可行性與有效性。

2 雙閾值圖像局部分塊

深度卷積神經(jīng)網(wǎng)絡(luò)(Fully Convolutional Networks,F(xiàn)CN)是基于深度學(xué)習(xí)的一種網(wǎng)絡(luò)模型,被廣泛應(yīng)用于圖像分割。FCN有以下幾點(diǎn)優(yōu)勢(shì):

1)用卷積層替換全連接層,實(shí)現(xiàn)端到端的卷積網(wǎng)絡(luò)訓(xùn)練。

2)為使圖像達(dá)到像素級(jí)分割,對(duì)圖像中全部的像素特征進(jìn)行預(yù)測(cè)分類(lèi)。但是針對(duì)視覺(jué)環(huán)境較復(fù)雜的圖像,F(xiàn)CN網(wǎng)絡(luò)結(jié)構(gòu)上采樣依然采取最簡(jiǎn)單的反卷積方式,導(dǎo)致無(wú)法識(shí)別到圖像的細(xì)節(jié)特征,最終分割的圖像輪廓模糊,粘連較嚴(yán)重。

為此提出使用Mask R-CNN,其作為一種實(shí)例分割(Instance segmentation)方法,把感興趣區(qū)域(Region of Interest,ROI)作為深度卷積神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)分支,實(shí)現(xiàn)對(duì)目標(biāo)圖像的實(shí)例分割。為保留目標(biāo)空間位置坐標(biāo)的精度,Mask R-CNN網(wǎng)絡(luò)用ROIAlign操作替換ROIPool操作。對(duì)于空間量化特征提取錯(cuò)位的層,ROIAlign可以起到修正作用。雙線性差值使輸入網(wǎng)絡(luò)和輸出網(wǎng)絡(luò)之間的空間位置精度保持不變,對(duì)應(yīng)ROI bin上的坐標(biāo)值。使判斷類(lèi)別(Class)與輸出掩模(MASK)之間的依賴(lài)關(guān)系降為最低,實(shí)現(xiàn)對(duì)其中每一個(gè)目標(biāo)單獨(dú)地用平均二值交叉熵?fù)p失預(yù)測(cè)二值掩模,降低了類(lèi)別之間的競(jìng)爭(zhēng)力,提高了圖像分割的效率。

在Mask R-CNN網(wǎng)絡(luò)結(jié)構(gòu)的基礎(chǔ)上,還對(duì)網(wǎng)絡(luò)深度和網(wǎng)絡(luò)寬度進(jìn)行了優(yōu)化調(diào)整,在給定的訓(xùn)練參數(shù)上進(jìn)行遷移學(xué)習(xí)。以分割目標(biāo)圖像為基礎(chǔ),通過(guò)求出不同層數(shù)和不同卷積核之間的分割準(zhǔn)確率來(lái)得到最優(yōu)網(wǎng)絡(luò)參數(shù)和網(wǎng)絡(luò)模型。

最終本文確定最優(yōu)網(wǎng)絡(luò)模型為PigNet網(wǎng)絡(luò)結(jié)構(gòu),對(duì)Mask R-CNN網(wǎng)絡(luò)結(jié)構(gòu)在卷積層和類(lèi)別數(shù)方面作出兩點(diǎn)優(yōu)化改進(jìn):

1)對(duì)于圖像中不同的目標(biāo)區(qū)域,Mask R-CNN網(wǎng)絡(luò)第四階段由原來(lái)的69層卷積層變?yōu)?2層,一方面可以降低特征損耗,另一方面還可以降低卷積運(yùn)算量。

2)Mask R-CNN網(wǎng)絡(luò)的Mask分支最后一層卷積層類(lèi)別數(shù)優(yōu)化調(diào)整為PigNet類(lèi)和background類(lèi)兩類(lèi)。具體結(jié)構(gòu)如圖1所示。

圖1 PigNet網(wǎng)絡(luò)結(jié)構(gòu)十一圖

PigNet網(wǎng)絡(luò)結(jié)構(gòu)由五個(gè)階段、四十四個(gè)卷積層構(gòu)成,所有卷積層均采用殘差學(xué)習(xí)結(jié)構(gòu)。其中每條弧線包含3個(gè)卷積層,1×1×64層表示卷積核為1×1、通道數(shù)為64的卷積層。殘差學(xué)習(xí)結(jié)構(gòu)在很大程度上減少了參數(shù)數(shù)量,使計(jì)算更加簡(jiǎn)單的同時(shí)保持了目標(biāo)的空間位置精度不變。通過(guò)網(wǎng)絡(luò)圖弧線部分,殘差學(xué)習(xí)結(jié)構(gòu)將輸入的信息直接傳輸給后面的層,也降低了部分特征損耗。殘差學(xué)習(xí)結(jié)構(gòu)還可以把每一層卷積層的滑動(dòng)步長(zhǎng)由原來(lái)的2個(gè)像素縮小為四分之一,同時(shí)輸出通道數(shù)不斷的增加,直到2048為止。

在PigNet主干網(wǎng)絡(luò)結(jié)構(gòu)上涉及到兩種特征提取過(guò)程[3]:其中一方面是通過(guò)候選區(qū)域網(wǎng)絡(luò)(Region proposal networks,RPN)對(duì)網(wǎng)絡(luò)模型conv4_12卷積層輸出的特征圖(Feature map)作出分析處理,提取所需的特征信息;另一方面,它向前傳播生成特征映射。RPN可以用最快的速度選取感興趣區(qū)域。

PigNet網(wǎng)絡(luò)的損失函數(shù)L主要由三部分分類(lèi)誤差Lcls、檢測(cè)誤差Lbox、分割誤差Lmask構(gòu)成,公式如下

L=Lcls+Lbox+Lmask

(1)

式中,Lcls、Lbox處理全連接層以此來(lái)預(yù)測(cè)所有感興趣區(qū)域的所屬類(lèi)別和目標(biāo)空間的回歸框坐標(biāo)值。Lmask分割并對(duì)每一個(gè)感興趣區(qū)域的目標(biāo)圖像賦予掩模。選擇圖像中所有感興趣區(qū)域類(lèi)別為pig類(lèi)的目標(biāo)圖像,這樣在繼續(xù)計(jì)算對(duì)區(qū)域分割產(chǎn)生的損失函數(shù)時(shí)只需要考慮pig類(lèi)的相對(duì)熵誤差即可。為了避免類(lèi)別間競(jìng)爭(zhēng),計(jì)算pig類(lèi)的相對(duì)熵誤差時(shí)不考慮background類(lèi)。Lbox主要作用是保證目標(biāo)圖像回歸框的位置坐標(biāo)不發(fā)生偏離。Lmask則用來(lái)確保目標(biāo)圖像生成掩模的精準(zhǔn)度。Class分支預(yù)測(cè)感興趣區(qū)域類(lèi)別為pig類(lèi),那么Lmask只需要對(duì)pig類(lèi)別預(yù)測(cè)像素點(diǎn),保證目標(biāo)圖像輪廓分明,不發(fā)生粘連的情況,以此來(lái)保證不同層深度上的輪廓位置坐標(biāo)信息的精準(zhǔn)度,使圖像可以實(shí)現(xiàn)精準(zhǔn)的分割。本文PigNet網(wǎng)絡(luò)模型由卷積計(jì)算得到2個(gè)感興趣區(qū)域,Lbox用來(lái)預(yù)測(cè)目標(biāo)空間回歸框的位置坐標(biāo),Lmask利用平均二值交叉熵?fù)p失函數(shù)與Sigmoid函數(shù)的結(jié)合,可以單獨(dú)地預(yù)測(cè)目標(biāo)空間回歸框的位置坐標(biāo)形成一個(gè)二值掩模。分割圖像用兩種不同顏色的掩模表示,放在兩個(gè)不同的層深度中。即使分割目標(biāo)更多的圖像,PigNet模型也會(huì)對(duì)每個(gè)分割目標(biāo)形成相對(duì)應(yīng)的二值掩模。

3 基于視覺(jué)詞匯的PLSA模型

概率潛在語(yǔ)義分析(probabilitistic latent semantic analysis,PLSA),最開(kāi)始在文本分類(lèi)和信息檢索領(lǐng)域應(yīng)用甚廣,隨著研究的不斷深入,在機(jī)器視覺(jué)領(lǐng)域也得到迅速發(fā)展。它主要用來(lái)發(fā)現(xiàn)圖像分割區(qū)域中的“主題”部分。這里本文依然使用原始術(shù)語(yǔ)“文檔”、“主題”、“詞匯”等描述PLSA模型。“文檔”表示分割塊,“主題”表示閾值信息,屬于潛在的中間變量,“詞匯”表示分割圖像中的視覺(jué)詞匯。

3.1 視覺(jué)詞匯獲取

由于目標(biāo)遮擋、光照等條件改變會(huì)對(duì)閾值圖像產(chǎn)生影響,為了降低這種影響帶來(lái)的檢測(cè)誤差,本文主要對(duì)圖像的SIFT(quick scale invariant feature transform)特征進(jìn)行提取,并利用k-means算法對(duì)提取的SIFT特征進(jìn)行類(lèi)聚,每個(gè)聚類(lèi)中心為一個(gè)視覺(jué)單詞,用BOW對(duì)直方圖視覺(jué)詞匯進(jìn)行描述。

3.2 PLSA模型計(jì)算

圖像分割塊用Di={d1,d2…,dNi}(i=1,2,3)表示,其中N表示被分割個(gè)數(shù),基于k-means算法聚類(lèi)可得到M個(gè)視覺(jué)詞匯{x1,x2…,xM},n(di,xj)表示某個(gè)視覺(jué)詞匯在某個(gè)分割塊di(i∈1,…N)中的數(shù)量;如果存在k個(gè)潛在主題(z1,z2…,zk),那么每個(gè)分割塊中每個(gè)視覺(jué)詞匯都有一個(gè)可能的主題變量zk(k=1,…,k)與之相關(guān)聯(lián)。聯(lián)合概率為p(xj,di,zk),通過(guò)對(duì)主題的邊緣求和可確定條件概率p(xj|di)

(2)

式(2)中,di表示分割塊,zk表示主題,xj表示視覺(jué)詞匯,P(zk|di)表示在di中zk出現(xiàn)的概率;P(xj|zk)表示zk中xj出現(xiàn)的概率,PLSA模型圖如圖2所示。

圖2 PASA模型

代入EM算法可求出PLSA模型參數(shù)。EM算法可以用來(lái)估算主題分布,利用極大似然原則對(duì)潛在變量模型參數(shù)的標(biāo)準(zhǔn)過(guò)程進(jìn)行估計(jì)。本文通過(guò)EM算法求得最大條件概率P(zk|di,xj)。

最后分析主題與分割區(qū)域的對(duì)應(yīng)程度,利用KL(Kullback-Leibler)算法對(duì)每個(gè)分割區(qū)域進(jìn)行加權(quán),可以看出分割區(qū)域出現(xiàn)亮度不一致的圖塊,在這些分割區(qū)域中選出亮度較高的圖塊作為閾值圖像進(jìn)行提取。

4 視覺(jué)跟蹤模型建立

4.1 跟蹤模型

(3)

(4)

對(duì)于式(4)中的p(st|rt),可通過(guò)閾值的狀態(tài)信息估算出st的值。對(duì)于已知的閾值圖像的空間位置信息,可通過(guò)計(jì)算得出st的條件概率,st的條件概率p(st|rt)為

(5)

(6)

(7)

4.2 視覺(jué)跟蹤模型優(yōu)化

(8)

(9)

那么式(9)的等效形式可以用lg函數(shù)的單調(diào)性表示為

(10)

(11)

5 仿真分析

為驗(yàn)證本文設(shè)計(jì)的基于深度學(xué)習(xí)的雙閾值圖像局部分塊視覺(jué)跟蹤方法的實(shí)際有效性,在MATLAB環(huán)境中設(shè)計(jì)如下仿真加以驗(yàn)證。

在仿真中,選取Seq_mb圖像序列、Skating2圖像序列和Shaking圖像序列作為實(shí)驗(yàn)對(duì)象,分別用本文方法與文獻(xiàn)[1]、文獻(xiàn)[2]方法對(duì)其進(jìn)行視覺(jué)跟蹤,最終確定在姿態(tài)變化、光照變化、部分遮擋等條件下三種方法的最優(yōu)結(jié)果,并以目標(biāo)平均中心位置像素誤差為衡量標(biāo)準(zhǔn)。

三個(gè)圖像序列的詳細(xì)信息如表1所示。

表1 仿真中應(yīng)用的圖像序列描述

不同方法的仿真結(jié)果如圖3所示。

圖3 三種圖像序列跟蹤誤差曲線

從圖3中可以看出,相比文獻(xiàn)[1]、文獻(xiàn)[2]方法,本文方法的誤差更小。圖4(b)中,由于圖像中姿態(tài)大幅度變化,文獻(xiàn)[1]、文獻(xiàn)[2]方法的跟蹤區(qū)域逐漸漂移甚至丟失,而本文方法表現(xiàn)出了較高的一致性;圖4(c)中,由于視頻中光照改變,目標(biāo)部分遮擋導(dǎo)致文獻(xiàn)[1]、文獻(xiàn)[2]方法視覺(jué)跟蹤效果變得極差,但是本文方法一直處于穩(wěn)定跟蹤目標(biāo)的狀態(tài)。

仿真結(jié)果表明,在復(fù)雜的視覺(jué)環(huán)境下,本文方法較文獻(xiàn)[1]、文獻(xiàn)[2]方法相比跟蹤誤差更小,證明本文方法跟蹤效果更好。

6 結(jié)語(yǔ)

本文提出了一種基于深度學(xué)習(xí)的雙閾值圖像局部分塊視覺(jué)跟蹤方法。以深度卷積神經(jīng)網(wǎng)絡(luò)為基礎(chǔ)構(gòu)建PigNet網(wǎng)絡(luò),有效地解決了復(fù)雜視覺(jué)環(huán)境下對(duì)圖像的分割。利用PLSA算法類(lèi)別估計(jì)分割區(qū)域,貝葉斯算法跟蹤閾值圖像,并利用EM算法進(jìn)行優(yōu)化,完成視覺(jué)跟蹤任務(wù)。通過(guò)仿真結(jié)果證明了本文方法比文獻(xiàn)[1]、文獻(xiàn)[2]方法更有優(yōu)勢(shì),在視覺(jué)跟蹤方面準(zhǔn)確性更高。但本文方法對(duì)于粘連較嚴(yán)重的圖像在分割跟蹤任務(wù)方面仍有不足,需要做更深入的研究。

猜你喜歡
深度區(qū)域方法
深度理解一元一次方程
深度觀察
深度觀察
深度觀察
關(guān)于四色猜想
分區(qū)域
用對(duì)方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚(yú)
基于嚴(yán)重區(qū)域的多PCC點(diǎn)暫降頻次估計(jì)
主站蜘蛛池模板: 亚洲天堂网2014| 91亚瑟视频| 国产自在线播放| 91午夜福利在线观看| 亚洲美女一级毛片| 热久久综合这里只有精品电影| 久久精品国产精品国产一区| 午夜电影在线观看国产1区 | 黄色a一级视频| 日本a∨在线观看| 国产无码性爱一区二区三区| 欧美一级高清视频在线播放| 特级做a爰片毛片免费69| 亚洲福利视频网址| 男女男精品视频| 国产91丝袜在线播放动漫| 久久99热这里只有精品免费看| 美女一级免费毛片| 成人国产免费| 亚洲国产日韩一区| 日韩在线影院| 成人国产一区二区三区| 午夜少妇精品视频小电影| 91口爆吞精国产对白第三集| 中文字幕在线不卡视频| 欧美国产视频| 亚洲欧美日韩天堂| 99尹人香蕉国产免费天天拍| 欧美在线导航| 成人国产精品2021| 欧美日本中文| 久久国产av麻豆| 最新国语自产精品视频在| 一级香蕉人体视频| 国产乱人乱偷精品视频a人人澡| 亚洲品质国产精品无码| 亚洲中文字幕无码爆乳| 国产一区二区影院| 亚洲精品国产日韩无码AV永久免费网| 国产乱人伦精品一区二区| 中文字幕在线播放不卡| 久久久久亚洲av成人网人人软件| 亚洲国产成人无码AV在线影院L| av色爱 天堂网| av手机版在线播放| 成人在线欧美| 操国产美女| 99re免费视频| 激情综合激情| 免费一级大毛片a一观看不卡| 毛片三级在线观看| 亚瑟天堂久久一区二区影院| 国产嫖妓91东北老熟女久久一| 99草精品视频| 五月婷婷亚洲综合| 成人午夜免费观看| 中文字幕啪啪| 国产人成乱码视频免费观看| 东京热av无码电影一区二区| 久久黄色免费电影| 日本免费高清一区| 国产凹凸视频在线观看| 国产剧情一区二区| 国产91精品久久| 婷婷六月在线| 国产亚洲精品91| av一区二区人妻无码| 久久精品无码国产一区二区三区| 欧美一区二区啪啪| 国产精品亚洲片在线va| 精品国产中文一级毛片在线看| 国产一级二级在线观看| 曰AV在线无码| 欧美一级色视频| 99在线视频免费| 4虎影视国产在线观看精品| 日本爱爱精品一区二区| 福利在线一区| 亚洲人成网址| 国产免费人成视频网| 国产理论最新国产精品视频| 91视频99|