999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于目標運動信息的Mean Shift 跟蹤算法研究

2020-10-08 03:38:54于立君陳虹麗
實驗技術與管理 2020年3期
關鍵詞:背景實驗檢測

王 輝,于立君,郭 濤,原 新,陳虹麗

(哈爾濱工程大學 自動化學院,黑龍江 哈爾濱 150001)

視覺目標跟蹤[1]是計算機視覺研究中的一個重要課題,是目標行為理解的基礎,是圖像系統連續準確工作的重要環節。但是如何增強跟蹤算法對外界干擾因素的魯棒性,仍是視覺目標跟蹤亟待解決的問題。

計算機視覺實踐課程中,學生一般采用經典跟蹤算法[2-3]。目前,經典的跟蹤算法框架主要包括卡爾曼濾波[4-5]、粒子濾波[6]、Mean Shift[7-8]算法等,其中Mean Shift 算法作為一種核密度估計算法,是Yizong Cheng 等人在1995 年提出的。該算法具有計算量小,對邊緣遮擋、目標形變以及背景運動不敏感等優點,但同時也存在相似背景顏色干擾等問題。針對這種算法的不足,文獻[9]提出了一種基于顏色紋理聯合特征直方圖的自適應Mean Shift 跟蹤算法,文獻[10]提出了一種基于視覺顯著性特征的自適應目標跟蹤算法,文獻[11]提出了一種基于改進背景加權的Mean Shift跟蹤算法,目的都是用來克服背景顏色干擾造成跟蹤算法不穩定的問題。本文在借鑒上述研究成果的基礎上,提出一種基于目標運動信息的Mean Shift 跟蹤算法。該算法利用改進的MOG(混合高斯模型)算法提取分割出運動目標信息,然后將其作為輔助信息實現對目標模型的加權描述,從而更好地描述目標與背景的顯著性區別,對背景進行有效抑制,提高了跟蹤的準確性。

1 Mean Shift 跟蹤算法

Mean Shift 跟蹤算法是一個迭代尋優的過程,通過自適應步長迭代,尋找概率密度分布的局部極值點[12]。若 {,n是目標模板區域以y0為中心像素位置的n個像素點,則以目標的顏色直方圖作為搜索特征,利用核函數構建目標模型m級直方圖的顏色概率分布函數為:

式中,k為核函數;h為核函數帶寬;b(xi)表示樣本點xi處像素的特征值;u為直方圖特征值的索引;δ為Delta 函數;δ[b(xi) -u]用來判別目標區域的像素值xi是否歸屬于第u個顏色特征值,屬于則為1,不屬于則為0;C為歸一化系數,目的是使概率和為1,則:

在建立了目標和候選目標的模型后,目標跟蹤可以簡化為尋找最佳位置y,使得qu與pu最相似。兩者之間的相似性可用Bhattacharyya 系數來度量,即:

對式(3)進行Talor 展開計算,通過Mean Shift迭代計算核密度估計的局部極大值點,則可得到目標在當前幀的新位置為:

式中:g(x) =-k(x), {n為每個像素的權重。

通過迭代計算式(5),直至Bhattacharyya 系數最大,將其定位為目標最終中心位置,然后停止迭代。

2 運動信息檢測MOG 算法的改進

2.1 MOG 算法分析

MOG(mixture of gaussian)算法[13]是一種流行的聚類方法,主要用于運動目標檢測。它主要使用若干個單高斯分布來表征視頻圖像中每個像素點的特征,如果當前幀的某像素特征與高斯分布相匹配,則被判定為背景像素,否則為前景像素。對t時刻每個像素點x建立混合高斯模型,其概率密度函數公式為:

其中,η(xt,μ i,t,τi,t)為第i個高斯分布;μi,t為其均值;τi,t為其協方差矩陣;ωi,t為t時刻第i個高斯分布的權重;K為高斯分布個數。通過選取合適的閾值T可以對估計背景B進行判斷:

當出現新圖像時,將當前像素值xt1+與第k個高斯模型按式(9)進行比較,其中只要有一個滿足:

中阿公司有一句膾炙人口的廣告語——“豐收三要素:陽光、雨露、撒可富”。然而,對于肥料產品來說,口碑的積累需要一個過程。舒蘭市天德鄉天河村村民于小明是個水稻種植大戶,也是舒蘭地區最早使用撒可富肥料的農戶之一。姜友善介紹說,前些年,由于早稻的收購價格一路走低,于小明覺得用不起撒可富,便換用了其他品牌的低價肥料,結果連續幾年都遭遇減產和倒伏。去年,于小明又找到姜友善,點名要買撒可富,使用后出苗又齊又壯,且沒有受到旱災的影響,當年就實現了增產增收。

則此像素xt1+在t+1 時刻是屬于背景的,否則,屬于運動目標。其中λ是預設的閾值,此閾值就是判斷當前時刻像素值與均值之差的絕對值較方差的倍數范圍,根據經驗一般取λ=2.5時提取的運動信息效果最好。tσ為方差。

MOG 算法作為背景差分法中通過建立數學模型進行運動目標檢測的經典算法[14],受背景擾動的影響很小,但也存在缺陷,例如由于要對場景中的每個像素點都進行逐一建模,會造成檢測效率低下。

2.2 MOG 算法的改進

在保證檢測效果的前提下,為提高原MOG 算法的檢測效率,本文通過引入顯著性檢測MSS 算法[15],將輸入圖像分為顯著與非顯著區域,來動態調整MOG算法的建模過程,減少髙斯模型中的資源浪費,并準確檢測出運動目標。對于一幅大小為h×w的圖像I,顯著圖S定義為:

式中,S(x,y)是像素點(x,y)的顯著性值;I f(x,y)是平滑后圖像中像素點的CIELAB 顏色特征值。圖像全部像素點的特征值I μ(x,y)可通過下式計算:

偏移量0x、y0以及子圖像的面積S 的計算公式為:

因此,本文首先利用MSS 模型對輸入的當前視頻幀提取其顯著圖,如圖1 所示。圖中的顯著性運動目標均沒有漏檢現象,并且非顯著的背景區域能夠被很好地過濾掉,符合目標檢測要求。

圖1 顯著圖提取

然后,在此基礎上利用MOG 算法提取場景中的運動信息,如圖2 所示。道路上的運動車輛和行走中的人物都獲得了比較完整的檢測效果。

圖2 運動信息檢測

在檢測結果得以證明的前提下,改進前后MOG算法對每幀圖像進行檢測的時間對比如圖3 所示。改進后的MOG 算法的每幀處理時間明顯小于原MOG算法,有效克服了原MOG 算法需逐點建模,從而導致計算量大的問題。從以上仿真結果分析可知,本文結合MSS 算法改進的MOG 運動信息檢測算法,可以滿足準確性和實時性要求,實現快速穩定的運動目標檢測效果。

圖3 運動目標檢測時間對比圖

3 基于目標運動信息的Mean Shift 跟蹤算法

本文利用改進后的MOG 算法計算出各幀圖像中相應的運動目標前景二值圖像,其中前景點的像素值由1 表示,背景點由0 表示。目標運動信息的提取按式(13)進行:

考慮到Mean Shift 跟蹤算法中目標近似位置及該位置處的特征模板是已知的,所以在提取運動信息后,就可以考慮在基于顏色特征的Mean Shift 跟蹤算法中,根據式(14)建立目標模型?uq:

同理,可計算候選目標模型?up,并在以后計算目標新位置時,將權重iω重新定義為:

如前所述,跟蹤過程中將剔除那些與目標顏色特征相近的偽特征干擾,即在復雜背景下跟蹤將更加魯棒。下面給出結合目標運動信息改進的Mean Shift 算法跟蹤流程:

第一步:讀入視頻序列,初始化跟蹤目標,確定目標中心位置y0及核函數帶寬h等信息。

第二步:在當前幀中,采用改進后的MOG 算法進行運動目標檢測,并進一步對檢測結果進行二值化、形態學處理,目的是提取其像素點的運動信息,并根據式(14)計算基于運動信息加權的目標顏色直方圖模型?uq。

第三步:讀取下一幀視頻圖像,繼續提取運動信息,并利用如下Mean Shift 迭代過程搜索目標在當前的最佳位置y1:①以上一幀目標位置y0初始化當前幀候選目標位置,計算候選目標的顏色直方圖模型p?u;②根據式(16)計算權重ω?i;③通過式(17)計算目標的下一位置y1,如果 ||y1-y0||>ε(ε為一個任意小的大于0 的值),則y1趨近于y0,跳轉至①,否則停止迭代,顯示跟蹤結果。

第四步:判斷跟蹤是否結束,若否,返回第三步,在新一幀中繼續定位目標;若是,則跟蹤結束。

上述算法的跟蹤框架流程如圖4 所示。

圖4 運動目標跟蹤流程圖

4 實驗仿真

為了驗證改進算法的實效性,通過實驗1 和實驗2與傳統Mean Shift 算法進行比較。實驗平臺采用CPU型號為 i53210MD、內存為 4GB 的 PC 機,使用VS2010+OPENCV2.4.9 軟件進行仿真實現。

實驗1:對受背景顏色干擾的行人目標進行跟蹤。本文從第270 幀開始跟蹤,并分別取第280 幀、317幀、372 幀的跟蹤結果進行展示。從圖5 中可以看出,當目標在第317 幀、第372 幀發生了背景顏色干擾以后,傳統的Mean Shift 的跟蹤框發生了偏移,造成跟蹤誤差。而本文算法卻能從始至終較好地完成跟蹤任務。

圖5 實驗1 跟蹤結果比較

實驗2:對一段受背景干擾程度更大的行人目標進行跟蹤。本文從第10 幀開始跟蹤,并分別取第58幀、99 幀、130 幀的跟蹤結果進行比較。從圖6 可以看出,傳統Mean Shift 在99 幀以后偏離目標,直到第130 幀時搜索框丟失目標,至此以后,跟蹤框陷入局部最優,無法再跟蹤目標。而本文算法同樣能較好地完成跟蹤任務。

圖6 實驗2 跟蹤結果比較

圖7 跟蹤曲線誤差對比圖

為分析兩個跟蹤算法在不同實驗環境下的跟蹤性能,本文以中心誤差作為衡量跟蹤誤差的指標。在計算中心位置誤差時,由于要手動標記目標的真實位置,為方便計算,本文選擇每隔5 幀對其進行標記,圖7示出了這兩種算法在實驗1、實驗2 的跟蹤誤差曲線,其中心位置誤差定義如下:

式中,(xr,yr)為算法跟蹤得到的目標中心坐標位置,(x g,yg)為真實的目標中心坐標位置。

從圖7 可以看出,不論在實驗1 還是實驗2 中,改進后的算法較傳統Mean Shift 算法在各個時刻的跟蹤誤差都要小,且在跟蹤過程中沒有太大波動,一直都能夠穩定在一個較小的誤差范圍內,表明本文算法在各個時刻具有較高的精度和較強的穩定性。

為驗證改進算法的實時性,表1 和表2 分別為這兩種算法在實驗1 和實驗2 的跟蹤時間對比結果。

表1 兩種算法在實驗1 的實時性對比

表2 兩種算法在實驗2 的實時性對比

從表中可以看出,改進后的Mean Shift 算法在提高跟蹤準確度的基礎上,雖然在時間花費上有所增加,但差異不大,依然在人眼可接受范圍內,能夠滿足算法實時性要求。綜合上述實驗的跟蹤效果及性能分析可以看出,本文提出的基于目標運動信息改進的Mean Shift 跟蹤算法可以在復雜背景顏色干擾下,實現準確且實時跟蹤目標的目的。

5 結語

本文對 MOG 算法進行改進,引入顯著性檢測MSS 算法來動態調節其建模過程,解決了原MOG 算法計算量大的問題。并利用改進后的MOG 算法檢測場景圖像中的運動目標信息,使其對Mean Shift 框架下的目標模型進行加權描述,以此來提高目標和背景的區分度,減少背景信息對目標定位的干擾。實驗結果表明,應用改進后的Mean Shift 算法跟蹤誤差更小、魯棒性更強,對復雜環境下的運動目標可以較準確地進行實時跟蹤。改進的算法在實踐教學過程中,大大提高了學生的學習興趣和編程能力,推動了計算機視覺實踐課程向自主創新方向發展。

猜你喜歡
背景實驗檢測
記一次有趣的實驗
“新四化”背景下汽車NVH的發展趨勢
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
《論持久戰》的寫作背景
當代陜西(2020年14期)2021-01-08 09:30:42
做個怪怪長實驗
晚清外語翻譯人才培養的背景
NO與NO2相互轉化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
主站蜘蛛池模板: 亚洲区视频在线观看| 国产精品手机在线播放| 国产第八页| 久久久久久久久久国产精品| 国产真实乱人视频| 亚洲精品国产自在现线最新| 爱做久久久久久| 免费看久久精品99| 九九热精品免费视频| www中文字幕在线观看| 97在线视频免费观看| 亚洲精品视频免费| 亚洲国产清纯| 啦啦啦网站在线观看a毛片| av大片在线无码免费| 亚洲AV成人一区二区三区AV| 亚洲第一区欧美国产综合| 福利国产微拍广场一区视频在线| 国产成人艳妇AA视频在线| 国产精品自在自线免费观看| 欧美成人午夜影院| 亚洲无码高清视频在线观看 | 欧美v在线| 国产在线精品人成导航| 香蕉久久永久视频| 99人体免费视频| 亚洲欧美一区在线| 午夜视频在线观看免费网站| 欧美一区二区三区欧美日韩亚洲 | 一本视频精品中文字幕| a级免费视频| 午夜福利网址| 91在线播放免费不卡无毒| 国产欧美精品专区一区二区| 国产97视频在线| 欧美人与牲动交a欧美精品 | 国产午夜不卡| 国产成人狂喷潮在线观看2345| 欧美一级黄色影院| 亚洲高清在线播放| 蝌蚪国产精品视频第一页| 国产成人a毛片在线| 久久精品国产精品一区二区| 自慰高潮喷白浆在线观看| 国产成人精品一区二区不卡| 在线va视频| 色男人的天堂久久综合| 亚洲有无码中文网| 国产精品久久久久久久久| 国产精品亚洲一区二区三区z| 免费欧美一级| 国产91导航| 亚洲欧美精品一中文字幕| 亚洲熟妇AV日韩熟妇在线| 极品国产在线| 2020久久国产综合精品swag| 日韩视频免费| 青草视频在线观看国产| 大乳丰满人妻中文字幕日本| 日韩欧美中文字幕在线韩免费| 啪啪免费视频一区二区| 成人欧美在线观看| 女人18一级毛片免费观看| 国产又爽又黄无遮挡免费观看| 色婷婷在线影院| 亚洲av无码牛牛影视在线二区| 国产精品久线在线观看| 久久成人18免费| 国产精品无码影视久久久久久久 | 人妻丰满熟妇AV无码区| 91娇喘视频| 91丝袜美腿高跟国产极品老师| 国产精品30p| 国产一级二级在线观看| 亚洲人成网址| 亚洲日韩精品伊甸| 欧美一级一级做性视频| 国产欧美精品一区二区| 亚洲视频影院| 成人看片欧美一区二区| 97色伦色在线综合视频| 成人午夜精品一级毛片|