陳 策,岳繼光,董延超,沈潤(rùn)杰
(同濟(jì)大學(xué)電子與信息工程學(xué)院,上海 201804)
目標(biāo)位姿追蹤作為工業(yè)零部件無(wú)約束抓取等應(yīng)用的關(guān)鍵技術(shù),最初通過(guò)確定物體表面至少4 個(gè)特征點(diǎn)的圖像坐標(biāo)以解算目標(biāo)位姿[1-3]。2008 年Choi 等人使用SIFT 特征點(diǎn)匹配定位方法估計(jì)物體位姿[4],平移誤差在5 cm 以?xún)?nèi),姿態(tài)角度誤差在6°以?xún)?nèi)。之后Youngmin 等人使用關(guān)鍵幀的特征點(diǎn)提取與匹配方法實(shí)現(xiàn)了多目標(biāo)的位姿追蹤[5],該算法運(yùn)行效率高。2014 年Karl 等人使用SIFT 特征點(diǎn)檢測(cè)目標(biāo)并實(shí)現(xiàn)分割,之后利用深度相機(jī)提取的深度圖信息匹配物體模型[6],實(shí)現(xiàn)了多目標(biāo)的檢測(cè)與位姿追蹤,實(shí)驗(yàn)中對(duì)機(jī)械臂抓取場(chǎng)景進(jìn)行了實(shí)際測(cè)試,算法每幀耗時(shí)30 ms,平移誤差在3 cm 以?xún)?nèi),姿態(tài)角度誤差在4°以?xún)?nèi)。至此,基于特征點(diǎn)的追蹤方法已在實(shí)時(shí)性以及精度上滿(mǎn)足一定要求。
基于圖像邊緣或輪廓的匹配方法,最早于1995 年就被提出,該方法通過(guò)尋找模型邊緣與圖像邊緣的匹配關(guān)系,將物體模型對(duì)齊于場(chǎng)景的邊緣圖像,以解算目標(biāo)相對(duì)相機(jī)的位置與姿態(tài),實(shí)現(xiàn)位姿追蹤[7]。2015 年Wang 等人研究邊緣匹配的全局優(yōu)化方法[8],使用圖模型進(jìn)行全局尋優(yōu),該方法在復(fù)雜背景情況中也取得了不錯(cuò)的效果,位置誤差在2 cm 以?xún)?nèi),姿態(tài)誤差在4°以?xún)?nèi)。基于隨機(jī)森林的空間點(diǎn)匹配方法[9-11],能夠檢測(cè)物體并實(shí)現(xiàn)追蹤,但算法耗時(shí)較長(zhǎng)且誤差較大;基于深度學(xué)習(xí)的RGB-D 位姿判別算法使用深度神經(jīng)網(wǎng)絡(luò)提取姿態(tài)描述子,之后回歸出物體位置和姿態(tài)[12-14],該類(lèi)方法仍然存在算法耗時(shí)過(guò)長(zhǎng),前期成本較高,精度不理想等缺陷。
所提算法主要解決復(fù)雜背景[15,16]下的貧紋理物體位姿追蹤問(wèn)題。基于現(xiàn)有算法,改進(jìn)場(chǎng)景灰度圖像[17]與物體三維模型的尋優(yōu)過(guò)程,提高配準(zhǔn)的精度以及魯棒性。通過(guò)模型邊緣方向與場(chǎng)景梯度方向構(gòu)造自適應(yīng)遮擋權(quán)重,有效降低誤匹配點(diǎn)對(duì)整體尋優(yōu)的影響,提高追蹤算法在復(fù)雜情況下的追蹤精度。
本文利用物體三維CAD 模型、目標(biāo)初始位姿,將模型邊緣點(diǎn)投影于圖像平面,利用方向倒角匹配構(gòu)建優(yōu)化函數(shù),尋找模型邊緣點(diǎn)與場(chǎng)景邊緣圖像的最優(yōu)匹配,獲得當(dāng)前幀中目標(biāo)物體的精確位姿。該方法具有追蹤的連續(xù)性,相比使用檢測(cè)的追蹤方法實(shí)時(shí)性和連續(xù)性更高,不易產(chǎn)生突變。所提方案的基本流程如圖1 所示,主要分為三個(gè)部分:邊緣圖像方向倒角距離(DCM)計(jì)算;模型邊緣點(diǎn)投影并構(gòu)建目標(biāo)函數(shù);以及最后的解析尋優(yōu)過(guò)程。

圖1 追蹤算法流程圖 Fig.1 Tracking algorithm flowchart
為實(shí)現(xiàn)物體CAD 模型邊緣與圖像邊緣的對(duì)齊,常用的方法是倒角距離匹配(Chamfer Matching,簡(jiǎn)稱(chēng)CM)。假設(shè)M={mi}表示物體模型中的邊緣經(jīng)過(guò)離散采樣光柵化后映射于圖像坐標(biāo)系中的點(diǎn),其中 i=1,2,… , | M |;N ={nj}代表場(chǎng)景邊緣圖像中的邊緣點(diǎn),其中j=1,2,…,| N|。為實(shí)現(xiàn)物體模型與邊緣圖像的匹配,構(gòu)造倒角距離誤差函數(shù)如式(1)所示:

其中w 代表物體模型中的邊緣點(diǎn)數(shù)量,w=| M|。倒角匹配距離為二維圖像距離,使用該方法進(jìn)行匹配魯棒性較差,易受背景影響。
Tuzel 等人[18]基于倒角距離匹配方案提出了方向倒角匹配(Directional Chamfer Matching,簡(jiǎn)稱(chēng)DCM)方法。在原有圖像距離基礎(chǔ)上,增加方向匹配信息,使匹配過(guò)程不僅考慮二維圖像距離,而且加入方向誤差。該方法提高了模型與圖像邊緣的匹配精度。假設(shè) φ(?)代表二維圖像中的方向運(yùn)算符,即 φ(mi)代表模型點(diǎn) mi在相機(jī)成像平面中對(duì)應(yīng)的模型邊緣方向,φ (nj)代表邊緣圖中的點(diǎn) nj對(duì)應(yīng)的邊緣方向,構(gòu)造方向倒角距離誤差函數(shù)如下:

其中λ 代表方向誤差權(quán)重。基于DCM 的匹配方法正確率更高,能夠有效降低匹配誤差,并且對(duì)于遮擋以及復(fù)雜背景情況魯棒性更強(qiáng),本文將使用DCM 構(gòu)造目標(biāo)函數(shù),尋找模型邊緣與圖像邊緣的最優(yōu)匹配關(guān)系,實(shí)現(xiàn)物體的位姿追蹤。
基于DCM 構(gòu)建目標(biāo)函數(shù)需要計(jì)算物體邊緣點(diǎn)在相機(jī)成像平面的圖像坐標(biāo);并通過(guò)場(chǎng)景邊緣圖像計(jì)算對(duì)應(yīng)DCM 張量。進(jìn)而得到所有模型邊緣光柵點(diǎn)對(duì)應(yīng)的優(yōu)化殘差,以得到整體尋優(yōu)的目標(biāo)函數(shù)。首先通過(guò)物體三維CAD 模型以及目標(biāo)初始位姿,利用計(jì)算機(jī)提取物體深度邊緣。并將邊緣直線光柵化為三維離散點(diǎn)集P ={o1, … , om}∈?3,離散邊緣點(diǎn)位于物體模型邊緣之上,離散邊緣點(diǎn)的數(shù)量直接影響匹配的精度以及算法的效率。通過(guò)試驗(yàn),對(duì)于本文所用的目標(biāo)模型,光柵點(diǎn)間距選擇在1-2 mm。繼而提取點(diǎn)={, …,}∈?3,使得:


其次是場(chǎng)景邊緣圖像提取。本文使用LSD 算法提取場(chǎng)景邊緣,該算法的目標(biāo)在于檢測(cè)圖像中局部直線輪廓,并將輪廓構(gòu)成直線段;相比其他邊緣提取算法,能夠有效抑制長(zhǎng)度較短的邊緣提取誤差,如圖2 所示,LSD 邊緣提取算法更加適合于DCM 三維張量的計(jì)算。

圖2 邊緣提取圖 Fig.2 Edge extraction
為加速DCM 張量的方向誤差計(jì)算,在場(chǎng)景邊緣圖像中,按一定角度間隔ε 對(duì)邊緣方向進(jìn)行離散化,使得各角度范圍內(nèi)的邊緣單獨(dú)成圖,如圖3(a)所示。ε 的取值將對(duì)邊緣匹配精度以及算法運(yùn)行時(shí)間造成影響。通過(guò)測(cè)試,權(quán)衡精度與耗時(shí)的關(guān)系,選定ε 為3°,即將邊緣圖像分為60 個(gè)離散的方向。為計(jì)算DCM 張量,首先根據(jù)各方向?qū)?yīng)的邊緣圖像計(jì)算倒角匹配距離,尋找所有光柵點(diǎn)與當(dāng)前離散角度邊緣中的最近邊緣點(diǎn)距離。該距離即是倒角匹配距離DTV{φ?i},其中φ?i, i = {1,…,60}代表離散的邊緣方向,V代表當(dāng)前場(chǎng)景圖像。計(jì)算結(jié)果如圖3(b)所示,其中像素點(diǎn)的灰度代表當(dāng)前像素點(diǎn)距離邊緣的距離,灰度值越高,距離越遠(yuǎn)。通過(guò)各角度對(duì)應(yīng)的倒角匹配距離計(jì)算方向倒角距離DT3V{φ?i},結(jié)果如圖3(c)所示。方向倒角匹配張量為三維距離張量,代表不同離散角度中,任一像素點(diǎn)的圖像距離與角度距離之和最小的邊緣距離。根據(jù)雙向動(dòng)態(tài)規(guī)劃算法,首先將所有角度的方向倒角距離初始化為圖像二維距離,根據(jù)前向遞推以及后向遞推以計(jì)算各點(diǎn)對(duì)應(yīng)的距離最小值:

其中λ 代表方向誤差權(quán)重,該方法計(jì)算速度快,能夠在最多1.5 次前向與后向循環(huán)之后得到各角度邊緣圖像中的所有像素點(diǎn)對(duì)應(yīng)的DT3V{φ?i},時(shí)間復(fù)雜度控制在 Ο ( q)以?xún)?nèi),其中q 代表圖像的像素個(gè)數(shù)。
完成模型邊緣光柵點(diǎn)的提取、映射以及場(chǎng)景圖像DCM 距離計(jì)算之后,通過(guò)光柵點(diǎn)的圖像坐標(biāo)ix 以及該模型邊緣點(diǎn)的方向構(gòu)造方向倒角匹配殘差函數(shù):

圖3 離散方向殘差示意圖 Fig.3 Discrete direction residuals

其中n 代表模型邊緣點(diǎn)的數(shù)量, φ?(xi)代表對(duì)應(yīng)邊緣點(diǎn)在二維圖像中的邊緣切向方向,該方向即點(diǎn)集P 與P 映射到圖像坐標(biāo)系中的位置連線方向。通過(guò)構(gòu)造后的殘差函數(shù)作為優(yōu)化的目標(biāo)函數(shù),將匹配問(wèn)題轉(zhuǎn)化為尋優(yōu)問(wèn)題,尋找使得所有邊緣光柵點(diǎn)匹配殘差之和最小的相對(duì)位姿。設(shè)立物體相對(duì)于相機(jī)的旋轉(zhuǎn)向量R =[ rxryrz]T以及平移向量T =[ txtytz]T,由此根據(jù)殘差函數(shù)得到優(yōu)化的目標(biāo)函數(shù):

其中, oi代表三維模型邊緣光柵點(diǎn), π(?)代表相機(jī)投影模型,g (T, R )∈?6代表物體相對(duì)于相機(jī)的三維空間位姿變換關(guān)系。通過(guò)優(yōu)化目標(biāo)函數(shù) E (T, R )以獲得當(dāng)前幀中物體相對(duì)于相機(jī)的精確位姿變換關(guān)系,并將該幀位姿作為下一幀圖像的初始位姿,以實(shí)現(xiàn)姿態(tài)追蹤。
待優(yōu)化目標(biāo)函數(shù)由模型邊緣光柵點(diǎn)的方向倒角距離(DT3V)構(gòu)成,而優(yōu)化變量為目標(biāo)相對(duì)于相機(jī)的位姿變換關(guān)系,即g (T, R )∈?6。優(yōu)化目標(biāo)函數(shù),關(guān)鍵在于尋找DT3V相對(duì)于待優(yōu)化變量的導(dǎo)數(shù),Imperoli等人[19]通過(guò)直接計(jì)算數(shù)值導(dǎo)數(shù)的方法進(jìn)行尋優(yōu),該方法在優(yōu)化變量上進(jìn)行微小攝動(dòng)以計(jì)算 ΔD T3V,以獲取對(duì)應(yīng)優(yōu)化變量相對(duì)于目標(biāo)函數(shù)的數(shù)值導(dǎo)數(shù),該方法在設(shè)定合適步長(zhǎng)的情況下能夠使得目標(biāo)函數(shù)降低到最小值,但是在初始位姿與實(shí)際位姿相差較大或者背景較為復(fù)雜的情況下容易匹配失敗,陷入局部最小值。為提高匹配精度以及系統(tǒng)魯棒性,本文將利用解析方法,計(jì)算導(dǎo)數(shù)以提高匹配的魯棒性與精度。
目標(biāo)函數(shù) E (T, R )是由場(chǎng)景DT3V張量以及模型映射到圖像中的二維圖像坐標(biāo)點(diǎn) xi(ui, vi)及該點(diǎn)邊緣方向φ?(xi)確定,因此尋找位姿變換關(guān)系 g (T, R )相對(duì)于二維圖像坐標(biāo)(ui, vi)的雅克比矩陣能夠解析地表示物體相對(duì)相機(jī)的位姿與物體在圖像坐標(biāo)系中映射點(diǎn)的坐標(biāo)變化關(guān)系。當(dāng)場(chǎng)景DT3V張量確定之后,模型映射點(diǎn)的坐標(biāo)變換將直接影響目標(biāo)函數(shù),因此通過(guò)解耦位姿變換與模型映射點(diǎn)的圖像坐標(biāo)關(guān)系,能夠優(yōu)化尋優(yōu)過(guò)程,提高配準(zhǔn)精度。
假設(shè)目標(biāo)坐標(biāo)系為 Cobj,相機(jī)坐標(biāo)系 Ccam, Cobj相對(duì)于 Ccam的一次變換為T(mén)(對(duì)應(yīng)李代數(shù)為ξ ,對(duì)應(yīng)旋轉(zhuǎn)矩陣R 以及平移向量t),現(xiàn)存在目標(biāo)坐標(biāo)系 Cobj上一點(diǎn)p,其位于 Ccam中的位置為T(mén)p。給定T 左乘一個(gè)擾動(dòng)Δ T=exp(δξ∧),∧算符代表求取向量的反對(duì)稱(chēng)矩陣,并設(shè)定擾動(dòng)項(xiàng)的李代數(shù)為δξ =[δ ρ ,δ φ ]T,可得:


根據(jù)相機(jī)投影模型,對(duì)于點(diǎn)p′:

使用第三行消去點(diǎn)p′距離相機(jī)坐標(biāo)系的距離s,得:

由此計(jì)算偏導(dǎo)數(shù)可得:

根據(jù)式(11)以及(14)可得到物體上一點(diǎn)投影到圖像平面內(nèi)的坐標(biāo)相對(duì)于坐標(biāo)系變換關(guān)系的雅克比矩陣:

使用該雅克比矩陣替代數(shù)值導(dǎo)數(shù)優(yōu)化方法,經(jīng)過(guò)測(cè)試,在復(fù)雜背景情況下,算法的匹配精度以及魯棒性均有提升。
為提高追蹤算法對(duì)復(fù)雜背景的魯棒性,本文提出自適應(yīng)權(quán)重優(yōu)化算法,動(dòng)態(tài)改變光柵點(diǎn)優(yōu)化權(quán)重,降低擾動(dòng)點(diǎn)的優(yōu)化占比,提高追蹤的精確度。
在完成當(dāng)前幀邊緣圖像與物體三維模型的匹配尋優(yōu)后,獲得了當(dāng)前時(shí)刻物體相對(duì)于相機(jī)的位姿變換關(guān)系 g (T, R ),通過(guò)該位姿變換關(guān)系能夠?qū)⒛P瓦吘壒鈻劈c(diǎn)集P ={o1, … , om}∈?3及用于求取模型邊緣方向的臨近點(diǎn)集={,… ,}∈?3映射為圖像坐標(biāo)系中的二維模型邊緣點(diǎn)集X={ x1,…, xm} ={π ( oi, g), i=0,…, m}∈?2以及={, …,} ={π (, g ), i=0,…, m}∈?2。計(jì)算邊緣光柵映射點(diǎn)以及對(duì)應(yīng)臨近點(diǎn)的連線方向,即為相應(yīng)模型邊緣在圖像中的方向Dmodel(xi)。在完成模型邊緣點(diǎn)方向計(jì)算后,對(duì)場(chǎng)景圖像的梯度方向進(jìn)行提取。對(duì)于圖像函數(shù) f ( x,y ),其在點(diǎn)( x , y )處的梯度是一個(gè)具有大小和方向的矢量,設(shè)Gx和 Gy分別代表x 和y 方向的梯度,該梯度的矢量可以表示為:

本文使用Sobel 算子對(duì)梯度進(jìn)行提取,該算子使用梯度矩陣與圖像矩陣作平面卷積,如式(17,18)所示,以計(jì)算圖像灰度函數(shù)的梯度近似值,所需運(yùn)算資源相對(duì)較少,并且能有效降低僅對(duì)單個(gè)像素點(diǎn)進(jìn)行梯度計(jì)算的誤差。

其中A 表示原始圖像矩陣中以計(jì)算點(diǎn)為中心的3*3 圖像矩陣,由此即可獲得圖像中所有像素的梯度大小,以及方向
根據(jù)模型光柵點(diǎn)的圖像坐標(biāo) xi( ui, vi)獲得場(chǎng)景圖像中對(duì)應(yīng)該點(diǎn)的梯度大小Mg( xi)以及方向 Dg( xi),進(jìn)而結(jié)合該點(diǎn)對(duì)應(yīng)的模型邊緣方向Dm(xi),計(jì)算該點(diǎn)的優(yōu)化權(quán)重。首先對(duì)梯度大小進(jìn)行篩選,若對(duì)應(yīng)點(diǎn)所在圖像梯度過(guò)小,證明該點(diǎn)所處圖像位置邊緣信息不明顯,導(dǎo)致該問(wèn)題的原因可能是:(1)該處邊緣由于光照等外部原因,在圖像中顯示不明顯,邊緣提取算法未能成功提取;(2)該處邊緣被遮擋。在這兩種情況下,使用該光柵點(diǎn)的殘差作位姿優(yōu)化都會(huì)引入誤差,因盡量降低該點(diǎn)對(duì)下一幀位姿優(yōu)化的權(quán)值,防止誤匹配點(diǎn)對(duì)物體位姿追蹤的影響。其次,當(dāng)梯度大小大于設(shè)定閾值后,證明該匹配點(diǎn)已匹配到場(chǎng)景圖像的邊緣,但模型邊緣點(diǎn)與場(chǎng)景邊緣的匹配正確與否以及匹配的精度需要使用模型邊緣的方向以及場(chǎng)景梯度方向進(jìn)一步確定。通過(guò)計(jì)算邊緣方向與梯度方向之差的余弦值作為該光柵點(diǎn)的優(yōu)化權(quán)值,使得兩者方向垂直情況下的權(quán)重更高,由此可得:

將優(yōu)化權(quán)重加入目標(biāo)優(yōu)化函數(shù),得:

將圖像坐標(biāo)點(diǎn) xi轉(zhuǎn)換為三維空間點(diǎn) oi:

使用該方法不僅能夠降低圖像噪音以及邊緣提取誤差對(duì)系統(tǒng)帶來(lái)的擾動(dòng),而且在復(fù)雜背景中也能夠及時(shí)降低干擾點(diǎn)對(duì)于整體尋優(yōu)的影響,保證系統(tǒng)的魯棒性。
本文所提算法系統(tǒng)使用C++構(gòu)建,上位機(jī)配置為Intel i7 CPU、8G RAM,算法平均每幀優(yōu)化配準(zhǔn)過(guò)程耗時(shí)57 ms。由于位姿數(shù)據(jù)庫(kù)的建立成本過(guò)高,并且精確度難以保證,因此本文使用計(jì)算機(jī)圖形學(xué)(簡(jiǎn)稱(chēng):CG)渲染視頻作追蹤精度測(cè)試,并由渲染軟件得到目標(biāo)相對(duì)相機(jī)的位姿真值[20],CG 渲染視頻追蹤效果如圖4 所示。
根據(jù)軟件生成真值用于精度測(cè)試,本文將相機(jī)放置據(jù)物體不同的距離,以測(cè)試物體在圖像平面內(nèi)不同尺度的追蹤精度,如表1 所示,其中S 表示物體在圖像中的平均尺度大小,單位為pix,R 表示平均角度偏差,T 表示平均平移向量偏差:

圖4 CG 渲染視頻追蹤 Fig.4 CG render video tracking

表1 CG 渲染視頻追蹤精度表 Tab.1 CG rendering video tracking accuracy table
由實(shí)驗(yàn)可知,當(dāng)物體平均尺度在200~300 像素時(shí)的追蹤精度明顯優(yōu)于100 像素左右的情況,主要原因?yàn)槲矬w尺度過(guò)小后邊緣匹配點(diǎn)減少,并且邊緣提取精度也較低,容易受到擾動(dòng)的影響。
真實(shí)場(chǎng)景測(cè)試視頻由單目灰度相機(jī)提取,分辨率為1280*1024,真實(shí)場(chǎng)景測(cè)試主要考察算法對(duì)背景復(fù)雜、環(huán)境光照變化以及噪音較大時(shí)的表現(xiàn),追蹤效果如圖6 所示。進(jìn)而使用公開(kāi)數(shù)據(jù)庫(kù)Rigid Pose[21]對(duì)算法精度進(jìn)行測(cè)試,追蹤效果如圖5 所示。將追蹤結(jié)果與數(shù)據(jù)庫(kù)真值進(jìn)行對(duì)比,如圖7 所示為每一幀圖像中目標(biāo)相對(duì)于相機(jī)的位姿關(guān)系,子圖a-f 分別對(duì)應(yīng)相機(jī)坐標(biāo)系中x,y,z 軸的旋轉(zhuǎn)以及平移關(guān)系,其中黃色線代表數(shù)據(jù)庫(kù)真值,藍(lán)色線代表追蹤算法實(shí)際追蹤結(jié)果。本文對(duì)比了Pauwels[22]等人提出的追蹤算法,并測(cè)試了相同數(shù)據(jù)集上的追蹤精度。如表2 所示,本文所提方法的角度追蹤平均誤差為1.835°,平移向量平均誤差為0.989 mm,相比Pauwels 所提的稀疏點(diǎn)追蹤方法,優(yōu)勢(shì)明顯;而與深度稠密追蹤方法相比,僅在平移向量誤差上稍大,但本文算法僅使用灰度圖像,在算法復(fù)雜度與計(jì)算耗時(shí)上有較大優(yōu)勢(shì)。根據(jù)測(cè)試,本文所提方法在CG 渲染視頻、真實(shí)灰度相機(jī)拍攝視頻以及公開(kāi)數(shù)據(jù)集上的追蹤效果良好,平均角度誤差控制在2°以?xún)?nèi),平均平移向量誤差在1 mm 以?xún)?nèi),并且隨視頻質(zhì)量的提高,精度仍有一定程度提高。

圖5 Rigid Pose 追蹤結(jié)果圖 Fig.5 Rigid Pose tracking results

圖6 真實(shí)視頻追蹤 Fig.6 Real video tracking

圖7 Rigid Pose 數(shù)據(jù)集追蹤精度 Fig.7 Rigid Pose dataset tracking accuracy

表2 追蹤算法平均誤差 Tab.2 Average error of tracking algorithm
本文給出了基于物體三維CAD 模型的追蹤方法,構(gòu)建方向倒角殘差函數(shù),將追蹤問(wèn)題轉(zhuǎn)換為尋優(yōu)問(wèn)題,進(jìn)而尋找模型與場(chǎng)景邊緣圖像的最優(yōu)匹配,以解算目標(biāo)物體相對(duì)相機(jī)的位姿關(guān)系。算法精度高、魯棒性強(qiáng),標(biāo)準(zhǔn)測(cè)試數(shù)據(jù)庫(kù)實(shí)驗(yàn)表明角度誤差在2°以?xún)?nèi),平移向量誤差在1 mm 以?xún)?nèi),均已達(dá)到現(xiàn)有算法較高水平;提出基于自適應(yīng)權(quán)重優(yōu)化的解決方案,該方法不僅能夠提高物體在復(fù)雜背景情況下的追蹤精度,還有效降低了系統(tǒng)噪音對(duì)追蹤效果的影響,進(jìn)一步提高算法的適用性。并且該算法計(jì)算耗時(shí)較低,便于移植到移動(dòng)設(shè)備平臺(tái),對(duì)于工業(yè)視覺(jué)的應(yīng)用具有重要應(yīng)用價(jià)值。