999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于距離中心化與投影向量學習的行人重識別

2017-08-31 19:49:08丁宗元王洪元陳付華倪彤光
計算機研究與發展 2017年8期
關鍵詞:特征方法

丁宗元 王洪元 陳付華 倪彤光

1(常州大學信息科學與工程學院 江蘇常州 213164) 2 (西自由大學自然科學與數學系 美國西弗吉尼亞州西自由市 26074) (dzyha2011@foxmail.com)

基于距離中心化與投影向量學習的行人重識別

丁宗元1王洪元1陳付華2倪彤光1

1(常州大學信息科學與工程學院 江蘇常州 213164)2(西自由大學自然科學與數學系 美國西弗吉尼亞州西自由市 26074) (dzyha2011@foxmail.com)

現有的基于投影的行人重識別方法具有訓練時間長、投影矩陣維數高、識別率低等問題.此外在建立訓練集時,還會出現類內樣本數目遠少于類間樣本數目的情況.針對這些問題,提出了基于距離中心化的相似性度量算法.在構建訓練集時,將同一組目標群體特征值中心化,利用中心特征值來構建類間距離,而類內距離保持不變.這樣使得類內類間樣本數目接近,可以很好地緩解類別不平衡所帶來的過擬合風險.另外在學習投影矩陣時,利用訓練集更新策略,學習若干組投影向量,使得到的投影向量近似正交,這樣既可以有效減少運算復雜度和存儲復雜度,又可以使得學習到的投影向量能夠通過簡單的相乘近似得到原來的投影矩陣.最后,在學習投影向量時采用共軛梯度法,該方法具有二次收斂性,能夠快速收斂到目標精度.實驗結果表明:提出的算法具有較高的效率,在不同數據集上的識別率都有明顯的提升,訓練時間也比其他常用的行人重識別算法要短.

行人重識別;距離中心化;度量學習;投影向量;共軛梯度法

目前,越來越多的攝像系統被廣泛地布置到公共場所,進行24小時不間斷的監控,產生了大量的視頻數據,使得主要依靠人工監控和人工鑒別的傳統視頻監控系統不僅耗費大量的人力,而且效率非常低下.因此,對視頻數據進行自動化處理和分析對提高視頻監控的效率有極大的幫助.視頻監控中,當一個行人被位于公共場所的某個攝像機所捕捉到,即該行人的一幀或多幀圖像被獲取后,利用現有攝像機網絡去發現該目標行人下一次出現的場所的過程稱為行人重識別.行人重識別研究近幾年獲得了較大的進展.以往研究工作主要是利用投影矩陣的方式,將特征投影到共同子空間,以獲得更好的判別性.一些方法對于行人數據的光照條件變化、拍攝角度的不同等一些問題具有很好的魯棒性.

近些年在行人重識別問題上的研究涌現出了不少有效的算法.這些方法主要分為2種類型,基于特征的行人重識別[1-10]和基于度量學習的行人重識別方法[11-18].而在基于度量學習的行人重識別方法中,主要以學習出“好的”度量為主要目的.其主要思想是利用機器學習的方法,學習出距離測度和分類器,使得類內距離盡量小,類間距離盡量大.該方法對特征選擇的要求較低,但具有訓練時間長、投影矩陣維數大、容易過擬合等一些問題.

2007年,Weinberger等人提出大間隔最近鄰分類[19](large margin nearest neighbor, LMNN)距離測度學習算法.該方法采用三元組的方式,并加入對不相似對的約束,學習使得盡可能多的三元組樣本滿足一定條件的最優矩陣M.2008年,Weinberger又給出了LMNN的快速解法[20],采用激活策略的方式來避免計算所有樣本的梯度.2010年,Dikmen在LMNN基礎上提出改進的算法[21](LMNN-R),并用于行人重識別問題.2007年,Davis等人提出基于信息論方法[22](information theoretic metric learning, ITML)的度量學習算法,將馬氏度量矩陣M映射到一個高斯模型,利用信息散度來度量不同馬氏矩陣M的相似性.2011年,Zheng等人提出基于概率相對距離比較[23](probabilistic relative distance comparison, PRDC)的度量學習算法.作者采用的是logistic誤差函數,因此最終的目標函數是一個平滑的凸優化問題.為了避免過擬合,作者對矩陣M加入了額外約束.Kostinger等人提出的基于簡單而且直接策略[24](keep it simple and straight MEtric, KISSME)的度量學習算法,通過直接的方式來對模型的參數進行估計出度量矩陣M,該方法能夠用于大尺度數據的學習,但該方法在訓練數據不足時,估計出來的參數不準確.2013年,Pedagadi將局部線性判別分析[25](local fisher discrimination analysis, LFDA)方法用于行人重識別問題,其對特征進行了主成分分析(PCA)的方式,提取不同特征的主要成分.2015年,Chen等人提出了建立相似對來進行度量學習[26],利用給定的相似矩陣進行度量學習,但該方法需要事先給定數據集中的相似矩陣,因此當數據集規模很大時,該方法會顯得非常耗時.2016年,Chen等人提出了非對稱特征投影模型[27],該方法可以針對相機屬性參數的不同學習出不同的投影矩陣,可以有效地提高識別的效率,但該方法需要根據攝像場景的數目分別學習出數目與之對應的投影矩陣,這必然增加訓練時間與存儲復雜度.

為解決上述行人重識別算法的種種不足,本文提出基于樣本距離中心化的相似性度量算法.首先,常用的基于距離學習的算法在構建訓練集時,存在反例樣本數目遠多于正例數目的情況.每個樣本在構建反例時需要與所有不同樣本的特征向量求特征距離,而在此過程中會產生大量冗余的反例特征距離,大大地增加了訓練的時間復雜度,而LMNN算法中利用構建三元組的方法會丟失一些重要的訓練特征距離.因此在求樣本的反例特征距離時,對同一樣本的不同特征向量進行中心化.這樣可以很好地緩解類別不平衡帶來的過擬合問題.另外,對于同一個樣本具有較多的類內樣本時,本文采用局部距離中心化的方法,這樣可以很好地保留一些重要信息.

其次,常用的基于投影矩陣學習的方法中投影矩陣維數較高,帶來了較大的運算和存儲復雜度.本文對投影矩陣進行特征值分解,將其分解成低秩的投影矩陣.因此在訓練時,與其他常用的學習整個投影矩陣不同的是,利用本文所提出的迭代優化策略,對樣本特征的距離向量進行更新,獲得新的樣本分布,每次只需要利用更新后的訓練集學習一組新的投影向量,在滿足目標精度時停止更新,具有較好的降維效果,可以有效地降低運算和存儲復雜度,并且該策略能夠近似地保證矩陣特征值分解后的向量之間應該保持正交的特性.

最后,針對機器學習中常用的基于梯度下降的優化方法收斂速度慢、運算量大等問題,本文在學習投影向量時采用共軛梯度法的方式,該方法只需要計算一次初始梯度,而且對于二次函數具有二次終止性,可以很快地收斂到目標精度.

本文提出的針對行人重識別常見問題的解決方法主要包括3個部分:

1) 提出(局部)樣本距離中心化的方法來構建訓練集;

2) 提出新的迭代策略,只需更新一組近似正交的投影向量;

3) 利用共軛梯度法來更新投影向量.

1 目標函數的建立

本文將行人重識別問題轉化為度量學習問題,假設利用特征向量來代表每個行人數據,將第i個行人特征向量記為xi∈n,其中n為特征維數.因此可以構造訓練集為X={(xi,yi),其中yi為第i個行人的標簽,m為所有訓練集中所包含的行人數據集數目.對于任意2個樣本數據集(xa,xb)之間的距離記作dis(xa,xb),假設樣本(xi,xj)代表同一個行人的數據集(類內樣本),樣本(xi,xk)代表不同行人的數據集(類間樣本),則根據類內距離小于類間距離的原則,有dis(xi,xj)

r(dpost,dnegt)=dpost-dnegt.

(1)

式(1)中的函數無界,因此在迭代時無法保證收斂,不利于之后的優化工作,所以,將其轉化為常用的Sigmoid函數,使其具有連續性:

C(dpost,dnegt)=(1+exp(dpost-dnegt))-1.

(2)

將式(2)中的所有t進行連乘并取對數,然后再取負數,將式(2)轉化為求和問題,即可使所有差值向量滿足以上約束:

(3)

在這里,極小化式(1)即等價于極大化式(2),而極大化式(2)又等價于極小化式(3).而由于馬氏距離中的馬氏矩陣具有很好的投影性質和可學習性,因此這里的距離函數取馬氏距離:

dis(xi,xj)=(xi-xj)TM(xi-xj),

(4)

度量學習就是對矩陣M進行學習,由于M是半正定對稱矩陣,在這里,將M進行特征值分解,將其對角化,總能找到一組正交基P,使得M=PPT,其正交基數目可以小于原矩陣M的秩,這樣可以通過學習獲得一個降維矩陣P∈n×d,該降維矩陣的每一列即可以作為每一組更新后特征空間的投影向量,其中d為降維后的正交基數目.于是:

(5)

(6)

2 樣本距離中心化與迭代策略

2.1樣本距離中心化

當同一目標群體里含有較多的樣本時,本文針對其提出了局部距離中心化的思想,即將每一個目標群體中的較多樣本分為若干個集合,對每個集合依次利用以上的距離中心化的方法.而求正例樣本特征距離仍利用原先的策略來求解,這樣在一定程度上能夠緩解類別不平衡的問題,而且不會損失太多樣本.

Fig. 1 Samples distance centralization (Dataset 3DPeS)圖1 樣本距離中心化(3DPeS數據集)

2.2投影向量學習算法

采用距離中心化策略后,可以獲得數量較為平衡的正反例樣本特征分布,以這些特征分布,利用特定的優化算法對目標函數進行極小化搜索,以此來學習在這些特征分布下的投影向量,在未達到總體目標精度之前,再利用迭代策略(即式(7))來更新得到一組新的特征分布,然后再學習一組新的投影向量,直到達到總體目標精度為止.通常在機器學習中用的較多的優化算法是梯度下降法,梯度下降法是用負梯度方向為搜索方向的,而梯度下降法有越接近目標值步長越小、前進越慢等缺點,且直線搜索時可能會產生一些問題.共軛梯度法具有存儲量小、步收斂性、穩定性高的特點,而且不需要任何外來參數,因此本文提出了基于共軛梯度法的投影向量學習方法.

(7)

則此時的目標函數的梯度gl為

(8)

而第k步迭代后的投影向量為

(9)

qk=-gk+βk-1qk-1,

(10)

(11)

(12)

2.3特征空間的迭代更新策略

本文通過迭代更新得到新的特征距離集合(即S),可以得到一組新的特征分布,通過新的特征分布來學習得到一組近似正交的投影向量pi.這樣,在滿足一定精度要求的前提下可以大大減少運算復雜度,用少量的列向量pi來構造具有很好判別性的度量矩陣M,通過這種方式可以減少數據冗余度,即降噪的效果.

(13)

2.4具體操作步驟

本文在提取得到行人圖像的特征之后,利用2.1節所提出的局部距離中心化的方法構建訓練集,然后在該訓練集上利用2.2節與2.3節的方法來優化投影向量,最后將這些投影向量拼接成投影矩陣并輸出.

算法1. 投影矩陣學習算法

輸入:行人特征集X,正則化因子r,擾動因子u,目標精度εo,投影向量精度εg;

輸出:投影矩陣P=[p1,p2,…,pl];

① 用X構建訓練集S;

②P=p0=0,l=0;

③ 用式(6)計算f0;

④ While True

⑤l=l+1;

⑥ 用式(13)更新Sl;

⑧k=0;

⑩ While True

算法1中各個符號及字母的含義與前文含義相同,這里不再具體解釋.

Fig. 2 Pedestrian image lists of public datasets圖2 公共數據集行人圖像對

3 實驗與分析

3.1數據集與評價指標

本文采用3種常用公開數據集VIPeR[29],i-LIDs(MCTS)[30],3DPeS[31],如圖2所示,每組中上下2行代表同一個行人.其中,VIPeR數據集分辨率被規范化為128×64像素,由632個行人組成一共1 024張行人圖像,每個行人都有2張不同的圖像,這2張圖像是從不同攝像機不同角度拍攝得到的,同一個人在不同攝像機下的圖像姿勢有較大的變化.i-LIDs數據集分辨率也是128×64像素,該數據集是在機場入境大廳拍攝得到,一共有119個行人組成的476個行人圖像,平均每個行人有4張行人圖像,由于行人較多,因此行人圖像中不免有些遮擋以及角度等問題.3DPeS數據集由8個不同的監控攝像機在不同時間拍攝得到的,該數據集的分辨率并不一樣,由204個行人共1 012張行人圖像組成,由于該數據集有時間跨度,因此每個行人數據集光照變化大.本文分別將VIPeR數據集、i-LIDs數據集和3DPeS數據集中的200個行人、59個行人和134個行人作為訓練集,余下的用作測試集.

對于評價指標,本文采用行人重識別問題常用的累計匹配特性曲線(cumulative match characteristic, CMC)的方式.累計匹配特性曲線的橫坐標是排名(rank),縱坐標是匹配率(matching rate),排名為r時的匹配率表示排序后前r個行人中匹配正確的概率.其中排名較靠前的匹配率大小更具有實際意義,因為在實際應用中,不管用什么方法來解決行人重識別問題,其結果都是返回若干張與該行人最相似的圖像,這幾張圖像即排名靠前的幾張圖像,因此當排名靠前的匹配率較大時,能夠在很大程度上使得返回的結果中一定有該行人的圖像,從而提高行人重識別的效率.

為了測試本文算法的計算效率,本文的評價指標除了累計匹配特性曲線,還對本文算法與其他常用的基于度量學習的算法的時間花銷進行對比,包括訓練時間與測試時間.

Fig. 3 Feature extraction of pedestrian images圖3 行人圖像的特征提取

3.2特征表示

本文對行人圖像分別提取RGB,YCbCr,HSV,Lab,YIQ,Gabor 6種特征,圖3給出了提取一張行人圖像的特征描述的示例.其中前5種特征為顏色空間特征,提取的是直方圖特征,即統計特征,RGB,YCbCr分別提取全部3組顏色特征,而HSV特征只提取色調(H)、飽和度(S)特征,Lab特征和YIQ去除像素的亮度特征(即L分量與Y分量),這些待提取的特征全部分為16維直方圖統計特征.而Gabor特征是一種紋理特征,根據不同波長、方向、相位偏移、空間縱橫比、帶寬等分別取16組不同的Gabor濾波器,而每個濾波器同樣再提取16維直方圖統計特征.對于每一張行人圖像,將其在水平方向平均分為6個水平條帶.因此每個水平條帶中有28個特征通道,每個通道又被表示為16維直方圖向量,因此每幅圖像在特征空間中被表示為2 688維特征向量.

3.3對比分析

常用的基于度量學習的行人重識別的解決方法有ITML[24](information therotic metric learning),LMNN[21](large margin nearest neighbor),KISSME[25](keep it simple and straightforward metric),PRDC[19](probabilistic relative distance comparison),LFDA[20](local fisher discriminant analysis),CVDCA[26](cross-view discriminant component analysis),RMLLC[27](relevance metric learning method with listwise constraints)等方法.本節重點比較了這7種方法與本文所提出的方法,利用CMC曲線中的Rank 1,Rank 5,Rank 10,Rank 20所對應的Matching Rate來比較這7種方法與本文方法的優劣.其中,ITML,LMNN以及KISSME三種方法是基于學習高維的馬氏度量矩陣的算法,這樣不僅運算復雜度高,而且會帶來存儲量較大等問題;PRDC方法與本文方法類似,其主要以概率相對距離比較為方法,學習出較好的馬氏度量矩陣;LFDA方法主要先利用主成分分析進行降維,并對不同的特征賦予不同的權重,其主要思想仍然是度量學習;CVDCA方法是基于非對稱投影的方式,綜合考慮了不同攝像機的屬性不同的情況來學習出不同的投影矩陣,但其只適用于訓練集中只有2個攝像場景的情況;RMLLC方法是基于相似對的方式,可以很好地減少相似但不同行人匹配出錯的情況.這幾種方法都未考慮類別不平衡的情況,而且都是以學習投影矩陣為主要方法,所以這些方法仍然會有存儲量大、耗時長等問題.

本文實驗在MATLAB 7.11.0平臺下完成,實驗環境為CPU Intel CoreTMi5-4460T 1.90 GHz,內存8 GB.在本文方法中,正則化因子r=1、擾動因子u=10-3能夠獲得較好的結果.首先利用本文方法與其他方法在不同的數據集上分別進行比較.本文對VIPeR,i-LIDs,3DPeS分別利用局部距離中心化,在求反例樣本距離時,需中心化的同一樣本的不同圖像分別按2個行人、2個行人、3個行人為一個集合分別進行局部距離中心化.在數據集VIPeR,i-LIDs,3DPeS上的實驗結果分別如表1~3所示.

Table 1 Performance Comparison Among Different Methods on Dataset VIPeR (P=432)表1 各種方法在數據集VIPeR上的結果比較(測試集規模為432)

Table 2 Performance Comparison Among Different Methods on Dataset i-LIDs (P=60)表2 各種方法在數據集i-LIDs上的結果比較(測試集規模為60)

Table 3 Performance Comparison Among Different Methods on Dataset 3DPeS (P=70)表3 各種方法在數據集3DPeS上的結果比較(測試集規模為70)

對于數據集VIPeR,每個行人只有2張行人圖像,從圖2(a)可以看出,該數據集給行人重識別造成困難的因素是拍攝角度等問題,而且每個行人的圖像較少,常用的行人重識別方法在該數據集上的表現一直不是很好.但通過表1可以看出,本文方法在該數據集上的表現比其他常用的行人重識別方法至少高出10個百分點.除此之外,由于本文方法采用了距離中心化的思想,明顯減少了運算量,而且由于共軛梯度法具有快速收斂的特點,大大減少了運算復雜度,從表1的最后2列可以看出,本文方法的訓練時間與測試時間明顯比其他方法少.因此,本文算法在數據集VIPeR上的運算效率有了很大的提高.

而對于數據集i-LIDs,通過圖2可以看出,該數據集中的每個行人由于有較多部分的遮擋,還有一些角度問題,這些問題給行人重識別問題帶來了較大的困難,以往常用的方法在該數據集上的表現都很一般,而通過表2可以看出,本文方法比其他表現最好的方法仍然高出大約6個百分點.而且表2中最后2列也可以看出,本文方法的時間花銷也比其他方法要少.此外,由于i-LIDs數據集屬于小規模數據集,對于一般常用的算法會出現過擬合的問題,使得識別效果下降,但本文方法的識別效果仍然比其他方法要好,因此本文方法緩解了基于學習的算法的過擬合問題.

在數據集3DPeS上,其對行人重識別造成困難的因素是不同攝像機所攝取的時間差,因此同一行人的不同圖像會有明顯的光照區別.除此之外,該數據集對于同一行人的不同圖像也有角度姿勢的不同等問題.盡管如此,本文方法在該數據集上的表現仍然高于其他常用方法,比其他方法至少高9個百分點.算法的訓練時間與測試時間也明顯少于其他方法.因此本文方法在該數據集上的運算效率也有了較大的提高.

其次,本文還在同樣的度量學習方法上,將樣本距離中心化后的識別效果與樣本距離未中心化的識別效果進行了對比,2種不同策略在3個數據集上的CMC曲線如圖4所示,可以看出,由于樣本距離中心化后能夠很好地緩和過擬合的風險,將樣本距離中心化后的行人重識別的效果明顯要優于未中心化后的識別效果.可以看出,利用樣本距離中心化后在排名較靠前的匹配率明顯高于樣本距離未中心化的算法,雖然排名靠后的匹配率增長幅度逐漸降低,但由前面敘述可知,樣本距離中心化后效果的提升更具有實際意義.而對于數據集中同一目標樣本數量較多的數據集3DPeS而言,如果將同一行人的所有不同圖像的特征值全部中心化后會損失較多的類間距離,因此會使得識別效果反而有所下降,所以利用局部距離中心化后效果提升的會比較明顯,其與未利用局部距離中心化的效果對比如表4所示:

Table 4 Performance Comparison Between Local andGlobal Distance Centralization (3DPeS)

Fig. 4 Performance comparison between feature distance centralization and non-centralization圖4 特征中心化與未中心化的效果比較

4 結 論

針對以往的方法中未考慮樣本類別不平衡問題,本文提出了基于樣本距離中心化的,并使用迭代策略的度量學習的行人重識別方法.相比其他基于度量學習方法,本文方法采取的樣本距離中心化能夠很好的去除較多的冗余的類間距離,使得類內距離與類間距離的數量趨于平衡,同時為了不使反例樣本損失太多,本文在同樣本因此在訓練的時候能夠很好的緩解因類別不平衡導致的過擬合的風險.本文的采用的迭代策略能夠很好地減少運算以及存儲復雜度,能使每次優化得到的投影向量之間都是近似正交的.而且利用特征值分解的方法與主成分分析(PCA)方法類似,除了能夠起到降維的作用,還能達到去噪的效果.此外,本文運用共軛梯度法來訓練投影向量能夠快速的收斂到目標精度,由于共軛梯度法的特有性質,使得訓練時所需的運算與存儲復雜度大大降低.通過實驗結果發現,本文提出的方法比其他基于度量學習的方法也更具有泛化性,而且訓練時間也比其他基于度量學習的方法要短.

[1] Chen Puqiang, Guo Lijun, Zhang Rong, et al. Patch matching with global spatial constraints for person re-identification[J]. Journal of Computer Research and Development, 2015, 52(3): 596-605 (in Chinese)(陳普強, 郭立君, 張榮, 等. 基于全局空間約束塊匹配的目標人體識別[J]. 計算機研究與發展, 2015, 52(3): 596-605)

[2] Bazzani L, Cristani M, Perina A, et al. Multiple-shot person re-identification by chromatic and epitomic analyses[J]. Pattern Recognition Letters, 2012, 33(7): 898-903

[3] Ma Bingpeng, Su Yu, Jurie F. Local descriptors encoded by fisher vectors for person re-identification[C] //Proc of the 12th European Conf on Computer Vision. Berlin: Springer, 2012, 7583: 413-422

[4] Zeng Mingyong, Wu Zemin, Tian Chang, et al. Fusing appearance statistical features for person re-identification[J]. Journal of Electronics & Information Technology, 2014, 36(8): 1844-1851 (in Chinese)(曾明勇, 吳澤民, 田暢, 等. 基于外觀統計特征融合的人體目標再識別[J]. 電子與信息學報, 2014, 36(8): 1844-1851)

[5] Ma Bingpeng, Su Yu, Jurie F. Covariance descriptor based on bio-inspired features for person re-identification and face verification[J]. Image & Vision Computing, 2014, 32(6/7): 379-390

[6] Kviatkovsky I, Adam A, Rivlin E. Color invariants for person reidentification[J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2013, 35(7): 1622-1634

[7] Fan Caixia, Zhu Hong, Lin Guangfeng, et al. Person re-identification based on multi-features[J]. Journal of Image and Graphics, 2013, 18(6): 711-717 (in Chinese)(范彩霞, 朱虹, 藺廣逢, 等. 多特征融合的人體目標再識別[J]. 中國圖象圖形學報, 2013, 18(6): 711-717)

[8] Wu Ziyan, Li Yang, Radke R J. Viewpoint invariant human reidentification in camera networks using pose priors and subject discriminative features[J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2014, 37(5): 1095-1108

[9] Li Wei, Wang Xiaogang. Locally aligned feature transforms across views[C] //Proc of the 2013 IEEE Conf on Computer Vision and Pattern Recognition(CVPR). Piscataway, NJ: IEEE, 2013. 4321-4328[10]Zhao Rui, Ouyang Wanli, Wang Xiaogang. Learning mid-level filters for person re-identification[C] //Proc of the 2014 IEEE Conf on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ: IEEE, 2014. 144-151

[11] Qi Meibin, Tan Shengshun, Wang Yunxia, et al. Multi-feature subspace and kernel learning for person re-identification[J]. Acta Automatica Sinica, 2016, 42(2): 299-308 (in Chinese)(齊美彬, 檀勝順, 王運俠, 等. 基于多特征子空間與核學習的行人再識別[J]. 自動化學報, 2016, 42(2): 299-308)[12]Kostinger M, Hirzer M, Wohlhart P, et al. Large scale metric learning from equivalence constraints[C] //Proc of the 2012 IEEE Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2012: 2288-2295

[13] Li Zhen, Chang Shiyu, Liang Feng, et al. Learning locally adaptive decision functions for person verification[C] //Proc of the 2013 IEEE Conf on Computer Vision and Pattern Recognition(CVPR). Piscataway, NJ: IEEE, 2013: 3610-3617

[14] Du Yuning, Ai Haizhou. A statistical inference approach for person re-identification[J]. Journal of Electronics and Information Technology, 2014, 36(7): 1612-1618 (in Chinese)(杜宇寧, 艾海舟. 基于統計推斷的行人再識別算法[J]. 電子與信息學報, 2014, 36(7): 1612-1618)

[15] Ma Lianyang, Yang Xiaokang, Tao Dacheng. Person re-identification over camera networks using multi-task distance metric learning[J]. IEEE Trans on Image Process, 2014, 23(8): 3656-3670

[16] Lisanti G, Masi I, Bagdanov A D, et al. Person re-identification by iterative re-weighted sparse ranking[J]. IEEE Trans on Pattern Analysis & Machine Intelligence, 2015, 37(8), 1629-1642

[17] Nguyen H V, Bai L. Cosine similarity metric learning for face verification[C] //Proc of the 10th Asian Conference on Computer Vision(ACCV). Berlin: Springer, 2010: 709-720

[18] Loy C C, Liu Chunxiao, Gong Shaogang. Person re-identification by manifold ranking[C] //Proc of the 20th IEEE Int Conf on Image Processing (ICIP). Piscataway, NJ: IEEE, 2013: 3567-3571

[19] Weinberger K Q, Saul L K. Distance metric learning for large margin nearest neighbor classification[J]. Journal of Machine Learning Research, 2009, 10(2): 207-244

[20] Weinberger K Q, Saul L K. Fast solvers and efficient implementations for distance metric learning[C] //Proc of the 25th Int Confe on Machine Learning. New York: ACM, 2008: 1160-1167

[21] Dikmen M, Akbas E, Huang T S, et al. Pedestrian recognition with a learned metric[C] //Proc of the 10th Asian Conf on Computer Vision. Queenstown, Berlin: Springer, 2010, 6495: 501-512

[22] Davis J V, Kulis B, Jain P, et al. Information theoretic metric learning[C] //Proc of the 24th Int Conf on Machine Learning. New York: ACM, 2007: 209-216

[23] Zheng Weishi, Gong Shaogang, Xiang Tao. Person re-identification by probabilistic relative distance comparison[C] //Proc of the 2011 IEEE Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2011: 649-656

[24] Kostinger M, Hirzer M, Wohlhart P, et al. Large scale metric learning from equivalence constraints[C] //Proc of the 2012 Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2012: 2288-2295

[25] Pedagadi S, Orwell J, Velastin S. Local fisher discriminant analysis for pedestrian reidentification[C] //Proc of the 2013 IEEE Conf on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ: IEEE, 2013: 3318-3325

[26] Chen Jiaxin, Zhang Zhaoxiang, Wang Yunhong. Relevance metric learning for person reidentification by exploiting listwise similarities[J]. IEEE Trans on Image Processing, 2015, 24(12): 4741-4755

[27] Chen Yingcong, Zheng Weishi, Lai Jianhua, et al. An asymmetric distance model for cross-view feature mapping in person re-identification[J]. 2016[2017-03-20]. http://ieeexplore.ieee.org/document/7373616/

[28] Zheng Weishi, Gong Shaogang, Xiang Tao. Reidentification by relative distance comparison[J]. IEEE Trans on Pattern Analysis & Machine Intelligence, 2013, 35(3): 653-668

[29] Gray D, Tao Hai. Viewpoint invariant pedestrian recognition with an ensemble of localized features[C] //Proc of the 10th European Conf on Computer Vision. Berlin: Springer, 2008, 5302: 262-275

[30] Zheng Weishi, Gong Shaogang, Xiang Tao. Associating groups of people[C] //Proc of the 20th British Machine Vision Conf (BMVC). Piscataway, NJ: IEEE, 2009: 1-11[31]Baltieri D, Vezzani R, Cucchiara R. 3DPeS: 3D people dataset for surveillance and forensics[C] //Proc of Joint ACM Workshop on Human Gesture and Behavior Understanding. New York: ACM, 2011: 59-64

PersonRe-IdentificationBasedonDistanceCentralizationandProjectionVectorsLearning

Ding Zongyuan1, Wang Hongyuan1, Chen Fuhua2, and Ni Tongguang1

1(SchoolofInformationScienceandEngineering,ChangzhouUniversity,Changzhou,Jiangsu213164)2(DepartmentofNatureScienceandMathematics,WestLibertyUniversity,WestLiberty,WestVirginia,USA26074)

Existing projection-based person re-identification methods usually suffer from long time training, high dimension of projection matrix, and low matching rate. In addition, the intra-class samples may be much less than the inter-class samples when a training data set is built. To solve these problems, this paper proposes a distance-centralization based algorithm for similarity metric learning. When a training data set is to be built, the feature values of a same target person are centralized and the inter-class distances are built by these centralized values, while the intra-class distances are still directly built from original samples. As a result, the number of intra-class samples and the number of inter-class samples can be much closer, which reduces the risk of overfitting because of class imbalance. In addition, during learning projection matrix, the resulted projection vectors can be approximately orthogonal by using a strategy of updating training data sets. In this way, the proposed method can significantly reduce both the computational complexity and the storage space. Finally, the conjugate gradient method is used in the projection vector learning. The advantage of this method is its quadratic convergence, which can promote the convergence. Experimental results show that the proposed algorithm has higher efficiency. The matching rate can be significantly improved, and the time of training is much shorter than most of existing algorithms of person re-identification.

person re-identification; distance centralization; metric learning; projection vectors; conjugate gradient method

yuan, born in 1960.

his PhD degree from Nanjing University of Science and Technology in 2004. Professor and master supervisor at Changzhou University. His main research interests include image processing, artificial intelligence and pattern recognition.

Ding Zongyuan, born in 1991. Master candidate at Changzhou University. Member of CCF. His main research interests include image processing and pattern recognition.

Chen Fuhua, born in 1966. Received his PhD degree from Nanjing University of Science and Technology in 2003. Associate professor at Westliberty University. His main research interests include variation image segmentation and inverse problems.

Ni Tongguang, born in 1978. Received his PhD degree from Jiangnan University in 2015. Lecturer at Changzhou University. His main research interests include pattern recognition, intelligent computation and their application.

2017-01-12;

:2017-05-16

國家自然科學基金項目(61572085,61502058) This work was supported by the National Natural Science Foundation of China (61572085, 61502058).

王洪元(hywang@cczu.edu.cn)

TP391.41

猜你喜歡
特征方法
抓住特征巧觀察
新型冠狀病毒及其流行病學特征認識
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
學習方法
抓住特征巧觀察
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: 免费高清自慰一区二区三区| 国产无码制服丝袜| 免费一级毛片在线观看| 萌白酱国产一区二区| 国产成人精品一区二区| 国产精品视频系列专区| 国产一区二区在线视频观看| 在线a视频免费观看| 永久免费精品视频| 国产精品55夜色66夜色| 免费aa毛片| 人人妻人人澡人人爽欧美一区| 国产成人一区在线播放| 亚洲国产精品无码久久一线| 在线播放国产一区| 国产va在线观看免费| 亚洲av色吊丝无码| 国产视频 第一页| 免费国产无遮挡又黄又爽| 国产精品黄色片| 日韩AV手机在线观看蜜芽| 国产大片喷水在线在线视频| 99热这里只有免费国产精品 | 一级毛片高清| 亚洲精品国偷自产在线91正片| 日韩国产精品无码一区二区三区| 亚洲—日韩aV在线| 99精品福利视频| 成人福利视频网| 欧美精品亚洲精品日韩专| 欧美激情网址| 国产精品九九视频| 国产成人精品日本亚洲77美色| 欧美第一页在线| 伊人精品视频免费在线| 2048国产精品原创综合在线| 国产美女免费网站| 久久精品亚洲专区| 999在线免费视频| 2021精品国产自在现线看| 91人妻日韩人妻无码专区精品| 特级精品毛片免费观看| 欧美精品一区在线看| 91成人在线观看视频| 免费一级毛片不卡在线播放| 国产亚洲精品yxsp| 亚洲无码91视频| 日韩无码视频专区| 在线观看的黄网| 狠狠色成人综合首页| 欧美日韩国产精品va| 久久免费精品琪琪| 国产日韩欧美成人| 日本久久网站| 国产一区二区三区在线精品专区| 欧美成人免费一区在线播放| 国产白浆视频| 国产9191精品免费观看| 国产美女主播一级成人毛片| 免费在线色| 天天综合天天综合| 亚洲视频在线观看免费视频| 国产日韩欧美中文| 亚洲无码在线午夜电影| 99热这里只有精品国产99| 国产日韩欧美精品区性色| 精品人妻一区无码视频| www.亚洲色图.com| 午夜三级在线| 1769国产精品免费视频| 五月婷婷欧美| 久久夜夜视频| 毛片久久网站小视频| 亚洲人成影院午夜网站| 欧洲极品无码一区二区三区| 欧美专区日韩专区| 这里只有精品在线播放| 国产精品欧美激情| 国产日产欧美精品| 亚洲成aⅴ人片在线影院八| 日本人妻一区二区三区不卡影院| 很黄的网站在线观看|