999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于風格遷移及度量融合的行人再識別研究

2019-02-22 04:59:22孫志琳張麗紅
測試技術學報 2019年1期
關鍵詞:融合

孫志琳,張麗紅

(山西大學 物理電子工程學院,山西 太原 030006)

0 引 言

行人再識別是指解決跨場景的行人圖像匹配問題,行人再識別作為智能視頻分析的一個新課題,在計算機視覺領域受到了廣泛關注,但目前該問題所遇到的挑戰主要來自光照、背景、行人姿態等變化造成的影響和訓練好的模型在實際應用中性能急劇下降等問題. 因此,行人再識別仍是一個具有挑戰性的課題.

目前行人再識別的主要研究方法有3類:特征提取、度量學習及遷移學習. 基于特征提取的方法是手動設計并提取更加具有魯棒性的鑒別特征對行人進行表示,常用特征有線特征、顏色特征、紋理特征等,其計算簡單、針對性強,卻容易受光照、視角變化等因素影響[1]. 步態等動態特征及發型、衣服顏色等高級屬性特征也可用于行人再識別,且有較好魯棒性,但獲取復雜且需人工標注[2]. 基于度量學習的方法通過學習一個有判別力的距離度量函數,使得同一個人的圖像間距離小于不同行人圖像間的距離. 度量學習方法中有通過學習半正定矩陣參數化的馬氏距離函數來分辨行人圖像對的[3],也有通過學習低位投影將行人再識別問題重新定義為子空間學習問題的[4]. 基于遷移學習的方法是將帶標簽的行人圖像風格遷移到無標簽的測試數據域上并用其訓練模型. Isola提出由條件對抗網絡學習從輸入圖像到輸出圖像的映射函數,但這一方法需要很難獲得的成對訓練數據[5]. 為了解決無配對數據的圖像-圖像轉換問題,Zhu等人提出用循環一致損失來訓練無配對的圖像數據[6].

由于數據集之間的領域差距普遍存在,從本質上導致在不同的數據集上進行訓練和測試時性能嚴重下降,使得現有訓練數據不能有效用于新的測試域. 當前行人再識別的度量算法在計算相似性時主要依據兩幅圖像自身的判別信息,較少依據與兩幅圖像相關的其它圖像的判別信息(間接度量). 為了減少標注新訓練樣本的昂貴成本且增強相似判別的準確性,本文采用遷移學習和度量融合的方法.

1 風格遷移

1.1 循環對抗生成網絡

行人重識別的不同數據集中沒有同一個人的圖像. 因此,風格遷移可以被看做是一個無配對的圖像到圖像的遷移任務. 因為循環對抗生成網絡(Cycle Generative Adversarial Networks, CycleGAN)在無配對的圖像到圖像的遷移任務中有很好的性能,我們應用CycleGAN去學習數據集A和數據集B之間的映射函數[7,8]. 一個普通的GAN只有一個生成器和一個判別器,結構分別如圖 1,圖 2 所示,而CycleGAN分別有兩個生成器和判別器[9,10]. 一個生成器將A域的圖片轉換成B域風格的圖片,用G表示,而另一個生成器做相反的事情,用F表示; 兩個判別器DA和DB分別判斷各自域中圖片的真假.

圖 1 生成器結構圖Fig.1 Generator network structure

圖 2 判別器結構圖Fig.2 Discriminator network structure

假設G為數據集A到數據集B的風格映射函數,F為數據集B到數據集A的風格映射函數.A中圖像風格遷移到B后應與B中圖像風格一致,逆向也如此,如圖 3 所示.A中圖像經G風格遷移到B后再經F回到A時應與最初盡量保持一致,反向相同,如圖 4 所示.

圖 3 CycleGAN結構圖Fig.3 Architecture of CycleGAN mode

圖 4 循環一致損失示意圖Fig.4 Cycle-consistency loss

風格遷移學習的目標函數為

Lstyle=LGAN(G,DB,A,B)+

LGAN(F,DA,B,A)+λLcyc(G,F),(1)

式中:LGAN為標準的對抗損失;Lcyc為循環一致損失;

LGAN(G,DB,A,B)=Eb~B[(DB(b)-1)2]+

Ea~A[DA(G(a))2];(2)

LGAN(F,DA,B,A)=Ea~A[(DA(a)-1)2]+

Eb~B[DB(F(b))2];(3)

Lcyc(G,F)=Ea~A[‖F(G(a))-a‖1]+

Eb~B[‖G(F(b))-b‖1],(4)

式(2)~式(4)中:a,b分別為數據集A,B中的圖像;Ea~A[·],Eb~B[·]分別表示[·]在數據集A,B分布下的期望.

1.2 身份信息約束

不但要保證來自源域的圖像風格遷移到目標域之后風格要和目標域的圖像風格一致,還要確保圖像遷移前后它本身的身份信息不變. 因此除對抗損失和循環一致損失外,還需加入身份信息約束條件來確保圖像風格遷移前后行人身份信息保持不變,身份損失的目標函數為

LID(G,F,A,B)=Ea~A‖F(a)-a‖1+

Eb~B‖G(b)-b‖1.(5)

2 度量融合

直接度量是利用圖像自身特征信息來度量查詢圖像與候選圖像的相似性,間接度量則是利用與圖像對相關的其它判別信息度量相似性,可減少發生在表觀特征較相似的不同行人身上的誤匹配情況. 為吸取兩者優勢,將直接度量和間接度量結合使用.

2.1 直接度量

直接用圖像特征之間的歐式距離計算圖像a與圖像b之間的相似度,公式為

d(a,b)=‖a-b‖2,(6)

Ld=d(a,b)2.(7)

2.2 間接度量

圖像最近鄰判別信息可作為圖像相似性間接度量的重要依據[11,12]. 近鄰集中具有重合樣本的兩幅圖像相似,且重合樣本數越多兩幅圖像越相似[13,14]. 因此,可通過近鄰集合的相似性間接計算兩幅圖像相似性,并利用Jaccard系數來描述兩個集合的相似性,如式(8)所示.

(8)

式中:H(a,k),H(b,k)分別為圖像a,b的k近鄰集合; |·|為集合中元素的數量.

圖 5 k最近鄰 Fig.5 k-nearest neighbor

圖 6 k相互近鄰Fig.6 k-close neighbors

在圖像的k最近鄰集中仍存在少數與查詢圖像相似性極高的負樣本,為了進一步提高間接度量的準確性,采用k相互近鄰[15]間接度量圖像對的相似性. 若圖像a和圖像b同時在對方的k最近鄰中,則稱其互為對方的k相互近鄰. 圖像a的k相互近鄰如式(9)所示.

I(a,k)={b∈H(a,k),a∈H(b,k)}.(9)

正樣本與查詢樣本互為k相互近鄰的概率應大于負樣本與查詢樣本互為k相互近鄰的概率,用k相互近鄰的信息度量圖像的相似性,可減少負樣本匹配度高的情況. 基于圖像對k相互近鄰的相似性為

(10)

度量融合的相似度損失函數為

Lsim=Ld+μLi=d(a,b)2-μs*(a,b).(11)

式中:Ld為直接度量;Li為間接度量.

3 整體框架結構

圖 7 為基于風格遷移和度量融合的行人再識別結構. 整個框架的工作流程包括:

1) 將源域的行人圖像輸入到CycleGAN中,結合行人身份約束信息,訓練得到最優的生成器和判別器,并輸出風格遷移到目標域上的行人圖像.

2) 在風格遷移后的圖像數據集上進行特征學習,并使用度量融合的方式評估圖像對的相似性,最后得到合適的Re-ID模型.

3) 將未標簽的目標域內的圖像輸入已得到的Re-ID模型中,并將候選庫中的相關圖像按相似度由高到低排列輸出.

圖 7 基于風格遷移和度量融合的Re-ID整體結構Fig.7 Framework of Re-ID based on style transfer and metric fusion

4 實驗及結果分析

4.1 數據集

實驗共用了3個數據集:Market1501,CUHK03及DukeMTMC-reID. Market-1501數據集包含1 501位行人和32 668張行人圖像. 其中751位行人的12 936張圖像被用于訓練,其余750位行人的19 732張圖像被包括在測試集中; CUHK03數據集由1 467位行人的28 192張圖像組成,選取1 367位行人對應的26 264張圖像用于訓練,其余100位行人1 928張圖像用于測試; DukeMTMC-reID數據集包含1 812位行人的36 411張行人圖像. 其中702位行人的16 522張圖像被用于訓練,其余的都包含在測試集中. 在Market1501和DukeMTMC-reID數據集上測試時k均取值為20.

4.2 評價指標

實驗結果用累積匹配特性(Cumulative Match Characteristic,CMC)曲線進行度量,rank-r識別率就是表示按照某種相似度匹配規則匹配并排序后,正確的目標行人排名在前r的比例. 由于行人再識別可看成一個圖像檢索問題,故引入mAP(mean Average Precision)對結果進行評價. mAP對所有類別的AP取均值,能夠更好地反映全局性能.

4.3 實驗結果

行人圖像的風格遷移效果如圖 8、圖 9 所示. 圖8中第一行為Market數據集中的原始行人圖像,第二行為風格遷移到Duke數據集后的行人圖像. 圖9中第一行為來自CUHK03數據集的圖像,第二行為風格遷移到Market數據集后的圖像.

圖 8 Market數據集原始圖像與風格遷移到Duke數據集后圖像Fig.8 Market-Duke

圖 9 CUHK03數據集原始圖像與風格遷移到Market數據集后圖像Fig.9 CUHK03-Market

表 1 給出了在不同數據集上訓練,在Market1501數據集上測試的行人再識別性能比較. CUHK03Mar指將CUHK03數據集風格遷移到Market上,對比前兩行可知:跨數據集進行測試時,行人再識別精確度嚴重下降. 當采用CycleGAN進行風格遷移后,再識別準確率有顯著提高,rank-1匹配率由43.1上升到48.1,mAP由17.0上升到19.6. 再引入身份約束條件后,rank-1匹配率又提高了0.5,mAP提高了0.3.

表 1 在Market上測試的re-ID性能對比

表 2 給出了采用不同的度量方法得到的行人再識別的匹配率對比. 明顯可見:直接度量與間接度量相融合的方式比單一度量方式有更準確的匹配率. rank-1匹配率分別上升了2.2,4.6,mAP分別提高了2.0,1.1.

表 2 在Market上測試不同度量方式的性能對比

表 3 給出了在不同數據集上訓練,在DukeMTMC-reID數據集上測試的行人再識別性能比較. 對比第一行和第二行可知:跨數據集進行測試時,行人再識別精確度嚴重下降. 當采用CycleGAN進行風格遷移后,再識別準確率有顯著提高,rank-1匹配率由33.1上升到38.1,mAP由16.7上升到19.6. 再引入身份約束條件后,rank-1匹配率又提高了0.4,mAP提高了0.3.

表 3 在Duke上測試的re-ID性能對比

5 結 論

本文利用CycleGAN將源數據集中帶標簽的圖像風格遷移到目標數據集上,然后在風格遷移后的數據圖像集上采用直接與間接相融合的度量方式進行訓練,最后,使用目標數據集上未帶標簽的行人圖像作為查詢圖像,找出候選庫中與其相似的行人圖像. 實驗結果表明:在Market1501和DukeMTMC-reID數據集上測試,采用CycleGAN風格遷移均可明顯提高跨數據集的行人再識別準確率; 相似度度量時度量融合的方式比單一的直接度量有更好的精確度,且可以有效避免誤匹配的概率.

猜你喜歡
融合
一次函數“四融合”
兩個壓縮體融合為一個壓縮體的充分必要條件
村企黨建聯建融合共贏
今日農業(2021年19期)2022-01-12 06:16:36
融合菜
寬窄融合便攜箱TPFS500
寬窄融合便攜箱IPFS500
從創新出發,與高考數列相遇、融合
寬窄融合便攜箱IPFS500
《融合》
現代出版(2020年3期)2020-06-20 07:10:34
“四心融合”架起頤養“幸福橋”
福利中國(2015年4期)2015-01-03 08:03:38
主站蜘蛛池模板: 国产精品亚洲综合久久小说| 国产成人精品亚洲77美色| 高清色本在线www| 精品视频福利| 在线中文字幕网| 亚洲激情区| 91国内外精品自在线播放| 欧美成人综合在线| 韩国v欧美v亚洲v日本v| 国产黄网永久免费| 色哟哟国产精品| 成人年鲁鲁在线观看视频| 就去吻亚洲精品国产欧美| 国产激情第一页| 国产成人高精品免费视频| 欧美在线精品怡红院| 97精品久久久大香线焦| 婷婷综合色| 玩两个丰满老熟女久久网| 综合色区亚洲熟妇在线| 制服丝袜无码每日更新| 国产视频一区二区在线观看| 高清视频一区| 手机在线国产精品| 91欧美亚洲国产五月天| 国产一区二区三区在线精品专区| 美女高潮全身流白浆福利区| 91口爆吞精国产对白第三集| 99久久性生片| 欧美一级高清片欧美国产欧美| 久久国产黑丝袜视频| 国产成人精品无码一区二| 国产欧美网站| 激情乱人伦| 在线另类稀缺国产呦| 精品国产Av电影无码久久久| 久久精品女人天堂aaa| www.亚洲一区| 天天躁夜夜躁狠狠躁躁88| 播五月综合| 欧美全免费aaaaaa特黄在线| 伊人久久精品无码麻豆精品| 亚洲最新在线| 久久这里只有精品8| 免费国产黄线在线观看| 精品国产自在现线看久久| 日本不卡在线视频| 波多野结衣一二三| 国产va在线观看| 亚洲综合色吧| 91精品福利自产拍在线观看| 亚洲无码高清一区| 国产在线八区| 成人午夜久久| 亚洲AV色香蕉一区二区| 在线欧美a| 日本高清成本人视频一区| 日韩精品无码免费一区二区三区 | 国产香蕉在线视频| 好吊妞欧美视频免费| 精品夜恋影院亚洲欧洲| 91免费精品国偷自产在线在线| 国产免费好大好硬视频| 99在线观看免费视频| 97亚洲色综久久精品| 国产h视频在线观看视频| 久久精品无码中文字幕| 亚洲区第一页| 国产成本人片免费a∨短片| 在线亚洲天堂| 国产日韩丝袜一二三区| 亚洲中文字幕无码爆乳| 国产一区二区免费播放| 99在线视频免费| 国产门事件在线| 亚洲热线99精品视频| 四虎成人免费毛片| 青草免费在线观看| 国产精品欧美激情| 国产精品成人久久| 国产制服丝袜91在线| 久久中文字幕av不卡一区二区|