999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于雙通道模型的細粒度車型識別

2019-10-15 07:17:46王靜黃振杰王濤
現(xiàn)代計算機 2019年24期
關(guān)鍵詞:分類模型

王靜,黃振杰,王濤

(廣東工業(yè)大學自動化學院,廣州510006)

0 引言

智能交通卡口是城市的出入動脈的控制手段,加強對卡口的管理可以有效協(xié)助公安機關(guān)偵破案件,加強平安城市的建設,而車輛的檢測與識別是智能交通系統(tǒng)的核心任務。因此,精準快速地識別細粒度車型在智能交通和公共安全發(fā)揮著越來越重要的作用。

經(jīng)過科技的發(fā)展,有大量的基于計算機視覺的算法應用于車型識別。傳統(tǒng)車型算法主要由以下兩個步驟:①采用人工設計的特征提取方法(如SIFT、LBP、HOG 等)將輸入的車輛圖片轉(zhuǎn)換為一組特征向量;②再基于該特征向量和機器學習中的分類算法(如SVM、AdaBoost、隨機森林等)來訓練模型。Ng 等人[1]對提取到的車輛SIFT 特征進行聚類,構(gòu)造了一個二級分類器先挑選一級品牌,再利用二級分類器對車輛類型進行識別。文獻[2-3]采用Hu 的七種不變矩作為車輛特征進行車型識別。Zhang 等人[4]使用Gabor 小波變換和HOG 金字塔來描述車輛特征并且構(gòu)造了一個級聯(lián)分類器。傳統(tǒng)方法基于人工設計的特征提取方法比較單一,通用性較差。近年來,計算機視覺技術(shù)再深度學習理論[5-7]的促進下取得巨大進步。Deng 等人[8]針對高速公路場景下,引入CNN 理論可以識別出小車、客車和貨車三種粗粒度車型。Wang 等人[9]基于深度神經(jīng)網(wǎng)絡對在各個角度下拍攝的具有復雜背景的汽車圖像進行網(wǎng)絡訓練,可以識別出SUV、卡車、面包車以及小轎車四類。如文獻[9]建立了一個大規(guī)模的車輛數(shù)據(jù)庫CompCars,并在此數(shù)據(jù)集上使用AlexNet、GoogleNet 等卷積神經(jīng)網(wǎng)絡進行訓練。也有一系列文獻[10-12]提出基于圖像的三維信息重構(gòu)法來提高識別性能,但這些方法加大了整體模型的復雜度,計算耗時也更大。

雖然已經(jīng)有很多學者對車型識別做了深入研究,但是目前很多研究和方案仍然不夠健全。一是對于車型識別的屬性不夠精細,沒有包含更豐富更細粒度的信息,僅是粗粒度層次的車型識別越來越無法滿足實際應用需求;二是車型識別作為細粒度圖像分類問題的子問題,具有分類精細,種類過多的特點。不同車型類別之間外觀辨別難度大。依靠人工標記的精細化標簽來實現(xiàn)細粒度的目標識別代價十分昂貴,造成細粒度車型識別的訓練數(shù)據(jù)集往往偏小。本文在智能卡口小樣本數(shù)據(jù)下,提出一種基于多任務學習的雙通道表示細粒度車型識別算法,主要從數(shù)據(jù)增強和遷移學習策略以及設計模型的角度解決智能卡口數(shù)據(jù)樣本少,車型特征差別小導致過擬合的問題。實驗證明,在數(shù)據(jù)擴充策略和模型結(jié)構(gòu)一致的情況下,通過遷移學習利用已有的模型在小樣本數(shù)據(jù)集中微調(diào)以及設計雙通道模型學習樣本標簽信息和樣本標簽之間的局部信息,提高車型識別的識別精度。對比已有的文獻算法,能取得較好的效果。

1 數(shù)據(jù)、模型預處理

1.1 數(shù)據(jù)預處理

深度學習模型的飛速發(fā)展離不開海量的數(shù)據(jù)體系,數(shù)據(jù)增強為研究人員提供一種增加數(shù)據(jù)多樣性的可能。針對卡口車型樣本不足的特點,本文在現(xiàn)有數(shù)據(jù)樣本的基礎上,通過對訓練圖片進行預處理減少過擬合發(fā)生的概率。具體為使用平移變換、縮放變換、亮度變換、水平翻轉(zhuǎn)變換、加入高斯和椒鹽噪聲生成可信數(shù)據(jù)樣本,增加訓練樣本的多樣性,提高模型魯棒性。

1.2 微調(diào)預訓練模型

針對小型圖片數(shù)據(jù)集,很少有人會從零開始去訓練出一個神經(jīng)網(wǎng)絡模型。有一種普遍的做法是利用遷移學習方法去微調(diào)預訓練模型,該方法主要解決規(guī)模不大,樣本數(shù)量有限的特定領域數(shù)據(jù)。本文首先使用通過配置不同的通道數(shù)和模塊里的殘差塊數(shù)可以得到不同的ResNet 模型;然后通過遷移學習的方法,在公開的自然攝像機環(huán)境下收集的車型識別數(shù)據(jù)集上CompCars 對深度網(wǎng)絡進行預訓練,以學習圖像的底層通用視覺特征;最后利用目標數(shù)據(jù)集對網(wǎng)絡參數(shù)進行微調(diào),使小規(guī)模圖像數(shù)據(jù)集使用深度學習的方法成為可能,以達到準確率和運行速率上的優(yōu)化。

2 雙通道模型設計

從車輛紋理信息復雜度來說,車型系列、車型年款屬于細粒度屬性,而車輛顏色、車輛類型則屬于粗粒度屬性。通常情況下,粗粒度特征提取相對容易,而細粒度特征提取是尋找一些細微差別的局部區(qū)域,并利用這些局部區(qū)域的特性進行分類。但是,細粒度屬性每個類別包含的訓練樣本有限,并且難以用底層特征來表示。本文基于多任務學習的思想,從數(shù)量極少的訓練樣本中學習樣本分類信息和樣本標簽之間的局部信息,提出一個雙通道的神經(jīng)網(wǎng)絡架構(gòu)。

如圖1 所示,雙通道模型具有兩個獨立的分支,每個分支具有相同的網(wǎng)絡結(jié)構(gòu)和權(quán)重。訓練與測試時每個分支針對輸入隨機的一對樣本進行處理并且輸出兩個分類結(jié)果。雙通道模型則是直接將圖像塊相似度計算問題轉(zhuǎn)換成二分類問題。通過標簽信息的分類學習和標簽局部分布信息的度量學習來同時訓練一個雙通道的神經(jīng)網(wǎng)絡,這兩個任務之間相互促進,利用標簽局部分布信息的度量學習構(gòu)建帶約束的目標函數(shù),能夠很好防止過擬合,使網(wǎng)絡更具泛化性。

圖1 基于分類學習和度量學習的雙通道模型框架圖

3 損失函數(shù)

基于分類學習和度量學習的雙通道模型由兩種損失函數(shù)組成,因此,總目標函數(shù)是兩種損失函數(shù)的加權(quán)和。

3.1 分類損失函數(shù)

雙通道模型的兩個分支都使用分類損失函數(shù)Softmax,用來學習車型數(shù)據(jù)樣本和真實標簽信息之間的誤差。車型數(shù)據(jù)集包含M 個不同類別的N 個不同樣本,分類損失函數(shù)Softmax 表達式如公式(1)所示:

其中,xi是樣本xi在各分支上的分結(jié)果的輸出。表示預測的概率。W 是模型權(quán)重參數(shù),Wt是第t 類的輸出權(quán)重,即t=1,…,M。yi是樣本xi的真實值。

3.2 度量損失函數(shù)

雙通道模型具有兩個權(quán)重共享的獨立的分支,能夠輸入隨機的一對樣本同時輸出兩個分類結(jié)果。對于車型識別的分類問題,雙通道模型則是直接將輸出標簽之前的相似度計算問題轉(zhuǎn)換成二分類問題,用于判斷兩個樣本相似或者不相似。把雙通道模型全連接層的前一層的輸出向量作為對應輸入樣本的特征向量,用歐氏距離定義兩個特征向量之間的距離,公式如(2)所示:

其中,Si(xi|θ)代表輸入樣本xi的時候,參數(shù)為θ 模型的輸出特征向量,Sj(xj|θ)代表輸入樣本xj的時候,參數(shù)為θ 模型的輸出特征向量。把距離結(jié)果S2作為一個判斷相似性的更高級特征向量,后面接一個只有兩類的全連接層來表示輸入的樣本xi和樣本xj是否屬于同一類,度量損失函數(shù)表達式如(3)所示:

其中,S 是樣本對xi和xj在模型中的輸出特征向量之間的距離向量S2表示預測的概率,Wt是第t類的輸出權(quán)重,即t=1,2。Yij是樣本對的真實值為相似或不相似。

3.3 總損失函數(shù)

將分類損失函數(shù)和度量損失函數(shù)加權(quán)和,雙通道車型識別模型的總目標函數(shù)如公式(4)所示:

其中,α>0 是權(quán)重超參數(shù),根據(jù)樣本對的輸入策略來調(diào)節(jié)。由于雙通道模型的兩個輸出是共享權(quán)重的,所以讓兩個分類損失函數(shù)Softmax 的權(quán)重比例為1:1。

4 實驗與結(jié)果

4.1 數(shù)據(jù)集

(1)CompCars 數(shù)據(jù)集

CompCars 數(shù)據(jù)集是用于細粒度分類的大規(guī)模車輛數(shù)據(jù)集,它包括互聯(lián)網(wǎng)場景性質(zhì)和監(jiān)控場景性質(zhì)下的車輛圖片。監(jiān)控場景下的車輛圖像與卡口車型識別數(shù)據(jù)非常相似,因此我們只選用監(jiān)控場景下的車輛圖片。該場景下的數(shù)據(jù)集一共有44481 張圖片,分辨率約是800×800,按車型系列分類,一共有281 類,例如:數(shù)據(jù)庫里的一汽轎車如圖2 所示。

圖2 CompCars數(shù)據(jù)集中部分一汽轎車樣本

(2)卡口場景下自建的車型識別數(shù)據(jù)集

針對智能卡口場景,選取了卡口常見的50 類車型系列來驗證算法的有效性,包括大眾-寶來、大眾-高爾夫、奧迪-A3、日產(chǎn)-軒逸、日產(chǎn)-天籟等車型系列,記為CarSeries。如圖3 所示,每個車型系列大約有200 個樣本,樣本的分辨率約為600×600,樣本主要是在白天不同光照條件下和黑夜環(huán)境下采集的。

圖3 CarSeries中部分車型系列樣本

4.2 實驗方案

實驗一:為了確定一個適合公開車型識別數(shù)據(jù)集CompCars 的模型容量,分別對ResNet10、ResNet14、ResNet18、ResNet34 和ResNet50 模型進行訓練,從模型復雜程度、預測推斷時間和準確率三個方面來選擇合適層數(shù)的ResNet 模型作為實驗的骨架網(wǎng)絡。

表1 ResNet10、ResNet14、ResNet18、ResNet34 和ResNet50的結(jié)構(gòu)細節(jié)

在ResNet18、ResNet34、ResNet50 的基礎上設計了ResNet10 和ResNet14,ResNet10 是在ResNet18 的基礎上把卷積層的層數(shù)縮減了一半,ResNet14 是在ResNet50 的基礎上把每層的block 的重復次數(shù)都改為1。 ResNet10、ResNet14、ResNet18、ResNet34 和ResNet50 的結(jié)構(gòu)細節(jié)如表1 所示。ResNet10、ResNet18、ResNet34 采 用 的 是 Basicblock 結(jié) 構(gòu)。ResNet14 和ResNet50 采用的是Bottleneck 結(jié)構(gòu),主要區(qū)別是引入1×1 卷積,作用是:①對通道數(shù)進行升維和降維(跨通道信息整合),實現(xiàn)了多個特征圖的線性組合,同時保持了原有的特征圖大小;②相比于其他尺寸的卷積核,可以極大地降低運算復雜度。

實驗基本設置如下:數(shù)據(jù)集與驗證集的劃分比例是4:1;圖片全部resize 到150×150,然后像素值縮放到0 到1 也就是除以255;權(quán)重隨機初始化;batch 大小設置為32;使用Adam 優(yōu)化器;epochs 設置為30,保存模型和繪制準確率和損失曲線圖。

實驗二:為了驗證所提出的基于分類學習和度量學習的多任務學習算法的有效性,將設置如下的實驗組作為比對:①標準的單通道分類網(wǎng)絡,使用分類損失函數(shù)Softmax,權(quán)重隨機初始化,記為OneNet_Random。②標準的單通道分類網(wǎng)絡,使用分類損失函數(shù)Softmax,加載在數(shù)據(jù)集CompCars 訓練好的模型權(quán)重,記為OneNet_PreTrain;③雙通道分類網(wǎng)絡,結(jié)合分類損失函數(shù)和度量損失函數(shù),加載在數(shù)據(jù)集CompCars 訓練好的模型權(quán)重,記為DoubleNet。

實驗基本設置如下:數(shù)據(jù)集與驗證集的劃分比例是4:1;圖片全部resize 到150×150,然后像素值縮放到0 到1 間,也就是除以255;batch 大小設置為64;模型收斂的判斷標準是:當2 個epochs 內(nèi)驗證損失函數(shù)不再下降,學習率降低為原來的1/10,當3 個epochs 內(nèi),驗證損失函數(shù)不再下降,提前終止訓練,保存模型和繪制準確率和損失曲線圖。

訓練過程:首先,選擇實驗一的ResNet 作為骨架網(wǎng)絡,使用實驗一中的設置在數(shù)據(jù)集CompCars 訓練,直到收斂,保存模型作為下面實驗的預訓練模型。

(1)OneNet_Random 單通道模型:

權(quán)重隨機初始化,使用Adam 優(yōu)化器,在數(shù)據(jù)集CarSeries 上訓練,直到收斂。

(2)OneNet_PreTrain 單通道模型:

①加載ResNet 預訓練模型,然后修改全連接層fc的輸出類別,這時fc 層是隨機初始化的,所以,凍結(jié)除全連接層fc 外的所有層,使用Adam 優(yōu)化器,在卡口車型數(shù)據(jù)集CarSeries 上訓練,收斂則停止訓練。

②解凍ResNet 模型的最后兩個block,進行微調(diào),使用SGD 優(yōu)化器,學習率設置為0.001,動量設置為0.9,繼續(xù)訓練,直到收斂。

(3)DoubleNet 雙通道模型:

①加載ResNet 預訓練模型,把一個全連接層改為兩個全連接層fc1、fc2 輸出,這時fc1、fc2 層是隨機初始化的。凍結(jié)所有層,損失函數(shù)權(quán)重設置為1:1:0.5,也就是使用分類損失函數(shù)和度量損失函數(shù)的加權(quán)和,訓練多分類和二分類模型,使用Adam 優(yōu)化器,在卡口車型數(shù)據(jù)集CarSeries 上訓練,收斂則停止訓練。

②解凍ResNet 模型的最后兩個block,進行微調(diào),使用SGD 優(yōu)化器,學習率設置為0.001,動量設置為0.9,損失函數(shù)權(quán)重設置為1:1:0.5,繼續(xù)訓練,直到收斂。

實驗三:為了驗證所提出算法的有效性,與已有文獻算法進行比較。文獻[13]改進模型結(jié)構(gòu),結(jié)合Inception 模塊和ResNet 結(jié)構(gòu)作為基本模塊,使用全局平均代替全連接層,同時引入中心損失函數(shù)來進行車型識別,記為BRSC。文獻[10]基于多任務學習進行多屬性識別,通改進AlexNet 模型,修改全連接層,實現(xiàn)車輛多屬性(車型系列、車輛類型和車輛顏色)識別,記為Multi-BestNet。

實驗基本設置與實驗二一致,訓練過程如下所示。

(1)BRSC 的訓練過程:

①首先,在數(shù)據(jù)集CompCars 訓練直到收斂。

②然后修改全連接層fc 的輸出類別,凍結(jié)除全連接層fc 外的所有層,使用Adam 優(yōu)化器,在卡口車型數(shù)據(jù)集CarSeries 上訓練,收斂則停止訓練。

③解凍模型的最后兩個Inception block,進行微調(diào),使用SGD 優(yōu)化器,學習率設置為0.001,動量設置為0.9,繼續(xù)訓練,直到收斂。

(2)Multi-BestNet 的訓練過程:

①首先,在數(shù)據(jù)集CompCars 訓練直到收斂。

②然后把一個全連接層改為三個全連接層fc1、fc2、fc3 輸出,這時fc1、fc2、fc3 層是隨機初始化的,因此,除fc1、fc2、fc3 外,凍結(jié)所有層,損失函數(shù)權(quán)重設置為1:1 訓練,收斂則停止訓練。

③解凍模型最后3 個卷積層,進行微調(diào),使用SGD優(yōu)化器,學習率設置為0.001,動量設置為0.9,損失函數(shù)權(quán)重設置為1:1:1,繼續(xù)訓練直到收斂。

4.3 結(jié)果分析

(1)評價指標:使用準確率來評估模型的性能,定義為:對于給定的測試數(shù)據(jù)集,分類正確的樣本個數(shù)占總樣本個數(shù)的比例。公式如(5)所示:

其中,ncorrect為被正確分類的樣本個數(shù),ntotal為測試數(shù)據(jù)集中的總樣本個數(shù)。

(2)實 驗 一:ResNet10、ResNet14、ResNet18、ResNet34 和ResNet50 在數(shù)據(jù)集CompCars 上的準確率曲線圖和識別性能分別如圖4 和表1 所示。

表2 不同層數(shù)的ResNet 模型在CompCars 上的識別和性能結(jié)果

分析表2 和圖4 可知,得益于殘差模塊的特點,不同層數(shù)ResNet 模型都有較高的識別準確率,但是ResNet14、ResNet34 和ResNet50 在小數(shù)據(jù)集上準確率有小幅度的下降,說明模型的可學習參數(shù)過多,學習到額外的噪聲,模型的泛化能力下降。ResNet10 和ResNet18 的模型擬合能力都很好,在保持準確率的前提下,為了節(jié)省存儲空間和加快預測推斷速度,選擇ResNet10 作為實驗二的骨干網(wǎng)絡。

(3)實驗二:OneNet_Random、OneNet_PreTrain 和DoubleNet 的識別精度和準確率曲線圖分別如圖5 和表2 所示。

表3 不同網(wǎng)絡設計在CarSeries 上的識別精度

分 析 表 3 可 知,對 比 OneNet_Random 和OneNet_PreTrain 可知,使用相似數(shù)據(jù)集上預訓練的模型,通過微調(diào),可將其中可用的知識遷移出來,從而在卡口車型數(shù)據(jù)集較小的時候,能大幅度提高車型識別的準確率,提升了近8%。對比OneNet_PreTrain 和DoubleNet 的可知,顯然度量損失函數(shù)可以幫助提高Softmax 分類的效果,特別是在樣本數(shù)據(jù)比較少的時候,提升了近2%。分析圖5 的圖可知,由于OneNet_Random 的權(quán)重是隨機初始化的,訓練準確率隨著時間線性增加,而驗證準確率在第15 個epoch 時就開始達到最大值,開始上下波動,這也就意味數(shù)量小非常容易產(chǎn)生過擬合現(xiàn)象。對比OneNet_PreTrain 和DoubleNet 的準確率曲線可知,DoubleNet 的曲線波動比較平緩,而且準確率提升更高,說明度量損失函數(shù)可以幫助模型學習到更加泛化的特征。

圖5 不同網(wǎng)絡設計在CarSeries上的準確率曲線圖

(4)實驗三:BRSC、Multi-BestNet 和DoubleNet 的識別精度如表4 所示。

表4 BRSC、Multi-BestNet 和DoubleNet 在CarSeries 上的識別精度

對比BRSC 和DoubleNet 可知,Inception 模塊和ResNet 模塊都是非常優(yōu)良的子模塊,車型識別的準確率都非常高,但BRSC 的網(wǎng)絡層數(shù)較深,網(wǎng)絡推斷速度較慢。對比Multi-BestNet 和DoubleNet 可知,基于多任務學習進行多屬性識別的算法能有效提高車型識別的準確率,但是Multi-BestNet 需要額外的標注信息,在現(xiàn)實應用中,往往很難平衡不同子任務之間的樣本數(shù)量,導致出現(xiàn)樣本不均衡的情況,另外,骨干網(wǎng)絡使用的是AlexNet,過多的全連接層導致模型較大,推斷速度較慢,而且訓練時比較難收斂到最優(yōu)。從表4 中可以看出,DoubleNet 的車型識別準確率最高,并且在模型推斷速度上優(yōu)于BRSC 和Multi-BestNet。

5 結(jié)語

本文提出在小數(shù)據(jù)集下設計車型識別算法的思路和具體的方法。從數(shù)據(jù)擴充、遷移學習策略緩和了數(shù)據(jù)量少的問題,同時,基于多任務學習的思想,結(jié)合分類學習和度量學習充分挖掘標簽和標簽之間的監(jiān)督信息,進一步約束參數(shù)的學習。實驗證明,在數(shù)據(jù)擴充策略和模型結(jié)構(gòu)一致的情況下,對比有的文獻算法,提高車型識別的識別精度,能取得較好的效果。

猜你喜歡
分類模型
一半模型
分類算一算
垃圾分類的困惑你有嗎
大眾健康(2021年6期)2021-06-08 19:30:06
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
分類討論求坐標
數(shù)據(jù)分析中的分類討論
教你一招:數(shù)的分類
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
主站蜘蛛池模板: 性喷潮久久久久久久久| 国产综合精品日本亚洲777| 欧美精品成人| 中文字幕波多野不卡一区| 国产欧美在线| 久久国产黑丝袜视频| 精品国产自| 五月婷婷伊人网| 国产精品微拍| 精品国产Av电影无码久久久| 亚洲无码A视频在线| 久久精品这里只有国产中文精品| 亚洲成人网在线观看| 国内精品久久九九国产精品| 草逼视频国产| 毛片a级毛片免费观看免下载| 国产真实乱子伦精品视手机观看| 国产欧美日韩综合一区在线播放| 91在线国内在线播放老师| 午夜精品福利影院| 免费一级成人毛片| 国产va免费精品| 亚洲视频一区| 精品视频一区二区观看| 精品欧美一区二区三区在线| 亚洲资源在线视频| 亚洲天堂高清| 久久黄色一级片| 久久综合丝袜长腿丝袜| 亚洲一级毛片在线播放| 午夜久久影院| 亚洲成AV人手机在线观看网站| 国产精品尹人在线观看| 午夜视频www| 免费毛片全部不收费的| 99久久免费精品特色大片| 小说区 亚洲 自拍 另类| 成人午夜福利视频| 国产精品刺激对白在线| 久久91精品牛牛| 国产又粗又爽视频| 亚洲成网777777国产精品| 国产成人a毛片在线| 日本一区中文字幕最新在线| 欧美色伊人| 久久婷婷五月综合色一区二区| 国产欧美日韩一区二区视频在线| 亚洲精品无码抽插日韩| 成人另类稀缺在线观看| 亚洲黄色高清| 67194亚洲无码| 国产欧美日韩va另类在线播放| 国产黄在线观看| 亚洲视频a| 成色7777精品在线| 国产精品久久久久无码网站| 午夜精品福利影院| 亚洲最新在线| 欧美一级大片在线观看| 91人人妻人人做人人爽男同| 99这里只有精品6| 99久久精品国产麻豆婷婷| aaa国产一级毛片| 亚洲无线视频| 亚洲一区无码在线| 精品人妻一区二区三区蜜桃AⅤ| 国产精品视频免费网站| 亚洲 欧美 日韩综合一区| 亚洲成a人片77777在线播放| 日本人妻丰满熟妇区| 国产91线观看| 国产激情国语对白普通话| 国产精品亚洲五月天高清| 91久久青青草原精品国产| 一区二区在线视频免费观看| 97成人在线视频| vvvv98国产成人综合青青| 在线一级毛片| 欧美色综合网站| 19国产精品麻豆免费观看| 国产成本人片免费a∨短片| 国产免费羞羞视频|