999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于DCNN特征與集成學(xué)習(xí)的車型分類算法

2020-06-12 09:17:46李大湘王小雨
計算機工程與設(shè)計 2020年6期
關(guān)鍵詞:分類特征實驗

李大湘,王小雨+

(1.西安郵電大學(xué) 通信與信息工程學(xué)院,陜西 西安 710121; 2.西安郵電大學(xué) 電子信息現(xiàn)場勘驗應(yīng)用技術(shù)公安部重點實驗室,陜西 西安 710121)

0 引 言

車型分類算法中[1],主要包括特征提取和分類器設(shè)計兩部分。特征提取主要有:基于顏色、紋理、形狀等底層特征,例如HOG特征[2]、Gabor小波[3,4];基于底層特征的稀疏編碼、Fisher編碼等編碼特征[5,6];基于深度神經(jīng)網(wǎng)絡(luò)的特征,例如AlexNet[7]、VGG-16[8]、VGG-19[8]、GoogleNet[9]、ResNet[10]等被提出并運用到圖像分類任務(wù)。在特征提取技術(shù)中,代表方法是SIFT特征與稀疏編碼相結(jié)合,SIFT特征雖然可獲取圖像局部細節(jié)特征,但對于車型圖像,因其某些特征點附近紋理不充足,易造成誤差。而深度卷積神經(jīng)網(wǎng)絡(luò)可通過調(diào)整卷積層參數(shù)獲取圖像的任意尺度信息,且全連接層將卷積層多維特征矢量轉(zhuǎn)換為一維特征矢量,易于分類操作。因此,將深度卷積神經(jīng)網(wǎng)絡(luò)(deep convolutional neural network,DCNN)特征作為車型圖像的特征表示。

在分類器設(shè)計中,主要有支持向量機(support vector machine,SVM)、KNN[11,12]、貝葉斯分類器[13,14]及深度神經(jīng)網(wǎng)絡(luò)中的Softmax分類器等。對于車型特征分類,上述方法均采用單一分類器及相同參數(shù)設(shè)置,對所有特征一概而論從而忽略了車型的類間差異,造成分類精度下降。在深度神經(jīng)網(wǎng)絡(luò)框架中,由于數(shù)據(jù)量、訓(xùn)練次數(shù)等設(shè)置不合適,會造成過擬合、欠擬合等問題。

為解決上述問題,本文提出一種基于DCNN特征及集成學(xué)習(xí)(DCNN-ALSVM)的車型分類算法,其框架如圖1所示。首先對圖像提取DCNN特征,將全連接層的輸出矢量作為圖像的特征表示,采用PCA技術(shù),降至100維,以提高分類速度。以拉格朗日支持向量機(Lagrangian support vector machine,LSVM)為Adaboost的基分類器,用集成分類器對DCNN特征進行分類。充分利用車型特征的類間差異,避免深度神經(jīng)網(wǎng)絡(luò)中由于樣本少、訓(xùn)練次數(shù)少等帶來的overfitting問題,并提高分類精度。

圖1 總體框架

1 DCNN特征提取

微調(diào)預(yù)訓(xùn)練好的VGG16網(wǎng)絡(luò),提取圖像的DCNN特征,將全連接層Fc7的輸出作為圖像的特征表示,得到一個4096維的特征矢量,表示為

(1)

為了加快分類速度,將4096維的特征采用PCA技術(shù),降至100維,如下

Xi={xj|j=1,…,100},i=1,…,N

(2)

這里N表示樣本數(shù)量。

2 集成分類器設(shè)計

2.1 基分類器

采用文獻[15]提出的拉格朗日支持向量機(LSVM)作為弱分類器學(xué)習(xí),即基分類器。考慮分類J維(特征為100維)實空間R*中N個點,J×N的特征矩陣X表示N個樣本點,每個Xi屬于正類還是負類,由對角矩陣D來說明,D的對角元素為+1或-1,這個標準線性核SVM為如下的二次規(guī)劃問題

(3)

(4)

(5)

記式(5)為:h(u),其KKT條件為

0≤u⊥Qu-e≥0

(6)

由于0≤a⊥b≥0?a=(a-αb)+,α>0,式(6)可寫成:Qu-e=((Qu-e)-αu)+,α>0,式(5)即LSVM算法的循環(huán)公式為

uk+1=Q-1(e+((Quk-e)-αuk)+),k=0,1,…

(7)

當uk+1-uk>cmin,cmin為最小邊界損失。得到最優(yōu)結(jié)果u*=uk+1,最終得到預(yù)測結(jié)果y*為

y*=vu*

(8)

2.2 Adaboost LSVM

Adaboost算法的總體思路是通過訓(xùn)練數(shù)據(jù)的分布構(gòu)造一個分類器,由誤差率ε求出這個弱分類器的權(quán)重,并迭代更新訓(xùn)練數(shù)據(jù)的分布,直到達到迭代次數(shù),如圖2所示。每次以概率Pm抽取訓(xùn)練樣本,記為X={(x1,y1),(x2,y2),…,(xn,yn)},n≤N。

圖2 Adaboost-LSVM算法框架

本文提出的DCNN+ALSVM算法如下:

迭代m次:

步驟1 用權(quán)重{αi}加權(quán)訓(xùn)練樣本集,用LSVM算法訓(xùn)練弱分類器hm;

步驟3 如果c>cmin返回步驟1;

3 實驗結(jié)果及分析

3.1 實驗數(shù)據(jù)集

BIT-Vehicles數(shù)據(jù)集:由北京理工大學(xué)實驗室從監(jiān)控視頻中截取搜集整理。該數(shù)據(jù)集常用作車型分類,包括6種車型:558張公共汽車圖像、883張微型客車圖像、476張小型貨車圖像、5922張轎車圖像、1392張“運動型多功能車”(sport utility vehicle,SUV)圖像和822張卡車圖像,如圖3所示。從每類中選擇400張圖像,共2400張圖像,分為6個二分類問題,正負類中分別選擇75%的圖像用來訓(xùn)練,剩下的25%圖像用于測試。

圖3 BIT數(shù)據(jù)集樣本

MIO-TCD數(shù)據(jù)集:該數(shù)據(jù)集分為用于分類的648 959張圖像和用于定位的137 743張圖像兩部分。可在http://podoce.dinf.usherbrooke.ca/challenge/dataset/獲取。本文采用該數(shù)據(jù)集中用于分類的部分,共有11類,分別為:鉸鏈式卡車,自行車,公共汽車,轎車,摩托車,非機動車輛,行人,皮卡,單元卡車,廂式作業(yè)車,背景。樣本如圖4所示。同樣地,從每類中隨機選擇1500張圖像,分為11個二分類問題,75%圖像作為訓(xùn)練集,25%圖像作為測試集。

圖4 MIO-TCD數(shù)據(jù)集樣本

3.2 實驗對比與分析

3.2.1 實驗方法與結(jié)果

微調(diào)預(yù)訓(xùn)練好的VGG16網(wǎng)絡(luò),提取DCNN特征,網(wǎng)絡(luò)參數(shù)設(shè)置:學(xué)習(xí)率為0.001,動量為0.9,最大迭代次數(shù)為50 000,其它參數(shù)不變。將N種車型分為N個二分類問題,每個二分類問題分別用Adaboost-LSVM進行分類學(xué)習(xí)。該實驗是在處理器為Inter(R) Xeon(R) CPU E5-2620 v4 @2.10 GHz DDR4 2400 MHz EEC Reg 128 G,GPU為4×NVIDIA Titan XP的電腦上完成的。

分別在BIT和MIO-TCD數(shù)據(jù)集上實驗測試,每類車型的分類準確率見表1和表2。可看出,在BIT數(shù)據(jù)集上,平均分類準確率為84.5%,其中客車分類效果最好,達到98%。在MIO-TCD數(shù)據(jù)集上,平均分類準確率為83%,其中鉸鏈式卡車分類效果最好為88%。

表1 BIT數(shù)據(jù)集實驗結(jié)果/%

表2 MIO-TCD數(shù)據(jù)集實驗結(jié)果/%

3.2.2 驗證PCA降維性能

采用PCA技術(shù)將4096維DCNN特征降至100維,分別對降維前后的特征進行分類,以BIT數(shù)據(jù)集中客車和MIO-TCD數(shù)據(jù)集中鉸鏈式客車為例進行分類實驗,實驗結(jié)果見表3和表4。可見,PCA降維后的特征進行分類,準確率與降維前一樣,但分類所用時間大幅降低。所以采用降維后的特征矢量進行分類。

表3 BIT數(shù)據(jù)客車分類時間

表4 MIO-TCD數(shù)據(jù)鉸鏈式卡車分類時間

3.2.3 驗證DCNN特征性能

選擇形狀和紋理特征分類作對比實驗,分別提取圖像的HOG、HU矩、wavelet小波特征,然后提出的Adaboot-LSVM分類算法進行分類。同樣地在BIT數(shù)據(jù)集和MIO-TCD數(shù)據(jù)集上分別做實驗。實驗結(jié)果如圖5和圖6所示。由圖可看出,DCNN特征對于車型分類來說,優(yōu)于其它底層特征。

圖5 BIT數(shù)據(jù)集提取不同特征的分類結(jié)果

圖6 MIO-TCD數(shù)據(jù)集提取不同特征的分類結(jié)果

3.2.4 驗證Adaboost-LSVM分類算法性能

對圖像的DCNN特征,分別進行單LSVM分類,和集成算法Bagging-LSVM分類。同樣在BIT和MIO-TCD數(shù)據(jù)集上分別做實驗。實驗結(jié)果比較如圖7和圖8所示。由圖可見,文本提出的算法,優(yōu)于使用單LSVM和Bagging-LSVM算法。

圖7 BIT數(shù)據(jù)集上不同分類算法對比

圖8 MIO-TCD數(shù)據(jù)集上不同分類算法對比

4 結(jié)束語

本文提出基于DCNN特征與集成分類算法對于車型分類準確率有很大提高。首先對圖像提取DCNN特征,然后進行Adaboost-LSVM分類。把N種車型分為N個one-vsall二分類問題,每個二分類問題均采用Adaboost-LSVM進行分類。為了驗證該算法的有效性和泛化能力,在BIT和MIO-TCD數(shù)據(jù)集上分別實驗,結(jié)果表明,該算法有較好的分類能力和泛化能力。

猜你喜歡
分類特征實驗
記一次有趣的實驗
分類算一算
如何表達“特征”
做個怪怪長實驗
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
分類討論求坐標
數(shù)據(jù)分析中的分類討論
教你一招:數(shù)的分類
抓住特征巧觀察
NO與NO2相互轉(zhuǎn)化實驗的改進
主站蜘蛛池模板: 日本成人一区| 欧美精品v| 欧美一级黄片一区2区| 制服丝袜在线视频香蕉| 日本一本在线视频| 69av在线| 日韩精品无码免费一区二区三区| 精品国产香蕉伊思人在线| 国产福利小视频在线播放观看| 欧美一区二区三区香蕉视| 欧美精品色视频| 国产地址二永久伊甸园| 日本不卡在线播放| 久久国产精品麻豆系列| 狠狠v日韩v欧美v| 高潮毛片无遮挡高清视频播放| 九色91在线视频| 精品久久久久久久久久久| 亚洲人成在线免费观看| 99久久精品免费观看国产| 免费国产小视频在线观看| 少妇高潮惨叫久久久久久| 国产精品不卡片视频免费观看| 国产欧美在线观看精品一区污| 亚洲国产精品一区二区第一页免 | 精品丝袜美腿国产一区| 日本91在线| 女人爽到高潮免费视频大全| 好吊色妇女免费视频免费| a在线亚洲男人的天堂试看| 97国产成人无码精品久久久| 国产欧美日韩视频一区二区三区| 亚洲国产欧美国产综合久久| 国产精品美女免费视频大全| 好紧好深好大乳无码中文字幕| 热re99久久精品国99热| 久久久91人妻无码精品蜜桃HD| 欧美国产精品不卡在线观看| 亚洲国产精品VA在线看黑人| 亚洲AV色香蕉一区二区| 亚洲成av人无码综合在线观看| 日韩精品一区二区深田咏美| 特级欧美视频aaaaaa| 亚洲黄色成人| 亚洲精品卡2卡3卡4卡5卡区| 亚洲av无码成人专区| 亚洲国产AV无码综合原创| 伊人久综合| 免费在线成人网| 四虎成人在线视频| 国产免费观看av大片的网站| 亚洲男女在线| 中文字幕欧美日韩| 浮力影院国产第一页| 亚洲精品国偷自产在线91正片| 成人小视频在线观看免费| 欧美综合激情| 国产精品深爱在线| 精品久久久久久久久久久| 在线免费无码视频| 自拍偷拍欧美日韩| 老色鬼久久亚洲AV综合| 欧美在线天堂| 综合网天天| 福利国产微拍广场一区视频在线| 国产菊爆视频在线观看| 狼友视频国产精品首页| 国产XXXX做受性欧美88| 精品一区二区无码av| 色综合中文字幕| 国产欧美视频在线| av午夜福利一片免费看| 波多野结衣无码视频在线观看| 国产二级毛片| 国产日本视频91| 亚洲AⅤ永久无码精品毛片| 全色黄大色大片免费久久老太| 欧美亚洲激情| 一区二区三区四区在线| 67194在线午夜亚洲| 国内精品91| 国产精品一线天|