999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

視覺(jué)車(chē)輛識(shí)別遷移學(xué)習(xí)算法

2015-04-24 05:49:44蔡英鳳
關(guān)鍵詞:特征

蔡英鳳 王 海

(1江蘇大學(xué)汽車(chē)工程研究院, 鎮(zhèn)江 212013)(2江蘇大學(xué)汽車(chē)與交通工程學(xué)院, 鎮(zhèn)江 212013)

視覺(jué)車(chē)輛識(shí)別遷移學(xué)習(xí)算法

蔡英鳳1王 海2

(1江蘇大學(xué)汽車(chē)工程研究院, 鎮(zhèn)江 212013)(2江蘇大學(xué)汽車(chē)與交通工程學(xué)院, 鎮(zhèn)江 212013)

針對(duì)采用大樣本離線訓(xùn)練的車(chē)輛識(shí)別分類(lèi)器在新場(chǎng)景中性能顯著下降的問(wèn)題,提出了一種具有樣本自標(biāo)注能力的車(chē)輛識(shí)別遷移學(xué)習(xí)算法,并采用概率神經(jīng)網(wǎng)絡(luò)(probability neural network, PNN)進(jìn)行分類(lèi)器訓(xùn)練.首先,提出一種基于多細(xì)節(jié)先驗(yàn)信息的樣本標(biāo)注策略,融合復(fù)雜度、垂直平面和相對(duì)速度等先驗(yàn)信息實(shí)現(xiàn)新樣本的自動(dòng)標(biāo)注;然后,充分利用PNN訓(xùn)練速度快以及增加新樣本時(shí)只需分類(lèi)器進(jìn)行局部更新的特點(diǎn),將其引入到分類(lèi)器訓(xùn)練模型中,取代傳統(tǒng)機(jī)器學(xué)習(xí)算法中的Adaboost分類(lèi)器.實(shí)驗(yàn)結(jié)果表明:該算法在新場(chǎng)景下的新樣本標(biāo)注準(zhǔn)確率高達(dá)99.76%.通過(guò)遷移學(xué)習(xí),新場(chǎng)景的車(chē)輛識(shí)別分類(lèi)器性能較通用分類(lèi)器在檢測(cè)率和誤檢率指標(biāo)上均有顯著提升.

車(chē)輛識(shí)別;遷移學(xué)習(xí);樣本自標(biāo)注;概率神經(jīng)網(wǎng)絡(luò);先進(jìn)駕駛輔助系統(tǒng)

近年來(lái),全球每年由于車(chē)輛交通事故而造成的人員傷亡約為1 200萬(wàn);每年和車(chē)輛事故有關(guān)的財(cái)產(chǎn)損失和醫(yī)療花費(fèi)等約占全球GDP總數(shù)的1%~3%.因此,進(jìn)行與車(chē)輛駕駛輔助信息相關(guān)的道路環(huán)境感知技術(shù)的研究顯得尤為重要.

目前,毫米波雷達(dá)、激光雷達(dá)等主動(dòng)式傳感器已經(jīng)被廣泛應(yīng)用,并且在障礙物檢測(cè)應(yīng)用中表現(xiàn)出良好的效果.但是,高成本、高能耗以及安裝不便是主動(dòng)式傳感器短期內(nèi)難以解決的缺點(diǎn).近年來(lái)隨著計(jì)算機(jī)技術(shù)的發(fā)展,以機(jī)器視覺(jué)為代表的被動(dòng)式信息傳感方式逐漸成為先進(jìn)駕駛輔助系統(tǒng)(advanced driver assistant system,ADAS)研究的熱點(diǎn)[1-5].車(chē)載機(jī)器視覺(jué)感知方式能夠獲得傳統(tǒng)主動(dòng)式傳感器無(wú)法比擬的豐富信息量,這些環(huán)境信息可以用在目標(biāo)檢測(cè)、車(chē)道線檢測(cè)、交通標(biāo)志識(shí)別等眾多ADAS應(yīng)用中.同時(shí),攝像機(jī)系統(tǒng)成本低、安裝方便的優(yōu)勢(shì)使之更適合在需要配備ADAS的中低端車(chē)型中使用.

早期基于視覺(jué)的車(chē)輛檢測(cè)研究多集中在通過(guò)圖像中對(duì)稱(chēng)性、邊緣、車(chē)底陰影等初級(jí)且具有明確物理意義特征的檢測(cè)和辨識(shí)來(lái)檢測(cè)車(chē)輛,這類(lèi)基于初級(jí)特征的方法檢測(cè)率低、環(huán)境適應(yīng)性差,現(xiàn)已不被采用[6-7].近來(lái),研究者將基于視覺(jué)的車(chē)輛檢測(cè)問(wèn)題建模成一個(gè)模式識(shí)別中的二分類(lèi)問(wèn)題,并在此框架下進(jìn)行研究,取得了巨大的進(jìn)步.二分類(lèi)框架下的車(chē)輛檢測(cè)問(wèn)題中,樣本(車(chē)輛及非車(chē)輛圖像)的特征表征和分類(lèi)器設(shè)計(jì)是其最核心的2個(gè)方面.特征表達(dá)中,常用的特征有HOG特征[8]、Gabor特征[9]、類(lèi)Haar特征[10]、SIFT特征[11]、SURF特征[12]等;在分類(lèi)器設(shè)計(jì)中, SVM[13],Adaboost[14]以及BP人工神經(jīng)網(wǎng)絡(luò)[15]等結(jié)構(gòu)的分類(lèi)器較為常見(jiàn).

盡管基于機(jī)器學(xué)習(xí)的方法已顯示出巨大的優(yōu)越性,但仍存在一些不足.現(xiàn)有車(chē)輛識(shí)別算法大多采用大樣本離線訓(xùn)練方法來(lái)獲得通用的車(chē)輛識(shí)別分類(lèi)器,然而當(dāng)實(shí)際使用場(chǎng)景和訓(xùn)練樣本所涉及場(chǎng)景下的樣本集分布特性差異較大時(shí),容易導(dǎo)致分類(lèi)器性能明顯下降,因此不能滿(mǎn)足ADAS可靠性的要求.針對(duì)該問(wèn)題,本文引入了遷移學(xué)習(xí)的思路和方法,提出了一種具有樣本自標(biāo)注能力的車(chē)輛識(shí)別遷移學(xué)習(xí)算法,并采用概率神經(jīng)網(wǎng)絡(luò)(probability neural network, PNN)進(jìn)行分類(lèi)器訓(xùn)練.通過(guò)遷移學(xué)習(xí),新場(chǎng)景的車(chē)輛識(shí)別分類(lèi)器性能較通用分類(lèi)器在檢測(cè)率和誤檢率指標(biāo)上均有顯著提升.可以認(rèn)為,所提出的視覺(jué)車(chē)輛識(shí)別遷移學(xué)習(xí)算法在多方面要優(yōu)于傳統(tǒng)離線訓(xùn)練算法.

1 遷移學(xué)習(xí)方法

遷移學(xué)習(xí)方法是指首先采用較少的樣本構(gòu)建通用初始分類(lèi)器;然后在新場(chǎng)景下,通過(guò)不斷引入新樣本,對(duì)初始分類(lèi)器進(jìn)行重訓(xùn)練和更新,從而達(dá)到提升分類(lèi)器新場(chǎng)景下分類(lèi)能力的目的.遷移學(xué)習(xí)方法的基本流程框圖如圖1所示.

圖1 遷移學(xué)習(xí)方法流程圖

目前,現(xiàn)有基于遷移學(xué)習(xí)的識(shí)別算法存在以下不足:① 在樣本選取階段,現(xiàn)有研究通常由人工標(biāo)注新生成正負(fù)樣本[16-17].這使得訓(xùn)練器遷移學(xué)習(xí)的全部階段都需要有人參與,極大降低了整個(gè)分類(lèi)器訓(xùn)練的自動(dòng)化程度,效率較低.② 目前在初始分類(lèi)器構(gòu)建中,通常采用較常見(jiàn)的分類(lèi)器模型,如BP神經(jīng)網(wǎng)絡(luò)、SVM、Adaboost等,這類(lèi)分類(lèi)器的優(yōu)點(diǎn)是分類(lèi)效果好,但缺點(diǎn)是訓(xùn)練時(shí)間長(zhǎng),海量樣本時(shí)訓(xùn)練時(shí)間甚至可達(dá)數(shù)天甚至十幾天.因此,在遷移學(xué)習(xí)中若仍采用該類(lèi)分類(lèi)器則會(huì)在增加樣本后訓(xùn)練時(shí)間較長(zhǎng),在多次樣本輸入的疊加效應(yīng)下,分類(lèi)器學(xué)習(xí)的總訓(xùn)練時(shí)間更長(zhǎng),分類(lèi)器性能提升速度極慢,難以實(shí)現(xiàn)對(duì)不同場(chǎng)景的快速適應(yīng).

針對(duì)以上不足,本文提出了基于多細(xì)節(jié)(multi-cue)先驗(yàn)知識(shí)的樣本標(biāo)注策略和基于概率神經(jīng)網(wǎng)絡(luò)的遷移學(xué)習(xí)方法.提出了一種融合復(fù)雜度、車(chē)體垂直平面和兩車(chē)相對(duì)運(yùn)動(dòng)等多細(xì)節(jié)先驗(yàn)知識(shí)的正負(fù)樣本自動(dòng)標(biāo)注方法,避免了人工參與,提高了自動(dòng)化程度;利用PNN概率神經(jīng)網(wǎng)絡(luò)分類(lèi)器在增加新樣本時(shí)不需要對(duì)舊樣本重新訓(xùn)練的優(yōu)點(diǎn),設(shè)計(jì)了一種訓(xùn)練時(shí)間短的分類(lèi)器.

2 基于多細(xì)節(jié)先驗(yàn)信息的樣本標(biāo)注

在典型的離線分類(lèi)器訓(xùn)練中,訓(xùn)練樣本由人工事先選取并標(biāo)注為正樣本或負(fù)樣本.在已有的遷移學(xué)習(xí)分類(lèi)器訓(xùn)練中,樣本的標(biāo)注工作仍然需要由人工實(shí)現(xiàn).為實(shí)現(xiàn)樣本的自動(dòng)標(biāo)注,本文采用一種多細(xì)節(jié)先驗(yàn)知識(shí)的樣本標(biāo)注方法,使用了復(fù)雜度、車(chē)體垂直平面和相對(duì)運(yùn)動(dòng)這3種判斷因子.樣本標(biāo)注實(shí)現(xiàn)框圖如圖2所示.

圖2 樣本標(biāo)注實(shí)現(xiàn)框圖

(1)

當(dāng)某個(gè)圖像的復(fù)雜度C<δC時(shí),就可以將其劃分為負(fù)樣本.δC是復(fù)雜度判斷閾值,通過(guò)對(duì)5 000幅車(chē)輛圖片和10 000幅非車(chē)輛圖片的統(tǒng)計(jì)發(fā)現(xiàn),所有車(chē)輛樣本的復(fù)雜度都高于0.4,而非車(chē)輛樣本的復(fù)雜度則在0.1~0.8之間呈均勻分布.因此取閾值δC=0.35,即復(fù)雜度低于0.35的樣本可以認(rèn)為是負(fù)樣本,而復(fù)雜度高于0.35的樣本輸入至下一個(gè)判斷環(huán)節(jié).

2) 垂直平面 根據(jù)道路特點(diǎn),單幅圖像中道路場(chǎng)景的幾何信息主要分為天空、平面物體和垂直物體3類(lèi).而垂直物體往往是車(chē)輛、樹(shù)木、護(hù)欄等物體,不存在垂直面的物體則一定不是車(chē)輛.Hoiem等[18]通過(guò)一個(gè)預(yù)先訓(xùn)練完成的回歸Adaboost分類(lèi)器,得到圖片中每個(gè)像素的所屬類(lèi)別(天空、平面物體、垂直物體).本文采用Hoiem等[18]提出的圖像平面信息提取方法,提取出道路圖片中的垂直物體.典型圖片的分類(lèi)如圖3所示,圖3(a)中的平面物體、天空和垂直于路面的物體在圖3(b)中以不同的灰度顏色標(biāo)出,并用黑”×”對(duì)垂直于路面的物體進(jìn)行強(qiáng)調(diào).

(a) 原始道路圖像

(b) 圖像垂直面提取

若某樣本含有垂直面的像素點(diǎn)數(shù)低于一定的比例δK,則可認(rèn)為是非車(chē)輛,即負(fù)樣本;否則將該樣本輸入給下一個(gè)判斷環(huán)節(jié).

3 基于概率神經(jīng)網(wǎng)絡(luò)的分類(lèi)器設(shè)計(jì)

分類(lèi)器選擇是遷移學(xué)習(xí)系統(tǒng)中的一個(gè)重要環(huán)節(jié),它決定著最終分類(lèi)器的性能.從遷移學(xué)習(xí)的框架中可以看出,在遷移學(xué)習(xí)的過(guò)程中,分類(lèi)器需要反復(fù)不斷地進(jìn)行重訓(xùn)練.因此,分類(lèi)器的訓(xùn)練時(shí)間有著較為嚴(yán)苛的要求.過(guò)長(zhǎng)的訓(xùn)練會(huì)導(dǎo)致分類(lèi)器難以及時(shí)對(duì)新增樣本進(jìn)行反應(yīng),并使得分類(lèi)器性能提升緩慢.

PNN 是Specht[19]于1988年提出的一種神經(jīng)網(wǎng)絡(luò)模型,其實(shí)質(zhì)是基于貝葉斯最小風(fēng)險(xiǎn)準(zhǔn)則發(fā)展而來(lái)的一種并行算法,具有全局優(yōu)化的特點(diǎn).用于模式識(shí)別的PNN神經(jīng)網(wǎng)絡(luò)是一個(gè)前饋的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),由輸入層、模式層、求和層與輸出層構(gòu)成.

1) 輸入層接收來(lái)自待判斷的樣本值,將特征向量傳遞給網(wǎng)絡(luò),其神經(jīng)元數(shù)目和待判斷樣本的維數(shù)相等.

2) 模式層計(jì)算輸入特征向量與訓(xùn)練樣本集中各個(gè)模式的匹配關(guān)系,模式層神經(jīng)元數(shù)等于各個(gè)類(lèi)別訓(xùn)練樣本數(shù)之和,該層每個(gè)模式單元的輸出為

(2)

式中,X為輸入特征向量;Wi為輸入層到模式層連接的權(quán)值;σ為平滑參數(shù).

3) 求和層屬于某一類(lèi)的概率累計(jì),按式(2)計(jì)算,從而得到分類(lèi)模式的估計(jì)概率密度函數(shù).求和層單元的輸出與各類(lèi)基于Kernel的各類(lèi)密度估計(jì)成比例,通過(guò)輸出層的歸一化處理就能得到各類(lèi)概率估計(jì).

4) 輸出層在各個(gè)分類(lèi)模式的估計(jì)概率密度中,選擇一個(gè)具有最大后驗(yàn)概率密度的神經(jīng)元作為整個(gè)系統(tǒng)的輸出.

正是由于PNN的前饋網(wǎng)絡(luò)結(jié)構(gòu),因此與傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)(如BP網(wǎng)絡(luò))、SVM和Adaboost等算法相比, PNN具有結(jié)構(gòu)設(shè)計(jì)靈活、訓(xùn)練速度快、收斂性好的優(yōu)點(diǎn),因此本文選用PNN構(gòu)建了遷移學(xué)習(xí)分類(lèi)模型.

4 實(shí)驗(yàn)與分析

針對(duì)分類(lèi)器的樣本自標(biāo)注的正確率、最終分類(lèi)器識(shí)別能力、分類(lèi)器訓(xùn)練時(shí)間3個(gè)關(guān)鍵性能指標(biāo)進(jìn)行實(shí)驗(yàn)和比較.

4.1 實(shí)驗(yàn)樣本

實(shí)驗(yàn)樣本來(lái)源于Caltech1999數(shù)據(jù)庫(kù),它包括126幅含有車(chē)輛后視圖的靜態(tài)圖片.此外,另外一部分樣本來(lái)源于項(xiàng)目組在多個(gè)時(shí)間段分別采集的道路圖片.類(lèi)Haar(Haar-like)特征在包括車(chē)輛識(shí)別在內(nèi)的諸多模式識(shí)別應(yīng)用中識(shí)別效果很好[4],因而本文所有正負(fù)樣本均采用類(lèi)Haar特征進(jìn)行表征.但是由于多尺度類(lèi)Haar特征生成的特征維數(shù)特別巨大(超過(guò)105維),本文首先利用主成分分析(principal component analysis, PCA)的方法將其簡(jiǎn)化為1 280維(保留約96%的信息量).部分正負(fù)樣本如圖4所示.

4.2 分類(lèi)器性能指標(biāo)

在分類(lèi)器的性能實(shí)驗(yàn)中,所有分類(lèi)器首先使用726個(gè)正樣本和約2 000個(gè)負(fù)樣本離線訓(xùn)練一個(gè)初始分類(lèi)器.然后將項(xiàng)目組實(shí)際采集的2個(gè)新場(chǎng)景(約4 500幅道路圖片)分別輸入到遷移學(xué)習(xí)分類(lèi)器的框架中,進(jìn)行遷移學(xué)習(xí),得到最終的分類(lèi)器.

(a) 正樣本

(b) 負(fù)樣本

4.2.1 樣本自標(biāo)注的正確率

在對(duì)約4 500幅圖片的樣本生成,即自標(biāo)注的遷移學(xué)習(xí)過(guò)程中,共產(chǎn)生和標(biāo)注新樣本1 657個(gè),同時(shí)未能標(biāo)注樣本(可視為被忽略樣本)506個(gè).在進(jìn)行標(biāo)注的樣本中,其準(zhǔn)確率如表1所示.可以看出,本文的基于多細(xì)節(jié)先驗(yàn)信息的樣本標(biāo)注方法能夠很好地保證標(biāo)注樣本的正確性.

表1 樣本自標(biāo)注的正確率

4.2.2 分類(lèi)器識(shí)別能力

在分類(lèi)器識(shí)別能力的評(píng)價(jià)中,本文選取了常用的TPR(true positive rate)和FDR(false detection rate)2個(gè)指標(biāo),并與采用離線訓(xùn)練的傳統(tǒng)分類(lèi)器進(jìn)行了比較.TPR和FDR指標(biāo)計(jì)算式為

(3)

(4)

式中,VTP為識(shí)別正確的車(chē)輛數(shù);Vall為所有車(chē)輛數(shù);VFP為錯(cuò)誤識(shí)別的車(chē)輛數(shù).

本文在多個(gè)場(chǎng)景下進(jìn)行了實(shí)驗(yàn),結(jié)果表明,由于利用新場(chǎng)景下樣本對(duì)分類(lèi)器進(jìn)行了重訓(xùn)練及參數(shù)更新,本文所提出的分類(lèi)器在識(shí)別性能上要明顯優(yōu)于傳統(tǒng)離線訓(xùn)練分類(lèi)器.2個(gè)典型場(chǎng)景下采用Adaboost離線訓(xùn)練分類(lèi)器和本文提出的樣本自標(biāo)注遷移學(xué)習(xí)分類(lèi)器的ROC性能曲線如圖5所示.

(a) 場(chǎng)景1

(b) 場(chǎng)景2

4.2.3 分類(lèi)器訓(xùn)練時(shí)間

在加入新樣本時(shí),分類(lèi)器需要不斷進(jìn)行訓(xùn)練來(lái)進(jìn)行參數(shù)更新.因此,其重訓(xùn)練時(shí)間是一個(gè)十分關(guān)鍵的指標(biāo).在車(chē)輛主動(dòng)安全的高實(shí)時(shí)性應(yīng)用中,訓(xùn)練和更新時(shí)間越快意味著分類(lèi)器適應(yīng)場(chǎng)景能力越強(qiáng).本文與文獻(xiàn)[20]的基于類(lèi)Haar特征和Adaboost的分類(lèi)器進(jìn)行比較.運(yùn)行平臺(tái)均為Intel酷睿2雙核2.67 GHz處理器,2 GB內(nèi)存,Matlab 2012a.其訓(xùn)練時(shí)間如表2所示.

表2 分類(lèi)器訓(xùn)練更新耗時(shí) s

從表2中可以看出,本文采用PNN前饋神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),訓(xùn)練時(shí)間較Adaboost縮短約30倍.

4.2.4 實(shí)驗(yàn)分析和討論

通過(guò)對(duì)樣本自標(biāo)注的正確率、最終分類(lèi)器識(shí)別能力、分類(lèi)器訓(xùn)練時(shí)間這3個(gè)指標(biāo)的實(shí)驗(yàn)可以看出,與傳統(tǒng)離線學(xué)習(xí)的車(chē)輛識(shí)別系統(tǒng)相比,本文提出的基于樣本自標(biāo)注和PNN的車(chē)輛識(shí)別遷移學(xué)習(xí)分類(lèi)器僅通過(guò)極少的訓(xùn)練時(shí)間,獲得了優(yōu)于傳統(tǒng)離線訓(xùn)練分類(lèi)器的車(chē)輛識(shí)別能力.同時(shí),由于本分類(lèi)器具有樣本自生成和標(biāo)注的能力,與已有遷移學(xué)習(xí)分類(lèi)器相比,提高了訓(xùn)練的自動(dòng)化程度和適應(yīng)性.

5 結(jié)語(yǔ)

針對(duì)現(xiàn)有基于遷移學(xué)習(xí)識(shí)別算法存在樣本產(chǎn)生需要人工參與、訓(xùn)練自動(dòng)化程度低以及訓(xùn)練時(shí)間長(zhǎng)的缺點(diǎn),提出了基于多細(xì)節(jié)先驗(yàn)知識(shí)的樣本標(biāo)注方法和基于PNN的遷移學(xué)習(xí)方法.實(shí)驗(yàn)表明,本分類(lèi)器具有樣本自生成和標(biāo)注的能力,與已有遷移學(xué)習(xí)分類(lèi)器相比,提高了訓(xùn)練的自動(dòng)化程度和適應(yīng)性.此外,與傳統(tǒng)車(chē)輛識(shí)別系統(tǒng)相比,所提方法在較大減少訓(xùn)練時(shí)間的基礎(chǔ)上,獲得了優(yōu)于傳統(tǒng)離線訓(xùn)練分類(lèi)器的車(chē)輛識(shí)別能力.

在下一步的工作中,將針對(duì)PNN網(wǎng)絡(luò)結(jié)構(gòu)中增加新樣本時(shí),模式層節(jié)點(diǎn)需要相應(yīng)增加從而導(dǎo)致系統(tǒng)開(kāi)銷(xiāo)持續(xù)增加的缺點(diǎn)進(jìn)行相應(yīng)的改進(jìn),在不影響分類(lèi)器識(shí)別率的基礎(chǔ)上進(jìn)一步減少分類(lèi)器的資源消耗,以滿(mǎn)足未來(lái)車(chē)載低成本嵌入式系統(tǒng)的資源需求.

References)

[1]Trivedi M M, Gandhi T, McCall J. Looking-in and looking-out of a vehicle: computer-vision-based enhanced vehicle safety [J].IEEETransactionsonIntelligentTransportationSystems, 2007, 8(1): 108-120.

[2]Wang H, Zhang W, Cai Y. Design of a road vehicle detection system based on monocular vision [J].JournalofSoutheastUniversity:EnglishEdition, 2011, 27(2): 169-173.

[3]許慶,高峰,徐國(guó)艷.基于Haar特征的前車(chē)識(shí)別算法[J].汽車(chē)工程,2013,35(4):381-384. Xu Qing, Gao Feng, Xu Guoyan. An algorithm for front-vehicle detection based on Haar-like feature [J].AutomotiveEngineering, 2013, 35(4): 381-384. (in Chinese)

[4]文學(xué)志,方巍,鄭鈺輝.一種基于類(lèi)Haar特征和改進(jìn)AdaBoost分類(lèi)器的車(chē)輛識(shí)別算法[J].電子學(xué)報(bào),2011,39(5):1121-1126. Wen Xuezhi, Fang Wei, Zhen Yuhui. An algorithm based on Haar-like features and improved AdaBoost classifier for vehicle recognition [J].ActaElectronicaSinica, 2011, 39(5): 1121-1126. (in Chinese)

[5]馬雷,臧俊杰,張潤(rùn)生.不同光照條件下前方車(chē)輛識(shí)別方法[J].汽車(chē)工程,2012,36(4):360-366. Ma Lei, Zang Junjie, Zhang Runsheng. Front vehicle identification under different lighting conditions [J].AutomotiveEngineering, 2012, 36(4): 360-366. (in Chinese)

[6]Sun Z, Bebis G, Miller R. On-road vehicle detection: a review [J].IEEETransactionsonPatternAnalysisandMachineIntelligence, 2006, 28(5): 694-711.

[7]Sivaraman S, Trivedi M M. Looking at vehicles on the road: a survey of vision-based vehicle detection, tracking, and behavior analysis [J].IEEETransactionsonIntelligentTransportationSystems, 2013, 14(4): 1773-1795.

[8]Dalal N, Triggs B. Histograms of oriented gradients for human detection [C]//IEEEComputerSocietyConferenceonComputerVisionandPatternRecognition. San Diego, CA, USA, 2005, 1: 886-893.

[9]Sun Z, Bebis G, Miller R. Monocular precrash vehicle detection: features and classifiers [J].IEEETransactionsonImageProcessing, 2006, 15(7): 2019-2034.

[10]Viola P, Jones M. Rapid object detection using a boosted cascade of simple features [C]//2001IEEEComputerSocietyConferenceonComputerVisionandPatternRecognition. Hawaii, USA, 2001, 1: I-511-I-518.

[11]Zhang X, Zheng N, He Y, et al. Vehicle detection using an extended hidden random field model [C]//14thInternationalIEEEConferenceonIntelligentTransportationSystems. Washington, DC, USA, 2011: 1555-1559.

[12]Lin B F, Chan Y M, Fu L C, et al. Integrating appearance and edge features for sedan vehicle detection in the blind-spot area [J].IEEETransactionsonIntelligentTransportationSystems, 2012, 13(2): 737-747.

[13]Yuan Q, Thangali A, Ablavsky V, et al. Learning a family of detectors via multiplicative kernels [J].IEEETransactionsonPatternAnalysisandMachineIntelligence, 2011, 33(3): 514-530.

[14]Caraffi C, Vojir T, Trefny J, et al. A system for real-time detection and tracking of vehicles from a single car-mounted camera [C]//15thInternationalIEEEConferenceonIntelligentTransportationSystems. Anchorage, AK, USA, 2012: 975-982.

[15]Ludwig O, Nunes U. Improving the generalization properties of neural networks: an application to vehicle detection [C]//11thInternationalIEEEConferenceonIntelligentTransportationSystems. Beijing, China, 2008: 310-315.

[16]Fossati A, Sch?nmann P, Fua P. Real-time vehicle tracking for driving assistance [J].MachineVisionandApplications, 2011, 22(2): 439-448.

[17]Kapoor A, Grauman K, Urtasun R, et al. Gaussian processes for object categorization [J].InternationalJournalofComputerVision, 2010, 88(2): 169-188.

[18]Hoiem D, Efros A A, Hebert M. Recovering surface layout from an image [J].InternationalJournalofComputerVision, 2007, 75(1): 151-172.

[19]Specht D F. Enhancements to probabilistic neural networks [C]//InternationalJointConferenceonNeuralNetworks. Baltimore, MD, USA, 1992, 1: 761-768.

[20]Sivaraman S, Trivedi M M. A general active-learning framework for on-road vehicle recognition and tracking [J].IEEETransactionsonIntelligentTransportationSystems, 2010, 11(2): 267-276.

Vision based vehicle detection transfer learning algorithm

Cai Yingfeng1Wang Hai2

(1Research Institute of Automotive Engineering, Jiangsu University, Zhenjiang 212013, China)(2School of Automotive and Traffic Engineering, Jiangsu University, Zhenjiang 212013, China)

Existing classifiers for vehicle recognition are mainly trained offline with a large number of samples, of which the performance may decline dramatically in a new scenario. In order to solve the problem, a sample self-marking transfer learning algorithm for vehicle recognition based on the probabilistic neural network (PNN) is proposed. First, a sample self-marking strategy is proposed based on multi-cue prior knowledge including complexity, vertical plane and relative velocity. Then, instead of traditional classifiers such as Adaboost, PNN is used to establish the transfer learning model by utilizing its features such as high architecture flexibility, fast training speed and no retraining requirement when new samples are added. Experimental results demonstrate that this algorithm can mark new samples with high accuracy (99.76%). Besides, new classifier trained in a new scenario with transfer learning performs better in true positive rate and false detection rate than traditional general classifiers.

vehicle recognition; transfer learning; sample self-marking; probability neural network; advanced driver assistant system

10.3969/j.issn.1001-0505.2015.02.015

2014-09-10. 作者簡(jiǎn)介: 蔡英鳳(1985—),女,博士,講師,caicaixiao0304@126.com.

國(guó)家自然科學(xué)基金資助項(xiàng)目(61403172,51305167,61203244)、交通運(yùn)輸部信息化資助項(xiàng)目(2013364836900)、江蘇省自然科學(xué)基金資助項(xiàng)目(BK20140555)、中國(guó)博士后科學(xué)基金資助項(xiàng)目(2014M561592)、江蘇省“六大人才”高峰資助項(xiàng)目(2014-DZXX-040)、江蘇省博士后基金資助項(xiàng)目(1402097C)、江蘇大學(xué)高級(jí)專(zhuān)業(yè)人才科研啟動(dòng)基金資助項(xiàng)目(12JDG010,14JDG028).

蔡英鳳,王海.視覺(jué)車(chē)輛識(shí)別遷移學(xué)習(xí)算法[J].東南大學(xué)學(xué)報(bào):自然科學(xué)版,2015,45(2):275-280.

10.3969/j.issn.1001-0505.2015.02.015

TP391.4

A

1001-0505(2015)02-0275-06

猜你喜歡
特征
抓住特征巧觀察
離散型隨機(jī)變量的分布列與數(shù)字特征
具有兩個(gè)P’維非線性不可約特征標(biāo)的非可解群
月震特征及與地震的對(duì)比
如何表達(dá)“特征”
被k(2≤k≤16)整除的正整數(shù)的特征
不忠誠(chéng)的四個(gè)特征
詈語(yǔ)的文化蘊(yùn)含與現(xiàn)代特征
新聞傳播(2018年11期)2018-08-29 08:15:24
抓住特征巧觀察
基于特征篩選的模型選擇
主站蜘蛛池模板: 国产成人av一区二区三区| 免费人成视网站在线不卡| 久久国产精品77777| 91福利免费| 毛片免费网址| 亚洲无线视频| 婷婷综合缴情亚洲五月伊| 午夜毛片福利| 四虎成人在线视频| 欧美亚洲国产一区| 欧美日韩亚洲国产主播第一区| 成人综合在线观看| 91麻豆精品国产91久久久久| 在线精品视频成人网| 宅男噜噜噜66国产在线观看| 亚洲欧美一区二区三区图片 | 日韩精品欧美国产在线| 亚洲欧洲日本在线| 中文字幕天无码久久精品视频免费| 久久精品免费看一| 欧美性爱精品一区二区三区 | 精品综合久久久久久97超人| 亚洲日韩精品欧美中文字幕| 五月婷婷导航| 最新痴汉在线无码AV| 波多野结衣第一页| 国产制服丝袜91在线| 国产精品99一区不卡| 精品伊人久久大香线蕉网站| 人妻精品全国免费视频| 久久国语对白| 欧美69视频在线| 国产h视频免费观看| 青青久视频| 97视频在线精品国自产拍| 第九色区aⅴ天堂久久香| 人妻21p大胆| 第九色区aⅴ天堂久久香| 找国产毛片看| 日韩123欧美字幕| 18禁影院亚洲专区| 精品国产成人高清在线| 国产女人爽到高潮的免费视频| 欧美激情首页| 人禽伦免费交视频网页播放| 综合网天天| 亚洲床戏一区| 呦系列视频一区二区三区| 四虎影视国产精品| 亚洲色图欧美在线| 精品久久久久成人码免费动漫| 波多野结衣一区二区三区四区视频 | 日本黄色不卡视频| 手机看片1024久久精品你懂的| 男女精品视频| 婷婷久久综合九色综合88| 2022精品国偷自产免费观看| 国产产在线精品亚洲aavv| 午夜少妇精品视频小电影| 青青青视频蜜桃一区二区| 欧美第九页| 精品福利网| 免费无码AV片在线观看国产| 一级成人a毛片免费播放| 国产激爽大片高清在线观看| 国产精品成人免费综合| 超碰aⅴ人人做人人爽欧美| 一级爆乳无码av| 99久久精品免费观看国产| 国产黄网永久免费| 国产理论精品| 亚洲AⅤ无码国产精品| 精品亚洲麻豆1区2区3区| 亚洲成a∧人片在线观看无码| 国产成人免费观看在线视频| 欧洲极品无码一区二区三区| 亚洲日韩日本中文在线| 亚洲精品动漫| 91无码人妻精品一区| 看国产一级毛片| 色有码无码视频| 久久久黄色片|