牛軼峰,朱宇亭,李宏男,王 菖,吳立珍
(國防科技大學(xué) 智能科學(xué)學(xué)院,湖南 長沙 410073)
無人機對地面車輛等運動目標(biāo)的偵察與監(jiān)視作為無人機系統(tǒng)典型任務(wù)之一得到了廣泛關(guān)注[1],目前通常由任務(wù)控制站操作員進行人工目標(biāo)判讀與識別,需要應(yīng)用自動目標(biāo)識別算法,以提高目標(biāo)識別精度,降低人的負擔(dān)。盡管基于圖像的車輛目標(biāo)識別與跟蹤方法已有大量研究,但是大多研究均是對水平方向或在斜上方固定視角(如道路監(jiān)控)拍攝的車輛圖像進行檢測和識別,這些成像條件下的目標(biāo)檢測識別與固定翼無人機在高空快速飛行成像條件不太相同。無人機在高空拍攝車輛目標(biāo)時會存在不同視角(如不同角度下的俯視視角),而且無人機本身處于飛行運動中,因此獲得的目標(biāo)圖像會受到光照、抖動、運動模糊等因素影響,使得傳統(tǒng)基于灰度等特征的方法不夠穩(wěn)定,給檢測識別過程帶來困難[2];此外,目前無人機俯視視角下的樣本數(shù)據(jù)較少,在很多軍事任務(wù)中難以獲取大量目標(biāo)樣本用于訓(xùn)練。因此,研究如何在小樣本下實現(xiàn)對目標(biāo)檢測識別是一個有重要意義的科學(xué)問題。
近年來,深度學(xué)習(xí)方法在目標(biāo)檢測領(lǐng)域表現(xiàn)遠超傳統(tǒng)檢測方法,如R-CNN[3]、Faster R-CNN[4]、YOLO[5]、SSD[6]、Cascaded R-CNN[7]、RefineDet[8]、SNIP[9]等算法在檢測準確率和速度上都遠超一些傳統(tǒng)檢測方法,因此被廣泛用于無人機目標(biāo)感知任務(wù)中。然而,基于深度學(xué)習(xí)的方法需要大量樣本數(shù)據(jù)訓(xùn)練,這在目標(biāo)常見且樣本充足情況下可行,但對于一些樣本較少的特殊目標(biāo)就難用這種方法取得好的檢測效果,例如,實際應(yīng)用中由于各種原因往往難以獲取大量無人機俯視下的軍事目標(biāo)數(shù)據(jù),不宜進行大量標(biāo)定,以致難以達到滿意的訓(xùn)練及檢測效果。此外,目標(biāo)感知能力不但是無人機系統(tǒng)自主能力的重要組成部分,也是服務(wù)于無人機操作員進行情報處理和態(tài)勢感知的重要手段,而深度學(xué)習(xí)方法隨著網(wǎng)絡(luò)層數(shù)的增加,對目標(biāo)的特征描述往往缺乏可解釋性,這導(dǎo)致當(dāng)機器學(xué)習(xí)的結(jié)果發(fā)生錯誤時,人類很難找出錯誤的原因。
目前,循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)型生成式組成模型遞歸網(wǎng)絡(luò)(Recursive Cortical Network,RCN)——使用小樣本學(xué)習(xí)的方法,在基于網(wǎng)絡(luò)文本驗證創(chuàng)建的全自動區(qū)分計算機和人類的圖靈測試上獲得突破性的成果[10]。RCN在多個CAPTCHA數(shù)據(jù)庫中獲得了極佳的成績(reCAPTCHA準確率:66.6%),整體上以300倍的數(shù)據(jù)有效性擊敗了深度學(xué)習(xí)的卷積網(wǎng)絡(luò)模型。RCN為解決小樣本條件下實現(xiàn)對目標(biāo)的檢測識別提供了新的解決思路。
人類具有在少量的樣本中學(xué)習(xí)出抽象的概念并將這些概念應(yīng)用到多種用途的能力,在應(yīng)對物體形變、材質(zhì)變化等方面具有很好的遷移能力。同時人具有從部件層次識別物體的能力,能夠根據(jù)識別到的部件信息推斷出目標(biāo)的類別。比如在遮擋情況下,看到一個輪子和一塊車窗,能夠推斷出這是一輛車。考慮到人的認知機制,本文基于部件模型的思想,將目標(biāo)進行部件分解,通過識別各個具有語義信息的部件并進行貝葉斯推理判斷目標(biāo)是否為車輛。本文以復(fù)雜背景下地面車輛目標(biāo)為例,研究如何在小樣本下對目標(biāo)進行具有可解釋性的檢測識別,總體框架如圖1所示。

圖1 基于部件模型的車輛識別方法Fig.1 Vehicle identification method based on component model
本文方法主要分為四個部分,分別為顯著性區(qū)域檢測、目標(biāo)部件分割、目標(biāo)輪廓識別和車輛識別。首先結(jié)合人的視覺注意機制,利用時域與頻域相結(jié)合的方式檢測出疑似車輛目標(biāo)區(qū)域,之后基于部件模型和概率推斷的方式對目標(biāo)部件進行分割和輪廓識別,推理得出目標(biāo)是否為車輛,并在不同條件下進行仿真驗證。
人在一張圖像中尋找目標(biāo)時,不會像傳統(tǒng)滑窗法那樣從左上角開始遍歷全圖進行查找,而是會一眼“縱觀全局”找到可能是目標(biāo)的顯著性區(qū)域再進一步確認。這種機制被稱為視覺注意機制,它會顯著提高人對視覺信息的處理速度。在此基礎(chǔ)上,通過結(jié)合目標(biāo)自身先驗信息,從顯著性區(qū)域中濾除一些不具有目標(biāo)基本特征的結(jié)果進而提高后續(xù)識別的準確率,在一定程度可以彌補樣本不足帶來的影響。本文在識別目標(biāo)前首先進行可能是目標(biāo)的顯著性區(qū)域檢測,并利用車輛目標(biāo)具有的結(jié)構(gòu)性邊緣特征進行約束。
顯著性區(qū)域的檢測方法有多種[11],如基于空間域的Itti模型[12]、AC算法[13]、HC算法[14]、EdgeBox算法[15]、BING算法[16]、Selective Search算法[17]等;基于頻域的譜殘差(Spectral Residual,SR)算法[18]、FT算法[19]等。基于頻域的方法通過設(shè)計高通濾波器,可以去除低頻背景噪聲,但往往會丟掉部分目標(biāo)本身的結(jié)構(gòu)性信息(例如對于矩形的車輛,頻域方法檢測的結(jié)果通常只會突出矩形的四個角點,而弱化或丟掉了邊緣信息,見圖2(c)、(d)),而單獨使用空間域的檢測方法又容易受低頻背景等噪聲的影響(突出了物體的結(jié)構(gòu)性邊緣信息,但難以去除陰影、地面等信息,見圖2(b))。因此,本文將頻域方法(SR算法)與空間域方法(EdgeBox算法)結(jié)合,從而檢測出疑似車輛目標(biāo)區(qū)域。
SR算法基本流程如算法1所示,基本思想是首先將圖像變換到頻率域,然后對低頻成分進行抑制,突出目標(biāo)邊緣輪廓等高頻信息。EdgeBox算法首先在圖像中進行結(jié)構(gòu)性邊緣檢測,然后根據(jù)檢測結(jié)果給所有候選區(qū)域打分,根據(jù)得分高低輸出具有結(jié)構(gòu)性的顯著性區(qū)域。

算法1 SR算法Alg.1 SR algorithm
由于檢測結(jié)果往往有較多大小各異的候選框,為進一步處理往往需要進行不確定目標(biāo)個數(shù)下的目標(biāo)框自動聚類。考慮到EdgeBox算法在同一個目標(biāo)上的檢測框往往相鄰或者重疊,而屬于不同目標(biāo)的框往往相隔較遠,因此本文設(shè)計了一種迭代式的目標(biāo)框自動聚類算法,如算法2所示,在每次迭代中用最小外接矩形取代有重疊關(guān)系的候選框,直到目標(biāo)框彼此之間沒有重疊,實現(xiàn)自動聚類。設(shè)計的SR-EdgeBox算法流程如圖2所示。利用EdgeBox算法在空間域提取邊緣,之后基于SR算法在頻率域提取高頻信息,去除低頻信息,得到目標(biāo)區(qū)域。

算法2 迭代式自動聚類算法Alg.2 Iterative automatic clustering algorithm

圖2 SR-EdgeBox算法流程Fig.2 SR-EdgeBox algorithm flow
為了比較各類算法的效果,采用不同的算法對包含車輛的圖片進行顯著性檢測實驗,如圖3(b)~(d)所示。為了驗證本文算法的有效性,在存在遮擋的情況和多輛車同時存在的情況下進行了測試。由圖3可以看出,頻域SR顯著性檢測方法可以將高頻信息突出,然而同時會保留樹葉等非目標(biāo)區(qū)域。通過在空間域用結(jié)構(gòu)性邊緣進行約束,可以濾除非結(jié)構(gòu)性區(qū)域,得到一系列的候選框,選出最可能是結(jié)構(gòu)性區(qū)域的15個box,隨機用不同顏色表示,如圖3(c)所示,并且最終檢測出車輛目標(biāo),如圖3(d)所示。該方法對于遮擋和多目標(biāo)問題也有較好的檢測效果,如圖3(e)和如圖3(f)所示。
為便于對算法及結(jié)果描述,將部件定義為:在顏色維度上區(qū)別于相鄰區(qū)域的封閉、單一的顏色塊。例如在白色車輛中,黑色的車窗、黑色的車玻璃即為部件;車輪作為獨立的封閉黑色塊,與地面、車身顏色均不同,也可作為部件。
為進一步識別目標(biāo)是否為車輛,需要提取特征進行匹配。考慮到輪廓形狀相比于傳統(tǒng)角點、顏色等特征有更好的穩(wěn)定性,因此本文提取目標(biāo)的部件輪廓作為特征進行識別,通過結(jié)合GrabCut圖割算法[20]與最大類間分割算法[21]實現(xiàn)目標(biāo)部件分割。本文將車輛部件分為前窗、側(cè)窗、后窗和車輪四種。
目前,常用的圖像分割方法主要有閾值分割、聚類分割、邊緣檢測分割、圖分割以及基于人工神經(jīng)網(wǎng)絡(luò)的分割方法等。其中,閾值分割容易受到噪聲和光照的影響;聚類分割容易過度分割;邊緣檢測分割方法的抗噪性和檢測精度難以同時滿足;基于人工神經(jīng)網(wǎng)絡(luò)的分割方法需要大量數(shù)據(jù)以及選擇合適的網(wǎng)絡(luò)結(jié)構(gòu);而圖分割方法可以避免上述不足,故本文引入圖分割算法。實驗發(fā)現(xiàn),交互式迭代圖分割GrabCut算法可以僅給定一個表示目標(biāo)區(qū)域的框就能較好地去除背景,分割出目標(biāo)主體。GrabCut是一種交互式圖像前景、背景分割算法。該算法無須訓(xùn)練,給定目標(biāo)框后,算法自動將框外的像素視為后景,將框內(nèi)像素視為可能的前景和后景,然后對前景和后景數(shù)據(jù)分別建立高斯混合模型,利用目標(biāo)各部件內(nèi)像素的相似性特征,通過最小化能量函數(shù)實現(xiàn)對未標(biāo)記的像素的推斷。能量函數(shù)定義如式(1)所示。
E(α,θ,z)=U(α,θ,z)+V(α,z)
(1)
其中,z表示圖像的像素值,α表示圖像每個像素分割的標(biāo)簽,θ表示分割模型的參數(shù),U(α,θ,z)為表征目標(biāo)圖像主要內(nèi)容的數(shù)據(jù)項,V(α,z)為反映目標(biāo)內(nèi)部像素間相似性的平滑項。最小化求解的過程通過最小割方法實現(xiàn)。
GrabCut算法優(yōu)點在于可以較好地利用相鄰像素之間的連續(xù)性進行分割,然而不足之處在于:首先,它需要用戶交互實現(xiàn)連續(xù)像素標(biāo)記;其次,因連續(xù)性約束,算法往往可以分割出目標(biāo)整體,卻難以進一步分割出內(nèi)部部件。閾值分割的方法通常不受連續(xù)性約束,但對光照等噪聲敏感。為此,本文結(jié)合兩種方法進行部件分割。
首先對應(yīng)用視覺顯著性算法分割出的疑似目標(biāo)區(qū)域(見圖3(d))的目標(biāo)整體利用最大類間方差法求取閾值進行二值分割(本文假定車輛車身與部件可按顏色分為兩類),在二值化圖像中的相同區(qū)域內(nèi)進行給定長度下的劃線操作,用自動化的方式取代用戶交互過程,并將得到的線連同其標(biāo)簽(前景或后景)輸入GrabCut算法繼續(xù)迭代,直至分割出目標(biāo)部件。其中,最大類間方差法求取分割閾值的方法如算法3所示。

算法3 最大類間方差法求閾值A(chǔ)lg.3 Method of maximum interclass variance for threshold
為了驗證本文提出的分割算法效果,與其他幾種分割算法(GrabCut算法、Ostu算法以及Selective Search(圖中簡寫為SS)中的分割方法)進行了對比。考慮篇幅原因,測試圖選取了具有代表性的三張圖,圖4、圖5、圖6分別表示目標(biāo)車輛存在少量遮擋、大量遮擋和不存在遮擋的分割結(jié)果。通過實驗結(jié)果對比可以看出,本文通過隨機劃線算法將GrabCut和Ostu算法相結(jié)合,在分割目標(biāo)時可以較理想地將物體主要部件分割出來,而其他算法往往難以將部件很好地分割出來,或者存在過度分割的情況。

(a) 少量遮擋 (b) GrabCut分割結(jié)果 (c) Ostu分割結(jié)果 (d) SS分割結(jié)果 (e) 本文分割結(jié)果 (f) 真值(a) Less occlusion (b) Result of GrabCut (c) Result of Ostu (d) Result of SS (e) Result of our method (f) Ground truth圖4 少量遮擋車輛分割結(jié)果對比Fig.4 Comparison of vehicle segmentation results under less occlusion

(a) 大部分遮擋 (b) GrabCut分割結(jié)果 (c) Ostu分割結(jié)果 (d) SS分割結(jié)果 (e)本文分割結(jié)果 (f)真值(a) Most occlusion (b) Result of GrabCut (c) Result of Ostu (d) Result of SS (e) Result of our method (f) Ground truth圖5 大部分遮擋車輛分割結(jié)果對比Fig.5 Comparison of vehicle segmentation results under most occlusion

(a) 相對完整 (b) GrabCut分割結(jié)果 (c) Ostu分割結(jié)果 (d) SS分割結(jié)果 (e) 本文分割結(jié)果 (f) 真值(a) Relative complete (b) Result of GrabCut (c) Result of Ostu (d) Result of SS (e) Result of our method (f) Ground truth圖6 相對完整車輛分割結(jié)果對比Fig.6 Comparison of vehicle segmentation results without occlusion
分割出部件后需要根據(jù)輪廓形狀進行部件識別。為解決形變影響輪廓識別率的問題,本文對訓(xùn)練部件輪廓建立圖模型,通過對輪廓進行特征稀疏表示并利用圖模型的方法推斷識別目標(biāo)部件輪廓。由于概率圖模型在推理時對局部的像素偏移有較好的容納性,即局部的像素偏移不會對整體輪廓相似度計算造成很大影響,并且每一個樣本都可以訓(xùn)練得到一個圖模型,因此,本文方法可以在小樣本下更好地適應(yīng)部件輪廓存在局部形變的識別問題。
本方法建立兩層網(wǎng)絡(luò)表征目標(biāo)輪廓,如圖7所示,其中包含特征層(記為F)和池化層(記為H),分別表示輪廓上各點的方向和輪廓可能產(chǎn)生的不同形變及位移。通過提取輪廓上各點的方向作為特征,進行稀疏表示,實現(xiàn)用表示方向的特征節(jié)點對目標(biāo)輪廓稀疏離散表示。同時,利用輪廓的連續(xù)性建立節(jié)點之間的約束關(guān)系,從而建立表征目標(biāo)輪廓的圖模型。在圖模型上利用消息傳遞的概率求取方法計算待識別圖像與已知訓(xùn)練樣本圖模型的匹配程度,作為目標(biāo)輪廓的識別相似度。在一個共有C層的模型中,每一層的變量都只依賴上一層,故整個結(jié)構(gòu)可用條件隨機場描述[22],用聯(lián)合概率分布的對數(shù)形式可以表示為如式(2)所示。

圖7 表征目標(biāo)輪廓的網(wǎng)絡(luò)Fig.7 Network characterizing the target contour
logp(F(1),H(1),…,F(C),H(C))
=logp(F(1)|H(1))+logp(H(1)|F(2))+…+
logp(F(C)|H(C))+logp(H(C))
(2)
其中,特征層中的每一個變量值表示該特征存在與否,與當(dāng)前層其他特征變量相互獨立(將輪廓稀疏表示后暫不考慮相鄰特征的依賴關(guān)系),因此對于特征層,有
(3)
其中,f′、r′、c′分別表示F層特征、行坐標(biāo)和列坐標(biāo)。池化層中的每一個變量表示上一層對應(yīng)特征可能的取值情況,變量的取值依賴于上一層父特征節(jié)點變量的取值,在不考慮同一層變量之間的相互約束(圖7示意的側(cè)連接)時,有
(4)
其中,f、r、c分別表示H層特征、行坐標(biāo)和列坐標(biāo)。
然而,同一個特征所具有的不同形變由于依賴于上一層對應(yīng)的父特征節(jié)點變量的取值,因此不同位移、形變之間實際上存在相互約束,考慮到這一點,池化層可以建模為:
(5)
式(5)表示每一個池化層的節(jié)點受它對應(yīng)特征節(jié)點取值的影響。
考慮到部件輪廓結(jié)構(gòu)簡單,故建立包含兩個特征層和兩個池化層的網(wǎng)絡(luò)進行描述,如圖7所示(C=2)。其中第一個特征層表示輪廓上不同方向的邊緣段,第一個池化層表示每個邊緣可能存在的不同位移變化和方向變化;而第二個特征層表示由邊緣構(gòu)成的輪廓,第二個池化層表示輪廓可能存在的不同狀態(tài)(形變)。
在進行部件識別時,需要先對樣本進行學(xué)習(xí)以獲得圖結(jié)構(gòu)中的特征節(jié)點、池化節(jié)點以及節(jié)點之間的約束關(guān)系,在此基礎(chǔ)上再對待識別的目標(biāo)部件進行推理識別[2]。
為了將目標(biāo)的輪廓表示為特征節(jié)點,需要提取出輪廓上各像素點的方向。本文采用16個方向不同的正負高斯濾波器對目標(biāo)圖像進行卷積,從而得到16個方向上的響應(yīng)(如圖8所示,圖8(c)和圖8(d)為其中兩個方向上的響應(yīng)),之后通過非極大值抑制將響應(yīng)最大的方向作為該像素點的方向。

(a) 原圖 (b) 二值化圖像(a) Original image (b) Binarized image
為了將邊緣離散化以便于計算推理,本文使用稀疏表示。稀疏表示采用貪婪稀疏算法最小化代價函數(shù):
Jsparse(S;X)=k|S|+logp(X|S)
(6)
其中,X為目標(biāo)圖像,S={(f1,r1,c1),…,(fn,rn,cn)}為各層不同位置上的特征集合,k為參數(shù)。貪婪稀疏算法的描述如算法4所示。其中收斂條件為整個輪廓都完成用特征節(jié)點表示或者未表示部分小于既定閾值。詳細的圖模型稀疏表示收斂性判定可參考文獻[19]。

算法4 貪婪稀疏算法Alg.4 Greedy sparse algorithm
通過將一定長度的邊緣用一個特定方向的特征節(jié)點表示,目標(biāo)輪廓可以用較少的特征節(jié)點表征,如圖9所示,其中第二列表示每個節(jié)點邊緣方向特征,第三列和第四列分別表示該特征節(jié)點在圖像中的橫、縱坐標(biāo)。

圖9 輪廓稀疏化表示Fig.9 Outline sparse representation
邊緣連續(xù)性約束學(xué)習(xí)需要計算相鄰特征節(jié)點之間的歐式距離,并將其作為節(jié)點之間的約束權(quán)重添加到模型中。最終,每個訓(xùn)練樣本會建立起表征目標(biāo)輪廓的具有權(quán)重的圖模型,如圖10所示。

圖10 輪廓圖模型Fig.10 Contour model
對樣本學(xué)習(xí)后便可以在得到的圖模型上推理出待識別目標(biāo)與訓(xùn)練樣本的匹配程度。推理過程采用最大積信念傳播方法,利用消息傳遞機制在圖模型上計算觀測到待識別圖像條件下的后驗概率,進而得到目標(biāo)輪廓與訓(xùn)練樣本的相似度。在本文網(wǎng)絡(luò)結(jié)構(gòu)中消息定義為

(7)
其中,mbu表示自下而上傳遞的消息,sj為每個特征節(jié)點可取的狀態(tài)(不同位移及形變)。
最大積信念傳播方法是一種可以在樹結(jié)構(gòu)圖模型和帶環(huán)的圖模型中都取得較好效果的推理方法。方法將學(xué)習(xí)到的圖模型表示為概率因子圖的形式,為
(8)
其中:c表示圖模型中的因子,包含了x1、x2等相互連接的變量;φc(xc)是對應(yīng)的勢能函數(shù),恒正。


(9)
其中:xci表示因子c中去掉了變量xi的其他變量;μ(xi)表示變量xi的最大邊緣估計,定義為
(10)
消息更新到變量取值收斂時或迭代到一定次數(shù)后,通過計算特征節(jié)點網(wǎng)絡(luò)的聯(lián)合概率分布可得到待識別目標(biāo)輪廓與訓(xùn)練樣本的相似度,作為識別結(jié)果。
為了能進一步識別目標(biāo)并能適應(yīng)遮擋問題,本文在部件識別的基礎(chǔ)上利用貝葉斯推理進行車輛識別。考慮到無人機觀測目標(biāo)可能存在遮擋等情形,同時為簡化問題,假設(shè)各個部件觀測相互獨立,采用樸素貝葉斯推理。
定義y∈{0,1}表示目標(biāo)框內(nèi)是否為汽車,y=1表示是,y=0表示不是。將待識別的目標(biāo)用屬性x表示為x={wheel,windowside,windowtop,windowback},其中屬性分別表示車輪、側(cè)車窗、天窗、后窗。由于觀測視角原因,表示車輪的屬性值取值為{0,1,2},其余屬性取值為{0,1},表示是否檢測到。根據(jù)樸素貝葉斯分類,是否為車的概率為
=p(wheel|y)p(windowside|y)·
p(windowtop|y)p(windowback|y)p(y)
(11)
其中,p(y)表示目標(biāo)框內(nèi)是否為車的先驗概率,這由具體場景和檢測算法的準確率決定。
通過比較p(y=1|x)與p(y=0|x)的大小推理目標(biāo)是否為車輛,若前者大,則認為是車輛,否則認為不是車輛。其中,檢測結(jié)果是車輛的概率為

=p(wheel|y=1)p(windowside|y=1)·
p(windowtop|y=1)p(windowback|y=1)·
p(y=1)
(12)
同理,可求得不是車輛的概率。
為了驗證本文提出的小樣本條件下車輛識別算法,采用不同條件下的車輛照片進行實驗,分別驗證該識別算法在視角變化、存在遮擋以及目標(biāo)車輛發(fā)生變化時的效果,并且與當(dāng)前較為流行的支持向量機(Support Vector Machine,SVM)算法的識別效果進行對比分析。
為了驗證識別算法在不同視角不同高度下的識別效果,本文選用無人機在不同視角下拍攝的含有車輛的圖像進行測試,其中概率推理所需的先驗概率均為該場景的統(tǒng)計值。
檢測結(jié)果如圖11、圖12、表1所示。其中圖11表示不同視角下的檢測和分割結(jié)果,圖12表示車輛部件檢測的結(jié)果以及利用貝葉斯推理得出的車輛識別結(jié)果,當(dāng)c>1時算法檢測目標(biāo)是否為車輛的結(jié)果為“是”。表1表示相機在不同視角及高度下的識別正確率。由結(jié)果可以看出,算法在不同視角、不同高度下都有較高的識別準確率。其中,側(cè)視視角下的識別更高一些,這是因為該視角可以較多地觀測并識別出車輛部件;相比之下,前下視和后下視視角下識別率較低,這是由觀測到部件較少且形變較大導(dǎo)致。

(a) 正下視(15 m) (b) 右側(cè)視(15 m) (c) 左側(cè)視(10 m) (d) 后下視(5 m) (e) 前下視(5 m)(a) Directly above(15 m) (b) Right-above(15 m) (c) Left-above(10 m) (d) Behind-above(5 m) (e) Front-above(5 m)圖11 不同視角及檢測、分割結(jié)果Fig.11 Detection and segmentation results from different perspectives

(a) c=1.45>1 (b) c=1.45>1 (c) c=3.64>1 (d) c=1.29>1

表1 不同視角及不同高度下的識別率Tab.1 Recognition rate at different viewing angles and heights
為驗證本文方法在遮擋條件下對車輛的識別效果以及在樣本數(shù)量較少時的識別效果,本文與SVM識別方法進行對比。實驗選取的測試圖像包含兩輛相似車輛,且具有不同程度的遮擋,包括自然條件下的樹木遮擋以及人為在目標(biāo)上添加的遮擋,如圖13所示。實驗中,訓(xùn)練樣本個數(shù)為10,測試樣本數(shù)為100,統(tǒng)計算法正確將車輛目標(biāo)識別出的比例。實驗結(jié)果如表2所示。

(a) 情景1 (b) 情景2 (c) 情景3 (d) 情景4(a) Scene 1 (b) Scene 2 (c) Scene 3 (d) Scene 4圖13 不同車輛以及不同遮擋率Fig.13 Different vehicles and different occlusion rates

表2 不同遮擋率下的識別率比較Tab.2 Comparison of recognition rates under different occlusion rates
從實驗結(jié)果可以看出,SVM分類方法在本實驗中的識別率較低,這是因為SVM屬于統(tǒng)計學(xué)習(xí)的算法,在對特征描述較多的目標(biāo)分類時需要大量的訓(xùn)練數(shù)據(jù),而實驗中僅用了10個樣本進行訓(xùn)練,因此效果不好。而在相同樣本數(shù)量的前提下,本文算法的識別效率更好,特別是遮擋較少時識別率較高,這是因為本文方法不依賴于大量數(shù)據(jù)訓(xùn)練(使用到的部分先驗概率在實際中可根據(jù)經(jīng)驗、統(tǒng)計知識遷移得到),同時使用更穩(wěn)定的輪廓邊緣作為目標(biāo)的表示,因此識別算法更具有適應(yīng)性。隨著遮擋率的增加,識別率逐漸下降,這是因為檢測到的部件在逐漸減少,在遮擋率為50%左右時,還可以檢測出一個或兩個部件,但遮擋率再增加時,往往難以再識別出部件。由于SVM算法和本文識別算法都屬于基于統(tǒng)計學(xué)習(xí)的方法,在訓(xùn)練和識別過程中只利用小樣本數(shù)據(jù)集,沒有參考其他大樣本數(shù)據(jù)集,所以識別率普遍不高,后續(xù)可以再進行改進。
本文提出了一種基于部件模型的小樣本車輛識別方法,該方法對車輛目標(biāo)具有很好的識別效果,并且具有一定的可解釋性。首先使用圖像分割的方法將檢測區(qū)域中的目標(biāo)進行部件分割。其次對分割的部件進行識別。考慮到部件形變情況,提出利用RCN概率圖模型方法識別部件,通過對部件輪廓用特征節(jié)點稀疏表示,并考慮輪廓特征節(jié)點的連續(xù)性約束,實現(xiàn)了對形變輪廓的較高準確率的識別。最后結(jié)合先驗概率知識,應(yīng)用貝葉斯理論根據(jù)識別出的部件輪廓推理識別目標(biāo)車輛。本文通過采用低空拍攝的圖像進行算法驗證,通過對訓(xùn)練目標(biāo)在不同視角下的圖像以及其他相似目標(biāo)車輛的圖像進行識別,并與SVM方法進行比較,證明本文提出的方法在小數(shù)據(jù)樣本下針對顏色和結(jié)構(gòu)相對規(guī)則的車輛具有較高的識別準確率,同時具有一定的泛化能力,在目標(biāo)車輛發(fā)生變化(光照變化、存在遮擋等)時,也能夠具有較好的識別效果。對于高空目標(biāo)識別,基于無人機機載高清傳感器拍攝的機載圖像,同樣可進行小樣本識別算法的訓(xùn)練和實現(xiàn),但需要進一步增加網(wǎng)絡(luò)層數(shù),并優(yōu)化推理模型。