999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于證據(jù)特征融合的車輛可信化識(shí)別方法研究

2023-02-17 07:34:36楊浩杰劉放美
自動(dòng)化與儀表 2023年1期
關(guān)鍵詞:分類特征融合

王 璐,楊浩杰,劉放美

(1.鐵道警察學(xué)院 圖像與網(wǎng)絡(luò)偵查系,鄭州 450053;2.鄭州輕工業(yè)大學(xué) 軟件學(xué)院,鄭州 450002)

隨著經(jīng)濟(jì)社會(huì)的不斷進(jìn)步和日益發(fā)展,車輛的保有量和使用量也逐漸提高,隨之而來(lái)的就是復(fù)雜的道路交通狀況以及頻發(fā)的道路交通事故,這不但給人們的交通出行造成了嚴(yán)重的影響,也給公安交通管理部門的道路交通安全監(jiān)管帶來(lái)了嚴(yán)峻的挑戰(zhàn)[1-2]。因而,車輛的有效監(jiān)管成為了道路交通安全領(lǐng)域的一項(xiàng)重要研究?jī)?nèi)容,而對(duì)車輛的精準(zhǔn)化識(shí)別則成為了車輛監(jiān)管過(guò)程中的一個(gè)關(guān)鍵。

1 現(xiàn)狀分析

在車輛目標(biāo)的識(shí)別方面,文獻(xiàn)[3]結(jié)合梅爾倒譜系數(shù)特征提取方法,提出了一種加權(quán)的基頻自適應(yīng)特征提取算法,通過(guò)對(duì)梅爾倒譜系數(shù)進(jìn)行自適應(yīng)的加權(quán),提升了車輛識(shí)別過(guò)程中所提取特征的魯棒性。文獻(xiàn)[4]基于隨機(jī)游走推理模型,對(duì)高速公路上的風(fēng)險(xiǎn)車輛進(jìn)行了知識(shí)推理,通過(guò)知識(shí)圖譜的建模形式構(gòu)建了高速公路風(fēng)險(xiǎn)車輛推理模型,提高了告訴高速風(fēng)險(xiǎn)車輛的識(shí)別性能。文獻(xiàn)[5]基于細(xì)粒度圖像分類方法,采用深度可分離卷積技術(shù),對(duì)圖像特征進(jìn)行了多樣化和局部化的特征檢測(cè),實(shí)現(xiàn)了對(duì)車輛目標(biāo)的有效識(shí)別。文獻(xiàn)[6]針對(duì)車輛類型識(shí)別率較低的實(shí)際問(wèn)題,以ResNet18 網(wǎng)絡(luò)作為骨干網(wǎng)絡(luò),提出了一種基于多級(jí)特征融合的車輛識(shí)別方法,并對(duì)損失函數(shù)進(jìn)行了優(yōu)化和改進(jìn)。文獻(xiàn)[7]針對(duì)多視點(diǎn)車輛識(shí)別問(wèn)題,設(shè)計(jì)了一種基于交叉視距度量的視點(diǎn)自適應(yīng)網(wǎng)絡(luò),通過(guò)構(gòu)造交叉視圖度量模塊,進(jìn)而提高了車輛識(shí)別的精準(zhǔn)度。

上述方法在車輛識(shí)別問(wèn)題中都能夠體現(xiàn)出較為優(yōu)越的識(shí)別性能,但當(dāng)前關(guān)于車輛識(shí)別的方法往往都是一次性的,在車輛信息多源化的復(fù)雜環(huán)境下,車輛目標(biāo)的相關(guān)特征量和特征參數(shù)都存在著一定的不確定性,這在影響車輛目標(biāo)識(shí)別的準(zhǔn)確性的同時(shí),也會(huì)對(duì)所識(shí)別出的目標(biāo)身份的可信度問(wèn)題帶來(lái)了一定的挑戰(zhàn)。針對(duì)這一問(wèn)題,本文在深入研究集成分類模型的基礎(chǔ)上,提出了一種基于證據(jù)特征融合的車輛可信化識(shí)別方法,通過(guò)證據(jù)特征的深層次可信式融合,進(jìn)而提升車輛識(shí)別的準(zhǔn)確性和可信度。

2 集成分類模型

本文在具體設(shè)計(jì)上,以并行神經(jīng)網(wǎng)絡(luò)為架構(gòu),構(gòu)建如圖1 所示的基于神經(jīng)網(wǎng)絡(luò)的集成分類模型。

圖1 集成分類模型拓?fù)浣Y(jié)構(gòu)示意圖Fig.1 Schematic diagram of integrated classification model topology

從該圖中可以看出,所構(gòu)建的集成分類模型拓?fù)浣Y(jié)構(gòu)中,以待識(shí)別目標(biāo)的n 個(gè)主要識(shí)別特征Xp=[X1,X2,X3,…,Xn]T作為神經(jīng)網(wǎng)絡(luò)的輸入樣本向量集,構(gòu)成其輸入層I 的n 個(gè)輸入神經(jīng)元,待識(shí)別目標(biāo)的m 種目標(biāo)類型Yp= [Y1,Y2,Y3,…,Ym]T作為神經(jīng)網(wǎng)絡(luò)的輸出向量值,構(gòu)成其輸出層K 的m 個(gè)輸出神經(jīng)元。首先考慮單個(gè)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練模型,設(shè)(t)、(t)分別為第t 次網(wǎng)絡(luò)迭代時(shí)輸入層I 到隱層J 的權(quán)值向量和閾值向量,(t)、(t)為第t 次網(wǎng)絡(luò)迭代時(shí)隱層J 到輸出層K 的權(quán)值向量和閾值向量,并且有:

式中:i=1,2,…,n;j=1,2,…,l;k=1,2,…,m;n 為輸入層節(jié)點(diǎn)數(shù),l 為隱層節(jié)點(diǎn)數(shù),m 為輸出層節(jié)點(diǎn)數(shù)。

對(duì)于輸入的樣本向量Xp,使用式(3)前向計(jì)算神經(jīng)網(wǎng)絡(luò)每層神經(jīng)元的輸入信號(hào)和激勵(lì)輸出信號(hào),輸出層K 所得到的激勵(lì)輸出信號(hào)即為神經(jīng)網(wǎng)絡(luò)的實(shí)際輸出向量YOp= [YO1,YO2,YO3,…,YOm]T。根據(jù)所求得的實(shí)際輸出YOp和期望輸出Yp,反向計(jì)算輸出層K 和隱層J 的局部梯度δKk(t)和δJj(t):

然后,根據(jù)所求得的δKk(t)和δjJ(t),并采用加入動(dòng)量因子的方法,計(jì)算權(quán)值修正量Δω 和閾值修正量Δb,并對(duì)權(quán)值ω 和閾值b 進(jìn)行修正。對(duì)于輸出層,有:

而對(duì)于隱層,則有:

式中:η 為學(xué)習(xí)速率;α 為動(dòng)量因子。

根據(jù)上述的網(wǎng)絡(luò)迭代學(xué)習(xí)訓(xùn)練過(guò)程,對(duì)兩個(gè)神經(jīng)網(wǎng)絡(luò)進(jìn)行并行式的迭代訓(xùn)練。網(wǎng)絡(luò)訓(xùn)練完成后,保存訓(xùn)練好的權(quán)重值以及閾值等網(wǎng)絡(luò)參數(shù)。由于兩個(gè)不同神經(jīng)網(wǎng)絡(luò)的初始權(quán)重值ω 和閾值b 設(shè)置的隨機(jī)性以及網(wǎng)絡(luò)訓(xùn)練過(guò)程的迭代性,對(duì)于兩個(gè)不同神經(jīng)網(wǎng)絡(luò)而言,所訓(xùn)練好的帶有神經(jīng)網(wǎng)絡(luò)分類識(shí)別功能信息的網(wǎng)絡(luò)參數(shù)集也將會(huì)不同。

而在使用該網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行分類識(shí)別時(shí),根據(jù)集成分類模型的拓?fù)浣Y(jié)構(gòu)特點(diǎn),將神經(jīng)網(wǎng)絡(luò)作為基分類器,并以X= [X1,X2,X3,…,Xn]T為主要識(shí)別特征的待識(shí)別目標(biāo)分別輸入到兩個(gè)基分類器的輸入層,使其各自使用訓(xùn)練好的網(wǎng)絡(luò)參數(shù)集和對(duì)待識(shí)別目標(biāo)進(jìn)行初步的分類識(shí)別,并在輸出層分別得到初步的目標(biāo)分類識(shí)別結(jié)果集Y1= [YBPA1_1,YBPA1_2,YBPA1_3,…,YBPA1_m]T和Y2= [YBPA2_1,YBPA2_2,YBPA2_3,…,YBPA2_m]T。該目標(biāo)分類識(shí)別結(jié)果集作為神經(jīng)網(wǎng)絡(luò)的輸出結(jié)果,也將作為證據(jù)特征的形式,進(jìn)行后續(xù)的證據(jù)特征的融合處理。

3 證據(jù)特征融合模型

基于集成分類模型所得到的證據(jù)特征結(jié)果,可將其進(jìn)行進(jìn)一步的融合式的集成處理。本文采用D-S 證據(jù)理論[8]的思想,通過(guò)對(duì)證據(jù)特征的深入融合,進(jìn)而對(duì)集成分類模型進(jìn)行優(yōu)化。

3.1 證據(jù)特征融合理論

設(shè)辨識(shí)框架Θ 為非空有限集,且其集合中的元素兩兩互斥。冪集Θ 及其所有子集所組成的集合為2Θ。因而,則可以定義基本概率分配函數(shù)(BPA)為函數(shù)M:2Θ→[0,1],且滿足:①對(duì)于空集?,有m(?)=0;②對(duì)于?A∈2Θ,ΣAm(A)=1。而對(duì)于所給定的某個(gè)待分類數(shù)據(jù)樣本i,則辨識(shí)框架Θ 內(nèi)的各個(gè)子集Al將會(huì)被賦值為mi(Al)(Al∈2Θ,l=1,2,…,2N),該值表示待分類數(shù)據(jù)樣本與各個(gè)目標(biāo)類型的匹配程度。設(shè)A1,A2,…,An是同一識(shí)別框架Θ 上的證據(jù)子集,m1,m2,…,mn分別是其所對(duì)應(yīng)的基本概率分配函數(shù),則有:

其中,K 的表達(dá)式為

辨識(shí)框架Θ 中的任意子集Ai的證據(jù)可以合成A=A1∩A2∩…∩An的證據(jù),亦即其正交和A=A1+A2+…+An。mi(Ai)表示對(duì)假設(shè)子集Ai的支持程度。如果A=?,則表明這n 個(gè)證據(jù)是沖突的,且有m(A)=0。K 表示n 個(gè)證據(jù)之間的沖突程度。

3.2 歸一化處理

在集成分類模型中,采用均方誤差ERMSE表征模型對(duì)待識(shí)別目標(biāo)的識(shí)別精準(zhǔn)度,從而在進(jìn)行歸一化構(gòu)造基本概率分派函數(shù)的過(guò)程中,將ERMSE指定為不確定信息的度量,則可設(shè)置不確定性子集的m(Θ)=ERMSE??紤]到m 值較大時(shí),其指數(shù)級(jí)的計(jì)算量也隨之劇增的情況,本文只將組合后的BPA 分配給m個(gè)待識(shí)別目標(biāo)類型和全集Θ,而m(Θ)則表示的是對(duì)“不確定是哪類目標(biāo)”這一假設(shè)的支持程度。

根據(jù)集成分類模型的期望輸出和實(shí)際輸出,有ERMSE為

設(shè)YOp_new為歸一化后的輸出向量集,則有:

則對(duì)實(shí)際輸出Y= [Y1,Y2,Y3,…,Ym]T,有:

3.3 證據(jù)特征融合

設(shè)Z1和Z2分別是m1(·)和m2(·)所對(duì)應(yīng)的辨識(shí)框架Y1={Y1_1,Y1_2,Y1_3,…,Y1_m,Θ1}和Y2={Y2_1,Y2_2,Y2_3,…,Y2_m,Θ2}上的兩個(gè)證據(jù)子集,則根據(jù)歸一化處理后的證據(jù)特征Y1(i)=[Y1_1(i),Y1_2(i),Y1_3(i),…,Y1_m(i)]T以及Y2(i)=[Y2_1(i),Y2_2(i),Y2_3(i),…,Y2_m(i)]T,可對(duì)其證據(jù)特征的融合,則有:

其中有:

4 車輛可信化識(shí)別算法框架

根據(jù)前述內(nèi)容的深入分析,可進(jìn)一步將基于證據(jù)特征融合的車輛可信化算法的流程框架描述為如圖2 所示的形式。

圖2 車輛可信化識(shí)別算法流程框架Fig.2 Framework of vehicle trusted identification algorithm

5 實(shí)驗(yàn)仿真和分析

5.1 實(shí)驗(yàn)準(zhǔn)備

為了進(jìn)一步評(píng)價(jià)所提出方法的可行性,本文對(duì)其進(jìn)行了實(shí)驗(yàn)仿真的驗(yàn)證。實(shí)驗(yàn)選用汽車(Automobile)、三輪車(Tricycle)和自行車(Bicycle)三類車輛圖像作為實(shí)驗(yàn)仿真對(duì)象,由于針對(duì)這三類車輛圖像的專用數(shù)據(jù)集相對(duì)較少,因而通過(guò)網(wǎng)絡(luò)搜集的方法,自制3000 張簡(jiǎn)單背景的車輛圖像作為數(shù)據(jù)集,其中每個(gè)類別的圖像各1000 張。而為了使實(shí)驗(yàn)具有較好的統(tǒng)計(jì)效果,所采用的數(shù)據(jù)集在3 個(gè)類別車輛圖像平均分配的情況下,隨機(jī)的分為2組,一組為包含2250 個(gè)數(shù)據(jù)的訓(xùn)練集,另一組為包含750 個(gè)數(shù)據(jù)的測(cè)試集。

同時(shí),使用2 個(gè)基分類器以及本文所提出的可信化識(shí)別方法進(jìn)行對(duì)比分析,仿真結(jié)果觀察各種不同的方法在車輛目標(biāo)識(shí)別中的性能和效果。

5.2 實(shí)驗(yàn)結(jié)果的分析和討論

按照上述設(shè)計(jì)方法,進(jìn)行10 次仿真實(shí)驗(yàn),每次仿真從數(shù)據(jù)集中隨機(jī)選擇數(shù)據(jù)。采用統(tǒng)計(jì)分析的方法對(duì)10 次實(shí)驗(yàn)的仿真結(jié)果進(jìn)行統(tǒng)計(jì),各類型目標(biāo)不同方法的識(shí)別準(zhǔn)確率仿真實(shí)驗(yàn)統(tǒng)計(jì)結(jié)果如圖3~圖5 所示。

從圖3~圖5 可以看出,對(duì)于汽車(Automobile)、三輪車(Tricycle)和自行車(Bicycle)三類不同的車輛圖像目標(biāo),本文所提出的方法相較于基分類器1和基分類器2 而言,在識(shí)別準(zhǔn)確率方面都能夠表現(xiàn)出較為明顯的提高,進(jìn)一步說(shuō)明本文所提方法能夠較為有效地提升車輛目標(biāo)的可信化識(shí)別性能。

圖3 車輛目標(biāo)(汽車)識(shí)別準(zhǔn)確率Fig.3 Vehicle target(Automobile) recognition accuracy

圖4 車輛目標(biāo)(三輪車)識(shí)別準(zhǔn)確率Fig.4 Vehicle target(Tricycle) recognition accuracy

圖5 車輛目標(biāo)(自行車)識(shí)別準(zhǔn)確率Fig.5 Vehicle target(Bicycle) recognition accuracy

為了更為定量地分析本文所提方法在三類不同車輛圖像目標(biāo)的準(zhǔn)確率提升情況,圖6~圖8 所示為所提方法相較于基分類器1 和基分類器2 的識(shí)別準(zhǔn)確率提高之百分比的仿真對(duì)比統(tǒng)計(jì)圖,其中的準(zhǔn)確率提高百分比的計(jì)算方法為

圖6 準(zhǔn)確率提高對(duì)比統(tǒng)計(jì)圖(汽車)Fig.6 Comparison statistics of accuracy improvement(Automobile)

圖7 準(zhǔn)確率提高對(duì)比統(tǒng)計(jì)圖(三輪車)Fig.7 Comparison statistics of accuracy improvement(Tricycle)

圖8 準(zhǔn)確率提高對(duì)比統(tǒng)計(jì)圖(自行車)Fig.8 Comparison statistics of accuracy improvement(Bicycle)

從圖6~圖8 中可以更為清晰地分析出本文所提出的方法在三類不同車輛目標(biāo)的識(shí)別準(zhǔn)確率方面的提升程度??梢钥闯?,相比較于三類不同車輛目標(biāo)的識(shí)別準(zhǔn)確率而言,本文方法比兩個(gè)不同基分類器的識(shí)別準(zhǔn)確率都有所提升。由于進(jìn)行10 次仿真實(shí)驗(yàn)所涉及的訓(xùn)練集和測(cè)試集是按照三類車輛目標(biāo)平均分配的原則而隨機(jī)選取的,所以10 次仿真實(shí)驗(yàn)的識(shí)別準(zhǔn)確率提升情況也在一定的幅度范圍內(nèi)表現(xiàn)出了些許差異,這也更進(jìn)一步說(shuō)明本文方法在隨機(jī)數(shù)據(jù)集的情況下,仍能表現(xiàn)出較好的識(shí)別效果,進(jìn)而能夠有效地提高車輛目標(biāo)的可信化識(shí)別性能。

如表1 所示為本文方法的識(shí)別準(zhǔn)確率提高的數(shù)值統(tǒng)計(jì)結(jié)果。該表中給出了本文方法在三類車輛目標(biāo)的識(shí)別準(zhǔn)確率提升度的統(tǒng)計(jì)數(shù)據(jù),分別為三類目標(biāo)識(shí)別準(zhǔn)確率提升度的最高值、最低值和平均值。從其平均值的角度,本文方法相較于兩個(gè)基分類器,能夠有效地提高各類目標(biāo)的識(shí)別準(zhǔn)確率。同時(shí),本文方法所分類出的不確定目標(biāo),還可使用相關(guān)方法對(duì)其進(jìn)行進(jìn)一步的目標(biāo)分類識(shí)別,從而體現(xiàn)出本文方法在提升目標(biāo)識(shí)別準(zhǔn)確率和處理不確定分類目標(biāo)兩個(gè)方面的優(yōu)勢(shì)。

表1 本文方法識(shí)別準(zhǔn)確率提升度統(tǒng)計(jì)表Tab.1 Statistical table of recognition accuracy improvement of the proposed method

6 結(jié)語(yǔ)

針對(duì)當(dāng)前復(fù)雜交通場(chǎng)景下的車輛可信化識(shí)別以及道路交通安全監(jiān)管的實(shí)際需求,本文提出了一種基于證據(jù)特征融合的車輛可信化識(shí)別方法。在所構(gòu)建的集成分類模型的基礎(chǔ)上,設(shè)計(jì)了證據(jù)特征融合算法,通過(guò)對(duì)證據(jù)特征的可信化融合,提升了車輛特征的表達(dá)能力和車輛識(shí)別的可信度。仿真分析結(jié)果表明,本文所提出的車輛可信化識(shí)別方法能夠有效地提高待識(shí)別車輛目標(biāo)的識(shí)別準(zhǔn)確率及其可信度,從而為車輛目標(biāo)的識(shí)別提供了更為高效性和可信性的保障,也為對(duì)不確定分類目標(biāo)的進(jìn)一步處理提供了可靠性依據(jù)。在本文的基礎(chǔ)上,下一步的工作重點(diǎn)將針對(duì)不確定分類的目標(biāo)進(jìn)行進(jìn)一步的可信化識(shí)別方面的研究,進(jìn)而更為有效地提升車輛目標(biāo)識(shí)別的精準(zhǔn)度。

猜你喜歡
分類特征融合
村企黨建聯(lián)建融合共贏
融合菜
分類算一算
從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
《融合》
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
分類討論求坐標(biāo)
數(shù)據(jù)分析中的分類討論
教你一招:數(shù)的分類
主站蜘蛛池模板: 欧美福利在线| 99视频国产精品| 99精品福利视频| 亚洲精品自拍区在线观看| 1024国产在线| 亚洲国产清纯| 色婷婷亚洲综合五月| 亚洲一区第一页| 日本黄色a视频| 国产精品对白刺激| 日本国产精品一区久久久| 国产微拍精品| 国产精品自在自线免费观看| 欧美天堂在线| 精品综合久久久久久97超人该| 国产美女叼嘿视频免费看| 亚洲人成网7777777国产| 亚洲精品中文字幕午夜| 国内精品久久人妻无码大片高| AV老司机AV天堂| av色爱 天堂网| 国产激情无码一区二区APP | 亚洲第一页在线观看| 久草性视频| 99久久精品久久久久久婷婷| 久久午夜夜伦鲁鲁片不卡| 香蕉网久久| 国产香蕉在线视频| 久久久久久午夜精品| 国产在线一二三区| 综合天天色| 成人国产一区二区三区| 福利在线不卡| 老色鬼欧美精品| 精品福利网| 91精品亚洲| 成人日韩精品| 国产一区二区福利| 成人小视频在线观看免费| 无码人妻免费| 高清乱码精品福利在线视频| 99视频精品在线观看| AV在线天堂进入| 国产三级成人| 国产亚洲欧美在线中文bt天堂| 国产毛片片精品天天看视频| 永久天堂网Av| 免费国产黄线在线观看| 久久综合五月婷婷| 亚洲三级a| 国产成人高精品免费视频| 999在线免费视频| 久久精品人人做人人爽电影蜜月| 又黄又爽视频好爽视频| av在线5g无码天天| 亚洲色图欧美| 97久久精品人人| 国产成人综合久久精品下载| 日韩精品专区免费无码aⅴ| 玖玖精品在线| 人与鲁专区| 欧洲日本亚洲中文字幕| 亚洲福利视频一区二区| 精品欧美日韩国产日漫一区不卡| 免费国产无遮挡又黄又爽| av大片在线无码免费| 日韩欧美国产中文| 国产地址二永久伊甸园| 国产免费好大好硬视频| 波多野结衣在线一区二区| 欧美成人一区午夜福利在线| 国产亚洲精品无码专| 一级毛片在线直接观看| 欧美一级黄色影院| 精品久久香蕉国产线看观看gif| 国产三级成人| 国产不卡在线看| 亚洲v日韩v欧美在线观看| 欧美日韩国产在线观看一区二区三区| 国产正在播放| 国产激爽爽爽大片在线观看| 免费a级毛片视频|