999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

SSD網絡算法模型在車輛軸型識別中的應用

2021-09-03 02:27:04余輝敏
兵器裝備工程學報 2021年8期
關鍵詞:檢測模型

陳 銘,陳 新,余輝敏

(南京理工大學 自動化學院, 南京 210094)

1 引言

近年來我國交通運輸飛速發展,城市交通負擔不斷增加,車輛軸載日漸重型化,一方面增加了對道路的壓迫,使其不堪重負,另一方面,對于交通安全造成了極大的危害,因此實現對車輛軸型快速準確的檢測顯得尤為重要。軸型是描述車輛軸組輪胎數的重要特征量,正確識別出車輛軸型能夠判斷車輛的限載值,為超限超載治理提供重要指導[1]。

車輛軸型識別方法主要分為物理參數檢測法(壓力,壓電,光纖光柵等)和圖像識別法?,F階段,道路超限超載治理對車軸檢測主要以物理參數檢測法為主。李麗宏[2]通過測輪器(由一定間隔的12個或16個并排固定的壓力傳感器構成)判斷車輛單/雙輪,有無車軸以及是否是聯軸的信息,采樣時間加長,采樣精度改善,防作弊能力提升。梁宇[3]根據車輛通過傳感器所產生的波的形狀和時序,使用冗余輪軸識別軟件對車輛產生的波形進行數字濾波,自動識別出車輛通過傳感器時是雙聯軸還是三聯軸,解決了系統裝置故障率高和安裝困難的問題,提高道路通行效率。王琪[4]設計了一種稱重儀表,其中的數據采集單元包含了車輛軸型識別,軸組載荷估計模塊,數據采集單元的性能決定了整個儀表的稱重精度和軸型識別率,該稱重儀表大大提高了系統的容錯率,達到國家標準的鑒別要求。安亮亮[5]提出一種單軸磁傳感器測量的低成本方法,這種磁感方法在低速模式下精度較差,速度提高后精度好。Dawid[9]分析了在不同溫度和車速下,軸載傳感器的測量結果有明顯的差異,表明這種以傳感器為主的物理參數檢測法受環境溫度和車輛速度影響。

近年來隨著計算機各方面技術的快速發展,卷積神經網絡被越來越多的應用在了機器視覺領域。大量學者將卷積神經網絡應用于識別車輛車型。黃燦[7]通過將車輛目標區域尺度特征進行尺度不變特征變換(scale-invariant feature transform,SIFT),生成SIFT描述子,在保證識別迅速的基礎上提升了檢測精度。萬文利[8]設計了車輛輪廓的不相關二維方差矩陣特征,與模板的方差矩陣進行匹配分類,檢測時間減少。謝曉竹[6]論述了單一分類器無法對車輛識別方面精度不夠的問題,提出融合多種分類器對車輛進行識別的觀點。徐丙立[12]基于kinect深度圖像,設計了在無人平臺實現自動避障功能的小車,小車針對周邊障礙物能夠進行有效識別?,F階段圖像識別方法主要應用于車輛外觀檢測,而在道路超限超載檢測中需要對車輛軸型進行精細化識別,才能準確地判斷車輛限載值。

本文應用卷積神經網絡中的Single Shot Multibox Detection(SSD)算法模型進行軸型識別[10]。首先利用開源數據集Pascal VOC2007對模型進行預訓練得到參數權重,然后用車輛軸型數據集對模型進行二次訓練,得到訓練好的SSD模型。最后在需要進行稱重識別的高速路口,港口碼頭等地安裝正確角度攝像頭獲取實時數據,送入模型識別。該方法擺脫了道路上的線圈、壓電等硬件傳感器設備,通過正確角度的攝像頭進行識別,識別準確率得到保障,算法時延低,在超限超載檢測上有很好的推廣價值。

2 GB1589—2016標準與軸型分類

2016年7月國家標準委正式批準發布強制性國家標準《汽車、掛車及汽車列車外廓尺寸、軸荷及質量限值》(GB1589—2016)該標準規定了車輛限載值,車輛的軸荷載以及路橋超限承載的管理辦法,主要體現在:

1) 二軸貨車載貨后總重在18噸以內,同時應不超過行駛證注明的總質量;

2) 除驅動軸外,二軸、三軸貨車每減少一對輪胎,載重量限制值減少3 t;

3) 驅動軸為每軸每側雙輪胎且裝備空氣懸架時,3軸貨車載重量限制值增加1 t。

車輛每根軸都有不同作用,特征也不盡相同,如表1。

將車輛的各個軸組合起來后進行細分如表2所示,每一種軸型都有相應的限載值,執法部門通過車輛軸型即可知道車輛的限載值。

表2 軸型編號細分表(以2軸,3軸為例)

2軸車輛兩根軸之間的距離要大于2 m,3軸車輛分為兩類,一類是有雙聯軸,一類是沒有雙聯軸,兩根軸之間的距離有所不同。

3 數據集建立和圖像預處理

3.1 數據集建立

神經網絡的訓練過程需要時間,對計算機的內存要求高,由于車輛軸型數據集數據量不如開源數據集多,訓練效果不會達到最佳,所以在使用車輛軸型數據集訓練前,使用標準數據集Pascal VOC2007對模型進行訓練會使后續訓練效果更好。

1) 預訓練(一次訓練)采用Pascal VOC2007數據集。作為標準數據集,Pascal VOC2007 是許多常用算法如Faster RCNN,Yolo等的演示樣例,具備一定的權威性。其中包含訓練集(五千余幅),測試集(四千九百余幅),包含20個種類,VOC2007數據集標注清晰,位置及分類信息全面,便于后續的檢測展開;

2) 二次訓練使用車輛軸型數據集。車輛軸型數據集采集了Comp Cars和Stanford Cars這兩個開源車輛數據集內關于車輛軸型的圖片。在貨車車輛出沒較多的地點拍攝了大量車輛軸型的清晰圖片。整合后的數據量達到了640張。通過數據增廣技術將數據集擴充到1 000張。

3.2 圖像預處理和圖像標記

為了獲得更好的檢測效果,采用圖像灰度化的方法降低噪聲。彩色圖像中的像素有紅(R),綠(G),藍(B)3個分量,取值范圍為[0,255]。最佳RGB比值是0.3∶0.59∶0.11。得到灰度化的圖片的公式如式(1)、式(2)所示,Vgray為分量的強度值。

Vgray=0.3R+0.59G+0.11B

(1)

R=G=B=Vgray

(2)

對圖像進行預處理后需要對圖像進行標記,標記步驟如下:

1) 找到車輛軸型的位置,判斷車輛屬于哪一種軸型;

2) 打開LabelImg標注工具用鼠標框出需要識別的位置;

3) 記錄該張圖片車輛的軸型內容,標記完成后會生成標記文件。

標記示意圖如圖1。

圖1 可清晰反映車輛側面特征的圖像標志示意圖

數據標記完成后,按照9∶1的比例分配訓練集和測試集。

4 SSD算法模型

4.1 SSD算法模型原理

卷積神經網絡(convolutional neural network,CNN)目前已成功應用在圖片分類、目標檢測、目標跟蹤等相關領域中[11]。本次車輛軸型識別工作采用SSD網絡組建模型。其核心理念有3條:

1) 采用不同大小的特征圖,不同大小的特征圖可以檢測不同大小的目標,有利于捕捉不同尺度的目標;

2) 設置預測框(Default boxes),預測框是在每個特征圖上的每一點選取不同長寬比的選框,每個預測框的大小可以通過式(3)計算:

(3)

其中:s表示預測框的大小,m表示預測框的數量,k表示預測框的順序。

3) 采用卷積進行檢測,SSD提取檢測結果的方式是使用卷積計算提取。

使用SSD網絡算法模型進行訓練的基本步驟如下:

1) 輸入車輛軸型圖片(像素大小為300*300),送入預訓練好的分類網絡(VGG16網絡)中,獲取到不同大小的特征映射;

2) 抽取Conv4_3,Conv7,Conv8_2,Conv9_2,Conv10_2,Conv11_2層的特征圖,在這些特征圖層上面的每一個像素點構造6個不同尺度大小的預測框;

3) 將不同特征圖獲得的預測框,經過非極大值抑制(non maximum suppression,NMS)抑制錯誤框后,生成最后結果。具體過程如圖2所示。

圖2 SSD算法模型具體運算過程示意圖

非極大值抑制即局部最大搜索,抑制除極大值外的元素,在目標檢測中用來提取分數最高的窗口,模型有不同尺寸的預測框,不同預測框識別的準確度不一樣,即有不同的準確度分數,通過抑制不是極大值的預測框得到分數最高的框,抑制前后如圖3(a)和3(b)所示。

圖3 非極大值抑制(NMS)前后狀態圖Fig 3 State diagram before and after (NMS) suppression by non maxima

4.2 損失函數

損失函數(Loss)是衡量模型性能優劣的重要參照。交并比(intersection over union,IOU)是損失函數中的重要概念,表示預測框和真實框的交集和并集的比值,規定只有當IOU≥0.5時,檢測正確。

SSD損失函數分為2個部分,預測框位置Lloc和類別置信度Lconf,損失函數定義為:

L(x,c,l,g)=(Lconf(x,c)+αLloc(x,l,g))/N

(4)

其中:x表示預測值;c表示概率;l表示預測框值;g表示真實框值。

預測框位置函數如式(5)所示:

(5)

類別置信度如式(6)所示:

(6)

通過歸一化指數函數(softmath)產生的第i個預測框對應類別p的概率為

(7)

5 實驗

第一步,使用Pascal VOC2007對模型進行預訓練。平均精度(average precision,AP)表示精度值大小,mAP表示IOU=0.5時的精度。預訓練后,得到的精度如表3所示,對VOC2007部分類別識別精度達到85%。

表3 SSD算法模型在VOC2007數據集上得到的模型參數(只選取部分類別展示)(%)

在預訓練之后,得到的模型參數如表4所示。

表4 預訓練后的模型參數值

預訓練完成后將車輛軸型數據集的訓練集送入模型進行二次訓練。

將模型預訓練和二次訓練損失函數下降的大小和速度做了比較,如圖4所示,發現預訓練時下降速度慢,收斂耗時長,損失函數值高,二次訓練時模型下降速度明顯加快,收斂耗時短,比預訓練時下降了1,說明采用二次訓練策略能夠明顯提升模型收斂速度,達到更好的檢測效果。

圖4 是否采用二次訓練策略的Loss值變化曲線

模型訓練完成后,得到各個軸型的訓練精度AP值如表5所示。

表5 模型訓練完成后的結果

得到訓練完的AP值后,將測試集送入模型進行測試,測試結果狀態圖如圖5所示。

圖5 SSD算法模型檢測結果狀態圖

6 結論

1) 二次訓練策略可以有效地改善模型性能,降低損失函數值,提高收斂速度;

2) 運用SSD網絡算法模型對2軸,3軸車輛軸型進行檢測,最高精度達89%。

3) SSD網絡算法模型檢測速度快,精度高,但是對于計算機的內存要求高,模型每層參數量大。后續研究應對卷積層的設置進行改進,在不降低精度和速度的條件下降低內存消耗,滿足道路實時檢測需求。

猜你喜歡
檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
小波變換在PCB缺陷檢測中的應用
主站蜘蛛池模板: 四虎在线观看视频高清无码| 久久影院一区二区h| 夜夜爽免费视频| 男女性色大片免费网站| 国产精品欧美日本韩免费一区二区三区不卡 | 欧美日韩高清| 亚洲毛片在线看| 中文字幕久久波多野结衣| 免费Aⅴ片在线观看蜜芽Tⅴ| 日韩色图在线观看| 国产精品久久自在自线观看| 久久精品亚洲热综合一区二区| 国内精品久久人妻无码大片高| a级毛片免费在线观看| 全色黄大色大片免费久久老太| 狂欢视频在线观看不卡| 特级精品毛片免费观看| 久久综合激情网| 亚洲经典在线中文字幕| 欧美.成人.综合在线| www.日韩三级| 毛片免费网址| 欧洲日本亚洲中文字幕| 欧美日韩国产综合视频在线观看| 大学生久久香蕉国产线观看| 又爽又黄又无遮挡网站| 人妻精品全国免费视频| 国产流白浆视频| 免费国产不卡午夜福在线观看| 情侣午夜国产在线一区无码| 综合五月天网| 婷婷色一二三区波多野衣| 国产日韩欧美一区二区三区在线| 国产精品亚洲片在线va| 精品黑人一区二区三区| 欧美日韩午夜| 亚洲视频免费播放| 日韩欧美网址| 夜夜拍夜夜爽| 日韩精品成人网页视频在线| 午夜精品久久久久久久99热下载 | 国产免费羞羞视频| 欧美色丁香| 欧美日韩综合网| 国产清纯在线一区二区WWW| 精品日韩亚洲欧美高清a| 香蕉久久国产超碰青草| 丁香五月婷婷激情基地| 国产精品无码在线看| 国产手机在线观看| 91成人精品视频| 久久大香香蕉国产免费网站| 国产高清无码第一十页在线观看| 精品国产自在现线看久久| 国产福利小视频高清在线观看| 超级碰免费视频91| 九色综合伊人久久富二代| 57pao国产成视频免费播放 | 色婷婷在线播放| 久久亚洲黄色视频| 伊人久久综在合线亚洲91| 午夜免费小视频| 一级毛片基地| 一本大道香蕉中文日本不卡高清二区| 亚洲精品无码av中文字幕| 少妇极品熟妇人妻专区视频| 欧美综合激情| 99re热精品视频中文字幕不卡| 天天做天天爱夜夜爽毛片毛片| 国产一级片网址| 成人福利视频网| 任我操在线视频| 亚洲精品图区| 久久青草视频| 国产专区综合另类日韩一区 | 天天摸天天操免费播放小视频| 中文字幕精品一区二区三区视频| 粗大猛烈进出高潮视频无码| 园内精品自拍视频在线播放| 午夜精品区| 色综合婷婷| 国产成人精品优优av|