999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于YOLOV3前方車輛識別與距離估計

2021-09-10 10:45:53敖宏偉陳學文宋雨俏
交通科技與管理 2021年18期

敖宏偉 陳學文 宋雨俏

摘 要:本文首先采集車輛數據進行標注訓練,利用YOLOV3識別框選出前方車輛,并采用單幀靜態圖像的測距模型來實現前方車輛距離的測量,即通過CCD攝像機幀存坐標和像平面坐標系統的轉換,并根據車道線兩點實時測量攝像機高度,結合小孔成像模型原理與車道線前后兩點來實現單目視覺測距。

關鍵詞:視覺信號;YOLOV3;小孔成像;單目視覺測距

隨著人工智能的發展,汽車安全輔助駕駛技術的研究受到各國的普遍關注,汽車在給人們的生活提供無限便利的同時,也帶來了交通出行的安全性問題[1],其中安全車距預警系統作為重要組成部分,長期以來一直受到高度重視,目標的識別和測距作為在視覺研究領域中的前方車輛安全車距預警的核心課題,在智能交通、視頻監控、機器人導航及人機交互等諸多領域都受到了廣泛的關注。

1 前方車輛的識別

1.1 圖像標注

在計算機視覺中,圖像標注作為最重要的工作之一,在現如今大量應用程序當中,計算機視覺本質上是擁有一雙基于視覺信號的眼睛,去看見世界和解讀世界。當下機器學習已經應用到各個領域,例如增強現實技術、神經網絡翻譯與語音自動識別技術等。同時,計算機視覺在技術層面也給人們帶來了諸多體驗,例如面部識別、無人機、無人駕駛汽車等。labelme可對圖像進行多邊形,矩形,圓形,多段線,線段,點形式的標注,可用于目標檢測,圖像分割,等任務。COCO數據集中一共有80種常見的物種類別,但本文只需精確的識別出前方車輛,因此需要重新在darknet框架下訓練出只識別車輛的數據集,我們首先實地獲取車輛圖片數據之后,對其進行分割標注,總共采集了三千張車輛圖片,來為后續的訓練作準備。

1.2 訓練樣本

訓練數據是個漫長又復雜的操作過程,首先進行圖像采集,然后對應特征點打好標簽,即人工標注,待操作完成后,即可獲得訓練之前所必需的關于圖像特征描述的數據集,以“樣本”形式參與后續的訓練工作,為了使樣本不容易出現過度擬合的情況,需令樣本足夠大,重復率低,樣本越大,得到準確結果的概率也就越大,同時也要能代表需求領域??偟膩碚f,網絡訓練是一個優化問題,在高維參數空間中尋找使得損失函數取值最小的點作為網絡的最優解,在得到標注后的圖像數據后,我們在darknet框架下進行訓練生成權重。

1.3 車輛識別

YOLO算法作為兼具性能和準確性的檢測算法,近年來得到了廣泛應用[2],速度可達20fps,可以進行實時檢測,因此本文選擇YOLOV3網絡作為車輛檢測網絡。YOLO網絡經過三個版本的迭代,不僅對小目標的檢測越來越好,其檢測精度和系統反應速率也上升到了一個新的層次,對目標直接進行回歸是其基本思想,YOLOV3不僅能很好的識別出前方車輛,且實時性較好。

2 單目視覺測距模型

所謂基于單目視覺的圖像采集,是將三維空間的物體投影到攝相機的二維光感平面上,即CCD光敏矩陣表面,在單目視覺測距算法中,我們通常把攝像機參數分為內部參數和外部參數,攝像機內部的幾何特征和光學特征我們稱之為內部參數,該參數不隨攝像機的移動而改變,攝像機像平面相對于世界坐標系的三維位置和朝向我們稱之為外部參數,該參數隨著攝像機移動而變化,需要重新進行標定,傳統的單目測距算法,基于小孔成像原理的測距模型,往往需要待測物體的實際尺寸,這樣的條件太過理想且現實無法滿足,因此本文采用基于單幀靜態圖像的測距模型來對前方車輛進行實時距離估計。由于計算機所需要的參數均為內部參數,因此只要在離線狀態下標定出攝像機的內部參數,就可以在車輛運動過程中進行前方車距的實時測量[3]。

3 前方車輛距離的測量

建立數學模型:

(1)

(2)

式中,u,v由圖像處理得到,O1(u0,v0)是CCD攝像機光軸與像平面交點(x0,y0)的幀存坐標:

x0=y0=0 (3)

將三式聯立代入得距離:

(4)

通常我們將車道線檢測的方法主要分為兩類:基于特征的車道線檢測方法和基于模型的車道線檢測方法。我們根據圖像處理得到前后兩點d1、d2,p1、p2的計算公式如下:

(5)

(6)

(7)

由此可得攝像機高度:

(8)

(9)

當通過攝像機標定得到內部參數ay=667和后,經過圖像處理像素的大小為410像素*378像素,通過相似三角形轉換公式便可求出三維空間內物體在圖像平面上任意一像素點,對應的三維空間內一點到攝像機的縱向距離。其中通過相機標定得到CCD攝像機的鏡頭焦距為676 mm,根據給出的攝像機內部參數及相似三角形測距模型所需參數,對前方車輛進行實時距離估計,路試試驗如下圖所示:

4 總結與展望

本文在YOLOV3框架下對前方車輛進行識別,框選出識別車輛,并提取單幀靜態圖像,通過CCD攝像機幀存坐標和像平面坐標系統的轉換,結合小孔成像原理對前方車輛距離估計,基本滿足實時性和精度的要求,機器視覺測距雖然有不可代替的優勢,但是在自身仍有很多問題需要克服,例如光照條件的不足、相機自身抖動等問題,因此在未來幾年,機器視覺測距依然面臨著很大的挑戰。

參考文獻:

[1]黃同愿,楊雪姣,向國徽,等.基于單目視覺的小目標行人檢測與測距研究[J].計算機科學,2020,47(11):205-211.

[2]張玉鵬.基于卷積神經網絡的車輛檢測與測距[D].北京郵電大學,2019.

[3]田傲霜,陳華清,陳學文.車道偏離預警系統研究綜述[J].汽車實用技術,2020,45(23):30-32.

主站蜘蛛池模板: 国产在线日本| 国产精品成人免费综合| 欧美色丁香| 99久久国产综合精品女同| av一区二区三区在线观看| 在线欧美国产| 国产三级国产精品国产普男人| 亚洲欧美不卡| 欧美在线视频不卡| 欧美日韩国产在线播放| 亚洲综合色吧| 免费av一区二区三区在线| 亚洲一级毛片免费观看| 蜜臀av性久久久久蜜臀aⅴ麻豆| 国产精品人成在线播放| 99久久精品国产自免费| 久久亚洲国产一区二区| 91最新精品视频发布页| 日韩专区欧美| 无码高清专区| 巨熟乳波霸若妻中文观看免费| 动漫精品啪啪一区二区三区| 无码精品国产VA在线观看DVD| a级毛片网| 日韩无码白| 亚洲a级在线观看| 国产十八禁在线观看免费| 在线视频97| 亚洲视频二| 国产JIZzJIzz视频全部免费| 全部免费毛片免费播放| 无码国产伊人| 这里只有精品在线播放| 久久久久国产一区二区| 国产成人精品一区二区不卡| 内射人妻无码色AV天堂| 97在线免费| 精品国产99久久| 成人夜夜嗨| 亚洲第一成年人网站| 尤物午夜福利视频| 欧美在线伊人| 精品国产免费观看一区| 大陆国产精品视频| 最新国产精品第1页| 亚洲五月激情网| 亚洲av日韩av制服丝袜| 色呦呦手机在线精品| 日韩免费视频播播| 亚洲国内精品自在自线官| 亚洲天堂视频在线观看免费| av一区二区无码在线| 日韩精品成人在线| 欧美三级日韩三级| 国产亚洲精品资源在线26u| 日韩欧美中文在线| 久久永久精品免费视频| 1024国产在线| 久久免费视频6| 日本精品一在线观看视频| 成人国产精品2021| 国产超薄肉色丝袜网站| 国产日韩欧美视频| 亚洲国产精品一区二区第一页免 | 国产国模一区二区三区四区| 亚洲性影院| 欧美精品亚洲二区| 国产日本视频91| 亚洲午夜福利精品无码不卡| 亚洲一级毛片免费观看| 午夜毛片免费观看视频 | 激情亚洲天堂| 国产成人精品视频一区二区电影| 国产成人精品一区二区三区| 91精品日韩人妻无码久久| 久久网综合| 国产精品丝袜视频| 国产xx在线观看| 国产va视频| 欧美69视频在线| 欧美精品成人| 国产成人1024精品下载|