999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進PilotNet的端到端無人車控制

2022-07-22 14:08:28王樹磊趙景波劉逍遙張大煒
關鍵詞:深度設計

王樹磊,趙景波,趙 杰,劉逍遙,張大煒

(常州工學院 汽車工程學院, 江蘇 常州 213032)

0 引言

端到端無人駕駛決策目前主要采用深度學習(或稱為行為克隆,behavior cloning)和強化學習兩種研究方法[7]。深度學習方法依賴預先采集的數據集。Somda等[8]最早提出端到端駕駛模型,采用的是3層全連接網絡。Chen等[9]搭建了一個6層的卷積網絡,通過安裝在機器人小車前的2個無線相機獲取的圖像進行預測,得到小車的轉向角,從而實現野外環境下的避障。Chen等[6,10]通過卷積神經網絡建立端到端控制模型PilotNet,并用于預測車輛在自動駕駛時的轉向角。Wang等[11]利用長短期記憶(long shor-term memory,LSTM)神經網絡提高了跟車模型的精度。田晟等[12]提出一種基于端到端學習的卷積神經網絡-長短時記憶(convolutional neural network-long short term memory,CNN-LSTM)多模態神經網絡模型,采用ResNet50完成方向盤轉向角的預測,采用LSTM完成車輛速度的預測,從而實現自動駕駛的橫縱向控制。

近年來,基于強化學習的方法也得到了較為廣泛的研究[13-14],該方法的出發點是通過不斷的探索和改進來學習相應的策略[15-16]。這種方式不需要預先采集數據集,但是高度依賴自動駕駛仿真工具[16],如CARLA,車輛在這種仿真環境中不斷地“進化”。黃志清等[3]基于DDPG(deep deterministic policy gradient)的深度強化學習算法對連續型動作輸出的端到端駕駛決策展開研究,在建立端到端決策控制模型的基礎上,根據連續獲取的車輛轉向角、車輛速度、道路距離等信息,輸出駕駛動作(加速、剎車、專項)的連續控制量。陳鑫等[17]將改進深度強化學習用于汽車的自動泊車過程中的路徑規劃,所設計的網絡具有較強的規劃能力和健壯性。

本文針對一款人工智能小車,受He等[18]所設計的ResNet-v2啟發,對PilotNet網絡進行改進,通過手動遙控小車完成圖像數據的采集,并將此時對應的速度和橫擺角速度記錄下來作為標簽。接下來對網絡進行訓練,從而預測出小車在特定場景下的運動速度和轉向角,最終通過實驗證明所設計的網絡能夠較好地保證小車沿著地圖上的車道線運動。

1 數據采集與處理

使用小車為RobotCAR,如圖1所示。該小車的底盤使用基于Arduino的ATmage2560微控制器,配合4個電機驅動器、超聲波傳感器、紅外傳感器、角加速度傳感器和電子羅盤等多種傳感器,其硬件系統組成如圖2所示。

圖1 RobotCAR小車

圖2 小車硬件系統組成

該小車以深度學習開源框架百度飛槳(PaddlePaddle)為基礎,采用分布式、結構化軟件設計框架,實現數據深度學習中的采集、訓練和部署全過程。小車配有2個攝像頭,攝像頭1獲取的圖片用于預測小車的運動速度和轉向角;攝像頭2獲取的圖片用于識別交通標志。本文重點針對攝像頭1獲取的數據進行處理,以便完成小車沿車道行駛時的縱向和橫向控制。

小車的跑道如圖3所示。

圖3 跑道示意圖

獲取數據時,用手柄控制小車在跑道內移動,通過攝像頭1采集跑道圖像,攝像頭的分辨率為424×240,并將手柄發出的小車速度信號和轉向角速度信號記錄下來,作為訓練時的標簽。小車沿跑道運動1圈,可以采集到2 000多幅圖像和相應的標簽。之后,從其中抽出90%作為訓練集,10%作為測試集。

采用SPSS 23.0統計學軟件對數據進行處理,計量資料以“±s”表示,不同性別心肺耐力比較采用獨立樣本t檢驗,不同年齡段、體重指數和體力活動水平的心肺耐力比較采用單因素方差分析。以P<0.05為差異有統計學意義。

從圖3中可以看出,跑道是由明顯的色塊組成,因此,對采集到的圖像進行二值化處理,以便于提取對訓練有用的跑道信息。二值化之后的圖像如圖4所示。

圖4 二值化處理后得到的圖像

2 算法設計

PilotNet是英偉達和谷歌的工程師們共同構建的一個網絡,旨在讓神經網絡通過學習人類的操作方式來駕駛汽車。通過對有道路分割線和無道路分割線、鄉間小路和高速公路以及不同光照和天氣下的道路進行采集,最終,經過訓練的神經網絡能夠在沒有駕駛員干預的情況下駕駛實驗用車。PilotNet的網絡模型架構如圖5所示。

圖5 PilotNet網絡架構

將該網絡的輸入設置為分辨率為120×120的圖片,此時,PilotNet的網絡結構和參數信息如表1所示。

表1 PilotNet網絡結構和參數信息

該網絡需要優化的參數共計239 419個,使用均方誤差作為損失函數進行訓練。使用該模型時,得到的訓練結果如圖6所示。

圖6 PilotNet網絡的均方誤差

被控對象的車載主控電腦通過USB接口與底層的單片機進行通訊,單片機使用PWM信號控制4個電機的運動。對于RobotCAR使用Pilot時,其輸出僅作為轉向角信號,信號的范圍為1 000~2 000,當PWM的值為1 500時,車輛直行;1 000和2 000分別表示以最大的轉向角向左轉彎和向右轉彎。對于速度信號,其數據的范圍也為1 000~2 000,當PWM的值為1 500時,車輛速度為0; 1 000 和 2 000分別表示以最大的速度前進或后退。

將圖6中測試誤差和訓練誤差較小的epoch進行局部放大,得到的曲線如圖7所示。

圖7 PilotNet網絡的均方誤差(局部放大)

從圖7可以看出,對于PilotNet,在測試集上的最小誤差為18 000左右,如果換算成轉向角的指令,平均誤差約為±134。從實際部署的效果來看,該網絡雖然能夠控制RobotCAR沿著跑道運動,但是有時會出現壓到車道線邊沿的情況。

另外,從整體的圖像上來看,雖然網絡在訓練集上的誤差隨著迭代減小,但是測試集的誤差變化較大,說明網絡存在過擬合的現象。雖然本文在 PilotNet的基礎上引入了2層的dropout層,但是仍然存在過擬合的現象,整體的測試誤差不夠理想。另外,原始的PilotNet僅能對小車的轉向角進行預測,不能夠預測小車的運動速度,在實際部署時,車輛一直保持一個恒定的速度運動,當運動在較為平直的路線上時,車的運動速度較慢;而當運動在彎道時,運動速度又過快,也是導致被控RobotCAR在轉彎時壓到車道線的原因之一。

針對本文中的控制對象,對PilotNet進行改進,總的思路為:在網絡中引入批量歸一化(batch normalization,BN)可以減輕網絡中的過擬合;同時,適當減小網絡的深度;在此基礎上,根據文獻[19]中的結論,將BN和ReLU激活函數放到卷積操作之前,可以有效解決梯度消失的問題;并且將RobotCAR的運動速度也作為網絡的輸出之一,使所設計的網絡具備同時控制RobotCAR縱向和橫向運動的能力。最終,得到圖8中所示網絡。

圖8 本文所設計網絡架構

同樣,將該網絡的輸入設置為分辨率120×120的圖片,此時,本文所設計的網絡結構和參數信息如表2所示。

表2 本文所設計網絡結構和參數信息

續表(表2)

模型的預測輸出由1維變成了2維,但是模型的深度較PilotNet有所減小。

3 實驗驗證

使用改進過后的模型時,需要優化的參數數量為187 686個,約為PilotNet的78%,因此訓練的速度較PilotNet快,且部署時所需要的計算量減小。同樣使用均方誤差作為損失函數進行訓練,所設計的網絡在訓練數據集和測試數據集中的均方誤差如圖9所示。

圖9 所設計網絡的均方誤差

將圖9中轉向角曲線進行局部放大,得出的曲線如圖10所示。

從圖10中可以看出,對于轉向角數據,其均方誤差約為12 780,對應的轉向角誤差約為113,所以轉向角的預測精度較PilotNet高。

圖10 所設計網絡的轉向角均方誤差

從圖11中可以看出,對于速度數據,本文所設計網絡的均方誤差約為1 712,對應的速度誤差約為41。

圖11 所設計網絡的速度均方誤差

可以看出,使用本文中設計的網絡結構,相比PilotNet網絡,在訓練集和測試集中均有較好的表現,能夠較為正確地預測出小車的速度和轉向角。在訓練和測試過程中,在速度誤差和轉向角誤差之和為最小的輪次對模型進行保存,對應的輪次為第36輪,誤差之和為131。

將上述網絡部署到車載電腦后,記錄RobotCAR在運動過程中不同網絡的輸出,以便進行比較,得出的結果如圖12所示。

圖12 實物實驗時的轉向角

從圖12中可以看出,使用本文中的網絡時,小車跑完整個賽道的時間約為55.1 s,相比PilotNet所需的60.1 s減少了5 s,本文所設計的網絡能夠有效地減少跑完全程所需的時間。在轉彎時,改進網絡生成的轉向角速度更為超前,基本杜絕了壓車道線的情況,說明改進網絡能夠較好地完成小車的縱向和橫向控制。

4 結論

1) 針對RobotCAR小車,測試了谷歌和英偉達所設計的PilotNet網絡,通過測試發現,PilotNet僅能完成RobotCAR的橫向運動控制,且預測的精度不高,車輛在轉彎時存在壓車道邊沿的情況。

2) 對PilotNet的結構進行改進,引入BN操作,調整BN、ReLU和卷積的順序,并且減少網絡深度,建立新的網絡框架。通過網絡在訓練數據集和測試數據集上的表現可以看出,相比PilotNet,所設計的網絡具有更高的橫向預測精度,能夠完成RobotCAR的縱向運動控制。

3) 將所設計的網絡部署在RobotCAR小車上,通過最后的物理實驗發現,所設計的網絡具有較強的泛化能力,能夠控制被控對象較好地沿著地圖中車道的位置行駛。

使用深度學習的技術去提高小車的自主性,理論上和實踐上都是可行的。對于不同的車輛、不同的應用環境,需要設計相應的網絡結構,才能得到較好的訓練結果,并不是模型越復雜越好。

對于大型的載人車輛,對于安全性有很高的要求,需要對網絡的可解釋性和可預測性進行深入的研究,本文的被控對象和運行環境構成了一個靈活、方便并高度接近車輛真實的應用環境,下一步,將重點研究相關深度學習網絡的可解釋性,讓深度學習在車輛自主駕駛的課題上變得更加“透明”。

猜你喜歡
深度設計
深度理解一元一次方程
何為設計的守護之道?
現代裝飾(2020年7期)2020-07-27 01:27:42
《豐收的喜悅展示設計》
流行色(2020年1期)2020-04-28 11:16:38
深度觀察
深度觀察
深度觀察
深度觀察
瞞天過海——仿生設計萌到家
藝術啟蒙(2018年7期)2018-08-23 09:14:18
設計秀
海峽姐妹(2017年7期)2017-07-31 19:08:17
有種設計叫而專
Coco薇(2017年5期)2017-06-05 08:53:16
主站蜘蛛池模板: 欧美一级大片在线观看| 中文字幕天无码久久精品视频免费 | 欧美日韩导航| 日本午夜视频在线观看| 国产视频久久久久| 中文字幕人妻无码系列第三区| 无码人妻热线精品视频| 综合天天色| 国产av一码二码三码无码 | 免费人成在线观看成人片| 欧美一级专区免费大片| 国产精品无码制服丝袜| 福利在线不卡| 成人午夜亚洲影视在线观看| 亚洲人成日本在线观看| 国产成人精品一区二区三在线观看| 乱码国产乱码精品精在线播放| 亚洲男人的天堂视频| 在线播放真实国产乱子伦| 亚洲国产天堂在线观看| 精品视频第一页| 福利国产微拍广场一区视频在线| 久久综合九九亚洲一区| 国产二级毛片| 人人澡人人爽欧美一区| 亚洲午夜久久久精品电影院| 国产一区二区在线视频观看| 亚洲一级毛片免费看| 国产精品一线天| 欧美精品亚洲精品日韩专区| 亚洲AⅤ永久无码精品毛片| 日韩无码视频专区| 久久五月视频| 久久网欧美| 国产成人亚洲欧美激情| 成人综合久久综合| 久久久精品久久久久三级| 老司机精品久久| 亚洲va在线∨a天堂va欧美va| 国产成人调教在线视频| 久久大香伊蕉在人线观看热2| 97亚洲色综久久精品| 少妇精品久久久一区二区三区| 波多野结衣无码AV在线| 浮力影院国产第一页| 亚洲a级在线观看| 99国产在线视频| 性色一区| jizz国产在线| 亚洲成人网在线观看| 一区二区理伦视频| 在线免费a视频| 丝袜国产一区| 毛片大全免费观看| 精品国产www| 2021精品国产自在现线看| 久久99国产综合精品1| 亚洲AⅤ综合在线欧美一区| 亚洲国产天堂久久九九九| 亚洲综合经典在线一区二区| 五月婷婷中文字幕| 在线毛片免费| 日韩福利视频导航| 国产高潮流白浆视频| 在线欧美日韩国产| 国产亚洲欧美另类一区二区| 亚洲青涩在线| 国产青青操| 欧美爱爱网| 中文字幕亚洲电影| 免费A级毛片无码免费视频| 国产人妖视频一区在线观看| 欧美一区二区三区香蕉视| 99免费在线观看视频| 国产99欧美精品久久精品久久| 高清欧美性猛交XXXX黑人猛交| 乱人伦视频中文字幕在线| 美女视频黄又黄又免费高清| 97综合久久| 国产精品分类视频分类一区| 国产不卡在线看| 国产日韩丝袜一二三区|