王玉龍 李景俊 翁茂楠 黃輝



摘? 要:深度學(xué)習(xí)在自動(dòng)駕駛開(kāi)發(fā)中得到廣泛應(yīng)用,而在低算力嵌入式平臺(tái)上部署高算力需求的車位識(shí)別網(wǎng)絡(luò)及復(fù)雜的路徑規(guī)劃算法成為行業(yè)挑戰(zhàn),因此本文首先設(shè)計(jì)了輕量化車位識(shí)別網(wǎng)絡(luò)結(jié)構(gòu),對(duì)不同場(chǎng)景下的車位關(guān)鍵點(diǎn)進(jìn)行檢測(cè),其次基于深度搜索設(shè)計(jì)了快速泊車路徑規(guī)劃算法,然后基于OpenVX的框架將模型和算法部署在多核異構(gòu)平臺(tái)上,最終在實(shí)車平臺(tái)上進(jìn)行自動(dòng)泊車功能驗(yàn)證。試驗(yàn)結(jié)果表明車位檢出率大于98%,泊入成功率大于96%,泊車系統(tǒng)運(yùn)行時(shí)間小于40ms,滿足實(shí)時(shí)性要求。
關(guān)鍵詞:車位識(shí)別;深度學(xué)習(xí);自動(dòng)泊車;路徑規(guī)劃
中圖分類號(hào):U463.3? ? ? ?文獻(xiàn)標(biāo)識(shí)碼:A? ? ? 文章編號(hào):1005-2550(2023)02-0002-06
Lightweight Recognition Network for Parking Space and Smooth Parking Path Planning Algorithm Design
WANG Yu-long1,2, LI Jing-jun1, WENG Mao-nan1, HUANG Hui1
(1. Auto Engineering Research Institute of Guangzhou Automobile Group, Guangzhou 510641, China; 2. State Key Laboratory of Advanced Design and Manufacturing for Vehicle Body, Changsha 410082, China)
Abstract: Deep learning is widely used in the development of autonomous driving, however the deployment of parking space recognition network and complex path planning algorithm with high computing power requirements on low computational embedded platform has become an industry challenge. Therefore, this paper first designs a lightweight parking space recognition network structure to detect the key points of parking space in different scenarios, then designs a fast parking path planning algorithm based on deep-search algorithm, and then deploys the model and algorithm on a multi-core heterogeneous platform based on the OpenVX framework, and finally performs automatic parking function verification on the real vehicle platform. The test results show that the detection rate of parking space is more than 98%, and the parking success rate is more than 96%, and the parking system running time is less than 40ms, which meets the real-time requirements.
Key? Words: Parking Space Recognition; Deep Learning; Automatic Parking; Path Planning
王玉龍
畢業(yè)于湖南大學(xué),博士學(xué)歷,現(xiàn)就職于廣州汽車集團(tuán)股份有限公司汽車工程研究院,任主任研究員,研究方向?yàn)槿斯ぶ悄芘c自動(dòng)駕駛。目前發(fā)表論文10余篇,專利20余篇,承擔(dān)國(guó)家以及省部級(jí)課題5項(xiàng),入選中國(guó)科學(xué)技術(shù)協(xié)會(huì) “青年人才托舉工程”。
基于深度學(xué)習(xí)的計(jì)算機(jī)視覺(jué)和數(shù)字圖像處理是計(jì)算機(jī)應(yīng)用領(lǐng)域的重要研究分支,特別近年來(lái),計(jì)算機(jī)視覺(jué)在算法結(jié)構(gòu)及應(yīng)用上取得了重大的發(fā)展,在軍事、醫(yī)學(xué)、多媒體、汽車等領(lǐng)域都具有廣泛的應(yīng)用[1-3],而自動(dòng)泊車系統(tǒng)也是其中一個(gè)應(yīng)用方向。駕駛員在泊車的過(guò)程中,往往會(huì)受到汽車盲區(qū)的影響,進(jìn)而造成操作失誤而與其他車輛、行人或障礙物發(fā)生碰撞等不良后果。自動(dòng)泊車系統(tǒng)是為了讓駕駛員從復(fù)雜的泊車操作解放出來(lái)的一種駕駛輔助裝置,但是自動(dòng)泊車系統(tǒng)面臨著許多挑戰(zhàn)性問(wèn)題:1)深度學(xué)習(xí)模型一般較大,算力需求高,而量產(chǎn)中采用的嵌入式平臺(tái)算力較低,無(wú)法滿足算力需求[3];2)泊車路徑規(guī)劃算法采用的搜索算法計(jì)算量大[4],無(wú)法滿足實(shí)時(shí)性要求;3)在嵌入式平臺(tái)上如何高效部署高算力需求的感知模型和路徑規(guī)劃算法以及其他模塊[5]。本文通過(guò)對(duì)深度學(xué)習(xí)模型算法進(jìn)行算法優(yōu)化以及模型壓縮和剪枝,快速對(duì)不同場(chǎng)景下的車位進(jìn)行識(shí)別,基于深度搜索算法進(jìn)行快速的泊車路徑搜索,根據(jù)所規(guī)劃的泊車路徑,自動(dòng)操控汽車控制器件,如剎車踏板、油門踏板、方向盤、換擋器等,將車輛泊入所指定的車位。本文以TI TDA4為開(kāi)發(fā)平臺(tái),基于多核異構(gòu)的應(yīng)用框架,通過(guò)流水線方式進(jìn)行自動(dòng)泊車算法和模型部署,提高系統(tǒng)運(yùn)行效率。
1? ? OpenVX介紹
OpenVX(Open Visual X)是Khronos組織建立機(jī)器視覺(jué)處理的基本層標(biāo)準(zhǔn),是一個(gè)面向開(kāi)發(fā)的,用于跨平臺(tái)計(jì)算機(jī)視覺(jué)應(yīng)用加速的標(biāo)準(zhǔn)[5]。OpenVX為常用的視覺(jué)函數(shù)以及其函數(shù)集合提供抽象接口來(lái)提高視覺(jué)應(yīng)用程序的性能,盡可能地減少程序運(yùn)行時(shí)間。該標(biāo)準(zhǔn)在基于嵌入式的實(shí)時(shí)性應(yīng)用中起到了重要的作用,例如基于嵌入式平臺(tái)的面部識(shí)別、肢體動(dòng)作跟蹤、場(chǎng)景重建、視覺(jué)檢測(cè)、自動(dòng)泊車輔助等。
OpenVX包含了五個(gè)組件: 上下文、內(nèi)核、參數(shù)、節(jié)點(diǎn)以及圖[6]。 上下文是作用域,所有數(shù)據(jù)對(duì)象和所有框架對(duì)接都存在于上下文中,上下文保存了所有對(duì)象的引用計(jì)數(shù),并且在解構(gòu)過(guò)程中進(jìn)行垃圾收集以釋放丟失的引用;內(nèi)核封裝了各種視覺(jué)函數(shù)接口,可以通過(guò)注冊(cè)回調(diào)函數(shù)或者直接調(diào)用視覺(jué)函數(shù)的接口;參數(shù)是傳遞給函數(shù)的輸入和輸出;節(jié)點(diǎn)是運(yùn)算節(jié)點(diǎn),多個(gè)節(jié)點(diǎn)組成一個(gè)圖以完成某個(gè)功能,其中節(jié)點(diǎn)僅從某個(gè)圖創(chuàng)建并與單個(gè)圖關(guān)聯(lián);圖是以一組有向(僅單向)非循環(huán)方式連接的節(jié)點(diǎn),節(jié)點(diǎn)之間通過(guò)數(shù)據(jù)依賴連接在一起。OpenVX的運(yùn)行是基于節(jié)點(diǎn)來(lái)運(yùn)行的,所有的節(jié)點(diǎn)會(huì)被鏈接到圖中,最后由圖統(tǒng)一運(yùn)行。
基于OpenVX構(gòu)建應(yīng)用實(shí)例,首先需要?jiǎng)?chuàng)建圖,作為上下文索引,其次通過(guò)創(chuàng)建不同的節(jié)點(diǎn),負(fù)責(zé)不同的功能,從采集數(shù)據(jù)、圖像預(yù)處理、模型推理、后處理、顯示結(jié)果等,默認(rèn)情況下,在圖中依次創(chuàng)建的節(jié)點(diǎn),就是鏈接的順序。在檢驗(yàn)創(chuàng)建的節(jié)點(diǎn)正常后,通過(guò)運(yùn)行圖,被鏈接進(jìn)來(lái)的節(jié)點(diǎn)都會(huì)被執(zhí)行一次。因?yàn)楣?jié)點(diǎn)是相對(duì)獨(dú)立的,所以在多核執(zhí)行效率上,能充分發(fā)揮并發(fā)的作用,最大化芯片的使用效率。
2? ? 深度學(xué)習(xí)的模型設(shè)計(jì)與部署
2.1? ?基于SSD車位檢測(cè)模型設(shè)計(jì)
SSD(Single Shot MultiBox Detector)是基于前饋卷積神經(jīng)網(wǎng)絡(luò),產(chǎn)生固定大小的邊界框集合和邊界框中對(duì)象類別的置信度,然后通過(guò)非極大抑制來(lái)產(chǎn)生最終檢測(cè)結(jié)果。本文采用VGG16網(wǎng)絡(luò)作為基礎(chǔ)網(wǎng)絡(luò),用于特征提取,然后再向基礎(chǔ)網(wǎng)絡(luò)中添加輔助結(jié)構(gòu),產(chǎn)生特定的特征用于檢測(cè)[7]。本文采用基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法SSD,對(duì)車位的關(guān)鍵點(diǎn)進(jìn)行檢測(cè),通過(guò)采集車位數(shù)據(jù)和標(biāo)注車位信息,在此基礎(chǔ)上訓(xùn)練深度學(xué)習(xí)模型,基于OpenVX的框架將優(yōu)化后的模型部署在多核異構(gòu)處理器上。在模型訓(xùn)練階段,利用收集到的圖像數(shù)據(jù)與標(biāo)簽文件,制作訓(xùn)練與測(cè)試SSD模型的LMDB(輕量級(jí)內(nèi)存映射型數(shù)據(jù)庫(kù))數(shù)據(jù)格式文件,以此作為模型的輸入。模型總體損失由定位損失和分類損失函數(shù)的加權(quán)求和決定,SSD的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示[7]。
SSD算法中使用了多個(gè)尺度下的特征圖,選取的卷積層分別是:Conv4_3,Conv7,Conv8_2,Conv9_2,Conv10_2以及Pool11層的輸出特征圖,對(duì)于輸入圖片為300×300的圖像,特征圖尺度分別是:38×38×512、19×19×1024、10×10×512、5×5×256、3×3×256、1×1×256,然后在這些特征圖上生成不同尺寸大小的預(yù)測(cè)框,數(shù)目分別是4、6、6、6、4、4,進(jìn)行檢測(cè)和分類生成多個(gè)候選框,可知每個(gè)特征圖對(duì)應(yīng)的候選框數(shù)目是5776、2166、600、15036、4,共8732個(gè)box,最后將不同尺度下的候選框結(jié)合起來(lái),通過(guò)非極大值抑制算法選出最后的預(yù)測(cè)框。本文考慮部署到嵌入式平臺(tái)的算力限制,以及識(shí)別準(zhǔn)確率的要求,選擇模型輸入圖像尺寸為1008×560的圖像,預(yù)處理階段進(jìn)行數(shù)據(jù)增強(qiáng),并設(shè)置訓(xùn)練步數(shù)20萬(wàn)步,學(xué)習(xí)率為0.00004進(jìn)行模型訓(xùn)練。
2.2? ?多任務(wù)輕量化視覺(jué)感知模型設(shè)計(jì)
該多任務(wù)輕量化視覺(jué)感知模型是基于深度學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)用于實(shí)現(xiàn)對(duì)攝像頭視野范圍內(nèi)的車位檢測(cè)和可行駛區(qū)域識(shí)別。模型的整體結(jié)構(gòu)可以分為共享層、車位檢測(cè)分支層、可行駛區(qū)域識(shí)別分支層等3個(gè)子模塊組成。模型的輸入為尺度為1008×560的3通道RGB圖像;模型有兩個(gè)輸出,一個(gè)用于輸出車位檢測(cè)推理結(jié)果,另一個(gè)用于輸出可行駛區(qū)域識(shí)別的推理結(jié)果。
(1)共享層結(jié)構(gòu)設(shè)計(jì)
兩個(gè)推理任務(wù)共用前20層,該前20層卷積層由2個(gè)10層的分支并聯(lián)構(gòu)成,前一個(gè)分支中的卷積核均采用3×3的卷積核,后一個(gè)分支中的卷積均采用空洞尺度為5的3×3的卷積核,兩個(gè)分支給后續(xù)的推理帶來(lái)了不同的感受野,能夠提取出更加豐富的特征,每個(gè)卷積層后均使用修正線性單元激活函數(shù)Relu,在每個(gè)分支第2、4、6、8層卷積后使用下采樣層,最后將兩個(gè)分支的推理結(jié)果進(jìn)行拼接。
(2)車位檢測(cè)分支結(jié)構(gòu)設(shè)計(jì)
車位檢測(cè)分支層由4層卷積層構(gòu)成,每層卷積層均采用3×3的卷積核,且每個(gè)卷積層后均使用修正線性單元激活函數(shù)Relu,最終輸出的車位識(shí)別模型推理結(jié)果的尺度為40×30×6,可表示為:Output1=40×30×(cre1,x1,y1,cre2,x2,y2)。輸出結(jié)果將原始圖像分為30行40列的等大小矩形塊,原始圖像中第i行j列的矩形塊對(duì)應(yīng)的預(yù)測(cè)結(jié)果為車位識(shí)別模型推理結(jié)果的第i行j列的6位輸出:(cre1,x1,y1,cre2,x2,y2),其中cre1、cre2分別表示該矩形塊中含有車位角中心點(diǎn)、空車位中心點(diǎn)的概率,x1、y1、x2、y2分別表示就當(dāng)前塊而言歸一化后的車位角中心點(diǎn)橫坐標(biāo)、車位角中心點(diǎn)縱坐標(biāo)、空車位中心點(diǎn)橫坐標(biāo)、空車位中心點(diǎn)縱坐標(biāo)。
2.3? ?模型和運(yùn)行效率優(yōu)化
2.3.1 模型優(yōu)化
在設(shè)計(jì)多任務(wù)輕量化視覺(jué)感知模型早期,為了兼顧效率和精度問(wèn)題,增加了一個(gè)分支,增加了空洞卷積,并且考慮到TI TIDL的量化精度下降問(wèn)題,在每個(gè)Convolution后都添加BatchNorm,最后一層的Convolution不需要添加BatchNorm。通過(guò)對(duì)多任務(wù)輕量化視覺(jué)感知模型的試驗(yàn),利用裁剪優(yōu)化的方式,可將模型減小至8.4M,但是模型的精度損失在4個(gè)百分點(diǎn)左右。另外通過(guò)增加一個(gè)分支,增加空洞卷積,雖然模型大小增大至26M,模型的精度損失能控制在3個(gè)百分點(diǎn)以內(nèi)。
2.3.2 運(yùn)行效率優(yōu)化
設(shè)計(jì)OpenVX應(yīng)用場(chǎng)景,會(huì)首先創(chuàng)建圖,一個(gè)場(chǎng)景中可以包含多個(gè)圖,然后在圖中調(diào)用節(jié)點(diǎn)。一般情況下,圖都是以非流水線模式運(yùn)行。以下通過(guò)流水線處理流程提升運(yùn)行效率。非流水線處理流程如圖2(a)所示,從圖中可以看出,假設(shè)每個(gè)節(jié)點(diǎn)的處理時(shí)間都是33毫秒,則每一幀處理完成需要99毫秒,整個(gè)系統(tǒng)的圖像吞吐量就比較低。
通過(guò)優(yōu)化為流水線處理流程,每一幀處理的時(shí)間雖然不變,但是流水線處理模式除了開(kāi)始的兩幀,其他時(shí)刻系統(tǒng)都在同時(shí)處理三幀,整個(gè)系統(tǒng)吞吐量是按順序處理的三倍。因此基于此模式設(shè)計(jì)OpenVX的圖可以極大提高多核的執(zhí)行效率?;诹魉€技術(shù),可以將OpenVX設(shè)計(jì)為三個(gè)階段,如圖2(b)所示,包括流水線流入階段、流水線處理階段和流水線流出階段。按照OpenVX流程創(chuàng)建節(jié)點(diǎn)和圖,設(shè)置自動(dòng)調(diào)用模式,檢查圖的參數(shù),調(diào)用圖的隊(duì)列管理接口來(lái)管理圖參數(shù)的入隊(duì)和出隊(duì)。如此循環(huán),通過(guò)管理節(jié)點(diǎn)和圖的參數(shù)入隊(duì)和出隊(duì)來(lái)實(shí)現(xiàn)數(shù)據(jù)流的流轉(zhuǎn)。基于流水線處理流程,每個(gè)節(jié)點(diǎn)創(chuàng)建都是獨(dú)立的,節(jié)點(diǎn)的參數(shù)通過(guò)拷貝的形式存在多個(gè)備份,因此節(jié)點(diǎn)之間參數(shù)也是隔離的,保證了數(shù)據(jù)的安全性和完整性。
2.4? ?多核異構(gòu)架構(gòu)部署流程
本文是基于多核異構(gòu)處理器TDA4探討模型部署和嵌入式自動(dòng)泊車系統(tǒng)。設(shè)計(jì)一個(gè)高效的數(shù)據(jù)流程是部署嵌入式自動(dòng)泊車系統(tǒng)的關(guān)鍵。如圖3所示,通過(guò)R5F核獲取攝像頭數(shù)據(jù),然后由另一個(gè)R5F核做硬件縮放,C66X做圖像預(yù)處理
(將YUV轉(zhuǎn)BGR),C7X做深度學(xué)習(xí)算法推理,通過(guò)另外一個(gè)R5F后處理部分操作,將結(jié)果送入到A72核做路徑規(guī)劃,最后對(duì)車輛進(jìn)行相應(yīng)的控制。這個(gè)過(guò)程涉及到多個(gè)核心,可以做到硬件的流水線并行運(yùn)行。
3? ? 基于深度搜索的泊車路徑規(guī)劃
本文是通過(guò)深度學(xué)習(xí)算法識(shí)別車位、障礙物以及可行駛區(qū)域[8],通過(guò)環(huán)境重建和自定位,構(gòu)建低維地圖,在該地圖下基于深度搜索算法進(jìn)行路徑規(guī)劃并根據(jù)規(guī)劃結(jié)果控制車輛。路徑規(guī)劃基于深度搜索算法[9-10],采用多段曲線組合的方式達(dá)到完整的路徑,單段曲線的表達(dá)式是 Q=(θ, L)。其中θ表示車的前輪轉(zhuǎn)角,L表示基于該轉(zhuǎn)角的行車距離,以車輛后軸中心記作車輛坐標(biāo)。單段曲線直接使用控制量來(lái)描述可以直接作為控制輸出,因此不需要路徑跟隨環(huán)節(jié),規(guī)劃的結(jié)果即是控制量。
單段路徑曲線采用將行車動(dòng)作離散化后的90種動(dòng)作曲線,分別對(duì)應(yīng)9種前輪角度θ和10種行程距離L的組合,前輪轉(zhuǎn)向角為該車的前輪的左右轉(zhuǎn)極限角度平均等分,如θ=[-30,-24,-15,-6,0,6,15,24,30];行程選擇有L=[-5,-3,-2,-1,-0.5,0.5,1,2,3,5],10種選擇,單位m,負(fù)值表示倒車,正值為前進(jìn)。一次行車軌跡的選擇有9×10=90種選擇,如Q=(θ(15), L(2)),表示該段軌跡曲線為前輪左轉(zhuǎn)15度,向前走2米。其中這里面的動(dòng)作數(shù)量及具體數(shù)值都可以調(diào)整。如圖4所示,車輛在某個(gè)狀態(tài)下可執(zhí)行的動(dòng)作離散為90種曲線。
路徑搜索使用深度搜索算法[9],遞歸執(zhí)行。車輛在狀態(tài)S0下,嘗試執(zhí)行一種動(dòng)作曲線,并判斷執(zhí)行該動(dòng)作后的狀態(tài)S10是否滿足目標(biāo)狀態(tài),而每個(gè)動(dòng)作執(zhí)行后的狀態(tài)Sn都可以作為當(dāng)前狀態(tài)去重復(fù)執(zhí)行該策略[9],遞歸執(zhí)行直到到達(dá)目標(biāo)。
車輛狀態(tài)可以描述成如圖5的搜索樹(shù):第一層搜索開(kāi)始,車輛處于初始位置S0,當(dāng)嘗試執(zhí)行動(dòng)作Q0(θ=0,L=0.5)后(轉(zhuǎn)角0,向前直走0.5米),車狀態(tài)改變?yōu)镾10,判斷當(dāng)前狀態(tài)是否達(dá)到目標(biāo)狀態(tài),未達(dá)到則改變動(dòng)作為Q1(θ=0,L=1)做同樣的判斷,直到所有動(dòng)作嘗試完畢,仍為達(dá)到目標(biāo)說(shuō)明該狀態(tài)S0下無(wú)法通過(guò)一段固定動(dòng)作曲線達(dá)到目標(biāo);進(jìn)入下一層搜索,首先以S10作為當(dāng)前狀態(tài),同樣執(zhí)行以上步驟,對(duì)所有動(dòng)作做嘗試判斷該狀態(tài)下能否通過(guò)一個(gè)動(dòng)作達(dá)到目的狀態(tài)。重復(fù)以上步驟,即是基于深度搜索的路徑規(guī)劃。
4? ? 試驗(yàn)驗(yàn)證
本文基于多核異構(gòu)處理器TDA4部署神經(jīng)網(wǎng)絡(luò)模型,在軟件架構(gòu)上,本文利用軟件中間件OpenVX抽象不同的核心,對(duì)上層提供模塊層次的功能,并且通過(guò)OpenVX管理內(nèi)存指針,實(shí)現(xiàn)多核之間數(shù)據(jù)交換。設(shè)計(jì)流水線場(chǎng)景中,首先通過(guò)創(chuàng)建圖,定義圖運(yùn)行模式,設(shè)置為自動(dòng)調(diào)用模式,校驗(yàn)圖的完整性,同時(shí)創(chuàng)建多個(gè)節(jié)點(diǎn),如圖像采集節(jié)點(diǎn)、顯示節(jié)點(diǎn)、預(yù)處理節(jié)點(diǎn)、后處理節(jié)點(diǎn)、圖像信號(hào)處理節(jié)點(diǎn)、鏡頭矯正節(jié)點(diǎn)、圖像縮放節(jié)點(diǎn)、路徑規(guī)劃節(jié)點(diǎn)等。根據(jù)節(jié)點(diǎn)的特點(diǎn),對(duì)節(jié)點(diǎn)運(yùn)行的核進(jìn)行劃分,如預(yù)處理節(jié)點(diǎn)和后處理節(jié)點(diǎn)運(yùn)行在DSP C66核上,神經(jīng)網(wǎng)絡(luò)節(jié)點(diǎn)運(yùn)行在C71核上,圖像采集節(jié)點(diǎn)運(yùn)行在R5核上。 通過(guò)入隊(duì)和出隊(duì)的形式來(lái)管理節(jié)點(diǎn)上數(shù)據(jù)流的進(jìn)出。
嵌入式部署精度損失檢測(cè)指標(biāo)如表1所示。其中acc是車位角中心點(diǎn)和空車位識(shí)別結(jié)果中識(shí)別正確且其它區(qū)域無(wú)誤識(shí)別的概率(32個(gè)像素等間隔劃分區(qū)域,默認(rèn)同一區(qū)域內(nèi)只有一個(gè)目標(biāo)點(diǎn))。precise是車位角中心點(diǎn)和空車位識(shí)別結(jié)果中正確結(jié)果的比例(點(diǎn)的偏差小于16個(gè)像素點(diǎn)被當(dāng)做同一識(shí)別點(diǎn))。在嵌入式TDA4平臺(tái)下,可達(dá)到25fps的幀率,滿足實(shí)時(shí)性要求。
利用在多核異構(gòu)嵌入式平臺(tái)神經(jīng)網(wǎng)絡(luò)模型,結(jié)合深度搜索算法,完成嵌入式自動(dòng)泊車系統(tǒng)搭建。測(cè)試場(chǎng)景包括垂直車位、平行車位、斜列車位以及窄車位泊車,如圖6所示。測(cè)試過(guò)程中,以0.5秒為周期動(dòng)態(tài)規(guī)劃路徑,單次路徑規(guī)劃用時(shí)小于40ms,滿足實(shí)時(shí)性要求,保證泊車過(guò)程的流暢性。實(shí)測(cè)垂直車位、平行車位以及側(cè)方位均可以自適應(yīng)并較好泊車,測(cè)試結(jié)果如表2和表3所示,車位檢出率98%以上,泊入成功率96%以上,優(yōu)于行業(yè)內(nèi)的量產(chǎn)產(chǎn)品。
5? ? 結(jié)論
本文基于多核異構(gòu)嵌入式平臺(tái)提出了輕量化的深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu),并基于該模型和深度搜索算法設(shè)計(jì)了自動(dòng)泊車系統(tǒng)。該輕量級(jí)神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)可以高效地部署在多核異構(gòu)處理器上,在魯棒性、精度損失方面都表現(xiàn)良好。同時(shí),通過(guò)深度搜索算法自動(dòng)尋找多段軌跡曲線的最優(yōu)組合,實(shí)現(xiàn)任意姿態(tài)泊車,可適應(yīng)不同場(chǎng)景與車位,可以實(shí)現(xiàn)動(dòng)態(tài)路徑規(guī)劃,降低了對(duì)其他泊車環(huán)節(jié)的精度依賴(感知和定位的精度等)。
參考文獻(xiàn):
[1]Gupta A,Anpalagan A,Guan L,et al. Deep Learning for Object Detection and Scene Perception in Self-Driving Cars: Survey,Challenges,and Open Issues[J]. Array,2021,10(10):100057.
[2]張新鈺,高洪波,趙建輝,等. 基于深度學(xué)習(xí)的自動(dòng)駕駛技術(shù)綜述[J]. 清華大學(xué)學(xué)報(bào)(自然科學(xué)版), 2018,058(004):438-444.
[3]李升波,關(guān)陽(yáng),侯廉,等. 深度神經(jīng)網(wǎng)絡(luò)的關(guān)鍵技術(shù)及其在自動(dòng)駕駛領(lǐng)域的應(yīng)用[J]. 汽車安全與節(jié)能學(xué)報(bào),2019,10(2):27.
[4]崔高健,陸柏霖,賀紅春,等. 基于逆向Hybrid A*的自動(dòng)泊車路徑規(guī)劃[J]. 長(zhǎng)春工業(yè)大學(xué)學(xué)報(bào),2022(004):043.
[5]張政馗,龐為光,謝文靜,呂鳴松,等. 面向?qū)崟r(shí)應(yīng)用的深度學(xué)習(xí)研究綜述[J]. 軟件學(xué)報(bào),2020(9):24.
[6]Giduthuri R,Pulli K. OpenVX: a framework for accelerating computer vision[C]. SIGGRAPH ASIA 2016 Courses ACM, 2016, 1-50.
[7]Berg A C,F(xiàn)u C Y,Szegedy C,et al. SSD: Single Shot MultiBox Detector,10.1007/978-3-319-46448- 0_2[P]. 2015.
[8]黎海濤,張昊,王馬成,等. 基于深度學(xué)習(xí)的智能停車車位檢測(cè)[J]. 中國(guó)電子科學(xué)研究院學(xué)報(bào),2021,16(12):1264-1269.
[9]費(fèi)珂,秦小麟,遲賀宇,等. 面向動(dòng)態(tài)路網(wǎng)的最優(yōu)路徑GCN深度搜索方法[J]. 計(jì)算機(jī)科學(xué)與探索,2023,17(1):116-126.
[10]劉慶宇.代價(jià)樹(shù)深度優(yōu)先搜索及優(yōu)化[J]. 遼寧工業(yè)大學(xué)學(xué)報(bào)(自然科學(xué)版),2021,(041-005):322-324.
專家推薦語(yǔ)
張凡武
東風(fēng)汽車公司技術(shù)中心
智能軟件中心總師? 高級(jí)工程師
深度學(xué)習(xí)目前在自動(dòng)駕駛開(kāi)發(fā)中得到廣泛應(yīng)用。本文基于多核異構(gòu)嵌入式平臺(tái)提出了輕量化的深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu),可以高效地部署在多核異構(gòu)處理器上,并基于該模型和深度搜索算法設(shè)計(jì)了自動(dòng)泊車系統(tǒng)。通過(guò)深度搜索算法自動(dòng)尋找多段軌跡曲線的最優(yōu)組合,實(shí)現(xiàn)動(dòng)態(tài)路徑規(guī)劃,可適應(yīng)不同場(chǎng)景與車位,降低了對(duì)其他泊車環(huán)節(jié)的精度依賴,在實(shí)車平臺(tái)上實(shí)現(xiàn)了任意姿態(tài)泊車功能的驗(yàn)證,在魯棒性、精度損失方面都表現(xiàn)良好,也滿足實(shí)時(shí)性要求。
該輕量級(jí)神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)較好的解決了在低算力嵌入式平臺(tái)上部署高算力需求的車位識(shí)別網(wǎng)絡(luò)及復(fù)雜的路徑規(guī)劃算法這一行業(yè)挑戰(zhàn),系統(tǒng)方案、算法模型設(shè)計(jì)與部署合理,試驗(yàn)驗(yàn)證較好,結(jié)論正確。本論文選題有較強(qiáng)的應(yīng)用價(jià)值,車位識(shí)別網(wǎng)絡(luò)與流暢泊車路徑規(guī)劃設(shè)計(jì)相關(guān)模型、方法可供同行學(xué)習(xí)參考。