999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

精確制導(dǎo)武器末制導(dǎo)目標(biāo)識(shí)別優(yōu)化算法研究

2022-03-11 00:26:42趙曉冬張洵穎車軍陳法揚(yáng)張琳琳
航空科學(xué)技術(shù) 2022年1期

趙曉冬 張洵穎 車軍 陳法揚(yáng) 張琳琳

摘要:針對(duì)目前精確制導(dǎo)武器末制導(dǎo)系統(tǒng)智能化發(fā)展面臨的挑戰(zhàn),結(jié)合智能目標(biāo)識(shí)別算法在嵌入式硬件上的計(jì)算需求,選取針對(duì)小目標(biāo)具有較好檢測(cè)效果的YOLOv3網(wǎng)絡(luò)進(jìn)行優(yōu)化部署驗(yàn)證。研究基于BatchNorm層的雙正則項(xiàng)神經(jīng)網(wǎng)絡(luò)裁剪優(yōu)化算法、基于TensorRT的INT8量化技術(shù)以及面向FPGA計(jì)算架構(gòu)的INT8訓(xùn)練與量化協(xié)同優(yōu)化算法。針對(duì)YOLOv3網(wǎng)絡(luò)結(jié)構(gòu),在三種典型嵌入式硬件平臺(tái)上進(jìn)行優(yōu)化性能驗(yàn)證,包括NVIDIA Jetson Xavier平臺(tái)、FPGA EC2實(shí)例平臺(tái)和Xilinx Ultrascale+ MPSoC ZCU104平臺(tái)。結(jié)果表明,本文提出的優(yōu)化算法可以在網(wǎng)絡(luò)識(shí)別精度與推理速度之間獲得較好的均衡。

關(guān)鍵詞:末制導(dǎo)目標(biāo)識(shí)別;YOLOv3;神經(jīng)網(wǎng)絡(luò)優(yōu)化;Jetson Xavier;FPGA

中圖分類號(hào):TP391.4文獻(xiàn)標(biāo)識(shí)碼:ADOI:10.19452/j.issn1007-5453.2022.01.015

基金項(xiàng)目:航空科學(xué)基金(201907053005,2019ZC053018)

在現(xiàn)代戰(zhàn)爭中,精確制導(dǎo)武器越來越占據(jù)重要地位,它和隱身飛機(jī)被并列為美國及其西方盟國贏得冷戰(zhàn)競(jìng)爭的主要手段[1]。精確制導(dǎo)技術(shù)的發(fā)展尤其是精確尋的末制導(dǎo)技術(shù)的發(fā)展是提升精確制導(dǎo)武器作戰(zhàn)性能的關(guān)鍵[2-3]。

在現(xiàn)代化戰(zhàn)爭中,作戰(zhàn)環(huán)境復(fù)雜性、目標(biāo)特征變化性的不斷提高給精確制導(dǎo)系統(tǒng)帶來了新的挑戰(zhàn)[4-5]。復(fù)雜戰(zhàn)場(chǎng)環(huán)境下的目標(biāo)自主識(shí)別與智能打擊已成為精確制導(dǎo)武器智能化的最顯著特征。近年來,基于深度學(xué)習(xí)的目標(biāo)識(shí)別與跟蹤技術(shù)[6]已在人臉識(shí)別、自動(dòng)駕駛等民用領(lǐng)域表現(xiàn)出卓越的性能,并成為解決自動(dòng)目標(biāo)自主識(shí)別問題的一種有效途徑。但是基于深度學(xué)習(xí)的機(jī)器視覺技術(shù)在精確制導(dǎo)武器彈道末端自主目標(biāo)識(shí)別[7]與智能打擊等軍事應(yīng)用中,仍需要解決三項(xiàng)關(guān)鍵問題,包括智能算法設(shè)計(jì)、嵌入式智能計(jì)算平臺(tái)和大規(guī)模目標(biāo)數(shù)據(jù)集[8]。卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks, CNN)通過訓(xùn)練學(xué)習(xí)圖像的顏色、邊緣、紋理、形狀以及拓?fù)浣Y(jié)構(gòu)等特征,并對(duì)特征進(jìn)行準(zhǔn)確描述[9],基于CNN的結(jié)構(gòu)廣泛適用于各類智能圖像處理算法?;谏疃葘W(xué)習(xí)的目標(biāo)識(shí)別過程描述如下:建立深度網(wǎng)絡(luò)模型;在大規(guī)模分類數(shù)據(jù)集上進(jìn)行算法模型的預(yù)訓(xùn)練;基于預(yù)訓(xùn)練結(jié)果,在目標(biāo)識(shí)別數(shù)據(jù)集上訓(xùn)練直至收斂;在嵌入式智能計(jì)算平臺(tái)上進(jìn)行實(shí)時(shí)推理,在線生成信息情報(bào)。

當(dāng)前,基于深度學(xué)習(xí)的目標(biāo)識(shí)別算法[10]分為基于候選區(qū)域的算法和基于回歸的算法兩大類。前者以候選區(qū)域?yàn)榍疤幔趫D像中首先提取候選區(qū)域,并在對(duì)其進(jìn)行優(yōu)先搜索后進(jìn)行分類。候選區(qū)域類算法的經(jīng)典算法包括R-CNN、Fast R-CNN[11]、Faster R-CNN[12]等?;貧w類算法不需要花費(fèi)時(shí)間提取多余的候選區(qū)域,以回歸的方式對(duì)整個(gè)目標(biāo)進(jìn)行檢測(cè),屬于端到端的算法?;貧w類算法主要包括SSD、YOLO算法系列[13]等。其中,YOLO系列算法推理速度快,既可以滿足實(shí)時(shí)性的要求,又可以獲得較為滿意的檢測(cè)精度,很多深度學(xué)習(xí)框架都可以很好地支持算法實(shí)現(xiàn)??紤]到末制導(dǎo)圖像可能包含多類型小目標(biāo)的特點(diǎn)以及末制導(dǎo)過程對(duì)于實(shí)時(shí)性處理的強(qiáng)烈需求,本文以對(duì)小目標(biāo)檢測(cè)能力較強(qiáng)的YOLOv3網(wǎng)絡(luò)[14]為研究對(duì)象,進(jìn)行神經(jīng)網(wǎng)絡(luò)優(yōu)化算法研究;同時(shí),以實(shí)測(cè)可見光和紅外數(shù)據(jù)集為訓(xùn)練集,在三種類型的嵌入式計(jì)算平臺(tái)上,進(jìn)行優(yōu)化后算法的識(shí)別效果驗(yàn)證。

嵌入式智能計(jì)算平臺(tái)受限資源下的計(jì)算效能,與深度學(xué)習(xí)推理計(jì)算過程的復(fù)雜性相矛盾。通過神經(jīng)網(wǎng)絡(luò)優(yōu)化技術(shù)[15-16],可以將復(fù)雜度高、參數(shù)規(guī)模大、能耗高、推理速度慢、不適于嵌入式硬件實(shí)現(xiàn)的原始網(wǎng)絡(luò)模型,優(yōu)化為精度損失較小、模型復(fù)雜度低、能耗低、適于嵌入式硬件實(shí)現(xiàn)、推理速度滿足實(shí)時(shí)系統(tǒng)需求的輕量化網(wǎng)絡(luò)模型[17]。

本文首先選擇在精度和速度兩方面表現(xiàn)均衡并對(duì)小目標(biāo)有較強(qiáng)檢測(cè)能力的YOLOv3目標(biāo)識(shí)別網(wǎng)絡(luò),作為神經(jīng)網(wǎng)絡(luò)優(yōu)化算法驗(yàn)證的輸入;其次,提出基于BatchNorm層實(shí)現(xiàn)的雙正則項(xiàng)裁剪優(yōu)化算法、以及針對(duì)FPGA計(jì)算架構(gòu)的INT8定點(diǎn)數(shù)據(jù)量化優(yōu)化算法,并詳細(xì)分析了基于TensorRT的INT8量化技術(shù);最后,分別基于ARM+GPU結(jié)構(gòu)的Jetson Xavier嵌入式平臺(tái)、FPGA EC2仿真實(shí)例平臺(tái)和Xilinx Ultrascale+MPSoC ZCU104平臺(tái)三種嵌入式計(jì)算平臺(tái),進(jìn)行目標(biāo)識(shí)別效果驗(yàn)證。

1 YOLOv3算法網(wǎng)絡(luò)結(jié)構(gòu)

YOLOv3的網(wǎng)絡(luò)結(jié)構(gòu)組成圖如圖1所示,具體由特征提取網(wǎng)絡(luò)(Darknet-53)和預(yù)測(cè)網(wǎng)絡(luò)兩部分組成。從結(jié)構(gòu)上講,Darknet-53網(wǎng)絡(luò)引入了ResNet網(wǎng)絡(luò)中的殘差結(jié)構(gòu)[18],由于深度加深,因此Darknet-53網(wǎng)絡(luò)的特征提取能力更強(qiáng)。

卷積正則激活組件(Conv2D-BN-Leaky relu,Conv)是YOLOv3網(wǎng)絡(luò)的基本構(gòu)成部件,由卷積層Conv2D、歸一化層BatchNorm和Leaky Relu激活函數(shù)組成。

張量拼接Concat是YOLOv3網(wǎng)絡(luò)的構(gòu)成特色之一。YOLOv3網(wǎng)絡(luò)通過張量拼接方式可以提取到深層特征和淺層特征,通過將不同倍率降采樣的張量特征與當(dāng)前上采樣層的張量特征進(jìn)行拼接,可以獲得高維度特征張量,進(jìn)而更好地分析語義特征。

2神經(jīng)網(wǎng)絡(luò)裁剪算法

目前,針對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行裁剪的壓縮算法研究較多,其中較為基礎(chǔ)的是基于閾值方法對(duì)網(wǎng)絡(luò)權(quán)重進(jìn)行整體裁剪的裁剪濾波器,其原理是針對(duì)每層中濾波器權(quán)重絕對(duì)值之和大于閾值的權(quán)重進(jìn)行保留。該類型算法實(shí)現(xiàn)簡單,但不能將訓(xùn)練過程與裁剪過程相結(jié)合,導(dǎo)致裁剪后的網(wǎng)絡(luò)精度較差。為了保持網(wǎng)絡(luò)模型結(jié)構(gòu)裁剪后的識(shí)別精度,參考文獻(xiàn)[16]提出了一種針對(duì)CNN的通用化通道選擇裁剪算法,通過稀疏化尺度因子裁剪掉“不重要”的通道。本文在此基礎(chǔ)上,提出基于BatchNorm層及雙正則項(xiàng)優(yōu)化的改進(jìn)型神經(jīng)網(wǎng)絡(luò)裁剪算法。

正則化[19]技術(shù)可以降低網(wǎng)絡(luò)模型復(fù)雜度,提高網(wǎng)絡(luò)穩(wěn)定程度,防止出現(xiàn)過擬合情況。在正則化框架中,目標(biāo)函數(shù)同時(shí)考慮兩種基于不同正則化方式的縮放比例因子項(xiàng)。將基于L1正則項(xiàng)和L2正則項(xiàng)的BatchNorm層縮放因子,同時(shí)作為優(yōu)化約束正則項(xiàng),并基于訓(xùn)練獲得針對(duì)數(shù)據(jù)集最優(yōu)的正則項(xiàng)系數(shù)。目標(biāo)函數(shù)如(1)所示:

本文提出的基于BatchNorm層的雙正則項(xiàng)裁剪優(yōu)化算法,是一種針對(duì)CNN不同網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行優(yōu)化的通用化神經(jīng)網(wǎng)絡(luò)壓縮算法。目標(biāo)函數(shù)優(yōu)化策略描述如下:通過結(jié)合不同正則項(xiàng)的優(yōu)勢(shì),將BN層的縮放因子作為雙正則項(xiàng)優(yōu)化約束策略,同時(shí)歸入目標(biāo)函數(shù),進(jìn)行稀疏化訓(xùn)練,縮放因子與其對(duì)應(yīng)通道的重要性成正相關(guān)關(guān)系。在訓(xùn)練過程中,對(duì)不重要的通道進(jìn)行自適應(yīng)裁剪,從而壓縮網(wǎng)絡(luò)模型,加快推理速度。

網(wǎng)絡(luò)裁剪過程如圖2所示,網(wǎng)絡(luò)裁剪過程由稀疏化訓(xùn)練、剪枝和微調(diào)網(wǎng)絡(luò)三部分組成,通過循環(huán)執(zhí)行對(duì)裁剪后的網(wǎng)絡(luò)進(jìn)行迭代訓(xùn)練,獲得更高的壓縮比,從而獲得滿足精度損失需求的網(wǎng)絡(luò)裁剪結(jié)果。

針對(duì)精確制導(dǎo)武器末制導(dǎo)目標(biāo)識(shí)別算法對(duì)于圖像數(shù)據(jù)集的需求,選取實(shí)測(cè)可見光和紅外圖像作為兩種類型訓(xùn)練數(shù)據(jù)集,并且均基于真實(shí)目標(biāo)應(yīng)用場(chǎng)景進(jìn)行拍攝。兩種類型的數(shù)據(jù)集屬性描述如下:可見光數(shù)據(jù)集包含6834個(gè)訓(xùn)練集和784個(gè)測(cè)試集;紅外數(shù)據(jù)集包含3070個(gè)訓(xùn)練集和315個(gè)測(cè)試集。兩類數(shù)據(jù)集各自包含5個(gè)種類,分別是坦克、越野車、汽車、卡車和裝甲車。

參考文獻(xiàn)[16]中的裁剪算法和本文提出的裁剪算法,在可見光數(shù)據(jù)集和紅外數(shù)據(jù)集上的識(shí)別精度結(jié)果見表1。表1中的結(jié)果是多次推理計(jì)算后所統(tǒng)計(jì)出的最優(yōu)識(shí)別結(jié)果。

從表1的統(tǒng)計(jì)結(jié)果可以看出,基于訓(xùn)練與裁剪同步的網(wǎng)絡(luò)裁剪算法,可以在網(wǎng)絡(luò)精度損失較小的情況下,有效壓縮網(wǎng)絡(luò)權(quán)重。相比參考文獻(xiàn)[16]中的裁剪算法,本文裁剪算法在權(quán)重壓縮比相同的情況下,在兩種數(shù)據(jù)集上的識(shí)別精度均優(yōu)于前者。

3神經(jīng)網(wǎng)絡(luò)量化算法

神經(jīng)網(wǎng)絡(luò)模型量化是影響目標(biāo)識(shí)別網(wǎng)絡(luò)精度的重要因素。本節(jié)首先介紹基于ARM+GPU平臺(tái)的量化方法,然后提出基于ARM+FPGA平臺(tái)的量化算法。

3.1基于ARM+GPU平臺(tái)的量化方法

NVIDIA Jetson Xavier平臺(tái)是一種ARM+GPU異構(gòu)計(jì)算平臺(tái),TensorRT[20]量化方法是基于該類型平臺(tái)實(shí)現(xiàn)的較為成熟的量化方法。TensorRT將真實(shí)值直接映射到INT8上,為了避免簡單的量化方法造成位寬浪費(fèi),進(jìn)而導(dǎo)致精度下降,TensorRT運(yùn)用了飽和映射的量化方法,如圖3所示。飽和映射的主要思想是確定閾值|T|,在±| | T范圍內(nèi)的數(shù)據(jù)值,將被映射到±127范圍中。

TensorRT基于飽和映射技術(shù)進(jìn)行量化,影響其精度的重要因素之一是如何選擇最優(yōu)閾值。TensorRT中使用真實(shí)數(shù)據(jù)對(duì)閾值T的選擇進(jìn)行校準(zhǔn),并利用校準(zhǔn)表來實(shí)現(xiàn)INT8的量化推理過程。經(jīng)過校準(zhǔn)后的精度損失大大降低,能夠滿足要求,并且量化計(jì)算過程簡單,可以獲得較大的性能提升。

3.2基于ARM+FPGA平臺(tái)的量化算法

FPGA計(jì)算架構(gòu)可以在同一時(shí)刻進(jìn)行并行運(yùn)算,有效提高資源的利用率。FPGA計(jì)算處理單元的結(jié)構(gòu)圖如圖4所示,可以看出,在FPGA計(jì)算處理單元中,并行數(shù)據(jù)處理主要體現(xiàn)在輸入通道并行、卷積核核間并行、輸出通道并行三個(gè)方面。

在量化協(xié)同訓(xùn)練過程中,根據(jù)經(jīng)驗(yàn)閾值設(shè)定相應(yīng)的量化步長和訓(xùn)練參數(shù)。采取的具體策略包括:兩組相同權(quán)重同步訓(xùn)練、每組組內(nèi)細(xì)分分組、組間對(duì)比逐步量化權(quán)重;對(duì)于每次未量化的權(quán)重部分,在量化過程當(dāng)中進(jìn)行新一輪的迭代求解,直到所有參數(shù)全部完成量化,從而獲得最優(yōu)的量化結(jié)果。經(jīng)過算法INT8定點(diǎn)量化后的網(wǎng)絡(luò)權(quán)重,可以在保持網(wǎng)絡(luò)精度的同時(shí),以移位計(jì)算的方式在FPGA上獲得硬件加速,顯著提升執(zhí)行效率。

4仿真驗(yàn)證

本文選取三種不同框架的計(jì)算平臺(tái)進(jìn)行優(yōu)化算法驗(yàn)證,包括基于ARM+GPU結(jié)構(gòu)的嵌入式硬件平臺(tái)Jetson Xavier、FPGA EC2仿真硬件平臺(tái)和Xilinx Ultrascale+ MPSoC系列中基于ARM+FPGA結(jié)構(gòu)的硬件平臺(tái)ZCU104。

4.1 Jetson Xavier平臺(tái)仿真驗(yàn)證

NVIDIA Jetson Xavier是一種異構(gòu)嵌入式平臺(tái)[21],硬件采用ARM+GPU設(shè)計(jì)結(jié)構(gòu)。GPU架構(gòu)可以為深度學(xué)習(xí)網(wǎng)絡(luò)提供高密集的計(jì)算CUDA核心。NVIDIA Jetson Xavier實(shí)物圖如圖5所示,其中紅色框內(nèi)為加速組件。

Jetson Xavier可以滿足優(yōu)化算法嵌入式硬件驗(yàn)證研究所需的功能與性能需求。本文結(jié)合TensorRT INT8量化技術(shù)和網(wǎng)絡(luò)裁剪優(yōu)化技術(shù)共同實(shí)現(xiàn)目標(biāo)識(shí)別優(yōu)化算法加速?;贘etson Xavier平臺(tái)進(jìn)行驗(yàn)證時(shí),在圖像輸入尺寸為416px×416px時(shí),YOLOv3算法在可見光數(shù)據(jù)集和紅外數(shù)據(jù)集上的識(shí)別結(jié)果統(tǒng)計(jì)情況見表2。表2中的結(jié)果是多次推理計(jì)算后所統(tǒng)計(jì)出的最優(yōu)識(shí)別結(jié)果。

驗(yàn)證結(jié)果表明,YOLOv3網(wǎng)絡(luò)經(jīng)過本文提出的裁剪算法和TensorRT INT8定點(diǎn)數(shù)據(jù)量化算法優(yōu)化后,在Jetson Xavier平臺(tái)上推理部署時(shí),運(yùn)行速度有了顯著提高。針對(duì)不同數(shù)據(jù)集,裁剪后推理速度稍有差異,其原因在于網(wǎng)絡(luò)裁剪優(yōu)化結(jié)果與訓(xùn)練數(shù)據(jù)集直接相關(guān)。

4.2 FPGA EC2仿真實(shí)例平臺(tái)驗(yàn)證

FPGA EC2實(shí)例是一種借Web服務(wù)的方式,讓使用者付費(fèi)使用云端服務(wù)器FPGA資源,進(jìn)而驗(yàn)證所開發(fā)FPGA系統(tǒng)的應(yīng)用。FPGA EC2僅提供Web服務(wù)接口,用戶通過Linux系統(tǒng)調(diào)用相關(guān)FPGA資源服務(wù)實(shí)例,其FPGA平臺(tái)為多個(gè)Xilinx 16nm Virtex UltraScale+器件VU9P,并基于服務(wù)實(shí)例資源使用情況分時(shí)在多個(gè)VU9P上驗(yàn)證。本文基于Developer AMI中的c5.large實(shí)例進(jìn)行驗(yàn)證,資源服務(wù)實(shí)例如圖6所示。

YOLOv3算法經(jīng)過本文提出的裁剪和FPGA INT8量化算法優(yōu)化后,在FPGA EC2仿真實(shí)例上的運(yùn)行過程如下:建立EC2調(diào)用實(shí)例;調(diào)用FPGA仿真模塊;配置FPGA仿真頻率為75MHz。基于EC2實(shí)例接口進(jìn)行調(diào)用的調(diào)用圖和配置圖如圖7所示。

基于FPGA EC2仿真實(shí)例進(jìn)行驗(yàn)證時(shí),在圖像輸入尺寸為416px×416px時(shí),YOLOv3算法在可見光數(shù)據(jù)集和紅外數(shù)據(jù)集上的識(shí)別結(jié)果統(tǒng)計(jì)情況見表3。表3中的結(jié)果是多次推理計(jì)算后所統(tǒng)計(jì)出的最優(yōu)識(shí)別結(jié)果。

驗(yàn)證結(jié)果表明,YOLOv3網(wǎng)絡(luò)經(jīng)過本文提出的裁剪算法和FPGA INT8定點(diǎn)數(shù)據(jù)量化算法優(yōu)化后,在FPGA EC2仿真實(shí)例上推理部署時(shí),能夠取得良好的加速效果。YOLOv3算法經(jīng)過裁剪和FPGA INT8量化后,運(yùn)行速度有了顯著提高。

4.3 ZCU104硬件加速器平臺(tái)仿真驗(yàn)證

ZCU104硬件加速器如圖8所示,其中紅色框內(nèi)為加速組件?;趯?shí)際拍攝的可見光和紅外圖像數(shù)據(jù)集,在ZCU104平臺(tái)上,部署驗(yàn)證本文所提出的末制導(dǎo)目標(biāo)識(shí)別優(yōu)化算法效果。

針對(duì)可見光數(shù)據(jù)集,網(wǎng)絡(luò)結(jié)構(gòu)裁剪及INT8量化前的目標(biāo)識(shí)別結(jié)果如圖9所示,網(wǎng)絡(luò)結(jié)構(gòu)裁剪0.3/0.6比例、同時(shí)經(jīng)過INT8定點(diǎn)數(shù)據(jù)量化后的識(shí)別結(jié)果如圖10~圖12所示。

針對(duì)紅外數(shù)據(jù)集,網(wǎng)絡(luò)結(jié)構(gòu)裁剪及INT8量化前的目標(biāo)識(shí)別結(jié)果如圖13所示,網(wǎng)絡(luò)結(jié)構(gòu)裁剪0.3/0.6比例、同時(shí)經(jīng)過INT8定點(diǎn)數(shù)據(jù)量化后的識(shí)別結(jié)果如圖14~圖16所示。

基于ZCU104進(jìn)行驗(yàn)證時(shí),在圖像輸入尺寸為416px×416px時(shí),YOLOv3算法在可見光數(shù)據(jù)集和紅外數(shù)據(jù)集上的識(shí)別結(jié)果統(tǒng)計(jì)情況見表4。表4中的結(jié)果是多次推理計(jì)算后所統(tǒng)計(jì)出的最優(yōu)識(shí)別結(jié)果。

驗(yàn)證結(jié)果表明,YOLOv3網(wǎng)絡(luò)經(jīng)過本文提出的裁剪算法和FPGA INT8定點(diǎn)數(shù)據(jù)量化算法優(yōu)化后,在Xilinx ZCU104平臺(tái)上推理部署時(shí),可以在保持原始網(wǎng)絡(luò)識(shí)別精度的基礎(chǔ)上,獲得較高的推理幀頻。

5結(jié)論

為了解決嵌入式受限資源條件下智能算法的應(yīng)用問題,提升精確制導(dǎo)武器末制導(dǎo)系統(tǒng)的目標(biāo)智能識(shí)別性能,本文提出了基于裁剪和INT8定點(diǎn)數(shù)據(jù)量化的目標(biāo)識(shí)別優(yōu)化算法。應(yīng)用本文提出的神經(jīng)網(wǎng)絡(luò)裁剪算法以及TensorRT量化技術(shù)和本文提出的基于FPGA平臺(tái)的量化算法,對(duì)YOLOv3目標(biāo)識(shí)別網(wǎng)絡(luò)進(jìn)行裁剪量化優(yōu)化,并在Jetson Xavier、FPGA EC2仿真實(shí)例和ZCU104三種不同的嵌入式硬件平臺(tái)進(jìn)行部署驗(yàn)證。驗(yàn)證結(jié)果表明,本文提出的基于裁剪和量化的神經(jīng)網(wǎng)絡(luò)優(yōu)化算法,針對(duì)YOLOv3目標(biāo)識(shí)別網(wǎng)絡(luò)進(jìn)行優(yōu)化時(shí),在網(wǎng)絡(luò)精度與推理速度間獲得了較好的均衡。本文的優(yōu)化算法思想,為嵌入式受限資源下智能算法的應(yīng)用問題提供了嶄新的思路。

下一步將進(jìn)一步研究基于FPGA硬件加速器的軟硬件優(yōu)化[22-24]技術(shù),探索性能更加優(yōu)越的神經(jīng)網(wǎng)絡(luò)優(yōu)化算法,為精確制導(dǎo)武器末制導(dǎo)目標(biāo)識(shí)別系統(tǒng)提供更加智能的技術(shù)解決方案。

參考文獻(xiàn)

[1]范晉祥,侯文濤.防空反導(dǎo)精確尋的末制導(dǎo)技術(shù)的發(fā)展與思考[J].空天防御, 2020(3): 31-37. Fan Jinxiang, Hou Wentao. Development and thinking of precision homing terminal guidance technology for air and missile defense[J]. Air & Space Defense, 2020(3): 31-37. (in Chinese)

[2]殷希梅,康焰清.無人機(jī)載精確制導(dǎo)炸彈技術(shù)發(fā)展趨勢(shì)[J].兵工自動(dòng)化, 2021, 40(9): 92-96. Yin Ximei, Kang Yanqing. Development trend of UAV-borne precision guided bomb technology[J]. Ordnance Industry Automation, 2021, 40(9): 92-96. (in Chinese)

[3]鄧平煜,裘旭益,姚子羽.航空軍事領(lǐng)域的人機(jī)混合智能技術(shù)[J].航空科學(xué)技術(shù), 2020, 31(10): 3-6. Deng Pingyu, Qiu Xuyi, Yao Ziyu. Human-machine hybrid intelligencetechnologyinmilitaryaviationfield[J]. Aeronautical Science & Technology, 2020, 31(10): 3-6. (in Chinese)

[4]高曉冬,王楓,范晉祥.精確制導(dǎo)系統(tǒng)面臨的挑戰(zhàn)與對(duì)策[J].戰(zhàn)術(shù)導(dǎo)彈技術(shù), 2017(6): 62-69, 75. Gao Xiaodong, Wang Feng, Fan Jinxiang. The challenges and development paths for precision guidance system[J]. Tactical Missile Technology, 2017(6): 62-69, 75. (in Chinese)

[5]武文峰,靳凌,周桃品.臨近空間高超聲速目標(biāo)防御制導(dǎo)策略研究[J].航空科學(xué)技術(shù), 2020, 31(3): 68-72. Wu Wenfeng, Jin Ling, Zhou Taopin. Research on defense and guidance strategy of hypersonic target in near-space[J]. Aeronautical Science & Technology, 2020, 31(3): 68-72. (in Chinese)

[6]張洵穎,趙曉冬,裴茹霞,等.無人車地面目標(biāo)識(shí)別及其優(yōu)化技術(shù)研究[J].無人系統(tǒng)技術(shù), 2020(6): 59-67. Zhang Xunying, Zhao Xiaodong, Pei Ruxia, et al. Research on ground target recognition and optimization technology of unmanned vehicle[J]. Unmanned Systems Technology, 2020(6): 59-67. (in Chinese)

[7]范晉祥,劉嘉.精確制導(dǎo)自動(dòng)目標(biāo)識(shí)別智能化的挑戰(zhàn)與思考[J].航空兵器, 2019, 26(1): 30-38. Fan Jinxiang, Liu Jia. Challenges and thinking for the precision guidance ATR intelligentization[J]. Aero Weaponry, 2019, 26(1): 30-38. (in Chinese)

[8]宋婷,賀豐收,程宇峰.深度學(xué)習(xí)技術(shù)在雷達(dá)目標(biāo)檢測(cè)中的研究進(jìn)展[J].航空科學(xué)技術(shù), 2020, 31(10): 12-20. Song Ting, He Fengshou, Cheng Yufeng. Research progress of deeplearningtechnologyinradartargetdetection[J]. Aeronautical Science & Technology, 2020, 31(10): 12-20. (in Chinese)

[9]Yanagisawa H,Yamashita T,Watanabe H. A study on object detection method from manga images using CNN[C]//2018 International Workshop on Advanced Image Technology(IWAIT),2018:1-4.

[10]韓伊娜.基于深度學(xué)習(xí)的目標(biāo)檢測(cè)與識(shí)別算法研究[D].西安:西安科技大學(xué), 2020. Han Yina. Research on target detection and recognition algorithm based on deep learning[D]. Xi’an: Xi’an University of Science and Technology, 2020. (in Chinese)

[11]GirshickR.FastR-CNN[C]//2015IEEEInternational Conference on Computer Vision(ICCV),2015:1440-1448.

[12]Ren S Q,He K M,Girshick R,et al. Faster R-CNN:towards real-time object detection with region proposal networks[J]. IEEETransactionsonPatternAnalysisandMachine Intelligence,2017,39(6):1137-1149.

[13]Redmon J,Divvala S,Girshick R,et al. You only look once:unified,real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2016:779-788.

[14]Redmon J,F(xiàn)arhadi A. YOLOv3:an incremental improvement[C]//IEEE Conference on Computer Vision and Pattern Recognition,2018.

[15]Huang J H,Sun W Z,Huang L. Deep neural networks compression learning based on multiobjective evolutionary algorithms[J]. Neurocomputing,2020,22:260-269.

[16]Liu Z,Li J G,Shen Z Q,et al. Learning efficient convolutional networks through network slimming[C]//2017 International Conference on Computer Vision,2017:2755-2763.

[17]Zhang P F,Ran H Y,Jia C Y,et al. A lightweight propagation path aggregating network with neural topic model for rumor detection[J]. Neurocomputing,2021,458(10):468-477.

[18]Zhang X L,Dong X P,Wei Q J,et al. Real-time object detection algorithm based on improved YOLOv3[J]. Journal of Electronic Imaging,2019,28(5):53022.

[19]Zhu D,Song X D,Yang J,et al. A bearing fault diagnosis method based on L1 regularization transfer learning and LSTM deep learning[C]//2021 IEEE International Conference on InformationCommunicationandSoftwareEngineering(ICICSE),2021:308-312.

[20]Tao L,Hong T,Guo Y C,et al. Drone identification based on CenterNet-TensorRT[C]//2020 IEEE International Symposium onBroadbandMultimediaSystemsandBroadcasting(BMSB),2020:1-5.

[21]Wang X J,Zhou Z G,Li Y. Design of moving target tracking system based on Jetson platform[C]//2020 IEEE International Conference on Artificial Intelligence and Information Systems(ICAIIS),2020:371-375.

[22]Li S C,Wen W,Wang Y,et al. An FPGA design framework for CNN sparsification and acceleration[C]//2017 IEEE 25th Annual International Symposium on Field-Programmable Custom Computing Machines(FCCM),2017:28.

[23]Han S,Kang J L,Mao H Z,et al. ESE:efficient speech recognition engine with sparse LSTM on FPGA[C]//Proceedings of the 2017 ACM/SIGDA International Symposium on Field- Programmable GateArrays,2017:75-84.

[24]Kim H,Choi K. Low power FPGA-SoC design techniques for CNN-based object detection accelerator[C]//2019 IEEE 10th AnnualUbiquitousComputing,Electronics&Mobile Communication Conference(UEMCON),2019:1130-1134.

Research on Optimization Algorithm of Terminal Guidance Target Recognition for Precision-Guided Weapons

Zhao Xiaodong1,Zhang Xunying1,Che Jun2,Chen Fayang2,Zhang Linlin1

1. Northwestern Polytechnical University,Xi’an 710072,China

2. National Key Laboratory of Science and Technology on Aircraft Control,AVIC Xi’an Flight Automatic Control Research Institute,Xi’an 710076,China

Abstract: In view of the challenges faced by the intelligent development of the precision-guided weapon terminal guidance system, combined with the computing requirements of intelligent target recognition algorithm on embedded hardware, the YOLOv3 network with good detection effect for small targets is selected for optimization and deployment verification. The paper studies the pruning algorithm of double regular terms based on BatchNorm layer, the INT8 quantization technology based on TensorRT, and the INT8 training and quantization collaborative optimization algorithm for FPGA computing architecture. Aiming at the YOLOv3 network structure, the optimization performance verification is carried out on three typical embedded hardware platforms, including NVIDIA Jetson Xavier platform, FPGA EC2 instance platform and Xilinx Ultrascale+MPoC ZCU104 platform. The results show that the optimization algorithm proposed in this paper can achieve a good balance between the network recognition accuracy and inference speed.

Key Words: terminal guidance target recognition; YOLOv3; neutral network optimization; Jetson Xavier; FPGA

3251500338290

主站蜘蛛池模板: 免费激情网址| 国产成人综合久久精品下载| 四虎成人精品| 中文字幕永久在线看| 免费无遮挡AV| 国产日韩精品一区在线不卡| 国产毛片高清一级国语| 欧美一区二区三区国产精品| 国产无遮挡裸体免费视频| 亚洲国产清纯| 久久综合色天堂av| 久久青草免费91线频观看不卡| 亚洲无码高清一区二区| 男人天堂伊人网| 成人一级黄色毛片| 国产女人18毛片水真多1| 内射人妻无码色AV天堂| 久久窝窝国产精品午夜看片| 精品欧美一区二区三区久久久| 久久精品视频亚洲| 毛片网站观看| 天天激情综合| 特级欧美视频aaaaaa| 国产人成乱码视频免费观看| 亚洲自偷自拍另类小说| 亚洲美女久久| 专干老肥熟女视频网站| 亚洲精品无码AⅤ片青青在线观看| 国产综合网站| 中文字幕丝袜一区二区| 美美女高清毛片视频免费观看| 伊人丁香五月天久久综合| 亚洲 日韩 激情 无码 中出| 在线观看精品自拍视频| 青青青草国产| 97视频免费在线观看| AV老司机AV天堂| 99在线观看国产| 97免费在线观看视频| 99re免费视频| 欧美视频在线第一页| 97se亚洲| 久久久受www免费人成| 亚洲第一页在线观看| 日本成人精品视频| 久视频免费精品6| 大香伊人久久| 亚洲丝袜第一页| 日韩成人免费网站| 999精品视频在线| 日本91视频| 日韩毛片免费| 免费国产高清精品一区在线| www.91在线播放| 国产理论精品| 99中文字幕亚洲一区二区| 日韩天堂在线观看| 亚洲天堂日韩av电影| 青青青国产视频| 欧美日本激情| 91成人精品视频| 97久久人人超碰国产精品| 亚洲人成网7777777国产| 国产午夜一级毛片| 亚洲国产无码有码| AV无码一区二区三区四区| 一区二区三区四区在线| 欧美激情,国产精品| 久久毛片网| 国产亚卅精品无码| 狠狠亚洲婷婷综合色香| 99热这里只有精品免费| 日韩a级毛片| 99精品视频播放| 欧美97欧美综合色伦图 | 蜜桃视频一区二区| 亚洲日本中文综合在线| 国产成人精品一区二区三在线观看| 日韩在线永久免费播放| 欧美日韩久久综合| 色综合中文字幕| 亚洲免费福利视频|