













摘" 要:為了確保水上應(yīng)急救援的及時(shí)性和可靠性,提高水上應(yīng)急救援裝備的智能化水平,提出一種水上應(yīng)急救援無人船系統(tǒng)。首先提出落水人員識(shí)別模塊,基于深度學(xué)習(xí)的單階段檢測(cè)算法,選擇YOLOv5作為救援目標(biāo)檢測(cè)的網(wǎng)絡(luò)模型,能夠?qū)崿F(xiàn)目標(biāo)精準(zhǔn)檢測(cè);以針孔相機(jī)模型的定位算法,定位落水人員的位置;在此基礎(chǔ)上研究自主導(dǎo)航模塊,通過LOS制導(dǎo)算法,實(shí)現(xiàn)應(yīng)急救援無人船的自主導(dǎo)航和避障,通過軌跡跟蹤實(shí)驗(yàn),達(dá)到較好的跟蹤效果;最后設(shè)計(jì)的自動(dòng)救援模塊,當(dāng)距離目標(biāo)點(diǎn)1 m范圍內(nèi)由救生系統(tǒng)拋擲救生圈實(shí)現(xiàn)救援。實(shí)驗(yàn)結(jié)果表明,能夠滿足江河湖泊應(yīng)急救援的需求,提高救援行動(dòng)的成功率。
關(guān)鍵詞:應(yīng)急救援;無人船;落水人員識(shí)別;深度學(xué)習(xí);LOS制導(dǎo)
中圖分類號(hào):U661" " " " 文獻(xiàn)標(biāo)志碼:A" " " " " 文章編號(hào):2095-2945(2024)04-0050-05
Abstract: In order to ensure the timeliness and reliability of water emergency rescue and improve the intelligent level of water emergency rescue equipment, an unmanned ship system for water emergency rescue is proposed. Firstly, the identification module of people who fell into the water is proposed, which is based on the single-stage detection algorithm of deep learning, and YOLOv5 is selected as the network model of rescue target detection, which can achieve accurate target detection, and the location algorithm of pinhole camera model is used to locate the location of people who fall into the water. On this basis, the autonomous navigation module is studied, and the autonomous navigation and obstacle avoidance of the emergency rescue unmanned ship are realized through the LOS guidance algorithm, and a better tracking effect is achieved through the trajectory tracking experiment. Finally, the automatic rescue module is designed, when the lifebuoy is thrown by the life-saving system within 1 meter from the target point. The experimental results show that it can meet the needs of emergency rescue of rivers and lakes and improve the success rate of rescue operations.
Keywords: emergency rescue; unmanned ship; identification of people who fall into the water; deep learning; LOS guidance
我國(guó)地大物博,水域資源遼闊,江河湖泊不計(jì)其數(shù)。隨著人們生活水平的提高,越來越多的人在閑暇時(shí)間選擇江河、湖泊、景區(qū)、近海浴場(chǎng)等進(jìn)行水上娛樂活動(dòng),大量與水有關(guān)的生產(chǎn)娛樂活動(dòng)存在著或多或少的安全隱患。在全國(guó)范圍內(nèi),由于江河湖泊眾多,海岸線綿長(zhǎng),每年夏季,溺水事故時(shí)有發(fā)生。據(jù)我國(guó)衛(wèi)生部統(tǒng)計(jì),全國(guó)每年約有5.7萬人死于溺水[1-2]。而目前的溺水救援,仍以傳統(tǒng)的人工救援為主,人工監(jiān)測(cè)無法保證24小時(shí)不間斷巡查,且因人力資源配備原因,無法覆蓋較大水域,在救援的同時(shí),施救人員的生命安全也受到較大威脅。在溺水事件發(fā)生后,如果能夠充分利用先進(jìn)的應(yīng)急救援裝備,便可大幅降低救援難度,提高救援效率,最大限度減小救生人員死亡風(fēng)險(xiǎn)。
為了確保水上應(yīng)急救援行動(dòng)的及時(shí)性和可靠性,提高水上應(yīng)急救援裝備的智能化程度勢(shì)在必行。隨著人工智能技術(shù)的高速發(fā)展,全天候、智能化、無人化的水上應(yīng)急救援裝備的研制已經(jīng)成為可能,不僅可大幅度提高溺水人員救援的成功率,更是避免了施救人員的風(fēng)險(xiǎn),是關(guān)系到人民群眾生命安全的大事。
當(dāng)前,提高水域救援效率的研究普遍采用智能化技術(shù),但對(duì)于搜索救援無人船的研究卻相對(duì)較少。國(guó)內(nèi)外也沒有報(bào)道關(guān)于綜合性的智能應(yīng)急救援無人船的研究成果。從如何將水面無人船的優(yōu)勢(shì)充分發(fā)揮到水域救援這一空白領(lǐng)域,到未來水上無人船的發(fā)展方向多元化、智能化,均需要人們的深入研究與探索。因此,如何創(chuàng)新性地將無人船應(yīng)用到水域救援這一特殊領(lǐng)域,將成為未來研究的重點(diǎn)和挑戰(zhàn)。國(guó)內(nèi)外針對(duì)于溺水人員的搜索救援智能無人船鮮有報(bào)道,主要集中于軍事、海洋監(jiān)測(cè)、水樣數(shù)據(jù)采集等領(lǐng)域的無人船研發(fā)和應(yīng)用[3]。
因此,本文開展基于水上應(yīng)急救援無人船關(guān)鍵技術(shù)研究,研究了落水人員識(shí)別模塊系統(tǒng),能夠定位落水人員的位置;研究自主導(dǎo)航模塊,實(shí)現(xiàn)應(yīng)急救援無人船的自主導(dǎo)航和避障;設(shè)計(jì)的自動(dòng)救援模塊,由救生系統(tǒng)拋擲救生圈實(shí)現(xiàn)救援。最后進(jìn)行了救援效果的實(shí)驗(yàn)驗(yàn)證,滿足應(yīng)急救援的需求。
1" 總體技術(shù)方案
智能識(shí)別通過落水人員圖像識(shí)別結(jié)合實(shí)現(xiàn)落水監(jiān)測(cè)與定位,配合使用自采集數(shù)據(jù)集+WSODD數(shù)據(jù)集訓(xùn)練YOLOv5模型,并部署至工控機(jī),進(jìn)行落水人員識(shí)別;將智能識(shí)別模型部署在無人船上,根據(jù)返回的識(shí)別信息與定位信息調(diào)用航行控制算法;航行控制收到定位信息后將根據(jù)任務(wù)發(fā)送控制信息,根據(jù)狀態(tài)反饋調(diào)整偏差,前往指定目標(biāo)點(diǎn),自主導(dǎo)航與避障行駛至目標(biāo)點(diǎn)(落水人員)附近,拋擲救生圈,實(shí)現(xiàn)救援任務(wù)。其總體技術(shù)方案如圖1所示。
2" 落水人員智能識(shí)別系統(tǒng)的設(shè)計(jì)與優(yōu)化
針對(duì)落水人員智能識(shí)別的關(guān)鍵技術(shù)挑戰(zhàn), 傳統(tǒng)方法過渡依賴經(jīng)驗(yàn)知識(shí)且手工設(shè)計(jì)特征無法適應(yīng)復(fù)雜場(chǎng)景,導(dǎo)致模型檢測(cè)準(zhǔn)確率偏低[4]。深度學(xué)習(xí)方法能自動(dòng)從數(shù)據(jù)中學(xué)習(xí)魯棒的特征表示以適應(yīng)復(fù)雜場(chǎng)景[5]。但是深度學(xué)習(xí)網(wǎng)絡(luò)具有預(yù)測(cè)能力至關(guān)重要的特征是其有大量需要學(xué)習(xí)的參數(shù),由于無人船系統(tǒng)的計(jì)算存儲(chǔ)設(shè)備資源算力有限,深度學(xué)習(xí)網(wǎng)絡(luò)常常難以展現(xiàn)其優(yōu)勢(shì)。綜合需求分析,選擇目標(biāo)識(shí)別能力較強(qiáng),且在資源有限的嵌入式設(shè)備中發(fā)揮穩(wěn)定的深度學(xué)習(xí)模型[6]。
2.1" 數(shù)據(jù)集采集與標(biāo)注
由于水上救援目標(biāo)的特殊性,并沒有滿足需求的公開數(shù)據(jù)集供訓(xùn)練使用。因此,首先考慮自采集數(shù)據(jù)集,在江河、湖泊、泳池、近海浴場(chǎng)等地方進(jìn)行了模擬落水人員數(shù)據(jù)集采集,在各大網(wǎng)絡(luò)平臺(tái)尋找落水事件相關(guān)圖片,最終收集落水人員數(shù)據(jù)集1 000余張,并用LabelImg對(duì)其進(jìn)行了標(biāo)注。
采集數(shù)據(jù)集中只包含落水人員的相關(guān)圖片,但實(shí)際救援環(huán)境相對(duì)復(fù)雜,為增強(qiáng)模型的魯棒性,實(shí)驗(yàn)中又加入了Water Surface Object Detection Dataset (WSODD),該公開數(shù)據(jù)集包含7 467張圖片、14種類型、21 911個(gè)實(shí)例,覆蓋了江河、湖泊、近海浴場(chǎng)等地方3種環(huán)境,晴天、多云天、霧天3種天氣,白天、夜晚、暮色3種時(shí)間段。豐富的環(huán)境信息、背景信息,使模型更快速準(zhǔn)確地鎖定落水人員,防止環(huán)境中的相似物體對(duì)識(shí)別造成影響、妨礙救援。
2.2" 模型訓(xùn)練與部署
基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法包括單階段檢測(cè)算法和雙階段檢測(cè)算法[7-8]。其中雙目標(biāo)的檢測(cè)器分為2步,第一階段根據(jù)特征回歸目標(biāo)的大致位置,第二階段進(jìn)行目標(biāo)具體類別預(yù)測(cè)以及位置修正,檢測(cè)速度較慢,檢測(cè)精度較高。救援目標(biāo)檢測(cè)需要模型快速檢測(cè)出落水人員,考慮從檢測(cè)速度更快的單階段檢測(cè),并且隨著算法的不斷優(yōu)化,單階段檢測(cè)算法的檢測(cè)精度已接近甚至超越雙階段檢測(cè)算法。再考慮模型的大小,選擇檢測(cè)精度高,且模型參數(shù)小的算法。經(jīng)過多次對(duì)比實(shí)驗(yàn),最終選擇YOLOv5作為救援目標(biāo)檢測(cè)的網(wǎng)絡(luò)模型。
在本系統(tǒng)中,采用YOLOv5中s、m、l、x 4個(gè)版本的模型中深度最小、特征圖的寬度最小的YOLOv5s網(wǎng)絡(luò)。YOLOv5的網(wǎng)絡(luò)模型主要分為主干網(wǎng)絡(luò)、瓶頸網(wǎng)絡(luò)和預(yù)測(cè)網(wǎng)絡(luò)3個(gè)部分[9],系統(tǒng)采用s版本的網(wǎng)絡(luò)結(jié)構(gòu),訓(xùn)練完成的模型參數(shù)量大小僅14.4 M,滿足嵌入式設(shè)備的需求。
選定模型后,將標(biāo)注好的自采集數(shù)據(jù)集與WSODD進(jìn)行劃分,其中80%進(jìn)行訓(xùn)練,設(shè)置迭代次數(shù)為300,隨著迭代次數(shù)增加,模型準(zhǔn)確率逐步增強(qiáng),訓(xùn)練完畢后,利用剩下的20%數(shù)據(jù)集進(jìn)行驗(yàn)證。最終將訓(xùn)練好的模型部署到處理器為Intel Core I5 Celeron 4205U Pentium 5405U的工控機(jī)中,與船控聯(lián)動(dòng)進(jìn)行落水人員救援,可以不需要將模型轉(zhuǎn)換到不同框架上,直接在邊緣端部署訓(xùn)練模型,這種方式能夠快速實(shí)現(xiàn)模型的設(shè)計(jì)并應(yīng)用到實(shí)踐中,避免了軟件兼容性的問題。
3" 定位與自主導(dǎo)航系統(tǒng)的設(shè)計(jì)與優(yōu)化
3.1" 針孔相機(jī)模型
針孔模型可以描述為將三維世界的坐標(biāo)點(diǎn)(單位為m)映射到二維圖像平面(單位為像素)?;谖锢韺W(xué)中蠟燭投影實(shí)驗(yàn),小孔模型把三維世界的蠟燭投影到了一個(gè)二維成像平面上,同樣也解釋了相機(jī)的成像過程[10],如圖2所示。
針孔模型的幾何建模過程和步驟如下:首先設(shè)相機(jī)坐標(biāo)系為O-x-y-z,通常情況下,z軸指向前,x軸指向右,y軸指向下,坐標(biāo)原點(diǎn)為相機(jī)的光心O,也就是針孔的位置,將空間點(diǎn)P經(jīng)過小孔O投影后將會(huì)在平面 上成像[11],對(duì)應(yīng)的點(diǎn)為P′。設(shè)P的坐標(biāo)為[X,Y,Z],P′為[X′,Y′,Z′],物理成像平面到小孔的距離為f。那么,根據(jù)三角形相似關(guān)系,可以發(fā)現(xiàn)針孔到成像點(diǎn)的距離與實(shí)際物體距離成比例,得到公式(1)
為了簡(jiǎn)化針孔模型而采取一種常見處理方式,即將三維空間點(diǎn)和成像平面放置在相同側(cè)面,公式簡(jiǎn)化為
整理得
針孔模型描述了點(diǎn)P和其對(duì)應(yīng)的成像點(diǎn)之間的空間關(guān)系,需要在成像平面上對(duì)像素進(jìn)行采樣和量化。設(shè)定一個(gè)像素平面,它位于物理成像平面o-u-ν上且固定不動(dòng),在像素平面P′的像素坐標(biāo)為[u,ν]。
基于圖像的定位算法設(shè)計(jì)正是基于相機(jī)的針孔模型,其中涉及到以下4個(gè)坐標(biāo)系[12]:①世界坐標(biāo)系,描述相機(jī)位置,單位m;②相機(jī)坐標(biāo)系,光心為原點(diǎn),單位m;③圖像坐標(biāo)系,原點(diǎn)為成像平面中點(diǎn),單位mm;④像素坐標(biāo)系,原點(diǎn)為圖像左上角。
P為世界坐標(biāo)系中的一點(diǎn),即為生活中真實(shí)的一點(diǎn);p為點(diǎn)P在圖像中的成像點(diǎn),在圖像坐標(biāo)系中的坐標(biāo)為(x,y),在像素坐標(biāo)系中的坐標(biāo)為(u,v);f為相機(jī)焦距,等于o與O_c的距離。利用相機(jī)焦距和圖像中成像點(diǎn)的坐標(biāo)可以計(jì)算出物體在真實(shí)世界的位置,具體原理如下
極坐標(biāo)解算算法如下
式中:D為物體距離攝像頭的距離,θ為偏離角度,再結(jié)合無人船慣性導(dǎo)航定位的全球經(jīng)緯度數(shù)據(jù)計(jì)算出落水人員的坐標(biāo),再依靠設(shè)計(jì)的自主導(dǎo)航系統(tǒng)到達(dá)目標(biāo)點(diǎn)。
3.2" 視線法(LOS)制導(dǎo)原理
自動(dòng)導(dǎo)航系統(tǒng)的實(shí)現(xiàn)依靠制導(dǎo)策略和控制算法的結(jié)合,制導(dǎo)策略即跟蹤方法,這里采用的是視線法(LOS)。該算法通過計(jì)算期望航向點(diǎn)和當(dāng)前位置之間的航向角,結(jié)合控制器來消除航向角偏差,從而讓無人船的當(dāng)前航向角逐步接近期望航向角。具體實(shí)現(xiàn)時(shí),算法需要將期望航向點(diǎn)和當(dāng)前位置進(jìn)行比較,計(jì)算出期望航向角,然后通過控制器調(diào)節(jié)方向舵角來實(shí)現(xiàn)航向角的調(diào)整,從而跟蹤期望航向點(diǎn)。最終,通過穩(wěn)定的控制,無人船能夠準(zhǔn)確地到達(dá)目標(biāo)航向點(diǎn)[13-14],如圖3所示。
為了實(shí)現(xiàn)對(duì)USV(Unmanned Surface Vessel)航跡點(diǎn)更優(yōu)的跟蹤控制,因此,需要對(duì)LOS算法進(jìn)行優(yōu)化。優(yōu)化的LOS算法引入了一個(gè)可視距離,以提高無人船的航向控制精度,原理如圖4所示。
已知參數(shù)中,期望航向點(diǎn)PLOS=[XLOS,YLOS]T,USV當(dāng)前位置在期望航跡上投影點(diǎn)之間的距離Δ=nLpp,Δ為被控USV的可視距離,USV長(zhǎng)度為L(zhǎng)pp,n=2~5。此時(shí),可推導(dǎo)出
式中:e表示USV橫向跟隨誤差,即被控制無人船橫向跟隨誤差的度量,這個(gè)度量是通過計(jì)算期望航跡線與大地坐標(biāo)系北向軸之間的偏轉(zhuǎn)角得到的。假設(shè)航向角偏差Ψe=α?-Ψ逐漸趨近于零,那么可以通過執(zhí)行上述過程實(shí)現(xiàn)路徑跟蹤,即向目標(biāo)航向點(diǎn)行進(jìn),最終到達(dá)期望航跡。最后,通過PID控制,實(shí)現(xiàn)當(dāng)前航向角跟蹤期望航向角α?,使無人船沿著期望航跡前進(jìn)。
通過優(yōu)化的LOS算法,被控USV實(shí)現(xiàn)跟蹤當(dāng)前的期望航向點(diǎn)Pk+1=[Xk+1,Yk+1]T。當(dāng)無人船進(jìn)入該期望航向點(diǎn)的某個(gè)區(qū)域時(shí),當(dāng)前的期望航向點(diǎn)的跟蹤被自動(dòng)放棄,下一個(gè)期望航向點(diǎn)的跟蹤立即執(zhí)行,即k=k+1。因此,需要一種有效的控制算法來確定何時(shí)判斷和切換期望航向點(diǎn)。假設(shè)以被控制的無人船當(dāng)前跟蹤的期望航向點(diǎn)(Xk+1,Yk+1)為圓心,以R0為半徑生成圓形。若在某一點(diǎn),無人船的當(dāng)前位置P=[X,Y]T滿足
則需要將當(dāng)前跟蹤的期望航向點(diǎn)轉(zhuǎn)換為下一個(gè)期望航向點(diǎn),并在ΨLOS計(jì)算時(shí)使用下一個(gè)期望航向點(diǎn)的數(shù)據(jù)進(jìn)行計(jì)算。
實(shí)船驗(yàn)證中,USV從起始點(diǎn)向目標(biāo)點(diǎn)航行過程中,LOS軌跡跟蹤效果如圖5所示,可以看出,除了在拐角處的軌跡點(diǎn)跟蹤稍有波動(dòng),一般情況下的軌跡點(diǎn)跟蹤擬合效果比較理想。
4" 實(shí)驗(yàn)結(jié)果
通過針孔相機(jī)模型和相機(jī)標(biāo)定的內(nèi)參矩陣,根據(jù)式(5)解算出救援目標(biāo)點(diǎn)的相對(duì)位置D和θ,再由相對(duì)位置和無人船的世界坐標(biāo)求出救援目標(biāo)點(diǎn)的世界坐標(biāo)即經(jīng)緯度。根據(jù)LOS制導(dǎo)跟蹤軌跡點(diǎn)與PID糾正偏差,實(shí)時(shí)輸出控制信號(hào)航向與航速前往目標(biāo)點(diǎn)。當(dāng)距離目標(biāo)點(diǎn)1 m范圍內(nèi)由慣性向前推進(jìn)并由救生系統(tǒng)拋擲救生圈實(shí)現(xiàn)救援,其流程圖如圖6所示。
自動(dòng)拋投救援系統(tǒng)設(shè)計(jì)主要由脫鉤器配合自動(dòng)充氣救生圈組成,如圖7所示。脫鉤器主要依靠與控制信號(hào)接收機(jī)相連的數(shù)字舵機(jī),當(dāng)?shù)竭_(dá)救援點(diǎn)時(shí)船內(nèi)的微型控制器會(huì)給接收機(jī)通道發(fā)送釋放信號(hào),舵機(jī)將控制掛臂收縮,原本在掛臂上的氣脹式救生圈會(huì)落入水中。氣脹式救生圈主要由密封充氣式背心氣囊、微型高壓二氧化碳鋼瓶、快速充氣閥、嘴吹氣裝置、求救哨等組成。一旦落入水中,可在3~5 s短時(shí)間內(nèi)充滿,成為具有大于等于100 N浮力的救生衣,并將人向上托起,使頭和肩部露出水面,吹響口哨從而保證穿戴人員生命安全并及時(shí)獲救,如圖8所示。
5" 結(jié)論
針對(duì)當(dāng)前水上應(yīng)急救援應(yīng)具有的及時(shí)性和可靠性,提出了一種水上應(yīng)用救援無人船系統(tǒng)及其關(guān)鍵技術(shù)應(yīng)用。本文提出的落水人員識(shí)別模塊系統(tǒng),利用深度學(xué)習(xí)的單階段檢測(cè)算法,基于YOLOv5作為救援目標(biāo)檢測(cè)的網(wǎng)絡(luò)模型能夠?qū)崿F(xiàn)落水人員的精準(zhǔn)目標(biāo)檢測(cè);以針孔相機(jī)模型的定位算法,能夠定位落水人員的位置;基于LOS制導(dǎo)算法的自主導(dǎo)航模塊系統(tǒng),實(shí)現(xiàn)應(yīng)急救援無人船的自主導(dǎo)航和避障,通過軌跡跟蹤實(shí)驗(yàn),能夠?qū)崿F(xiàn)準(zhǔn)確的目標(biāo)跟蹤;最后設(shè)計(jì)的自動(dòng)救援模塊系統(tǒng),當(dāng)距離目標(biāo)點(diǎn)1 m范圍內(nèi)由救生系統(tǒng)拋擲救生圈實(shí)現(xiàn)救援。實(shí)驗(yàn)結(jié)果表明,本文提出的水上應(yīng)急救援無人船系統(tǒng)能夠滿足江河湖泊應(yīng)急救援的需求,減少不必要的人員傷亡,提升了水上應(yīng)急救援的智能化水平。
參考文獻(xiàn):
[1] 董炳艷,張自強(qiáng),徐蘭軍,等.智能應(yīng)急救援裝備研究現(xiàn)狀與發(fā)展趨勢(shì)[J].機(jī)械工程學(xué)報(bào),2020,56(11):1-25.
[2] 宋學(xué)強(qiáng).基于計(jì)算機(jī)視覺的水面目標(biāo)檢測(cè)及無人船平臺(tái)研發(fā)[D].杭州:杭州電子科技大學(xué),2020.
[3] 王石,張建強(qiáng),楊舒卉,等.國(guó)內(nèi)外無人艇發(fā)展現(xiàn)狀及典型作戰(zhàn)應(yīng)用研究[J].火力與指揮控制,2019,44(2):11-15.
[4] 向濤.復(fù)雜場(chǎng)景下目標(biāo)檢測(cè)算法研究[D].成都:電子科技大學(xué),2016.
[5] 王晶.基于深度學(xué)習(xí)的文本表示和分類研究[D].北京:北京郵電大學(xué),2019.
[6] 李冰.目標(biāo)檢測(cè)模型壓縮算法的研究與實(shí)現(xiàn)[D].哈爾濱:哈爾濱工業(yè)大學(xué),2019.
[7] 杜嘉偉.基于深度學(xué)習(xí)的復(fù)雜場(chǎng)景下車牌檢測(cè)與識(shí)別算法研究[D].秦皇島:燕山大學(xué),2021.
[8] 劉俊明,孟衛(wèi)華.基于深度學(xué)習(xí)的單階段目標(biāo)檢測(cè)算法研究綜述[J].航空兵器,2020,27(3):44-53.
[9] LIANG C,YAN Z,REN M,et al. Improved YOLOv5 infrared tank target detection method under ground background[J]. Scientific Reports,2023,13(1).
[10] 曲吉旺.基于多路顯微視覺的微管-微球裝配研究[D].哈爾濱:哈爾濱理工大學(xué),2020.
[11] 孫靜文.室內(nèi)服務(wù)機(jī)器人熱場(chǎng)地圖構(gòu)建與目標(biāo)檢測(cè)技術(shù)研究[D].哈爾濱:哈爾濱工業(yè)大學(xué),2020.
[12] 倪樺,關(guān)巍,張顯庫(kù).基于激光雷達(dá)與攝像頭的無人船目標(biāo)感知與測(cè)距[J].船舶工程,2022,44(9):107-113.
[13] 曾江峰,萬磊,李岳明,等.基于切換視線法的欠驅(qū)動(dòng)無人艇魯棒自適應(yīng)路徑跟蹤控制[J].兵工學(xué)報(bào),2018,39(12):2427-2437.
[14] 韓鵬,劉志林,周澤才,等.基于LOS法的自航模航跡跟蹤控制算法實(shí)現(xiàn)[J].應(yīng)用科技,2018,45(3):66-70.