999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于多組并行深度Q網(wǎng)絡(luò)的連續(xù)空間追逃博弈算法

2021-05-06 07:49:40劉冰雁葉雄兵岳智宏董獻(xiàn)洲張其揚(yáng)
兵工學(xué)報(bào) 2021年3期
關(guān)鍵詞:策略模型

劉冰雁, 葉雄兵, 岳智宏, 董獻(xiàn)洲, 張其揚(yáng)

(1.軍事科學(xué)院, 北京 100091; 2.32032部隊(duì), 北京 100094)

0 引言

以追捕者視角看待的追逃博弈(PEG)問題[1],是在僅知自身狀態(tài)和逃逸者當(dāng)前有限狀態(tài)、未知逃逸者未來行為策略的條件下采取最優(yōu)行為,并最終完成追捕任務(wù)的一個(gè)動(dòng)態(tài)博弈過程。該問題是最優(yōu)控制與動(dòng)態(tài)博弈的深度融合,現(xiàn)已在戰(zhàn)車追捕[2]、戰(zhàn)斗機(jī)格斗[3]、導(dǎo)彈攔截[4]以及航天器交會(huì)[5]等軍事應(yīng)用場(chǎng)景中被重點(diǎn)關(guān)注。

PEG問題中的逃逸者,除了在一個(gè)連續(xù)且動(dòng)態(tài)變化的空間環(huán)境中活動(dòng)外,還具有典型的非合作性,即有信息層面不溝通、機(jī)動(dòng)行為不配合、先驗(yàn)知識(shí)不完備等特性[5]。針對(duì)此類軍事場(chǎng)景中常出現(xiàn)的雙方連續(xù)動(dòng)態(tài)沖突、對(duì)抗博弈問題,可通過微分對(duì)策[6-7]進(jìn)行數(shù)學(xué)描述。這類追捕- 逃逸微分博弈是微分對(duì)策的一種應(yīng)用,最初由Isaacs[1]提出,近年被廣泛運(yùn)用到諸多領(lǐng)域。例如,文獻(xiàn)[8-9]根據(jù)機(jī)器人追捕問題的具體情況,通過分析追逃雙方的不同狀態(tài)及形勢(shì),建立了追捕者與逃逸者的微分博弈描述式。文獻(xiàn)[10]將高速機(jī)動(dòng)目標(biāo)攔截末制導(dǎo)過程抽象為以視線角速率和燃料消耗為性能指標(biāo)的零和微分博弈問題,設(shè)計(jì)了一種微分對(duì)策制導(dǎo)律,以表述對(duì)目標(biāo)的攔截策略。文獻(xiàn)[11-12]在主動(dòng)防御飛行器制導(dǎo)問題研究中,運(yùn)用微分對(duì)策理論對(duì)對(duì)抗雙方的制導(dǎo)律進(jìn)行了描述與設(shè)計(jì)。文獻(xiàn)[13]在三維空間中多智能體參與的PEG問題研究中,利用微分對(duì)策設(shè)計(jì)了防御器和逃逸器的最優(yōu)控制策略。文獻(xiàn)[14]為獲得追逃雙方在對(duì)策條件下的最優(yōu)策略,運(yùn)用微分博弈對(duì)航天器的整個(gè)追逃過程進(jìn)行了數(shù)學(xué)描述。但在利用微分對(duì)策描述PEG問題過程中,由于會(huì)面臨多目標(biāo)求解、方程復(fù)雜度以及約束非線性等諸多難題,導(dǎo)致其求解過程一直較為棘手[15]。

當(dāng)前,強(qiáng)化學(xué)習(xí)技術(shù)[16]在有效結(jié)合深度學(xué)習(xí)[17]后得到了進(jìn)一步發(fā)展,為微分對(duì)策問題提供了更好的解決方案,并受到各領(lǐng)域廣泛關(guān)注[18-19]。例如,針對(duì)實(shí)時(shí)對(duì)抗微分對(duì)策問題,Deepmind科研團(tuán)隊(duì)利用深度學(xué)習(xí)展現(xiàn)了強(qiáng)大的信息處理和決策能力,之后又結(jié)合強(qiáng)化學(xué)習(xí)技術(shù)以提升實(shí)時(shí)對(duì)抗和動(dòng)態(tài)博弈能力,使其自主對(duì)抗決策能力接近人智水平[20]。文獻(xiàn)[21]闡述了軍事智能博弈對(duì)抗的發(fā)展需求和概念內(nèi)涵,分析了基于強(qiáng)化學(xué)習(xí)的博弈對(duì)抗特點(diǎn),展望了智能博弈對(duì)抗技術(shù)的發(fā)展方向。文獻(xiàn)[22]在交通網(wǎng)絡(luò)信號(hào)控制領(lǐng)域研究中,融入博弈論的混合策略納什均衡概念,改進(jìn)IA-MARL的決策過程,提出了一種考慮博弈的多智能體強(qiáng)化學(xué)習(xí)框架,有效降低了車輛在不飽和且交通需求不均衡和波動(dòng)的城市路網(wǎng)中的單位行程時(shí)間和單位車均延誤。文獻(xiàn)[23]針對(duì)無人機(jī)通信網(wǎng)絡(luò)中的干擾對(duì)抗問題,考慮無人機(jī)網(wǎng)絡(luò)節(jié)點(diǎn)的動(dòng)態(tài)特性,將干擾器視為分層博弈領(lǐng)導(dǎo)者無人機(jī)用戶視為分層博弈跟隨者,提出一種基于分層博弈的自適應(yīng)頻譜接入優(yōu)化機(jī)制,智能地調(diào)整信道選擇從而獲得了良好的吞吐量性能。因此,基于深度強(qiáng)化學(xué)習(xí)的技術(shù)性突破,對(duì)解決高動(dòng)態(tài)、不確定以及復(fù)雜環(huán)境下的微分對(duì)策問題,將具有重要的理論意義和應(yīng)用價(jià)值[24-27]。

在空中格斗、導(dǎo)彈攔截、戰(zhàn)車追擊以及空間非合作目標(biāo)交會(huì)等軍事對(duì)抗中,追捕者試圖在最短時(shí)間內(nèi)追上逃逸者,而逃逸者則試圖盡可能避開追捕者的現(xiàn)實(shí)問題,是典型的雙方對(duì)抗博弈問題。本文在運(yùn)用強(qiáng)化學(xué)習(xí)解決此類PEG問題過程中,針對(duì)傳統(tǒng)Q-learning應(yīng)對(duì)連續(xù)空間存在維數(shù)災(zāi)難問題,構(gòu)建了Takagi-Sugeno-Kang(TSK)模糊推理模型表征連續(xù)空間行為;針對(duì)離散動(dòng)作集自學(xué)復(fù)雜且耗時(shí)問題,設(shè)計(jì)了多組并行的深度Q網(wǎng)絡(luò)(DQN)算法,從而達(dá)成以較短學(xué)習(xí)時(shí)間、在連續(xù)空間快速完成追捕任務(wù)的研究目標(biāo)。

1 連續(xù)空間的TSK模糊推理模型

PEG問題通常出現(xiàn)在連續(xù)空間,但傳統(tǒng)強(qiáng)化學(xué)習(xí)可能會(huì)由于其狀態(tài)連續(xù)性、多維并存而存在維數(shù)災(zāi)難問題[28]。為有效避免這一問題,本文依據(jù)“模糊推理是一種可以任何精度逼近任意非線性函數(shù)的萬能逼近器”[29]的結(jié)論,通過構(gòu)建一個(gè)TSK模糊推理模型來表征連續(xù)空間,并將其作為強(qiáng)化學(xué)習(xí)中的一部分。

通過零階TSK模糊推理模型[30],結(jié)合隸屬函數(shù)[31]表征連續(xù)狀態(tài)行為空間,經(jīng)過IF-THEN規(guī)則獲得模糊集到輸出連續(xù)線性函數(shù)之間的模糊映射關(guān)系[32]為

(1)

對(duì)于模糊模型的輸出,可利用加權(quán)平均去模糊化技術(shù)將模糊量轉(zhuǎn)換成精確量[34]:

(2)

(3)

圖1所示為輸入量為2、隸屬函數(shù)個(gè)數(shù)為3的TSK模糊推理模型。推廣到一般情況,假設(shè)以n個(gè)連續(xù)空間行為變量xi為輸入。對(duì)每個(gè)xi通過y個(gè)隸屬函數(shù),再經(jīng)過去模糊處理后輸出精確值U.

圖1 TSK模糊推理模型Fig.1 TSK fuzzy inference model

第2層網(wǎng)絡(luò)中,采取直積推理[35],即分別在L(L=yn)個(gè)運(yùn)算節(jié)點(diǎn)對(duì)各隸屬度進(jìn)行交叉相乘運(yùn)算:

(4)

第3層網(wǎng)絡(luò)中,進(jìn)行加權(quán)平均去模糊化處理,歸一隸屬度為

(5)

(6)

第5層網(wǎng)絡(luò)中,累計(jì)各節(jié)點(diǎn),便可實(shí)現(xiàn)(2)式所示的去模糊化效果:

(7)

2 基于多組并行DQN的PEG

強(qiáng)化學(xué)習(xí)直接運(yùn)用于TSK模糊推理模型,會(huì)面臨行為數(shù)量與映射規(guī)則的組合增長(zhǎng)問題,將大大削弱離散化處理后的行為控制決策能力。為此,本文構(gòu)建多組、并行的DQN網(wǎng)絡(luò)架構(gòu),設(shè)計(jì)PEG強(qiáng)化學(xué)習(xí)算法,提出追捕者與逃逸者的博弈交互訓(xùn)練步驟,在未知逃逸策略、行為動(dòng)作的條件下,實(shí)現(xiàn)最優(yōu)追捕行為的自主生成。

2.1 多組并行DQN網(wǎng)絡(luò)架構(gòu)

連續(xù)狀態(tài)空間和行為空間,經(jīng)過TSK模糊推理模型處理,依L條規(guī)則根據(jù)(5)式計(jì)算,獲得L項(xiàng)歸一化直積推理值。其間,構(gòu)建多組并行的DQN網(wǎng)絡(luò)架構(gòu),為基于TSK模糊推理預(yù)處理的追逃微分策略問題生成全局連續(xù)行為。

由此,依據(jù)TSK模糊推理模型中的L條規(guī)則,建立L組DQN網(wǎng)絡(luò),對(duì)PEG策略進(jìn)行自主學(xué)習(xí)。多組并行DQN網(wǎng)絡(luò),是在單個(gè)神經(jīng)網(wǎng)絡(luò)基礎(chǔ)上增加了多個(gè)并行神經(jīng)網(wǎng)絡(luò)。與單組神經(jīng)網(wǎng)絡(luò)[36]類似,并行神經(jīng)網(wǎng)絡(luò)在與環(huán)境的不斷交互中自主學(xué)習(xí)并提升行為決策能力,通過在網(wǎng)絡(luò)中加入博弈和反饋機(jī)制,使多組并行DQN網(wǎng)絡(luò)具有更強(qiáng)的自主性、靈活性和協(xié)調(diào)性等特點(diǎn),具備更強(qiáng)的學(xué)習(xí)、推理和自組織能力。

多組并行DQN基本架構(gòu)如圖2所示。其中,與L條IF-THEN模糊規(guī)則相對(duì)應(yīng)的離散動(dòng)作集a={a1,a2,…,aL},經(jīng)過多組并行的神經(jīng)網(wǎng)絡(luò)計(jì)算,獲得離散動(dòng)作的狀態(tài)行為函數(shù)(簡(jiǎn)稱為q函數(shù)),再經(jīng)過PEG強(qiáng)化學(xué)習(xí)算法以及加權(quán)平均去模糊處理,便可獲得該狀態(tài)下的輸出行為U.

圖2 多組并行DQN基本架構(gòu)Fig.2 Basic framework of multi-group DQN

2.2 PEG強(qiáng)化學(xué)習(xí)算法

為運(yùn)用多組并行DQN架構(gòu)解決連續(xù)空間PEG問題,需要對(duì)模糊規(guī)則稍作調(diào)整,用al替換(1)式中的cl. 在運(yùn)用加權(quán)平均去模糊化技術(shù)之前,依據(jù)輸入量為n、隸屬函數(shù)個(gè)數(shù)為y的TSK模糊推理模型,進(jìn)行L(L=yn)條IF-THEN模糊規(guī)則映射:

(8)

式中:al為追捕者離散動(dòng)作集a中對(duì)應(yīng)于規(guī)則l的動(dòng)作。

為了有效解決強(qiáng)化學(xué)習(xí)中的探索與利用問題,即持續(xù)使用當(dāng)前最優(yōu)策略保持高回報(bào)的同時(shí),敢于嘗試一些新的行為以求更大地獎(jiǎng)勵(lì),對(duì)行為al采取ε-greedy貪婪策略[25]。該策略定義追捕者以ε的概率在動(dòng)作集中隨機(jī)選取,以1-ε的概率選擇一個(gè)最優(yōu)動(dòng)作。

(9)

式中:q(S,al)為規(guī)則和追捕者動(dòng)作al∈a下的關(guān)聯(lián)q函數(shù)。

根據(jù)(2)式,t時(shí)刻追捕者所采取的全局連續(xù)行為可表示為

(10)

(11)

為了彌補(bǔ)DQN算法存在的獎(jiǎng)勵(lì)偏見問題,本文提出一種競(jìng)爭(zhēng)網(wǎng)絡(luò)取代經(jīng)典算法中的單輸出網(wǎng)絡(luò)模型,以提升神經(jīng)網(wǎng)絡(luò)訓(xùn)練效果,加快收斂速度。將q函數(shù)的神經(jīng)網(wǎng)絡(luò)全連接層分解為一個(gè)狀態(tài)函數(shù)vt(S)和一個(gè)優(yōu)勢(shì)函數(shù)ot(S,al),再通過全連接合并,有

qt(S,al)=vt(S)+ot(S,al).

(12)

利用優(yōu)勢(shì)函數(shù)期望值為0這一特性[37],用優(yōu)勢(shì)函數(shù)ot(S,al)減去當(dāng)前狀態(tài)下所有動(dòng)作優(yōu)勢(shì)函數(shù)的均值,以控制優(yōu)勢(shì)函數(shù)的期望,進(jìn)而(12)式修改為

(13)

DQN架構(gòu)中,在獎(jiǎng)懲值的牽引下為實(shí)現(xiàn)反饋?zhàn)灾鲗W(xué)習(xí),定義了時(shí)間差分誤差函數(shù):

(14)

式中:γ為折扣因子,γ∈[0,1];Rt+1為t+1時(shí)刻可獲得的獎(jiǎng)懲值。

通過神經(jīng)網(wǎng)絡(luò)迭代,更新q函數(shù),有

(15)

式中:η為強(qiáng)化學(xué)習(xí)速率。

2.3 PEG交互過程

在追捕者與逃逸者的PEG交互過程中,追捕者當(dāng)前行為的確定需要TSK模糊推理模型中離散動(dòng)作集a={a1,a2,…,aL}的參與。運(yùn)用多組并行DQN架構(gòu),可實(shí)現(xiàn)離散動(dòng)作al的并行自主學(xué)習(xí),在獲得最優(yōu)動(dòng)作的同時(shí)提升運(yùn)行時(shí)效。與此同時(shí),多組神經(jīng)網(wǎng)絡(luò)并行部署,極大提升了離散動(dòng)作的獨(dú)立學(xué)習(xí)能力,增強(qiáng)了算法對(duì)環(huán)境探索的能力。

為使追捕者獲得高效的追擊行為策略,限定一次回合中最大時(shí)間步個(gè)數(shù)為M. 同時(shí),為真實(shí)反映追捕者與逃逸者的PEG過程,隨機(jī)初始化逃逸者初始位置、狀態(tài)以及逃逸策略。在多次訓(xùn)練中,1輪PEG交互過程如圖3所示。

圖3 PEG交互流程圖Fig.3 Flow chart of pursuit-evasion game interaction

具體交互訓(xùn)練步驟如下:

步驟1隨機(jī)初始化逃逸者位置狀態(tài)P,設(shè)定逃逸者行為方式與逃逸策略;初始化追捕者位置狀態(tài)S,定義追捕者追捕方式及行為邊界條件;初始化系統(tǒng)變量“回合數(shù)”=0、“完成”=0.

步驟2根據(jù)追捕者位置狀態(tài)S定義TSK模糊推理模型輸入量n,設(shè)定隸屬函數(shù)y. 依據(jù)模糊規(guī)則數(shù),定義L(L=yn)組DQN網(wǎng)絡(luò),并對(duì)各網(wǎng)絡(luò)的q函數(shù)進(jìn)行隨機(jī)初始化。

步驟4分別在與第l={1,2,…,L}條規(guī)則所對(duì)應(yīng)的DQN網(wǎng)絡(luò)中,根據(jù)(9)式選取動(dòng)作al(l=1,2,…,L)。

步驟6計(jì)算追捕者與逃逸者的歐氏距離,判斷是否滿足捕獲條件。若滿足,則令變量“完成”=1并轉(zhuǎn)步驟11;若不滿足,則執(zhí)行步驟7.

步驟7令變量“完成”=0,依據(jù)策略逃逸者選擇對(duì)自身最佳的行動(dòng)方向,并移至下一狀態(tài)P+1.

步驟9各組DQN網(wǎng)絡(luò)中,依據(jù)(12)式~(15)式,以回報(bào)值rl為牽引,采取一定的學(xué)習(xí)率η,更新q(S,al)函數(shù)。

步驟10判斷變量“回合數(shù)”是否大于最大行動(dòng)步數(shù)M. 若“回合數(shù)”>M,則轉(zhuǎn)步驟11;否則,“回合數(shù)”數(shù)量加1并轉(zhuǎn)步驟3.

步驟11結(jié)束本輪PEG交互過程。

3 仿真分析

以四輪智能戰(zhàn)車PEG問題為例設(shè)計(jì)仿真環(huán)境與運(yùn)動(dòng)模型,運(yùn)用本文算法進(jìn)行仿真實(shí)驗(yàn),并與其他算法結(jié)果相比對(duì),以驗(yàn)證本論文算法的有效性。

3.1 PEG仿真環(huán)境

PEG過程中,追捕者試圖在最短時(shí)間內(nèi)追上逃逸者,而逃逸者則試圖盡可能避開追捕者。為了使仿真結(jié)果盡可能反映真實(shí)情況,需要提前構(gòu)建仿真環(huán)境以及追捕者與逃逸者的運(yùn)動(dòng)模型。

假設(shè)整個(gè)追逃環(huán)境是無障礙的,追捕者與逃逸者均不知道對(duì)方下一步的行為選擇,二者均可根據(jù)當(dāng)前狀態(tài)采取對(duì)自身最有利的行為,只有當(dāng)逃逸者處于追捕者捕獲范圍或者“回合數(shù)”達(dá)到最大時(shí)間步M,本輪博弈交互過程結(jié)束。

如圖4所示,以四輪智能戰(zhàn)車PEG問題[39]為例,構(gòu)建追捕者p與逃逸者e. 圖4中,xp、yp為追捕者當(dāng)前的笛卡爾坐標(biāo);xe、ye為逃逸者當(dāng)前的笛卡爾坐標(biāo);vp、ve分別為追捕者與逃逸者速度,且定義追捕者快于逃逸者;θp、θe分別為追捕者與逃逸者的運(yùn)動(dòng)方向;Lp、Le分別為追捕者與逃逸者的軸距。

圖4 追捕者和逃逸者的運(yùn)動(dòng)模型Fig.4 Motion model of pursuer and runaway

設(shè)追捕者和逃逸者的運(yùn)動(dòng)模型分別為

(16)

(17)

式中:up與ue分別為追捕者與逃逸者采取的轉(zhuǎn)向角,up∈[-upmax,upmax]、ue∈[-uemax,uemax],upmax、uemax分別為追捕者與逃逸者的最大轉(zhuǎn)向角;設(shè)定追捕者機(jī)動(dòng)性能差于逃逸者,即upmax

由此,追捕者p和逃逸者e之間的角度差φ為

(18)

(19)

式中:φ′為上一狀態(tài)的角度差;T為采樣時(shí)間。

追捕者p和逃逸者e之間的歐氏距離d為

(20)

在PEG過程中,追捕者p的目標(biāo)是在最短時(shí)間內(nèi)追上逃逸者e;而逃逸者e的目標(biāo)是使得追捕時(shí)間最大化并避免被追上。只有當(dāng)逃逸者e位于追捕者p捕獲半徑l內(nèi),即d≤l時(shí),追捕任務(wù)才算完成。

追捕者p采取的策略是使得與逃逸者e之間的角度差φ趨于0,由此將多組并行DQN架構(gòu)中的回報(bào)函數(shù)定義為

rl=2e-φ2-1, ?l∈[1,L],

(21)

追捕者p在連續(xù)空間可采取如下行為:

(22)

逃逸者e選取對(duì)其最有利的逃逸策略,且不以追捕者p的意志為轉(zhuǎn)移。借鑒文獻(xiàn)[40-41]結(jié)論,逃逸者e將采用以下兩種策略使得與追捕者p之間的距離最大化:

1)若二者之間歐氏距離d大于特定距離D,則逃逸者e將采取如下行為:

(23)

2)若二者之間歐氏距離d小于特定距離D,則逃逸者e則將采取更高機(jī)動(dòng)性的行為,即

ue=θp-θe+π.

(24)

3.2 算例仿真

仿真實(shí)驗(yàn)在1.6 GHz、1.8 GHz雙核CPU、8G RAM計(jì)算硬件上,運(yùn)用PyCharm仿真編譯環(huán)境進(jìn)行。設(shè)定1輪episode中時(shí)間步個(gè)數(shù)M=360,采樣時(shí)間T=0.1 s. 設(shè)定追捕者p的初始位置(xp,yp)=(0 m,0 m),初始方向θp=0°,恒定追捕速度vp=1 m/s,捕獲半徑l=0.1 m,軸距Lp=0.3 m,轉(zhuǎn)向角范圍up∈[-0.5°,0.5°]。隨機(jī)初始化逃逸者位置(xe,ye),初始方向θe=0°,恒定逃逸速度ve=0.5 m/s,逃逸策略中特定距離D=3 m,軸距Le=0.3 m,轉(zhuǎn)向角ue∈[-1°,1°]。多組并行DQN架構(gòu)中,采用的神經(jīng)網(wǎng)絡(luò)層數(shù)為5,隱藏層神經(jīng)元個(gè)數(shù)為10,激活函數(shù)為sigmoid,探索率ε=0.3,折扣因子γ=0.9,學(xué)習(xí)速率η=0.3.

運(yùn)用本文所提算法進(jìn)行仿真實(shí)驗(yàn),與Q-learning算法[42]、基于資格跡的強(qiáng)化學(xué)習(xí)算法[33]以及基于獎(jiǎng)勵(lì)的遺傳算法[43]實(shí)驗(yàn)結(jié)果進(jìn)行比對(duì)。各算法在經(jīng)過100次自主學(xué)習(xí)后,均能完成追捕任務(wù),捕獲時(shí)間和訓(xùn)練時(shí)間如表1所示。其中,Q-learning算法由于需要鏈?zhǔn)酱鎯?chǔ)多個(gè)特征向量以及同時(shí)迭代更新多張Q表,導(dǎo)致其自主學(xué)習(xí)耗時(shí)較長(zhǎng);基于資格跡的強(qiáng)化學(xué)習(xí)算法將時(shí)序差分法和蒙特卡洛法相統(tǒng)一,只需要追蹤一個(gè)跡向量,不再需要存儲(chǔ)多個(gè)特征向量,大大縮減了自主學(xué)習(xí)時(shí)間,但其短期記憶特性延長(zhǎng)了實(shí)際追捕時(shí)間;基于獎(jiǎng)勵(lì)的遺傳算法,雖具有較高的實(shí)際應(yīng)用性能,但卻以更長(zhǎng)的自主訓(xùn)練時(shí)耗為代價(jià)[43];本文所提算法,在充分發(fā)揮強(qiáng)化學(xué)習(xí)算法自主尋優(yōu)優(yōu)勢(shì)的同時(shí),運(yùn)用多組神經(jīng)網(wǎng)絡(luò)對(duì)進(jìn)行并行訓(xùn)練,大大縮減了自主學(xué)習(xí)耗時(shí),并能確保在較短時(shí)間內(nèi)完成追捕任務(wù)。

表1 不同算法完成捕獲任務(wù)的耗時(shí)Tab.1 Elapsed time of different algorithms to complete the capture task s

圖5展示了當(dāng)逃逸者初始位置為(5 m,5 m)時(shí)運(yùn)用本文所提算法,分別經(jīng)過自主學(xué)習(xí)0次、50次和100次后的PEG過程。圖6和圖7分別展現(xiàn)了3種情況下PEG過程中,追捕者與逃逸者之間距離及角度差的空間變化情況。其中,如圖5(a)所示,當(dāng)算法不經(jīng)學(xué)習(xí)直接應(yīng)用于該P(yáng)EG問題,追捕者雖以角度差趨于零為行動(dòng)目標(biāo),但由于其q函數(shù)隨機(jī)生成,且沒有任何先驗(yàn)知識(shí),導(dǎo)致角度差上下來回浮動(dòng),與逃逸者距離卻越來越大,不能完成任務(wù)。如圖5(b)所示,當(dāng)算法經(jīng)過50次自主學(xué)習(xí)后,追捕者能夠朝著追捕者方向逼近,途中逃逸者采取更為靈活的規(guī)避策略,致使與追捕者角度差陡增,追捕者在緊急轉(zhuǎn)向后順利完成追捕任務(wù)。如圖5(c)所示,當(dāng)算法獲得更多的學(xué)習(xí)次數(shù)后,能夠更好地處理逃逸者規(guī)避行為,自主選取更為有利的行動(dòng)方向,從而大大提升了任務(wù)完成效果。

圖6 追捕者與逃逸者之間的距離變化Fig.6 Distance between pursuer and runaway

圖7 追捕者與逃逸者之間的角度差變化Fig.7 Angle difference between pursuer and runaway

4 結(jié)論

本文提出一種自主學(xué)習(xí)時(shí)間少、問題應(yīng)用耗時(shí)短的PEG算法,實(shí)現(xiàn)了追捕者在連續(xù)空間最優(yōu)追捕行為的自主生成。通過構(gòu)建TSK模糊推理模型以表征連續(xù)行為空間,構(gòu)建多組并行的DQN架構(gòu),設(shè)計(jì)基于DQN的PEG算法,提出追捕者與逃逸者在連續(xù)空間博弈交互的訓(xùn)練步驟,從而有效地避免了傳統(tǒng)強(qiáng)化學(xué)習(xí)應(yīng)對(duì)連續(xù)空間所可能存在的維數(shù)災(zāi)難不足,實(shí)現(xiàn)了最優(yōu)追捕行為的自主生成,有效解決了離散動(dòng)作集自學(xué)習(xí)復(fù)雜且耗時(shí)的問題。連續(xù)空間PEG方法不僅能夠完成連續(xù)空間PEG任務(wù),還能隨著學(xué)習(xí)次數(shù)增加不斷提升問題處理能力,滿足動(dòng)態(tài)實(shí)時(shí)博弈需求,對(duì)于解決其他領(lǐng)域的PEG問題同樣具有借鑒意義。

猜你喜歡
策略模型
一半模型
基于“選—練—評(píng)”一體化的二輪復(fù)習(xí)策略
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
求初相φ的常見策略
例談未知角三角函數(shù)值的求解策略
我說你做講策略
高中數(shù)學(xué)復(fù)習(xí)的具體策略
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
主站蜘蛛池模板: 亚洲va在线∨a天堂va欧美va| 国产地址二永久伊甸园| 2020最新国产精品视频| 亚洲综合极品香蕉久久网| 日韩精品亚洲人旧成在线| 久久永久视频| 国产精品免费久久久久影院无码| 伊人丁香五月天久久综合| 91国内外精品自在线播放| 亚洲欧洲日韩综合| 亚洲欧美天堂网| 国产一区亚洲一区| 欧美日韩一区二区三区在线视频| 干中文字幕| 国产91av在线| 91久久偷偷做嫩草影院| 国产美女免费| 毛片大全免费观看| 亚洲天堂视频网| 国产精品大白天新婚身材| 91年精品国产福利线观看久久| 欧美一级高清视频在线播放| 亚洲va视频| 国产精品伦视频观看免费| 国产欧美视频在线| 日韩毛片免费观看| 日本一区二区不卡视频| 久久亚洲国产视频| 国产在线视频二区| 2021国产乱人伦在线播放 | 成人小视频网| 欧美无遮挡国产欧美另类| 国产特级毛片| 亚洲伊人天堂| 精品国产电影久久九九| 精品夜恋影院亚洲欧洲| 亚洲男人的天堂网| 性色一区| 亚洲v日韩v欧美在线观看| 国产在线观看成人91| 91精品国产一区自在线拍| 日韩AV无码免费一二三区| 亚洲日韩精品综合在线一区二区| 日本人妻丰满熟妇区| 91九色最新地址| 亚洲日韩久久综合中文字幕| 女人18一级毛片免费观看| 国产又色又刺激高潮免费看| 一本视频精品中文字幕| 亚洲欧美日本国产综合在线| 18禁色诱爆乳网站| 亚洲动漫h| 日韩高清在线观看不卡一区二区| 一级高清毛片免费a级高清毛片| 亚洲国产精品日韩欧美一区| 不卡视频国产| 亚洲天堂网2014| 激情无码视频在线看| 中文字幕免费视频| 国产三区二区| 久久免费看片| 伊人精品视频免费在线| 婷婷中文在线| 美臀人妻中出中文字幕在线| 国产成人无码AV在线播放动漫| 午夜精品一区二区蜜桃| 免费一极毛片| 国产精品入口麻豆| 久久毛片网| 五月婷婷中文字幕| 久久免费视频6| 亚洲国产日韩在线成人蜜芽| 国产原创自拍不卡第一页| 香蕉视频在线精品| 国产男女免费完整版视频| 偷拍久久网| av午夜福利一片免费看| 91日本在线观看亚洲精品| 99精品热视频这里只有精品7 | 久久免费观看视频| 国产人成乱码视频免费观看| 欧美日韩国产系列在线观看|