999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種基于深度Q網絡改進的低軌衛(wèi)星路由算法

2024-04-14 14:39:52許向陽彭文鑫李京陽
現代信息科技 2024年1期

許向陽 彭文鑫 李京陽

DOI:10.19850/j.cnki.2096-4706.2024.01.014

收稿日期:2023-06-05

摘? 要:針對衛(wèi)星節(jié)點高速移動,導致節(jié)點之間鏈路狀態(tài)變化過快的問題,對基于深度強化學習的衛(wèi)星路由算法進行了研究,由此提出一種基于深度Q網絡改進的衛(wèi)星路由算法。算法采用虛擬節(jié)點的思想,以最小跳數為原則,將跳數和距離設置為獎勵函數相關參數。同時設置優(yōu)先經驗回放機制,使得算法訓練中學習價值最高的樣本;最后對網絡進行參數的設置并且進行訓練。仿真結果表明,從網絡傳輸時延、系統吞吐量、丟包率方面有明顯的提升,能有效地適應衛(wèi)星節(jié)點之間鏈路狀態(tài)高動態(tài)變化。

關鍵詞:衛(wèi)星路由;虛擬節(jié)點;優(yōu)先經驗回放;深度Q網絡

中圖分類號:TN927+.2? ? ? ? 文獻標識碼:A? 文章編號:2096-4706(2024)01-0067-05

An Improved Low-orbit Satellite Routing Algorithm Based on DQN

XU Xiangyang, PENG Wenxin, LI Jingyang

(School of Information Science and Engineering, Hebei University of Science and Technology, Shijiazhuang? 050018, China)

Abstract: To deal with the problem of fast-changing link-state between satellite nodes due to high-speed movement of satellite nodes, a satellite routing algorithm based on deep reinforcement learning is studied, and an improved satellite routing algorithm based on DQN is proposed. The algorithm adopts the idea of virtual nodes, and sets the number of hops and distance as the related parameters of reward function based on the principle of minimum hops. Meanwhile, a priority experience replay mechanism is set up to train the algorithm by learning samples with the highest value. Finally, the network is set in parameters and is trained. The simulation results show that there are significant improvements in network transmission delay, system throughput, and rate of packet loss, effectively adapting to high dynamic changes in link-state between satellite nodes.

Keywords: satellite routing; virtual node; priority experience replay; DQN

0? 引? 言

近年來,隨著無線通信技術的發(fā)展與技術的迭代,地面基站受限于地形限制、抗毀性差等因素,無法真正實現全球覆蓋。而衛(wèi)星通信以其覆蓋范圍廣、抗毀性強、不受地理環(huán)境約束等優(yōu)勢在移動通信領域得到廣泛的應用[1]。相比于中、高軌衛(wèi)星,低軌衛(wèi)星具有傳輸時延更小、鏈路損耗較低、整體制造成本低等優(yōu)勢[2]。使得構建低軌衛(wèi)星星座網絡成為研究重點。與地面網絡相比,低軌衛(wèi)星網絡存在諸多優(yōu)勢,但仍存在網絡節(jié)點變化過快、節(jié)點處理能力不足[3],數據包傳輸效率較低等問題。網絡拓撲結構存在高動態(tài)和時變性[4],使得地面網絡的路由方法無法有效應用于低軌衛(wèi)星網絡。Taleb等人指出衛(wèi)星網絡內存在當局部節(jié)點已經處于高負載狀態(tài)時,其他節(jié)點卻一直處于空閑狀態(tài)的情況,在此基礎上提出了一種基于顯示負載均衡(Explicitload Balancing, ELB)的算法。BominMao等人提出了一種基于張量的深度學習智能路由(A Tensor Based Deep Learning Technique for Intelligence Packet Routing)策略,根據開放式最短路徑優(yōu)先(Open Shortest Path First, OSPF)協議中的歷史提取路由信息,針對每個源節(jié)點和目的節(jié)點對建立基于張量的深度信念網絡(Tensor-based Deep Nelief Architecture, TDBA),利用深度信念網絡提取路由信息中的深層維度特征,在應用時,只需要輸入當前的路由信息張量即可得到最優(yōu)的下一跳節(jié)點。深度強化學習對復雜問題具有強大的表征能力和解決能力[5],可以為解決問題提供了新的思路。針對低軌衛(wèi)星的一些問題,本文設計一種基于深度強化學習改進的低軌衛(wèi)星路由算法,該方法將整個衛(wèi)星網絡作為深度強化學習的環(huán)境,將衛(wèi)星節(jié)點作為智能體。基于STK軟件建立低軌衛(wèi)星模型,選用極軌道星座模型中的銥星系統作為研究對象,由NS3平臺負責輸出結果,設計的算法應具備低時延、低丟包率以及較高系統吞吐量的特點。

1? 深度Q網絡

傳統的強化學習算法在面對一些大狀態(tài)空間或連續(xù)狀態(tài)空間的學習任務時,通常需要耗費大量時間和計算資源才能學習到一個比較合理的解決方案。這是由于狀態(tài)空間的維度很高,導致狀態(tài)-動作空間的規(guī)模呈指數級增長,使得傳統算法在搜索過程中面臨維數災難問題。

隨著深度學習的發(fā)展,研究人員在強化學習中引入了神經網絡,通過神經網絡來估計動作價值,通過強化學習來獲取最大化獎勵。從而解決了狀態(tài)空間維度高的問題。這種結合兩者優(yōu)勢的方法被稱為深度強化學習(Deep Reinforcement Learning, DRL)[6]。

在訓練過程中,DQN使用經驗回放和固定目標網絡來提高學習效率和穩(wěn)定性。但單一神經網絡對狀態(tài)-動作值進行估計,會高估動作的Q值,從而造成某些狀態(tài)下次優(yōu)動作獎勵值會優(yōu)于最優(yōu)動作,從而找不到最優(yōu)策略,導致算法訓練不穩(wěn)定。針對此情況,本文引入DQN算法作為路由算法的基礎。

Dueling DQN算法通過將網絡拆分為兩個部分來進一步提高學習效率和穩(wěn)定性[7,8]。這兩個部分分別是狀態(tài)價值函數和優(yōu)勢函數。價值函數V(s; α, θ)用來估計每個狀態(tài)的價值,僅與狀態(tài)有關,與將要執(zhí)行的動作無關,優(yōu)勢函數A(s, α; β, θ)來估計每個動作的優(yōu)劣程度,與狀態(tài)動作都有關,最后的輸出則將兩者相加,如下所示:

(1)

其中α表示價值函數支路的網絡參數,β表示優(yōu)勢函數支路的網絡參數,θ表示卷積層公共部分的網絡參數。但直接訓練會存在將V值訓練為固定值時,則算法變?yōu)镈QN算法,則需要為神經網絡增加一個約束條件,則Q值函數計算如下所示:

(2)

2? 改進的Dueling DQN算法

2.1? 經驗回放機制的改進

在原始的RL算法中,每次使用完一個樣本(st,at,rt,st+1)就丟棄,造成經驗的浪費,并且相關性強,不利于模型的學習。對此情況,Nature DQN算法設置了經驗池,為了更新深度神經網絡的參數,從經驗池中隨機選擇一小批樣本作為訓練更新的樣本。使用經驗回放機制,每次采樣時都從經驗池中隨機選擇樣本。這種隨機選擇樣本的方式可以有效打破樣本之間的相關性,從而更好地訓練深度神經網絡。

隨機采樣是在經驗池中等概率的隨機選擇樣本,可能會存在信息價值較高的樣本在神經網絡的訓練中使用率比較低甚至沒有被使用過的情況,會使得訓練次數增加導致訓練效率變低。為防止出現此類問題,本章使用優(yōu)先經驗回放[9,10]來進行采樣。核心思想是利用經驗樣本的重要性來加快學習速度和提高學習效果。在這種方法中,智能體會優(yōu)先選擇最有價值的一批樣本來訓練,提升深度強化學習的效率和性能。為了防止過擬合,低價值的樣本也會有一定的概率被選擇。優(yōu)先經驗回放樣本采樣見式(3)與式(4):

(3)

(4)

其中,P(t)表示第t個經驗被采樣的概率,pt表示樣本優(yōu)先級,α表示一個超參數,用于控制優(yōu)先級的衰減速度。δt表示時間差分誤差,又稱為時序誤差,通常用于衡量代理在執(zhí)行動作后,對于預期獎勵的估計值與實際獎勵之間的差異。時序誤差一般是用來更新行為值函數,時序誤差絕對值越大,說明其學習價值越高。優(yōu)先經驗回放采用時序誤差,可以使得增加價值高的樣本的重要性和減少錯誤行為發(fā)生的概率。而ε的設置則是為了保證時序誤差為零時采樣概率不為零,時序誤差計算公式由式(5)可得:

(5)

其中,Rt表示當前的獎勵,γ表示衰減因子,Q′(St, At, θ′)是目標網絡。在訓練過程中,當從回放緩沖區(qū)中按照優(yōu)先級采樣一批經驗樣本進行訓練時,優(yōu)先級高的樣本會被更頻繁地選擇進行訓練,以提高重要經驗樣本的學習效率。優(yōu)先經驗回放步驟如下:

1)對于每個樣本(st,at,rt,st+1),計算時序誤差δt。

2)根據時序誤差得出優(yōu)先級高低,時序誤差越大,優(yōu)先級越高,將樣本添加到經驗回放緩沖區(qū)。

3)根據優(yōu)先級高低對樣本排序。

4)在每次訓練時,從經驗回放緩沖區(qū)按照優(yōu)先級采樣一批樣本進行訓練。

2.2? 獎勵函數

在使用DQN算法進行訓練時,將獎勵函數作為目標Q值的計算基礎。在每個時間步,計算出當前狀態(tài)下所有可能的行動的Q值,并根據當前的行動選擇一個最優(yōu)的行動,用于下一個時間步的狀態(tài)轉移。然后,我們可以計算當前狀態(tài)下選擇的行動的Q值和目標Q值之間的差異,將其作為樣本的時序誤差,用于訓練DQN的神經網絡。本節(jié)設置的路由算法的目標是在已知源節(jié)點和目的節(jié)點的情況下,選擇合適的鏈路來進行數據傳輸。因此設定的獎勵函數以最小跳數鏈路為優(yōu)先選擇。獎勵函數R由跳數評價函數Hc、源節(jié)點與目的節(jié)點距離Di, j (t)構成。具體設置如式(6)所示:

(6)

其中μ,η表示權重參數,令其μ + η = 1,將最大獎勵設置為Ra,Ra表示絕對值較大的正獎勵,當下一跳為目的節(jié)點時,獎勵最大,其他情況獎勵均為負值。在獎勵函數設置時,衛(wèi)星執(zhí)行當前動作后,下一跳節(jié)點距離和目的節(jié)點相對距離越近,獎勵值越大。節(jié)點距離Di, j (t)可由升交點赤經的差值Δλ和真近地點角差值Δω來表示,見式(7):

(7)

(8)

在路由算法中,為了避免追求最大獎勵值從而產生路由跳數過多的問題,設置路由最大跳數N,令當前跳數為n,可設置跳數評價函數Hc,見公式(8)。當跳數越來越大時,Hc趨向于1。

2.3? 模型訓練

在算法中,需要對模型的狀態(tài)S、動作A、獎勵函數R、狀態(tài)轉移概率P、折扣率γ進行設置。其中,狀態(tài)S設置為鏈路狀態(tài),動作A設置為下一跳衛(wèi)星節(jié)點,狀態(tài)轉移概率P為選擇下一跳節(jié)點的概率,獎勵函數R設置為當前路由到下一跳衛(wèi)星節(jié)點的獎勵,折扣率γ為未來期望獎勵權重。模型訓練是輸入鏈路狀態(tài)和目的節(jié)點,來選擇到目的節(jié)點的最優(yōu)下一跳節(jié)點。

在算法中,由于使用了優(yōu)先經驗回放,使得樣本的分布發(fā)生改變,產生重要性采樣權重,如式(9)所示:

(9)

其中,N表示樣本容量,β為超參數,代表優(yōu)先經驗回放對收斂結果的影響程度,由此可得,采用優(yōu)先經驗回放的DQN算法的Loss函數如式(10)所示:

(10)

基于DQN改進的算法完整流程:

輸入:網絡拓撲G(V,E)、狀態(tài)空間S、學習率λ、動作空間A、折扣率γ、目標網絡更新參數頻率F、回合M、迭代次數T。

輸出:訓練完成的DQN模型。

1)初始化經驗池D、Q網絡參數θ、目標Q網絡θ′、α,β超參數;

2)for episode =1 to M do:

3)? ? 初始化環(huán)境,得到初始狀態(tài)St;

4)? ? for iteration t =1 to T do:

5)? ? ? ? 采用ε貪婪策略選擇動作,隨機選擇一個動作;

6)? ? ? ? 執(zhí)行動作At,觀察獎勵Rt和下一個狀態(tài)St+1;

7)? ? ? ? 計算時序誤差,存儲經驗到經驗池D;

8)? ? ? ? 將樣本(st,at,rt,st+1)添加到經驗池D中,更新優(yōu)先級并從高到低進行排序;

9)? ? ? ? 當經驗池D中的樣本大于某個閾值,從中刪除優(yōu)先級最低的樣本;

10)? ? ? ?從經驗池D中隨機采樣N個樣本進行訓練;

11)? ? ? ?對于每個(St,At,Rt,St+1)執(zhí)行以下步驟;

12)? ? ? ? ? ?if St+1是終止狀態(tài),則Q_target=Rt;

13)? ? ? ? ? ?else 用目標Q網絡計算Q_target = Rt + γ max Q′(St, At, θ′ );

14)? ? ? ?使用反向傳播算法更新神經網絡參數θ;

15)? ? ? ? ? 計算當前狀態(tài)下執(zhí)行At的Q值Q(St,At),以及當前狀態(tài)下所有行動的Q值;

16)? ? ? ? ? 計算Q_target和Q(St,At)之間的時序誤差δt;

17)? ? ? ? ? 計算Loss函數;

18)? ? ? ? ? 使用梯度下降算法更新Q值網絡:θ = θ - λ*θ ? Loss;

19)? ? ? ? ? 每隔F步更新目標Q網絡:θ′←θ;

20)? ? ? ?更新狀態(tài)S = St+1;

21)? ? end for

22)end for

3? 仿真

3.1? 仿真參數設置

為了評估算法性能,利用NS3仿真軟件,在一個類似銥星衛(wèi)星網絡中構建仿真。其中,66顆衛(wèi)星分布在六個平面上。每顆衛(wèi)星有兩個層內鏈路和兩個層間鏈路,層內鏈路一直連接,層間鏈路在反向縫區(qū)域斷開。設置同層衛(wèi)星鏈路帶寬為25 Mbit/s,層間鏈路帶寬為1.5 Mbit/s,隊列緩沖大小為50 kB。數據包大小設置為1 kB,Hello包發(fā)送周期仿真時間設置為90 s。仿真參數和算法訓練參數分別如表1和表2所示。

3.2? 仿真結果分析

與本文算法進行對比的路由算法為SPF路由算法和ELB路由算法,將通過網絡平均傳輸時延和丟包率以及系統吞吐量三個方面進行對比。

3.2.1? 網絡平均傳輸時延

如圖1所示,隨著數據傳輸速率不斷增大,網內傳輸數據包數量增加,逐漸達到鏈路帶寬上限,所以網絡中數據包的傳輸平均時延上升。通過仿真結果可以看出,本文路由算法在網絡傳輸時延上略優(yōu)于SPF算法和ELB算法。由于采用了DQN模型進行路由計算,訓練后的模型遵循最短路徑的原則去選擇路徑,并在鏈路狀態(tài)變化時,對鏈路進行切換從而減少節(jié)點擁塞問題。

3.2.2? 丟包率

如圖2所示的仿真結果表明,本文算法在丟包率上當鏈路狀態(tài)到達擁塞時,將會將數據轉發(fā)到次優(yōu)鏈路,有效地降低了丟包率。

3.2.3? 吞吐量

吞吐量是對衛(wèi)星網絡中路由算法在一定時間內的數據傳輸總容量的衡量標準。系統仿真結果如圖3所示。

由仿真結果可知,隨著數據傳輸的速率的增大,系統吞吐量也在提升。由于獎勵函數的設置,使得數據包會往距離最近,時延最短的方向進行轉發(fā),算法可以快速為衛(wèi)星提供下一跳節(jié)點的選擇,從而使得同樣的時間內,衛(wèi)星節(jié)點可以處理更多的任務,提升系統的吞吐量。

4? 結? 論

本文針對低軌衛(wèi)星網絡存在的高動態(tài)性的問題,提出了一種基于深度強化學習的衛(wèi)星路由算法,并通過設置相應的參數以及改進的采樣機制來實現更好的效果。仿真結果表明,基于優(yōu)先經驗采樣機制的深度強化學習算法有效降低了數據發(fā)送時延,降低了丟包率,提高了系統吞吐量。

參考文獻:

[1] IZZAT G,MOHAMMED H.Optimised routing algorithm in low Earth orbit satellite network [J].International journal of ad hoc and ubiquitous computing,2021,36(4):230-237.

[2] 吳署光,王宏艷,王宇,等.低軌衛(wèi)星網絡路由技術研究分析 [J].衛(wèi)星與網絡,2021(9):66-74.

[3] KUANG Y,YI X,HOU Z. Congestion avoidance routing algorithm for topology-inhomogeneous low earth orbit satellite navigation augmentation network [J].International Journal of Satellite Communications and Networking,2021,39(2):221-235.

[4] 頓聰穎,金鳳林,譚詩翰,等.衛(wèi)星網絡負載均衡路由技術研究綜述 [J].信息技術與網絡安全,2021,40(4):46-55+63.

[5] WEI D,ZHANG J,ZHANG X,et al. Plume:Lightweight and Generalized Congestion Control with Deep Reinforcement Learning [J].China Communications,2022,19(12):101-117.

[6] LIU W,CAI J,CHEN Q,et al. DRL-R:Deep reinforcement learning approach for intelligent routing in software-defined data-center networks [J/OL].Journal of network and computer applications,2021,177(Mara):102865[2023-02-24].https://doi.org/10.1016/j.jnca.2020.102865.

[7] 楊思明,單征,丁煜,等.深度強化學習研究綜述 [J].計算機工程,2021,47(12):19-29.

[8] 趙星宇,丁世飛.深度強化學習研究綜述 [J].計算機科學,2018,45(7):1-6.

[9] LI Z,XIE Z,LIANG X. Dynamic Channel Reservation Strategy Based on DQN Algorithm for Multi-Service LEO Satellite Communication System [J].IEEE Wireless Communications Letters,2021,10(4):770-774.

[10] GUAN Y,LIU B,ZHOU J,et al. A New Subsampling Deep Q Network Method [C]//2020 International Conference on Computer Network,Electronic and Automation(ICCNEA).Xi'an:IEEE,2020:26-31.

作者簡介:許向陽(1967—),男,漢族,河北石家莊人,副教授,碩士導師,碩士,主要研究方向:無線自組網、衛(wèi)星通信;彭文鑫(1999—),男,漢族,河北唐山人,碩士在讀,主要研究方向:衛(wèi)星路由;李京陽(1997—),男,漢族,河北滄州人,碩士在讀,主要研究方向:衛(wèi)星路由。

主站蜘蛛池模板: 美女黄网十八禁免费看| 色综合a怡红院怡红院首页| 欧美在线网| 人妻一本久道久久综合久久鬼色| 欧美a网站| 日本尹人综合香蕉在线观看| 女人18毛片水真多国产| 亚洲swag精品自拍一区| 性喷潮久久久久久久久| 99精品视频九九精品| 欧美中文字幕一区| 亚洲愉拍一区二区精品| 欧美精品成人一区二区在线观看| 国产白浆视频| 午夜无码一区二区三区| 重口调教一区二区视频| 亚洲成AV人手机在线观看网站| 丝袜美女被出水视频一区| 日韩毛片在线视频| 爆乳熟妇一区二区三区| 日韩人妻少妇一区二区| 亚洲高清免费在线观看| 亚洲国模精品一区| 色老二精品视频在线观看| 日韩毛片免费| 亚洲国产系列| 国产免费自拍视频| 成人午夜亚洲影视在线观看| 高清不卡毛片| 亚洲国产精品一区二区第一页免 | 久爱午夜精品免费视频| 中文字幕首页系列人妻| 另类专区亚洲| 中文字幕无线码一区| 国产jizzjizz视频| 日本午夜三级| v天堂中文在线| 国产精品久久精品| 狼友av永久网站免费观看| 国产麻豆福利av在线播放| 色欲国产一区二区日韩欧美| 亚洲国产高清精品线久久| 99久久精品久久久久久婷婷| 国产亚卅精品无码| 国产亚洲精品97AA片在线播放| 人妻一区二区三区无码精品一区| AV色爱天堂网| 午夜性刺激在线观看免费| 免费无遮挡AV| 久久黄色毛片| 欧美在线视频a| 亚洲国产日韩在线成人蜜芽| 色综合激情网| 国产麻豆永久视频| 98精品全国免费观看视频| 都市激情亚洲综合久久| 欧美午夜在线播放| 日韩欧美中文在线| 亚洲中文字幕精品| 国产浮力第一页永久地址| 午夜国产精品视频| 亚洲视频免| 亚洲精品国产日韩无码AV永久免费网| 成人午夜精品一级毛片| 在线播放精品一区二区啪视频| 中文字幕 日韩 欧美| 欧美亚洲综合免费精品高清在线观看| 97国产成人无码精品久久久| 精品国产一区91在线| 99久久精彩视频| 国产网站黄| 免费人成网站在线高清| 亚洲欧洲日产国产无码AV| 亚洲欧美一区二区三区蜜芽| 亚洲午夜国产片在线观看| 天天摸夜夜操| 在线观看视频99| 成人福利在线视频| 久久无码av三级| 久精品色妇丰满人妻| 亚洲一区毛片| 亚洲精品日产精品乱码不卡|