999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的空天地緩存中繼網絡性能評估方法

2022-05-22 10:03:30郭凇岐孫藝夫施育鑫朱勇剛
無線電通信技術 2022年3期

郭凇岐,安 康*,孫藝夫,施育鑫,朱勇剛,梁 濤

(1.南京信息工程大學 電子與信息工程學院,江蘇 南京 210000;2.國防科技大學第六十三研究所,江蘇 南京 210007;3.國防科技大學 電子科學學院,湖南 長沙 410073)

0 引言

隨著無線通信向移動化、異構化、全球化和多網系融合的方向發展,以及星載處理性能的大幅提升和空間組網關鍵技術的突破,基于不同軌道的衛星、空中平臺(HAP)、無人機(UAV)和地面輔助中繼的空天地融合網絡(Satellite-Aerial-Terrestrial Integrated Network,SATIN),能夠為全球廣域空間范圍內的各種應用提供協同、高效和安全的信息保障,在各個領域都引起了極大關注[1]。一體化組網方式下的融合架構能夠充分挖掘時域、頻域、空域等多維空閑頻譜資源,具有全局信息處理、靈活部署、廣泛覆蓋范圍等優勢[2]。

當前應用中繼協同通信技術被廣泛研究,文獻[3]研究了混合衛星地面通信網絡最優中繼選擇策略下系統中斷概率和誤碼率性能,文獻[4]分析了基于地面中繼到用戶鏈路部分策略下系統中斷概率性能。此外,文獻[5]進一步在文獻[4]工作的基礎上,提出了聯合中繼選擇和功率分配的協作傳輸方案。針對多用戶星地協同傳輸網絡,文獻[6]提出了一種針對實時業務的多用戶協同傳輸方案。針對多中繼參與的多用戶星地協同傳輸場景,文獻[7]提出了一種基于中繼和用戶聯合選擇的協同傳輸方案。針對存在非法竊聽用戶的場景,文獻[8]分析了最優中繼選擇方案對星地協同網絡安全性能的影響。文獻[9]針對LEO衛星協作傳輸場景,對LEO單層協同中繼選擇算法展開了研究,提出基于遍歷容量中繼選擇算法。目前,大部分文獻研究針對地面中繼,而應用高空平臺作為協同中繼研究甚少,本文將選擇高空平臺作為中繼協同傳輸衛星信號。

SATIN具有廣域的覆蓋范圍,但不可避免受到帶寬不足和潛在的傳輸延遲影響,無法滿足日益增長的通信需求。近來,無線緩存已經被證明是一種有效的方法,其可以提高衛星通信(Satellite Communications,SATCOM)的服務質量(Quality-of-Service,QoS),比如延遲和吞吐量[10-11]。通過將緩存概念結合到協作傳輸中,集中式和分布式節點能夠存儲頻繁需要的業務內容并方便快速地服務于用戶請求,而不是先接受用戶請求然后重傳用戶需要的業務內容,因此可以大大緩解包括帶寬不足和傳輸延遲等在內的內在問題[12]。近年來,深度學習已被廣泛應用于無線通信領域,包括無線傳輸、性能評估、頻譜管理、資源配置、網絡接入、網絡及系統優化,解決了傳統無線通信技術面對信息爆炸和萬物互聯等新發展趨勢所遇到的瓶頸問題[13]。受傳統最小均方誤差(Minimum Mean Square Error,MMSE)信道估計器的啟發,文獻[13]提出了一種基于深度學習(Deep Learning,DL)的MMSE 信道估計方案。具體來說,作者首先根據MMSE估計器的結構設計深度神經網絡(Deep Neural Network,DNN)結構,在信道協方差矩陣為拓普利茲矩陣(Toeplitz Matrix)的假設下,利用卷積神經網絡(Convolutional Neural Network,CNN)來降低DNN的計算復雜度。文獻[14]考慮一個單用戶多天線的頻譜感知系統,根據信號協方差矩陣與圖片的相似性,采用CNN從接收信號的協方差矩陣提取檢驗統計量,然后基于該檢驗統計量進行判決。

本文采用SATIN系統模型,應用高空平臺作為中繼協同傳輸衛星信號,衛星網絡作為發射端,地面目標用戶作為接收端,實現了空天地融合網絡協同通信。為了實現高效率協同傳輸將無線緩存納入到SATIN中,考慮了兩種典型的中繼緩存方案,即最多訪問業務緩存(Most Popular Content Caching,MPCC)方案和均勻緩存(Uniform Caching,UC)方案,將中繼和緩存相結合,打破了傳統模式下的一發一收策略,給中繼系統在選擇收發信息上提供了更多的自由,使協作中繼的傳輸更加靈活多變,在提升協作網絡吞吐量、無線覆蓋范圍和邊緣用戶服務質量的同時,降低了回程鏈路開銷和額外時延。最后采用了一種改進后的CNN對不同緩存方案下的OP值進行預測,將空天地融合網絡性能評估智能化,一定程度上解決了傳統網絡性能評估方法效率低的問題。

1 系統模型

本文采用放大轉發型(Amplify-and-Forward,AF)SATIN系統模型,它由一個衛星節點(S)、地面目標用戶節點(D)和K個高空平臺中繼節點(Rk,k∈[1,2,….,K])組成,如圖1所示,其中設定每個高空平臺中繼節點都具有單根天線。

圖1 系統模型Fig.1 System model

S-Rk和Rk-D兩條鏈路的信道系數用hk和gk表示,S和R處的發射功率用Ps和Pr表示,并且每個中繼節點處都加有加性高斯白噪聲(Additive White Gaussian Noise,AWGN)。

通常而言,S和D之間的直達徑(Line of Sight,LOS)是不存在的。所以,最終D處的信噪比(Signal-to-Noise Ratio,SNR)可以表示為[15-16]:

(1)

其中,

式中,Ωk表示LOS平均功率,2bk表示多徑平均功率,mk表示衰落嚴重程度[18]。

R-D鏈路服從Nakagami-m分布信道衰落特性,其PDF可以表示為:

本文選用具有緩存功能的Rk,能夠輔助存儲和傳輸用戶請求訪問的業務。為了平衡復雜性和效率之間的關系,在每個時隙期間從中繼集群中選擇一個中繼節點。為了獲得最大信噪比,無緩存方案的最優中繼選擇策略為:

(2)

2 緩存放置方案

(3)

式中,ζ表示Zipf分布系數,當ζ取值越大,表明Zipf分布越密集,即該業務請求次數越大、訪問量越多,反之則亦然,此次選擇兩種典型的中繼緩存方案,具體細節如下。

最多訪問業務緩存方案(MPCC)假設有K個中繼協作傳輸的場景,且每個中繼的緩存大小都為C。在MPC方案下,所有中繼節點同時緩存C個最受歡迎的業務。對于任意第n個業務,目標用戶選擇緩存中繼中鏈路通信質量最好的一條進行通信。

3 中斷概率

中斷概率函數定義為終端接收信噪比γ低于閾值信噪比γth的概率[16]:

Pout=Pr{γ≤γth}=Fγ(γth),

(4)

式中,Fγ(x)為累積分布函數(Cumulative Distribution Function,CDF)。

3.1 無緩存方案

首先,從對比分析的角度給出了傳統無緩存方案最優中繼選擇的OP:

(5)

式中,Rth表示閾值傳輸速率,進一步

(6)

式中,γth=2Rth-1。Fγk(x)可以表示為:

(7)

由第一節中得到的fγ1,k(x)推得Fγ1,k(x)表達式為:

(8)

其中,

將式(8)和fγ2,k(y)帶入式(7),先經過變量代換z=y-x,后結合下述積分公式[18]:

可以得到最終Fγk(x)的表達式:

(9)

將式(9)帶入式(6),可得到無緩存方案下基于最優中繼選擇策略的OP閉合表達式。

無中繼緩存能力的AF SATIN作為性能比較的基準。由于允許具有相同業務的中繼協同傳輸所需業務,因此傳統的中繼選擇方案將不適用。隨后將討論不同緩存放置策略的中繼選擇方案。

3.2 最多訪問業務緩存方案(MPCC)

MPC方案下星地網絡協同傳輸的OP為:

(10)

(11)

(12)

式中,γth=2Rth-1。

3.3 均勻緩存方案(UC)

UC方案下星地網絡協同傳輸的OP為:

(13)

式中,Φ1表示UC方案下被呼叫業務n不在緩存中繼里存儲的概率。此方案與MPC方案不同之處在于此方案下,無論信道條件如何都可以確定R-D信道的中斷概率。Φ2表示緩存中繼節點與目標用戶通信過程中發生中斷的概率。

(14)

進一步可表示為:

(15)

式中,γth=2Rth-1。

4 卷積神經網絡預測

本節構建了一個CNN來對OP值進行預測。

4.1 數據集

數據集表示為Ti,Ti={Xi,Yi}。共有12個輸入參數構成輸入集Xi,輸出Yi對應于OP。

無緩存方案下的輸入為Rth,γmin,γmax,m1,b1,Ω1,m2,Ω2,K。

MPC和UC方案下的輸入為Rth,γmin,γmax,m1,b1,Ω1,m2,Ω2,K,ζ,C,N。

其中,γmin和γmax為信噪比界值,m1,b1,Ω1為Rician信道參數,m2,Ω2為Nakagami-m信道參數,K為用戶數,C為緩存容量,N為業務數。

4.2 CNN結構

與圖像信號相比,通信信號中的特征數量是有限的。然而,池化層可能會移除對CNN預測輸出有重要影響的特征。為了避免丟失重要的特征信息,本文設計了一個不帶有池化層結構的改進后CNN神經網絡,如圖2所示,其包含輸入層、三層卷積層、全連接層和輸出層。

圖2 CNN網絡結構Fig.2 CNN neural network structure

在設計此改進版的CNN時,設計步驟如下。

(1) 數據預處理

Ti是二維數據,CNN只能處理三維數據。因此,二維數據(14×1)在數據預處理過程中轉化為三維數據(14×1×1)。

(2) 卷積層

CNN神經網絡中有3個卷積層。每層卷積層中,有32個、大小為6×1的卷積核。每個卷積層之間選用非線性激活函數ReLU連接。數據經過預處理后,途經輸入層進入卷積層1,輸入經ReLU激活函數處理后再進入卷積層2,以此類推。ReLU函數表示為:

ReLU(x)=max(0,x)。

(16)

(3) 全連接層

全連接層將錯綜復雜的三維數據轉換為一維數據。全連接層一共有兩層,每層全連接層有128個神經元,通過Tanh激活函數輸出。Tanh函數表示為:

(17)

4.3 CNN模型訓練

首先,選擇CNN模型訓練方法,現有的CNN模型訓練方法包括:批量梯度下降(Stochastic Gradient Descent,SGD)算法和小批量梯度下降(Mini-Batch Gradient Descent,MBGD)算法。但是采用BGD算法會導致單次迭代時間過長,而采用SGD算法會導致下降速度慢,陷入局部最優值,降低學習效率。因此,本文選擇了學習速度最快的MBGD算法。它的優點如下:① CNN模型訓練可以獲得矢量運算帶來的加速度;② CNN模型訓練可以在不處理整個數據集的情況進行。

選擇優化器對CNN模型進行訓練,在當前已測試的優化器中,動量隨機梯度下降(SGD with Momentum,SGDM)優化器、均方根傳遞(Root Mean Square Prop,RMSProp)優化器和自適應矩陣估計(Adaptive Moment Estimation,Adam)優化器已被廣泛應用。對于Adam優化器來說,它大大減小了梯度下降的抖動,使神經網絡參數快速逼近最優值。比較預測結果后,本文選擇Adam優化器作為CNN模型訓練的優化器。

4.4 性能指標

CNN預測選用的性能指標為均方誤差(Mean Squared Error,MSE)[20],表示為:

(18)

4.5 OP預測算法

圖3給出了OP預測算法。預測算法主要分為以下步驟:

圖3 OP預測算法流程圖Fig.3 Flow chart of OP prediction algorithm

首先,由上節推導出的3種緩存方案下的OP閉合表達式分別產生6 400組數據集,經數據預處理后打亂,將上述處理過的數據集分為訓練集和測試集, 6 350組用于CNN模型訓練,50組用于OP值預測。

其次,設計了一個改進的CNN來預測OP,改進后的CNN采用了三層卷積層,其卷積核大小為6×1。

再者,將訓練集輸入到改進后的CNN中,以獲得最佳OP預測CNN模型。在這個過程中,需要判斷所得的CNN模型是否能滿足預測準確率要求,并調整CNN網絡參數。

最后,將測試集輸入到最佳CNN預測模型中,得到最佳OP預測結果。

5 仿真實驗結果

利用Matlab2020a作為仿真軟件,第一部分仿真模擬評估了不同中繼緩存方案對SATIN OP性能的影響。仿真參數設置為Ps=2Pr,N=1 000,衛星鏈路的Shadowed-Rician信道參數設置b1=0.063,m1=1,Ω1=8.97×10-4[15,17]。地面鏈路的Nakagami-m信道參數設置為m2=1,Ω2=1。

圖4給出了緩存容量C相同的情況下,不同中繼緩存方案下OP性能比較。

(a)ζ=0.7Zipf參數場景

(b)ζ=2Zipf參數場景圖4 不同緩存放置方案的OP性能Fig.4 OP performance under different caching schemes

同前文,傳統無緩存方案作為與其他方案比較的基準。由圖4可以看出,對于低Zipf參數場景(ζ=0.7)和高Zipf參數場景(ζ=2),MPC和UC方案OP性能明顯優于傳統無緩存方案OP性能。對于低Zipf參數場景,UC方案OP性能優于MPC方案OP性能,因為低Zipf參數值意味著更一致的業務訪問請求。相反,對于高Zipf參數場景(即訪問業務的受歡迎程度更集中),UC方案會失去信號協同增益,所以MPC方案實現了更低的OP值。

圖5給出了在不同緩存容量C的情況下,MPC方案與UC方案之間的OP性能比較。觀察可知,對于低Zipf參數值,MPC和UC方案的OP性能都隨著C的增加而提高。但是,在高Zipf參數場景下,UC方案的OP性能沒有隨著C的增大而提高,是因為C對受歡迎的業務訪問請求影響較小。

(a)ζ=0.7Zipf參數場景

(b)ζ=2Zipf參數場景圖5 不同緩存容量C的OP性能Fig.5 OP performance under different caching capacities

第二部分,利用設計好的CNN對OP值進行預測。輸入參數設定Rth=0,γmin=0,γmax=20,m1=1,b1=0.063,Ω1=8.97×10-4,m2∈[1,20],Ω2=1,K∈[2,5],ζ∈[0.5,2],C∈[50,200],N∈[800,1200]。本次CNN預測分為兩種情況:第一種情況是針對SNR為固定值情況下,利用CNN分別對3種不同緩存方案下的OP值進行預測;第二種情況利用CNN對3種不同緩存方案下的OP值進行預測,并尋求與關鍵參數SNR的關系。

第一種情況的預測參照圖6和圖7。其設置的MiniBatchSize為100,初始學習率為0.005。從圖6和圖7不難看出,CNN針對3種不同緩存方案下的OP預測效果甚優,誤差MSE在10-3浮動,能準確預測OP值。

(a) 無緩存方案

(b) 最多訪問業務緩存方案

(c) 均勻緩存方案圖6 不同緩存方案下OP預測性能Fig.6 OP prediction performance under different caching schemes

(a) 無緩存方案

(b) 最多訪問業務緩存方案

(c) 均勻緩存方案圖7 不同緩存方案下誤差性能Fig.7 Error performance in different caching schemes

第二種情況的預測參照圖8。從圖8可以看出,CNN針對不同方案下OP值預測效果較優。無緩存方案的OP預測效果最佳,MPC和UC方案的OP預測效果次之。3種方案下OP性能都隨著SNR的增大而提高。

圖8 不同方案下基于深度學習的OP預測性能對比Fig.8 Comparison of OP prediction performance based on deep learning under different schemes

另外,本文還比較了閉合表達式求OP值和CNN預測OP值的運行時間。結果證明,CNN預測OP值耗時相比較于閉合表達式求OP值有大幅度縮減,只需要約0.05 s,閉合表達式求OP值耗時約1 s。因此,可以得出結論,CNN預測方法可以大大加快OP性能的預測與分析。

6 結束語

本文將不同的無線中繼緩存方案納入到SATIN中以提高網絡的性能。通過采用兩種典型的中繼緩存方案,即MPC和UC,推導出了3種緩存方案下SATIN的OP閉合表達式,仿真并對比了在不同參數條件下3種緩存方案的OP性能表現,仿真結果驗證了理論公式推導及分析的正確性,并證實了所提方案相較于無緩存功能的傳統中繼選擇方案性能提升顯著。同時,基于深度學習的方法,采用一種改進后的CNN對不同緩存方案下的OP進行預測,所用網絡去除了在信息特征提取過程中容易造成特征丟失的池化層,結果表明所提方法對3種方案下的OP值預測效果較優。

主站蜘蛛池模板: 欧美色99| 欧美一区福利| 人妻丰满熟妇αv无码| 影音先锋亚洲无码| 国产免费人成视频网| 在线看片免费人成视久网下载| 日韩精品免费一线在线观看| 园内精品自拍视频在线播放| 久久a级片| 欧美在线国产| 婷婷亚洲天堂| 国产精品美人久久久久久AV| 亚洲国产无码有码| 亚洲乱码在线播放| 在线中文字幕日韩| 亚洲无线一二三四区男男| 国产91丝袜在线播放动漫| 亚欧美国产综合| 免费国产在线精品一区| 久久久久国产精品熟女影院| 亚洲成人播放| 亚洲自偷自拍另类小说| 亚洲精品卡2卡3卡4卡5卡区| 日本欧美午夜| 亚洲无码免费黄色网址| yjizz视频最新网站在线| 精品三级在线| 天堂va亚洲va欧美va国产| 国产精品一区在线观看你懂的| 亚洲AV成人一区国产精品| 无码一区二区三区视频在线播放| 日韩毛片在线播放| 91国内外精品自在线播放| 日本精品视频一区二区| 在线日本国产成人免费的| 国产欧美在线观看视频| 国产内射在线观看| 欧美精品啪啪一区二区三区| 毛片网站免费在线观看| 久久精品中文字幕少妇| 久久不卡精品| 毛片一级在线| 国产日韩精品欧美一区喷| 亚洲无码电影| www亚洲天堂| www.日韩三级| 国产丝袜啪啪| 日韩视频免费| 欧美在线伊人| 国产乱子伦视频在线播放| 青青草原国产免费av观看| 永久成人无码激情视频免费| 亚洲美女久久| 欧美日本视频在线观看| 久久久成年黄色视频| 国产产在线精品亚洲aavv| 久草视频中文| 91小视频版在线观看www| 国产精品林美惠子在线播放| 天天综合网站| 国产午夜精品鲁丝片| 97久久免费视频| 中文字幕人成乱码熟女免费| 超碰免费91| 亚洲天堂日韩av电影| 中文无码精品a∨在线观看| 国产喷水视频| 色综合国产| 婷婷五月在线| 国产微拍精品| 不卡的在线视频免费观看| 精品亚洲麻豆1区2区3区| 久久精品国产亚洲AV忘忧草18| 亚洲第一精品福利| 中文字幕2区| 国产精品手机在线观看你懂的| 青青热久免费精品视频6| 日韩在线欧美在线| 国产精品大尺度尺度视频| 欧美a网站| 欧美国产日产一区二区| 99精品这里只有精品高清视频|