孫養(yǎng)龍,唐余亮,張建鑫
(1.集美大學航海學院,福建 廈門 361021;2.廈門大學信息學院,福建 廈門 361005)
車聯網中大數據量的推送和交付對現有蜂窩網系統構成了極大挑戰(zhàn),尤其加劇了無線頻譜資源的短缺[1-2]。為減小網絡負載和降低網絡擴容成本,無線緩存技術被用來在非高峰時段將流行度高的數據預先推送到車輛或靠近車輛的邊緣設備[3]。由于車輛優(yōu)先從本地提取數據,減輕了高峰時段蜂窩網絡的負載[4-5]。
然而,無線緩存技術需適應車聯網數據的多樣化時空特征[5-6]。娛樂視頻和廣告等時空非敏感數據可根據網絡閑忙狀況隨機推送,而根據實時交通信息生成的高精地圖數據僅能在幾分鐘甚至是數秒內維持有效,須在車輛行駛到特定區(qū)域或主動請求時方可交付[7-8]。在應對后一種信息時效相關的業(yè)務時,不可避免地要對緩存內容進行頻繁更新,增大了網絡傳輸壓力[9]。因此,在無線資源受限的網絡環(huán)境中,提高向邊緣節(jié)點的內容推送效率是提升緩存性能的關鍵[3,5,10]。
非正交多址接入(Non-Orthgonal Multiple Access,NOMA)技術作為一種高頻譜效率的新興手段,提高了無線網絡的業(yè)務承載能力,有助于實現面向多緩存服務節(jié)點的低時延內容推送[5,11]。從用戶調度的角度來看,存在功率域NOMA 和基于認知無線電(Cognitive Radio,CR)的NOMA(CR-NOMA)兩類資源分配方案。前者聚焦用戶公平性,以最大化吞吐量為目的,后者綜合了CR 和NOMA 兩種提高頻譜效率的技術,專注于保障信號的傳輸質量[12]。
NOMA 技術有利于在有限時間內傳輸更多的緩存數據,如基于CR-NOMA 技術,在確保高流行度文件獲得所需數據速率的前提下,可機會式地傳輸流行度較低的文件。此外,NOMA 技術還支持交付過程和推送過程同時進行,從而使系統獲得更多的緩存更新機會[10]。在基站發(fā)射功率和最低傳輸速率受限的情況下,需考慮如何選擇緩存文件和調度緩存節(jié)點以獲得最佳的緩存命中率。
在車聯網中部署無線緩存并制定基于NOMA 的內容推送策略面臨諸多挑戰(zhàn)。首先,部署大量基于路側單元的緩存節(jié)點會帶來高成本[3,13]。第二,內容流行度不足以評估動態(tài)網絡中內容的緩存需求,如針對時效信息,其實際被請求的次數不僅取決于內容流行度,還取決于在其有效時長內發(fā)起請求的用戶數[8]。第三,緩存文件的選擇和緩存節(jié)點的調度是耦合的。在發(fā)射功率受限時試圖把文件推送到信道較差的緩存節(jié)點,意味著較高的功率消耗和更少的文件傳輸;而欲同步傳輸盡量多的文件時,則應避免選擇信道較差的緩存節(jié)點。最后,需要實時優(yōu)化算法來適應網絡和業(yè)務的高動態(tài)性。以強化學習為代表的“預測”類算法展現出其在解決緩存放置問題的優(yōu)勢,但實際網絡和業(yè)務的高動態(tài)性和復雜性限制了強化學習的效率和準確度[9,14-15]。
本文提出一種協作傳輸架構,即公共車輛,如公交車或出租車等作為服務車來接收基站推送的數據,而后將數據交付給發(fā)起數據請求的客戶車[16-18]。選擇車輛作為緩存節(jié)點不僅可以省去固定設施的部署成本,且有機會利用車-車之間更優(yōu)的信道條件來獲得高傳輸速率[13,16,19]。同時考慮僅在服務車上安裝可解調NOMA 信號的接收機,大量的客戶車則不必升級現有的通訊設備,有利于降低設備開銷,提高了方案可行性。為反映文件在動態(tài)業(yè)務和網絡環(huán)境中的緩存價值,首先基于文件在服務車的剩余可存儲時長定義文件的更新需求度,即越接近失效的文件其更新需求度越高。進一步地,由內容流行度、車輛分布和文件更新需求度聯合定義緩存效能函數。由此提出求解最大化系統效能問題來獲得內容推送策略中最佳的服務車和文件組合。
為降低問題求解復雜度,將問題解耦為車輛組合和文件組合2 個子問題,并提出“先車輛后文件”的分層交替優(yōu)化求解策略。針對第1 層的車輛組合問題,利用NOMA中信號連續(xù)干擾消除(Successive Interference Cancellation,SIC)的技術特征,確定了“當遠端車輛被選擇時,近端車輛必然被選擇”的原則,降低了車輛組合規(guī)模。針對第2 層的文件組合優(yōu)化,提出基于CR-NOMA 的動態(tài)規(guī)劃方法求解一個“逆”0-1 背包問題。這里的“逆”是指相對于傳統背包問題以背包容量為約束,這里考慮背包余量,從而更符合本文應用場景,即未被分配的功率被當作已分配功率信號的干擾。
本文基于緩存需求和網絡資源研究緩存節(jié)點和緩存文件協同調度的內容推送策略,提出一種和業(yè)務特征相適應的動態(tài)規(guī)劃方法實現快速決策。通過仿真分析了所提效能模型對系統性能的影響,并驗證了所提算法在獲得高緩存命中率和降低用戶時延的有效性。
通過無線緩存和NOMA 技術結合來提高無線網絡中的內容交付效率,緩解無線資源的不足是正在被重點關注的熱點,尤其是在車聯網中[20]。得益于車輛移動的可預測性和移動路徑的固定,緩存策略在車聯網中的應用較為成熟,并取得了很好的效果[9,21]。如宏觀上,將數據從核心網預緩存到車輛行駛方向前方的基站,使得車輛更快地獲得服務并降低核心網回傳壓力。而更高效的則是將數據緩存到離車輛更近的路側單元甚至是車輛本身。NOMA 技術促進了緩存內容的及時更新。如針對一些無法提前預緩存的內容,像突發(fā)的球類比賽結果、交通事故等,Ding 等人提出借助NOMA 技術來實現盡量多的緩存數據推送,并分析了緩存節(jié)點和用戶節(jié)點分布特征對系統性能的影響[5,22]。在以最小化用戶請求時延為目標,Zhang 等人研究了無人機NOMA 網絡中的緩存放置、用戶請求調度和資源分配問題[23],其研究表明通過合理的選擇文件進行緩存有助于獲得更佳的系統性能。與上述研究不同,這里聚焦于車聯網中具有高度時空特征數據的緩存更新問題,文件的緩存決策受到流行度、車輛分布和失效時間等多種因素的影響。
資源分配和用戶調度是NOMA 技術應用中的關鍵內容,如通過功率分配和用戶配對以獲得最佳的平均吞吐量(中斷概率和吞吐量的綜合度量)。研究表明,當給定功率分配策略時,用戶配對呈現出不同的偏好,如在CR-NOMA 的功率分配方案下,信道條件相近的用戶傾向于配對傳輸;在固定功率的分配方案中,信道差異較大的用戶傾向于相互配對[12]。為滿足用戶不同的服務質量要求,Yang 等人推導了與用戶瞬時信道增益相關的功率分配因子顯示表達式,可保障用戶在NOMA 機制下獲得數據速率不低于OMA 機制的優(yōu)勢[24]。針對用戶的分布和需求呈現出的高動態(tài)時空特征,以強化學習為代表的人工智能技術通過模擬網絡環(huán)境的變化,來快速給出針對不同網絡狀態(tài)的資源分配和調度策略[25-26]。與上述方案不同,本文利用NOMA 對信號進行連續(xù)干擾消除的技術特征,采取分步法和動態(tài)規(guī)劃來求解車輛和文件的組合問題,保障文件傳輸的可靠性并維持高的系統性能。
在一段由蜂窩網覆蓋的道路中部署基于車輛協作的NOMA 輔助無線緩存架構,如圖1 所示。車輛分為服務車和客戶車兩類。服務車數量較少但裝配有較強存儲和通信設備,如公交車和智能駕駛汽車,接收和存儲一定數量的來自基站的文件。其余車輛視為客戶車,數目較多,不定期向基站發(fā)起內容請求。數據中心通過收集來自各類交通傳感器的數據維持最新的路況信息,并通過光纖接入到基站。

圖1 基于車輛協作的內容推送與交付系統示意圖
基站和車輛之間通過控制信道共享狀態(tài)和決策信息。車輛將位置、速度、方向、緩存狀態(tài)(緩存車輛是否存儲有某一文件)、請求狀態(tài)(客戶車是否發(fā)起新的請求以及當前請求是否被滿足)等信息匯總至基站。基站則根據當前網絡狀態(tài)來制定面向服務車的內容推送策略和為客戶車匹配服務車。基站和服務車均能響應來自客戶車的內容請求,但僅在服務車無法滿足客戶車傳輸需求的情況下,如緩存未命中,或服務車和客戶車之間的無線鏈路不滿足傳輸要求時,客戶車才會由基站交付數據。特別地,在通信資源允許的情況下,客戶車之間可以直接協作,但這超過了本文的研究范疇。
單個基站覆蓋范圍內的道路被劃分為M 個路段M={1,2,…,M},并假設路段長度不超過服務車的無線覆蓋半徑。為降低資源競爭,每個路段內至多允許有一輛活躍的服務車來接收基站推送的數據或向客戶車交付數據。針對一路段內存在多輛服務車的情況,則按照某一規(guī)則進行篩選,如選擇在當前路段內駐留時間最長的車輛。本文不對具體選車規(guī)則進行研究。在內容推送決策時,不選擇將數據緩存到某一路段內服務車的情況等價于該路段內不存在可用的服務車。因此,假設任意路段m ∈M 內均存在一輛服務車m。為精簡符號,在不引起歧義的情況下,用M 表示服務車集合。路段m 內的客戶車集合表示為Θm,對應客戶車的數目為∥Θm∥。特別地,基于車輛的移動模型和當前車輛的狀態(tài),基站能夠預測一段時間內某一路段中客戶車的平均數目。具體如表1 所示:

表1 關鍵符號說明
基站根據網絡狀態(tài)制定策略,并將疊加后的NOMA信號發(fā)射出去。服務車通過SIC 技術來解調接收到的信號。本研究只考慮單個服務信道的場景,因此不涉及頻率資源的分配。同時,從服務車到客戶車的數據傳輸有多種機制可供選擇,如異構的單播加多播方式以及NOMA 方式[5]。本文聚焦于基站到服務車的內容推送過程,不探索服務車到客戶車的車-車傳輸方式。但必須明確的是,不同的車-車傳輸方式對最終的緩存性能有影響,并反過來影響內容推送決策。為便于信道評估和車輛調度,設基站的位置為坐標原點x0,服務車m 的坐標為xm。



本文緩存架構中,客戶車獲到所需數據至多需經過兩個階段,其一為內容推送,即數據由基站到服務車,其二為內容交付,即數據由服務車到客戶車。以時隙劃分上述兩個階段,即在交付時隙中插入推送時隙,如圖2 所示。特別地,在推送時隙內,客戶車可以解調基站發(fā)送的NOMA 信號來獲得具有最大功率的文件數據;服務車亦可以在交付時隙內機會式地解調基站信號實現緩存內容的更新。為簡化模型,這里忽略推送時隙內客戶車通過服務車獲取數據的情況[10]。

圖2 將推送時隙插入交付時隙的傳輸模型
客戶車獲取數據的具體流程如圖3 所示。基站在接收到客戶車的內容請求后先為該車輛查詢其通信范圍內是否存在能夠為其提供服務的車輛。如果服務車的緩存命中了該客戶車的請求內容,且能夠提供滿足相應文件的傳輸速率要求,則客戶車可通過該服務車獲取到所需數據。否則,客戶車轉向基站索取數據。如果基站因無線資源短缺無法為客戶車提供服務時,客戶車進入等待狀態(tài)并準備下一輪文件請求。客戶車原則上可以通過其通信范圍內的任意服務車獲取數據,但基站在調度時依然會優(yōu)先把某一路段的客戶車匹配到對應的服務車,僅當某一服務車尚有多余的無線資源時才會為路段外車輛提供服務。

圖3 業(yè)務請求流程

無線緩存的目的是使用戶請求的業(yè)務能夠盡量在本地被滿足,從而減輕基站的負擔并降低用戶獲取服務的時延。因此將提高緩存命中率作為本文優(yōu)化目標。如圖3 中虛線框圖所示,服務車及時緩存到客戶車所需的數據是獲得高緩存命中率和提高卸載率的前提。顯然在無線資源受限的情況下,為獲得最佳的緩存命中率,需要在內容推送時隙對所需傳輸的文件以及接收文件的服務車進行決策。下面通過給定一個服務車和文件組合{M',F'},M'?M,F'?F,來對緩存決策問題進行說明,并提出最大化系統緩存效能問題。
本節(jié)基于文件的緩存狀態(tài)來定義其更新需求度。如針對緩存在服務車m 的文件f,對應的更新需求度表示為:

τ>0 表示更新需求閾值。當cm,f>τ 時,Γ(cm,f)=0,表示不更新具有較長有效時長的文件。cm,f≤τ 時,Γ(cm,f)隨cm,f減小而增大,表示越接近失效的文件其更新需求越高,反之亦然。參數ω 起到縮放cm,f的作用,當ω<1 時,Γ(cm,f) 隨cm,f變化的幅度減小,反之亦然。類似地,通過參數ξ 可進一步調節(jié)文件的更新需求度變化,如ξ=1時,Γ(cm,f)=1,表示所有文件的更新需求度相同。進一步地,根據公式(2)可以確定某一服務車輛m ∈M 所需要更新的文件集合:

顯然改變τ 的大小可以實現對待更新文件的篩選,如當τ 降低時Fm中的文件數亦減少,反之亦然。
本節(jié)綜合車輛分布Θm,局部內容流行度φm,f和文件更新需求度Γ(cm,f) 定義緩存效能函數μf來表示文件f 的緩存價值:

從公式(4)可知:1)路段內客戶車的數目越多,文件緩存效能越大。這是因為在內容流行度確定的情況下,客戶車數目的增加意味著文件在短時間內被請求的次數變大,而當客戶車較少時,則可能會出現在文件失效前卻未被請求的情況。2)更新需求度越高對應的緩存效能越大。高的文件需求度表明緩存對應的文件能夠避免該文件因失效被刪除,從而有利于維持高緩存命中率。
基站通過NOMA 方式對多個文件的信號進行疊加,而后傳輸至服務車。用向量α={α1,α2,…α∥F'∥}表示基站對文件集合F'的一個功率分配結果,∥F'∥表示F'文件數。文件f 信號的發(fā)射功率Pf=αfP,0 ≤αf≤1,∑f∈F'αf≤1,P 為基站總發(fā)射功率,則服務車m 接收文件f信號時獲得的數據速率表示為

ρ=P/σ2表示基站的信干比(Signal-to-Noise Ratio,SNR),σ2為噪聲功率。“αi<αf”表示在下行NOMA 場景中,優(yōu)先解調具有更高功率的信號。
系統緩存效能通過累加各文件的緩存效能獲得,如下所示:

在給定NOMA 功率分配策略的基礎上,推送策略{M',F'}成為影響系統緩存效能的U 關鍵。因此通過最大化系統緩效能來獲得最佳推送策略的問題表示為:

F*和M*分別表示系統緩存效能最大時的最佳文件集合和服務車集合。條件(7b)和(7c)表示基站所推送的文件應是當前服務車集合所需要更新的文件。
可以證明當系統緩存效能最大時對應的緩存命中率亦最大:假設輛車在每個時隙發(fā)起某一請求的概率均相等且為q,則針對文件f,其被請求的次數期望表示為∑m?MqΘmφm,f。系統內所有文件的合并被請求次數期望為:

其中?表示當前系統的總效能。服務車緩存文件被請求次數的期望包含兩部分,分別為原有已存儲文件的期望:

和更新文件帶來的期望:

其中U0和U'分別為相應的文件緩存效能。當給定“先更新cm,f=0 的文件再更新cm,f>0 的文件”這一規(guī)則時(選擇較大的ξ 和ω 參數),U'和U 同時獲得最大值。又因?和U0均與緩存決策無關,可得當前時刻的緩存命中率:

也獲得對應的最大值,即證。
本節(jié)給出一個車輛-文件分層交替優(yōu)化策略,即先確定一個服務車組合,而后對相應的文件組合進行篩選。采用基于文件效能的CR-NOMA 機制實施功率分配,并通過動態(tài)規(guī)劃求解一個“逆”0-1 背包問題來獲得當前次優(yōu)的文件組合。
CR-NOMA 采取“量力而行”的文件傳輸方式,即功率分配優(yōu)先滿足“主文件”的傳輸需求,“次文件”的傳輸與否不影響用戶對主文件的解調。在以高緩存命中率為目標的推送策略中,效能大的文件被作為主文件,反之,效能小的作為次文件,由此便確定了文件的傳輸優(yōu)先級和解調順序。顯然,在解調主文件信號時,次文件信號作為干擾信號。服務車m ∈M'解調文件i ∈F'對應的信號i時可獲得的傳輸速率為:

文件i 可在服務車m 上被解調的條件為rm,i≥Ri。當然并非所有m ∈M'的車輛均需要解調信號i,如緩存中含有文件集合{j|μj≤μi,i,j ∈ F'}的服務車無解調信號i的必要,反之亦然。
從式(12)可知,服務車接收文件的數據速率除受功率分配結果影響外,還受到服務車與基站間信道增益的影響。為確保M'中車輛均能夠成功解調所接收的信號,基站需為信號i 分配足夠大的功率,以滿足M'中信道最差車輛能夠獲得具有不低于Ri的數據速率。因基站發(fā)射功率受限,滿足更多的車輛能夠同時接收數據會導致更少的文件傳輸數量,這將在第4.3 小節(jié)詳細說明。下面首先通過算法1 描述車輛集合和文件集合確定的CR-NOMA 功率分配機制。

算法1 以迭代方式計算功率分配因子。選定一個待傳輸文件集合F's,F's?F',并假設F's對應的車輛集合依然為M'。算法1 第3-8 行為一次功率分配因子計算過程。首先確定F's中效能最大文件k。則功率分配因子αk要滿足M'中車輛的接收數據速率均滿足解調要求。為此,采取“遷就原則”來確定計算功率分配因子時所參考的信道。以文件k 為例,將需要更新文件k 的服務車集合M'c所對應的最小增益信道gc稱為“緩存信道”,將需要消除文件k 信號的服務車集合M'd所對應的最小增益信道gd稱為“解調信道”,M'd? M',M'c? M'd。當gd<gc時,則解調信道要取代服務信道作為參考信道。設gn為依據“遷就選擇”確定的信道增益,對應服務車n,則可求得文件k 的功率分配因子:

其中?k=2RK-1。



其中ρ=Akρ,?l=2Rl-1。繼續(xù)迭代上述過程,由此便可計算出傳輸不同文件所需的功率,直至基站發(fā)射功率不足以支持更多文件的傳輸或所有文件信號均被成功疊加,如算法1 第2 行所示。
需要明確的是,因基站發(fā)射功率限制,不能確保所有文件的信號均能被疊加,同時為保障傳輸性能,傳輸文件數亦存在上限。當被舍棄的文件集合所對應的車輛集合中含有離基站最遠的車輛時,按照“遷就原則”所確定的信道便會比實際需求的更小,從而產生功率的“浪費”和過早終止算法迭代過程。如提前剔除上述引起功率“浪費”的車輛,則新車輛集合所對應的文件集合及文件效能會發(fā)送變化,從而產生不同的功率分配結果。
將文件組合問題轉換為一個基于“CR-NOMA”的0-1背包問題來求解,其中“物品”的價值對應文件的緩存效能,“物品”的放置順序則由文件的效能確定。不同的是這里“物品的重量”,即文件所需的發(fā)射功率隨車輛-文件組合的不同而存在差異。為此,通過設定不同的功率粒度值P0來動態(tài)調節(jié)子背包的容量,其中P=J·P0,J 為子背包數目。特別地,將子背包標記為當前系統剩余的發(fā)射功率,而不是已經消耗的功率,這里稱之為“逆”背包模型。例如,設基站總功率為5P,功率間隔設為P,則子背包可以被標記為{4P,3P,2P,P,0},其中標記為0 的子背包是指當前系統無功率剩余。
“逆”0-1 背包問題來優(yōu)化文件組合的過程進行說明。給定5 個文件,其效能明確為{u1,u2,u3,u4,u5}={11,8,7,6,5},各文件所需的最低傳輸速率分別為{R1,R2,R3,R4,R5}。可得文件效能值滿足關系:

用B(i,j)表示剩余功率為jP 時,通過前i 個文件獲得的最大系統緩存效能,如表2 所示。當將文件i 填充進B(i,j)時,根據背包j 可以反推出信號i 所需的功率Pi。當前剩余功率jP 和Pi相加得到未傳輸文件i 時所需的剩余功率,則0-1背包問題的轉移方程為:

其中j+「Pi/P對應剩余功率。通過(16)便可以進行迭代更新,直至收斂。下面對B(3,1)的更新過程進行說明,此時要求基站要余下大小為P 的功率。把解調文件3 時的噪聲σ2加上的剩余功率P 當作干擾,則P3應滿足:

表2 基于“逆”背包的文件選擇示例

其中,?2=2R2-1,g*是指按照“遷就原則”確定的信道。假設1+P3/P=3,則B(2,1+「Pi/P)=B(2,3)=μ2。又因為μ2+μ3>μ1=B(2,4),則:

即“背包”中此時應放置的文件為{2,3}。如表2 所示,按照迭代規(guī)則及文件的效能值,在滿足功率要求的情況下,一個可能的文件最佳組合為{1,4,5},對應系統最大效能值為22。
背包問題的算法復雜度為O(J·F),J 表示子“背包”的數量。在基站發(fā)射功率給定的情況下,J 值越大,表示功率拆分粒度越小,有利于獲得更優(yōu)的文件組合。同時較大的J值會增加算法的復雜度。雖然難以給出拆分粒度與文件之間的特定關系,但本文在仿真中評估了參數J 對系統緩存效能的影響。
算法整體架構如圖4 所示,包含內外兩層優(yōu)化過程。外層先確定服務車組合M',M'?M,內層針對M'對應的文件集合F'進行優(yōu)化。

圖4 車輛-文件分層交替優(yōu)化算法架構
算法的迭代條件是新產生的車輛-文件組合所對應的系統緩存效能大于最大的已獲得緩存效能,當條件不滿足時則終止優(yōu)化過程。
外層優(yōu)化中服務車最大組合數為2M,為降低算法整體復雜度,利用NOMA 信號解調特點制定車輛組合準則。當疊加信號能夠被遠端車輛解調時,近端車輛必滿足成功解調該信號的條件。因此當某一車輛被選中時,所有比此車輛距離基站更近的車輛均應被選中。如設m 為集合M'中最遠端的服務車,則M'={n|gn≥gm,n ∈M}。由此,服務車組合數從2M降為M。服務車集合確定后的文件組合求解如算法2 第5-14 行表示。為進一步提高算法效率,按服務車組合中車輛數從大到小進行迭代。假設服務車組合對應的文件均被傳輸,此時的文件效能稱為“待緩存效能”U',當前最優(yōu)推送策略對應的效能則稱為“已緩存效能”U*。如算法2 第7-8 行所示,當且僅在U'>U*時才觸發(fā)文件選擇GetCacheStrategy(),即算法2 所示的內層優(yōu)化過程,否則結束算法并輸出已獲得的推送策略。算法2 第9 行表示僅當能夠獲得更高的系統緩存效能時方更新推送策略及最大系統緩存效能值。鑒于待緩存效能隨車輛數減少而降低,因此所設定的迭代順序是合理的。

因文件和車輛之間的耦合性,通過求解上述背包問題獲得的文件集合F's會反過來影響服務車集合,因此內層同樣采用交替優(yōu)化的方式。下面通過算法3 并結合圖4 說明內層優(yōu)化過程。針對輸入的車輛-文件組合{M',F'},首先計算其待緩存效能U',當且僅當U'大于當前最大的已緩存效能U″s時執(zhí)行優(yōu)化過程,否則跳出循環(huán)。算法3第6-10 行表示一輪優(yōu)化過程。第一步通過求解背包問題優(yōu)化文件組合,即將F'優(yōu)化為F's。第二步通過新產生的文件組合更新車輛組合,即將M'更新為M's,這是由于車輛和文件的耦合關系使得當文件組合改變時,原本的車輛組合亦發(fā)生改變。然后通過{M's,F's}計算當前的已緩存效能U's,并根據是否能夠獲得更高的系統緩存效能來更新緩存策略。第三步為更新文件組合,即將M's作為新的輸入車輛組合M',并更新對應的輸入文件組合F'。至此完成一輪內層優(yōu)化過程。
每次外層優(yōu)化迭代過程中服務車集合中的車輛數均會降低,故算法總的復雜度為O(M2·j·F)。

本節(jié)對所提車輛-文件協同優(yōu)化策略(簡稱為動態(tài)規(guī)劃-NOMA)進行評估,包含系統緩存效能、緩存命中率和業(yè)務時延性能等指標。


表3 仿真參數設置
本節(jié)首先給出基站發(fā)射功率對不同推送策略性能的影響,以反映NOMA 技術及本文所提算法在提高系統緩存效能方面的優(yōu)勢。然后在不同流行度參數下評估基站發(fā)射功率對系統緩存效能的影響,特別地,將基于文件效能的傳輸方案(效能方案)與基于流行度的傳輸方案(流行度方案)進行對比,具體仿真兩者效能比(記為效能-流行度效能比)隨基站發(fā)射功率的變化,以反映所提文件效能模型所帶來的緩存效能增益。
圖5 顯示了不同推送策略的系統緩存效能隨基站發(fā)射功率的變化趨勢,各路段的內容流行度參數μ=1。可以觀察到,發(fā)射功率的增加有利于獲得更高的系統緩存效能。所不同的是OMA 方案相比于NOMA 方案具有更低的效能且更容易達到飽和狀態(tài),這是因為NOMA 充分利用了功率增加所帶來的性能增益,即能夠實現在單個推送時隙推送更多的文件。結果還表明動態(tài)規(guī)劃-NOMA 算法始終優(yōu)于貪婪法-NOMA,且在發(fā)射功率達到35 dBm 以上時能夠獲得最優(yōu)的性能。

圖5 基站發(fā)射功率對系統緩存效能的影響
圖6 顯示了文件流行度對系統緩存效能的影響,其中μ 取值0.1、0.9 和1.5 分別對應分散、一般集中、高度集中的文件請求情況。可以觀察到,效能-流行度效能比隨發(fā)射功率的增大先升高(P<30 dBm)后降低(P >30 dBm)。這是因為,當發(fā)射功率足夠大時,系統能夠容納更多的文件傳輸,效能方案的優(yōu)化空間變小。如當流行度方案能夠完成4 個文件傳輸時,效能方案最多能獲得一個文件的增益。較分散的文件請求(小μ)總能夠獲得比集中請求(大μ)更大的效能比。原因是在文件請求較分散時,車輛的分布成為影響效能值大小關系的重要因素,僅基于文件流行度的調度策略無法反映文件潛在的被請求概率,相反,本文所提方案中定義的效能函數綜合考慮了文件流行度和車輛分布帶來的影響;與此對應,在文件請求較集中時,文件本身的流行度成為影響文件效能的主要因素,兩種方案對文件傳輸優(yōu)先級的評估與對比方案趨于一致,表現為μ=1.5 時比值更小。

圖6 文件流行度對系統緩存效能的影響
本節(jié)針對動態(tài)規(guī)劃-NOMA 策略,分析不同發(fā)射功率情況下背包粒度的影響。通過對比不同發(fā)射功率下的收斂速度來評估所需的子背包數。其中收斂性判斷中的參數δ 設為0.2,即對于數列{xn},對任意正整數N,?m,n≤N,均存在|xn-xm|≤δ。將滿足所有文件傳輸時所對應的基站發(fā)射功率最小值設為功率閾值(仿真中設為30 dBm),則可將仿真分為兩種場景,其一為低于功率閾值場景,此時系統功率不足以支持所有文件的傳輸;其二為高于功率閾值場景,此時系統功率能夠滿足所有文件的發(fā)送。
圖7(a)顯示了基站發(fā)射功率低于閾值情況下背包粒度對系統緩存效能的影響。可見,當基站發(fā)射功率較小時,精細的背包粒度有利于容納更多的文件傳輸,從而獲得更高的系統緩存效能。同時,發(fā)射功率越大時收斂所需的背包數量越大,如發(fā)射功率為20 dBm、25 dBm、29 dBm 對應的子背包數分別為87、135、170。這是因為在背包粒度一致的情況下,總發(fā)射功率越大,越需要設置更大的子背包數量。

圖7 背包粒度對系統緩存效能的影響
圖7(b)顯示了基站發(fā)射功率高于閾值情況下背包粒度對系統緩存效能的影響。可以觀察到與發(fā)射功率低于閾值的案例中不同的收斂速度,即功率越大收斂越快,如功率為35 dBm、37 dBm、40 dBm 對應的子背包數分別為45、27、19。這是因為功率越大越容易達到所有文件都被傳輸的系統緩存效能上限,對背包粒度要求越小。需要指出的是,如果預估到基站發(fā)射功率能夠支持所有文件的傳輸,則可以直接通過CR-NOMA 獲得各文件發(fā)射所需的功率值,而不需要通過動態(tài)規(guī)劃的方式求解。
本節(jié)評估文件更新需求閾值、推送時隙插入間隔和交通環(huán)境對緩存命中率的影響,其中交通環(huán)境包含車輛速度和交通流密度。為反映時隙分配對系統性能的影響,將推送時隙內系統的緩存命中率定義為0,因此這里采取“平均緩存命中率”來表示系統總體的請求命中情況。
(1)更新需求閾值的影響
圖8 反映基站發(fā)射功率為23 dBm、25 dBm、35 dBm三種情況下的更新需求閾值影響。同時,給出兩種不同的更新需求度因子設置:1)ξ=5,ω=1,對應已緩存文件更新權限低;2)ξ=1.01,ω=0.1,對應已緩存文件更新權限高。

圖8 更新需求閾值對緩存命中率的影響
可以觀察到,當ξ 趨于1 且ω 趨于0 時,服務車緩存中尚未失效的文件權限被提升,在當前時隙被更新的機會增加,從而出現因優(yōu)先傳輸未失效文件而拒絕已失效文件的情況。如功率為23 dBm 和25 dBm 時,隨著更新需求閾值的增加,對應的緩存命中率下降,顯示由于過度關注個別效能高的文件而服務車緩存中的文件數減少。當ξ 增加,且ω 趨于1 時,未緩存文件的權限降低,系統會優(yōu)先更新已失效的文件,而后再更新未失效的文件。此時可以確定性地獲得系統性能提升,這是因為系統富余的功率得到充分利用,并最大程度維持了緩存文件的有效性。由于優(yōu)先保障已失效文件的傳輸,緩存命中率隨更新需求閾值的增加趨于不變。另外,通過對比兩種更新需求度參數下的緩存命中率可以發(fā)現,當基站發(fā)射功率較低(23 dBm 和25 dBm)時,隨著更新需求閾值的增加,已緩存文件更新權限高的參數配置有機會獲得更高的緩存命中率,如在更新需求閾值為3時。而當基站發(fā)射功率較大(35 dBm)時,兩種參數設置下的緩存命中率曲線重合,這是因為在此時基站功率能夠滿足所有文件的更新需求。
(2)推送時隙插入間隔的影響
圖9 顯示了推送時隙插入間隔的影響。在發(fā)射功率為25 dBm 的情況下,當插入間隔較小時,由于推送時隙客戶車無法接收服務,雖然緩存文件被頻繁更新,但客戶車接收數據的時隙減少,因此緩存命中率低。隨著插入間隔的增加,客戶車獲得更多的交付時隙,系統會獲得一個最佳的緩存命中率,如插入間隔為4 個時隙時緩存命中率為70%。隨著時隙間隔的進一步增加,雖然交付時隙也隨之增加,但由于推送時隙的減少,導致服務車的緩存得不到及時更新,從而降低了系統的緩存命中率,如插入間隔為8 個時隙時緩存命中率降為45%。當發(fā)射功率等于20 dBm時,此時NOMA 能夠成功傳輸的文件有限,在推送時能夠被選擇的文件數少于需要更新的文件數,因此需要適配一個較小的插入時隙間隔,如在插入間隔為3 個時隙時達到最佳緩存命中率,這是由于此時服務車緩存中失效的文件數少。當發(fā)射功率等于35 dBm 時,NOMA 容量提升,能夠應對隨著時隙間隔增大導致單個推送時隙內需要更新的文件種類多的情況,因此需要適配一個較大的插入時隙間隔以提高交付時隙所占比例。

圖9 推送時隙插入間隔對緩存命中率的影響
(3)交通環(huán)境的影響
為評估所提推送策略對動態(tài)網絡環(huán)境的適應效果,對車輛速度和交通流密度的影響進行仿真。其中交通流密度反映道路中車輛的密度,其與車輛密度之間的轉化關系見文獻[27]。
圖10 顯示了車輛速度的影響。可以觀察到,隨著車輛速度的增加,命中率均呈現下降趨勢,這是因為車速的增加使車輛更容易在短時間駛入下一個路段,導致基于當前路段內容流行度確定的緩存策略不再最優(yōu)。動態(tài)規(guī)劃-NOMA 的性能更為穩(wěn)定是因為其考慮的是路段在一段時間內車輛分布。對比策略性能下降較為明顯是因為僅根據當前時刻的車輛分布來選擇文件和車輛組合,缺乏對動態(tài)性考慮。如窮舉法-NOMA 策略在車速較低時具有最高的緩存命中率,但隨著車輛速度的增加,其對應的緩存命中率則低于所提策略。

圖10 車輛速度對緩存命中率的影響
圖11 顯示了交通流密度對緩存命中率的影響。可以觀察到,隨著交通流密度的增加,系統的命中率先增加而后趨于平緩。命中率增加是因為交通流密度的增大使得車輛對文件的請求更能反映文件的流行度。趨于平穩(wěn)則是因為當交通流密度增大到一定程度(如等于3 000 vph)時,車輛在道路的分布趨于均勻,即各路段內的車輛數差距較小,根據效能公式(4)可知,此時文件的效能評估則主要由其流行度決定。交通流密度的進一步增加則會使得道路產生輕微的擁堵,從而使得車輛在路段內的分布無法準確反映交通狀態(tài)。

圖11 交通流密度對緩存命中率的影響
圖12 顯示了緩存機制在降低用戶服務時延方面的性能。仿真中設置基站單個交付時隙內可服務的客戶車數為3,服務車單個交付時隙內可服務的客戶車數為2[20]。可以觀察到,緩存機制能夠明顯降低客戶車獲取服務的時延,如動態(tài)規(guī)劃-NOMA 相比于非緩存方案能夠獲得高達60%的時延性能增益。同時,所提策略能夠獲得與窮舉法-NOMA相當的時延性能,且比同類案表現出更好的交通流密度適應能力,如當交通流密度達到3 000 vph 時,貪婪法-NOMA策略的時延會明顯大于所提方案,當交通流密度為5 000 vph 時,所提方案的時延比貪婪法-NOMA 降低了16.8%。結合圖11 可知,雖然交通流密度的增加能夠帶來更高的緩存命中率,但客戶車數量的增加導致交付階段的網絡資源短缺,從而造成時延增大。

圖12 不同推送策略下的系統時延性能對比
本文研究了車聯網無線緩存場景中的內容推送機制,為提高資源受限條件下的緩存更新效率,設計了基于車輛協作的緩存架構,并采取基于NOMA 的服務車-緩存文件協同調度策略。主要創(chuàng)新點和結論如下:
針對動態(tài)的網絡環(huán)境和業(yè)務需求,定義了綜合內容流行度、文件時效性和車輛分布的效能函數來反映文件的緩存價值。特別地,定義了文件更新需求度來動態(tài)調整待更新文件的集合,提高了網絡資源利用率。
考慮到文件所需傳輸速率和接收文件的車輛位置均會影響NOMA 功率分配,為最大化系統緩存效能,給出文件組合和服務車組合協同優(yōu)化的內容推送方案。設計了基于動態(tài)規(guī)劃的分層交替優(yōu)化算法來降低問題求解復雜度。
研究表明,基站發(fā)射功率、推送時隙的插入間隔、文件更新需求閾值等參數對系統性能具有明顯影響。相比于傳統緩存場景,車輛的速度和密度則是影響上述緩存機制性能的特殊因素。車輛速度的影響可以通過一定的車輛移動預測來消減,而車輛密度的增加則在帶來高緩存命中率的同時削弱了所提策略的時延性能。