999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種幅度量化誤差補償策略*

2021-11-02 01:26:04李萬珅張達凱劉胤凱李熙民馮孝斌
電訊技術 2021年10期
關鍵詞:策略

李萬珅,張達凱,劉胤凱,李熙民,馮孝斌

(電磁散射重點實驗室,北京100854)

0 引 言

工程上對天線低副瓣電平(Side Lobe Level,SLL)的要求越來越高,常通過對陣列天線各陣元進行幅度加權控制以實現低副瓣方向圖。目前進行幅度加權控制應用較多的是數字衰減器,其優點是可以較為精準、快速地實現對各陣元激勵幅度的控制,缺點是受衰減步進和量化位數的限制,只能提供有限個確定的離散幅度值,勢必產生量化誤差,抬升SLL,影響天線性能。

對幅度量化的討論大多在設計陣列天線尤其是稀布陣時對量化臺階和加權寬度的求解上[1-4],而對于借助數字衰減器實現幅度加權的陣列天線,其量化臺階隨著衰減器選型的確定已經確定,且數量較多,加權寬度求解也演變成對理想加權系數的量化問題。降低量化誤差最直接的辦法就是通過縮小衰減步進、增加量化位數來提高數字衰減器的精度,但需付出提高成本的代價。在不改變數字衰減器精度的前提下,若采取全局搜素,雖可得到最優解,但由于每個加權系數存在兩種量化結果,隨著陣元數的增加,計算量成指數增長,效率較低。目前所查閱文獻多以就近量化(四舍五入)[5]作為量化策略,并未進一步細究,對較優解會有所遺漏。因此,如何在現有條件下尋求合理的幅度量化策略值得研究。

1 陣列模型及問題引出

考慮沿x軸排列的N元線陣,陣元間距d,借助數字衰減器進行幅度激勵控制,其xoy平面內理想陣因子方向圖函數[6]可表示為

(1)

式中:In(n=1,2,…,N)為各陣元幅度激勵系數;k=2π/λ為傳播常數,λ為波長;φ為方位角。

對于衰減步進為R0的M位數字衰減器,可以提供2M個相對幅度,即各陣元的歸一化相對激勵幅值只能取{1,β,β2,…,β2M-1}集合中的數值,其中β=10-R0/20。

陣因子量化方向圖函數可表示為

(2)

式中:[·]代表某種量化策略。

誤差方向圖函數為

(3)

式中:δn=In-[In](n=1,2,…,N)為量化誤差。

定義增益損耗偏移量(單位dB)為量化方向圖與理想方向圖的增益偏移值,可表示為

(4)

由式(3)和式(4)可知,對低副瓣算法求解出的幅度激勵系數進行幅度量化,其誤差方向圖函數、增益損耗偏移量與具體采取的量化策略直接相關。

2 仿真分析

2.1 常見的量化策略

假設In∈[an,bn](n=1,2,…,N),[an,bn]為數字衰減器量化區間,常見的量化策略有舍尾量化(取所在量化區間的左端點值)、進位量化(取所在量化區間的右端點值)和就近量化(取數值接近的量化端點值)。

此外,二可能值法(Two Possible Values,TPV),依概率取左右量化端點值,常用來解決電掃描中移相器移相量化誤差造成指向精度下降的問題[7-11],本質上屬于統計理論[12]。可將其用在數字衰減器幅度量化誤差補償策略中,并在此基礎上提出統計意義下增益保持的二可能值法(Two Possible Values of Gain Hold,GH_TPV),即

(5)

可見,當p=1時,即為舍尾量化;當q=1時,即為進位量化。除這兩種極端情況之外,某個陣元的幅度激勵值采取進位量化還是舍尾量化是隨機的,由此可得誤差方向圖函數的期望為

(6)

式中:Δn=bn-an為In所在量化區間的區間長度。

本文重點關注量化方向圖的增益損耗和最大SLL,不需拘泥于其他細節,故令量化后增益損耗偏移量期望為零,即

(7)

得出判決概率

(8)

以一維等間距側射陣為仿真對象,仿真參數如表1所示,其中(a)、(b)、(c)、(d)為圖1和圖2的子圖。

表1 一維仿真參數表

根據約束條件R0(2M-1)≥20lgK,得出數字衰減器可提供的幅度激勵最大動態比K為37.58。采取Taylor加權[13],隨著期望SLL的降低,幅度加權的錐削度升高,K也不斷變大。當期望SLL為-56.6 dB時,K為37.47。從圖1(a)中也可以驗證,當期望SLL小于-56.6 dB時,最大SLL的降低會受到衰減器精度(衰減步進和量化位數)的限制。

當期望SLL在-20~-40 dB之間時,進位量化和舍尾量化作為量化策略的兩種極端,由式(4)可知其增益損耗偏移量較大。圖1也表明,進位量化增益損耗降低,但最大SLL較高;舍尾量化最大SLL較低,但增益損耗增大。就近量化的增益損耗偏移量在±0.1 dB之內,但其最大SLL并非總是最優。圖1中GH_TPV是在100次量化搜索中選取最優SLL的結果,由于當In數值接近an(或bn)時有q(或p)的概率置為bn(或an),這將產生較大的量化誤差,想得到較優結果,需大幅提高搜索次數,這將與全局搜索無異。而本文理想的量化策略應是在較少搜索次數下得到具有小增益損耗偏移量的同時,最大SLL又盡可能低,從而最大限度降低幅度量化帶來的影響,故需要進行改進。

(a)N=32,最大SLL隨期望SLL變化曲線

(b)N=32,增益衰減偏移量隨期望SLL變化曲線

(c)-40 dB泰勒加權,最大SLL隨陣元數目變化曲線

(d)-40 dB泰勒加權,增益衰減偏移量隨陣元數目變化曲線

2.2 增益保持的適當二可能值法

(9)

同樣令E[ΔG]=0,得決策概率

(10)

式中:

A={x|x=arg{an≤In≤an/ξ},n=1,2,…,N},
B={x|x=arg{ξbn≤In≤bn},n=1,2,…,N},
C={x|x=arg{an/ξ

(11)

GH_ATPV量化策略步驟如下:

Step1 設置量化搜素次數初值k=1,最大量化搜素次數為kmax,閾值系數ξ,最佳歸一化量化副瓣電平初值SLL=0,最大副瓣電平初值SLLmax=0,最佳幅度量化加權系數Ibest。

Step2 由幅度加權系數得到其對應的量化區間,即In∈[an,bn](n=1,2,…,N),并判斷In在區間中所處的位置,得到集合A、B、C,由式(10)計算決策概率p。

Step3 根據式(9)對In進行量化,得到[In]GH_ATPV。

Step4 計算歸一化量化副瓣電平SLL(k),若SLL(k)

Step5k=k+1,若k>kmax,則停止搜索,輸出Ibest、SLLmax;否則,轉向Step3。

以Taylor加權為例,設kmax=100,ξ=0.985,仿真結果如圖1所示。可以看出GH_ATPV增益損耗偏移量與就近量化相當,比同等搜索次數下的GH_TPV要小,其最大SLL優于四種常見的量化策略,量化效果較好且具有一定的普適性。對給定幅度加權值進行量化時,適當調整量化閾值系數ξ,可在較少量化搜索次數下得到較優的量化結果。

2.3 改進的GH_ATPV

采用GH_ATPV對每個不確定量化幅度加權值進行量化時,都是假設每個加權值的量化過程是相互獨立的,但實際算法是逐次量化,當某個加權值量化結果確定后,其所帶來的量化誤差就隨之確定,式(10)就會發生變化,此時決策概率應當實時更新,以便在一定程度上降低隨機數的影響。

對GH_ATPV量化過程中決策概率進行實時更新,提出改進的GH_ATPV量化策略,其進行一次搜索的步驟如下:

Step1 設置加權值序數初值i=1。

Step2 由式(10)計算決策概率p(i),按下述方法對Ii進行量化并更新集合A、B、C:

若i∈A,則[Ii]=ai;若i∈B,則[Ii]=bi;若i∈C,且rand(i)≤p(i),則[Ii]=ai,A=A∪{i},C=C-{i};否則[Ii]=bi,B=B∪{i},C=C-{i},其中rand(i)為0~1的隨機數。

Step3i=i+1,若i>N,則完成本次量化;否則,轉向Step 2。

以Taylor加權為例,設kmax=100,ξ=0.985,仿真得到改進前后的對比結果如圖2所示。可以看出改進的GH_ATPV在保持與GH_ATPV相當的SLL水平基礎上,增益損耗偏移量得到了進一步降低,且隨著陣元數目N的增大效果更加明顯。

(a)N=32,最大SLL隨期望SLL變化曲線

(b)N=32,增益衰減偏移量隨期望SLL變化曲線

(c)-40 dB泰勒加權,最大SLL隨陣元數目變化曲線

(d)-40 dB泰勒加權,增益衰減偏移量隨陣元數目變化曲線圖2 改進的GH_ATPV與GH_ATPV對比

表2給出了以N=32為例、對部分期望SLL的Taylor加權系數進行1 000次kmax=50、ξ=0.985的量化仿真數據取平均的結果,進一步表明改進的GH_ATPV通過采取實時更新決策概率,充分利用已量化的數據信息,可保證其SLL與在GH_ATPV基本相當的前提下有著更小的增益損耗偏移量。

表2 改進的GH_ATPV與GH_ATPV相關數據

若C中最大的元素為j,則改進的GH_ATPV最終增益損耗偏移量的期望和方差只與p(j)和Ij有關,即E~(Ij-bj)+p(j)Δj,D~p(j)(1-p(j))Δj2,而GH_ATPV和GH_TPV一樣,如式(11),其增益損耗偏移量的期望和方差是多個獨立隨機變量期望和方差積累的結果。對圖2中(a)、(b)量化搜索過程數據進行處理得到樣本均值和方差,如圖3所示,可以驗證改進的GH_ATPV其增益損耗偏移量樣本均值和方差優于GH_ATPV。

(a)平均增益損耗偏移量絕對值隨期望SLL變化曲線

(b)增益損耗偏移量方差隨期望SLL變化曲線圖3 改進的GH_ATPV與GH_ATPV仿真數據處理結果對比

2.4 本文量化策略的二維推廣

將本文提出的改進的GH_ATPV量化策略推廣到二維陣列,關注二維陣列在兩垂直面(φ=0°,φ=90°)上的方向圖。對可分離型二維陣列進行兩維加權系數的量化,其本質與一維陣列一樣。以32×32二維陣列為例,在φ=0°、φ=90°面上均采用Taylor加權,仿真參數見表3,仿真結果如圖4所示。可以看出,本文提出的量化策略具有較低的SLL,且有較優的增益保持效果,即在可分離型二維陣列的量化上,本文提出的量化策略依然適用。

表3 二維仿真參數表

(a)φ=0°,最大SLL隨期望SLL變化曲線

(b)φ=90°,最大SLL隨期望SLL變化曲線

(c)增益衰減偏移量隨期望SLL變化曲線圖4 改進的GH_ATPV與常見的量化策略對比

3 結束語

本文仿真分析了幾種常見的幅度量化策略對數字衰減器控制的一維等間距側射陣幅度加權方向圖副瓣電平、增益損耗的影響,在TPV的基礎上提出了GH_ATPV量化誤差補償策略,并對其決策概率進行實時更新,提出了改進的GH_ATPV量化誤差補償策略。仿真結果表明,改進的GH_ATPV量化誤差補償策略在保持改進前SLL水平基礎上具有較優的增益保持性能,最大限度地降低了量化誤差對天線性能的影響,對一維低副瓣陣列天線的實現有一定的參考價值。在此基礎上進行二維推廣,仿真表明本文的量化策略對可分離型二維陣列加權系數的量化仍有較優的效果,但對更加復雜的二維陣列的量化策略還需進一步研究。

猜你喜歡
策略
基于“選—練—評”一體化的二輪復習策略
幾何創新題的處理策略
求初相φ的常見策略
例談未知角三角函數值的求解策略
我說你做講策略
“我說你做”講策略
數據分析中的避錯策略
高中數學復習的具體策略
數學大世界(2018年1期)2018-04-12 05:39:14
“唱反調”的策略
幸福(2017年18期)2018-01-03 06:34:53
價格調整 講策略求互動
中國衛生(2016年8期)2016-11-12 13:26:50
主站蜘蛛池模板: 欧美色亚洲| 亚洲第一视频免费在线| 在线亚洲小视频| 老司机精品99在线播放| 国内精品一区二区在线观看| 97久久精品人人| 国产精品hd在线播放| 亚欧美国产综合| 91外围女在线观看| 8090午夜无码专区| 日韩精品一区二区深田咏美| 精品人妻无码中字系列| 日韩精品专区免费无码aⅴ| 亚洲精品天堂自在久久77| 中文字幕一区二区视频| 99久久99视频| 欧美中文字幕无线码视频| 欧美久久网| 国产精品va免费视频| 免费啪啪网址| 日韩人妻少妇一区二区| 国产69精品久久久久孕妇大杂乱| 国产对白刺激真实精品91| 国产91丝袜在线播放动漫 | 国产精品成人一区二区不卡| 欧美日本中文| 小蝌蚪亚洲精品国产| 国产91透明丝袜美腿在线| 91香蕉国产亚洲一二三区| 精品成人免费自拍视频| 六月婷婷激情综合| 在线免费无码视频| 妇女自拍偷自拍亚洲精品| 欧美日韩久久综合| 色偷偷一区| 成人福利在线视频免费观看| 在线a视频免费观看| 免费jjzz在在线播放国产| 2021天堂在线亚洲精品专区| 日韩国产一区二区三区无码| 91青青视频| 国产成人福利在线视老湿机| 国产黑人在线| 久久久噜噜噜| 欧美日韩国产精品va| 国产精品自在在线午夜| 91久久青青草原精品国产| 97精品国产高清久久久久蜜芽 | 亚洲精品日产精品乱码不卡| 欧美曰批视频免费播放免费| 日本精品αv中文字幕| 色天堂无毒不卡| 青草午夜精品视频在线观看| 亚洲高清在线天堂精品| 久久成人18免费| 第九色区aⅴ天堂久久香| 婷婷激情亚洲| 91口爆吞精国产对白第三集| 最新国语自产精品视频在| 国产欧美专区在线观看| 91蜜芽尤物福利在线观看| 日韩欧美中文在线| 国产无遮挡裸体免费视频| 久久永久视频| 日本一区二区三区精品国产| 中国一级特黄视频| 国产福利拍拍拍| 亚洲人成网18禁| 伊人丁香五月天久久综合 | 国产精品短篇二区| 黄色网站在线观看无码| 亚洲色图欧美在线| 2019年国产精品自拍不卡| 国产日韩av在线播放| 久久天天躁狠狠躁夜夜2020一| 国产在线观看第二页| 一本一本大道香蕉久在线播放| 亚洲第一综合天堂另类专| 99手机在线视频| 深爱婷婷激情网| 国产精品毛片一区| 亚洲综合亚洲国产尤物|