蔣衛(wèi)恒 段耀星 李明玉* 靳 一 徐常志 李 立
①(重慶大學(xué)微電子與通信工程學(xué)院 重慶 400044)
②(中國空間技術(shù)研究院西安分院 西安 710100)
在5G時(shí)代,隨著無線通信系統(tǒng)對(duì)高速率、大容量以及更高效率的不斷追求,復(fù)雜的調(diào)制方式和大帶寬信號(hào)在發(fā)射系統(tǒng)中得到廣泛應(yīng)用[1],這就要求在發(fā)射機(jī)系統(tǒng)中使用更加復(fù)雜的功率放大器構(gòu)架和線性化設(shè)計(jì)方法。同時(shí),作為發(fā)射機(jī)中最為耗電的器件,功放的效率通常會(huì)對(duì)整個(gè)發(fā)射機(jī)的效率產(chǎn)生很大的影響,為了提高其工作效率,功率放大器通常會(huì)工作在其非線性區(qū)[2],這會(huì)導(dǎo)致發(fā)射信號(hào)產(chǎn)生非線性失真,必須采用有效的方法對(duì)功率放大器產(chǎn)生的非線性失真進(jìn)行補(bǔ)償,數(shù)字預(yù)失真是目前最常用的方法[3]。
在過去數(shù)十年中,涌現(xiàn)了許多數(shù)字預(yù)失真方法。基于沃特拉(Volterra)級(jí)數(shù),業(yè)界進(jìn)行了刪減并降低其復(fù)雜度的模型成為主流,比如記憶多項(xiàng)式(Memory Polynomial, MP)模型[4]、廣義記憶多項(xiàng)式(Generalized Memory Polynomial, GMP)模型[5]、動(dòng)態(tài)偏差減少(Dynamic Deviation Reduction,DDR) 模型[6]。對(duì)于帶寬更寬的信號(hào),需要更高的反饋采樣率,高采樣率對(duì)模數(shù)轉(zhuǎn)換是極大的開銷。文獻(xiàn)[7]利用信號(hào)的循環(huán)平穩(wěn)特性,使用欠采樣的反饋信號(hào)解決這個(gè)問題。同時(shí),基于蘭德韋伯(Landweber)迭代算法的預(yù)失真方法也用來降低反饋通道的采樣率[8]。對(duì)于常用的預(yù)失真系統(tǒng),模型的復(fù)雜度和建模精度之間是一種矛盾的關(guān)系,提高建模的精度需要使用復(fù)雜度更高的模型。功率放大器在不同的功率級(jí)別上會(huì)表現(xiàn)出不同的非線性和記憶性[9],因此業(yè)界提出了針對(duì)功放的功率分段建模的方法。文獻(xiàn)[10]提出了一種模型選擇方法,根據(jù)輸入信號(hào)的幅度選擇不同的模型,來達(dá)到分段建模的目的,然而這種方法沒有考慮功放的記憶效應(yīng),是一種無記憶模型。這種分段方法也被運(yùn)用到雙帶傳輸系統(tǒng)[11],通過兩個(gè)基帶的信號(hào)幅度選擇合適的模型,但同樣沒有考慮記憶性。文獻(xiàn)[12]提出了一種向量選擇模型,通過聚類算法將輸入向量做聚類,不同的類選擇不同的模型系數(shù),但這種模型在做聚類時(shí),模型的記憶輸入項(xiàng)和當(dāng)前輸入項(xiàng)權(quán)重相同,這不符合功率放大器的記憶性質(zhì),會(huì)使建模精度降低。分段仿射函數(shù)的方法同樣被用在分段建模方法中[13],在不同的輸入信號(hào)幅度上選擇不同的仿射函數(shù)作為非線性算子來構(gòu)建功放的非線性行為。文獻(xiàn)[14]提出了一種基于增強(qiáng)模型樹的模型選擇方法,這種方法利用模型樹分類為每一類輸入數(shù)據(jù)選擇對(duì)應(yīng)的系數(shù)。但模型樹的訓(xùn)練計(jì)算復(fù)雜度很高,并且用模型樹算法對(duì)輸入序列進(jìn)行分類選擇系數(shù),也有著很大的計(jì)算量。
針對(duì)以上問題,本文提出一種基于維度加權(quán)的盲K近鄰(K-Nearest Neighbor, KNN)分類算法,與記憶多項(xiàng)式模型進(jìn)行結(jié)合,組成維度加權(quán)盲KNN記憶多項(xiàng)式(dimensional-Weighted blind KNN Memory Polynomial, WKMP)模型。KNN算法的基本應(yīng)用業(yè)界已有報(bào)道,文獻(xiàn)[15]利用調(diào)制信號(hào)的星座圖特點(diǎn)進(jìn)行聚類得到已知數(shù)據(jù)集,提出了一種無數(shù)據(jù)輔助的KNN算法運(yùn)用于盲均衡。與上述方法不同的是,本文在進(jìn)行KNN分類之前首先使用K-means算法對(duì)數(shù)據(jù)集進(jìn)行聚類,得到有標(biāo)簽的數(shù)據(jù)集,完成KNN分類算法的數(shù)據(jù)集準(zhǔn)備。進(jìn)一步在進(jìn)行KNN分類時(shí),每一級(jí)記憶延遲項(xiàng)使用單獨(dú)的權(quán)重進(jìn)行加權(quán),越靠近當(dāng)前時(shí)刻輸入,權(quán)重越大,使輸入項(xiàng)對(duì)分類的影響隨記憶階數(shù)增加而降低,以吻合功率放大器的實(shí)際記憶特性。同時(shí),確保聚類之后的數(shù)據(jù)中,每一類的輸入信號(hào)序列都是相似的,使功放可以用同一個(gè)行為模型進(jìn)行描述,再對(duì)同一類的輸入數(shù)據(jù)使用相同的行為模型,以此來提高建模的精度。實(shí)驗(yàn)證明,基于維度加權(quán)的KNN分類模型與記憶多項(xiàng)式模型結(jié)合形成的WKMP模型在功放的正向建模精度和數(shù)字預(yù)失真效果均超過了廣義記憶多項(xiàng)式的水平,有著優(yōu)良的性能。
本文結(jié)構(gòu)如下,第2節(jié)介紹所提基于維度加權(quán)的盲KNN分類模型以及子模型的系數(shù)提取方法,第3節(jié)給出實(shí)驗(yàn)結(jié)果和各個(gè)模型之間的性能對(duì)比,第4節(jié)總結(jié)。
為了對(duì)功放在不同輸入信號(hào)功率上的非線性記憶性進(jìn)行建模和預(yù)失真,本節(jié)提出基于維度加權(quán)的盲KNN記憶多項(xiàng)式(WKMP)模型。所提模型對(duì)輸入信號(hào)序列進(jìn)行維度加權(quán)的KNN分類,使同類數(shù)據(jù)之間具有較高的相似性,為每一類數(shù)據(jù)進(jìn)行非線性系統(tǒng)辨識(shí),獲得單獨(dú)的系數(shù),以提高模型的性能。
KNN分類算法是一種監(jiān)督學(xué)習(xí)的機(jī)器學(xué)習(xí)分類算法,以所有已知類別的樣本作為參考,計(jì)算未知類別的樣本與所有參考樣本的相似程度,并從中選取與未知樣本最為相似的K個(gè)已知類別的樣本,根據(jù)投票規(guī)則,將未知類別的樣本與K個(gè)選中樣本中相似程度最高的歸為一類[13]。
未知類別的樣本與參考類別的樣本之間的相似性通過歐幾里得距離衡量。參考樣本集T={(x1,y1),(x2,y2),...,(xN,yN)},xi ∈X ?Rn表 示n維參考樣本,yi ∈Y={c1,c2,...,ck}表示參考樣本所屬的類別。對(duì)于未知樣本xj,使用歐幾里得距離計(jì)算與其他參考樣本之間的相似程度,如式(1)所示

其中,k表示樣本數(shù)據(jù)的維數(shù),即向量中的元素序號(hào),通過計(jì)算出未知樣本與所有參考樣本的距離,可找出前K個(gè)最小距離,根據(jù)前K個(gè)與未知樣本之間的距離最小的參考樣本的所屬類確定未知樣本的所屬類。
在對(duì)未知樣本進(jìn)行投票確定其所屬類時(shí),考慮到數(shù)據(jù)之間越相似,應(yīng)該在投票時(shí)擁有更大的權(quán)重,因此,使用距離對(duì)投票的權(quán)重進(jìn)行加權(quán),使投票的結(jié)果更加合理。加權(quán)總和投票規(guī)則的表達(dá)式如式(2)所示

使用與未知樣本距離最近的K個(gè)參考樣本進(jìn)行加權(quán)投票,最終票值最大的類別即為未知樣本的類別。但傳統(tǒng)的KNN分類算法運(yùn)用于數(shù)字預(yù)失真時(shí)存在不足之處。首先,傳統(tǒng)的KNN分類算法在進(jìn)行歐幾里得距離運(yùn)算時(shí),每一個(gè)特征權(quán)重相同,對(duì)數(shù)據(jù)分類的影響程度是一致的。但是在進(jìn)行功率放大器(Power Amplifier, PA)建模的時(shí)候,PA的輸出更多會(huì)受到當(dāng)前的輸入信號(hào)的影響,并隨著記憶深度加深,此前輸入的信號(hào)的影響逐漸減小。因此,在進(jìn)行模型輸入信號(hào)序列分類時(shí),應(yīng)使用加權(quán)因子使特征的權(quán)重隨記憶深度加深而減小。其次,由于KNN算法是監(jiān)督學(xué)習(xí)的算法,算法的運(yùn)行依賴參考樣本集,且算法的性能也與樣本集的精度相關(guān)。要使用KNN算法進(jìn)行分類,首先必須有一組參考樣本集。針對(duì)以上兩個(gè)問題,提出了維度加權(quán)的盲KNN算法。
針對(duì)功放記憶效應(yīng),應(yīng)該為輸入向量的不同維的數(shù)據(jù)在分類時(shí)賦予不同權(quán)重的問題,提出了維度加權(quán)的KNN算法。KNN算法在進(jìn)行分類時(shí),使用歐幾里得距離來衡量樣本間的相似度,因此,在計(jì)算距離時(shí),應(yīng)該對(duì)不同維度的數(shù)據(jù)進(jìn)行加權(quán),使其對(duì)距離計(jì)算的貢獻(xiàn)程度不同。將KNN算法的距離計(jì)算公式改寫為

ωk是對(duì)不同維的數(shù)據(jù)的加權(quán)值,如此,在計(jì)算未知樣本與參考樣本集距離最近的K個(gè)樣本時(shí),權(quán)重的不同就能使不同維的數(shù)據(jù)對(duì)分類結(jié)果的影響程度不同。
針對(duì)KNN需要參考樣本集的問題,提出了基于K-means輔助的盲KNN分類算法。在進(jìn)行KNN分類之前,首先使用K-means聚類算法對(duì)已知數(shù)據(jù)集進(jìn)行聚類,K-means聚類算法在進(jìn)行聚類時(shí),也使用距離相近原則,使式(5)代價(jià)函數(shù)的值最小

其中,j表 示第j個(gè) 類別,i表 示第i個(gè) 樣本,k表示樣本的第k個(gè)特征,ui,j表 示第i個(gè) 樣本對(duì)第j個(gè)類別的從屬度,zj表 示第j個(gè)類別的聚類中心。使用K-means聚類之后的每一類數(shù)據(jù)集之間,天然便有著距離相近的特點(diǎn)。并且,每一個(gè)數(shù)據(jù)都有著聚類之后的標(biāo)簽,可以作為KNN分類算法參考樣本集。
同時(shí),對(duì)于參考樣本,同樣希望同一個(gè)類的數(shù)據(jù)之間相似程度的衡量方式對(duì)向量中不同維數(shù)據(jù)有所側(cè)重,因此,在使用K-means進(jìn)行預(yù)訓(xùn)練時(shí),也需要對(duì)K-means的聚類方法進(jìn)行修改,使用加權(quán)的K-means聚類算法[16],即修改K-means代價(jià)函數(shù)為

其中,ωk對(duì)距離計(jì)算時(shí)不同維數(shù)據(jù)的加權(quán)值。通過迭代優(yōu)化樣本類別從屬度和聚類中心來使代價(jià)函數(shù)達(dá)到最小。樣本類別從屬度通過式(7)進(jìn)行優(yōu)化

其中,ui,a表 示第i個(gè) 樣本對(duì)第a個(gè)類別的從屬度,從屬度通過類別與聚類中心的加權(quán)距離進(jìn)行衡量。聚類中心通過式(8)進(jìn)行優(yōu)化

zj表 示更新之后的第j類的聚類中心。至此,得到了加權(quán)K-means聚類算法,通過維度權(quán)值ωj來調(diào)節(jié)每個(gè)維度數(shù)據(jù)對(duì)聚類結(jié)果的影響程度,使聚類的過程貼近于功放的記憶效應(yīng)。
終上所述,所提維度加權(quán)的盲KNN分類算法在進(jìn)行分類時(shí),可以調(diào)節(jié)每個(gè)特征對(duì)于分類結(jié)果的影響,運(yùn)用于數(shù)字預(yù)失真時(shí)更加接近功放的實(shí)際工作特性。同時(shí),使用K-means聚類進(jìn)行輔助,克服了KNN分類算法需要有參考樣本的問題。所提維度加權(quán)的盲KNN分類算法由兩部分組成,如圖1所示。

圖1 維度加權(quán)的盲KNN算法流程
維度加權(quán)的盲KNN算法由兩部分組成,首先是訓(xùn)練模型,使用加權(quán)K-means聚類算法,對(duì)一部分樣本進(jìn)行聚類,得到帶有標(biāo)簽的參考樣本集。然后是進(jìn)行加權(quán)KNN分類,對(duì)于未知樣本,使用維度加權(quán)的距離選擇參考樣本中最近的K個(gè)樣本,再使用加權(quán)投票規(guī)則得到未知樣本的類別。
對(duì)于一個(gè)數(shù)字預(yù)失真模型(比如記憶多項(xiàng)式模型),記憶深度為M,則每一次模型的輸入數(shù)據(jù)設(shè)為M維向 量X(n)=(x(n),x(n ?1),...,x(n ?M+1))。對(duì)于每個(gè)輸入向量,令模型的輸出為y(n),其輸入輸出表達(dá)式為

輸入輸出之間可以一種函數(shù)關(guān)系描述,即y(n)=F(x(n),x(n ?1),...,x(n ?M+1)),對(duì) 于記憶多項(xiàng)式模型來說,這種函數(shù)關(guān)系是固定的,由模型系數(shù)確定,這種固定的關(guān)系表明對(duì)過去時(shí)刻不同功率的輸入信號(hào)產(chǎn)生的記憶效應(yīng),通過固定的映射關(guān)系影響當(dāng)前輸出。然而不同輸入功率的信號(hào)會(huì)使功放行為不同,記憶效應(yīng)也不同。在不同的輸入功率下采用不同的函數(shù)F,會(huì)極大地提高模型的精準(zhǔn)度,其表達(dá)式為

同時(shí),由于記憶效應(yīng),模型當(dāng)前的輸出還和過去時(shí)刻的輸入有關(guān),而過去時(shí)刻的輸入由于功率的不同,產(chǎn)生的記憶效應(yīng)影響也不同。功率放大器的行為不僅和當(dāng)前的輸入信號(hào)x(n)的功率有關(guān),還和過去時(shí)刻的輸入信號(hào)x(n ?1),x(n ?2),...的功率有關(guān)。
針對(duì)這種特性,提出了基于維度加權(quán)的盲KNN記憶多項(xiàng)式預(yù)失真模型(WKMP),將模型的輸入 序 列X(n)=(x(n),x(n ?1),...,x(n ?M+1))作為未知樣本,以每一維數(shù)據(jù)的幅度為特征,即XKNN(n)=(|x(n)|,|x(n ?1)|,...,|x(n ?M+1)|),通過加權(quán)KNN分類算法進(jìn)行分類,分類后的每一類數(shù)據(jù)在數(shù)據(jù)的幅度上有著距離相近的特點(diǎn),對(duì)應(yīng)相似的功放行為,再通過不同的子模型進(jìn)行處理。預(yù)失真采用直接學(xué)習(xí)結(jié)構(gòu)實(shí)現(xiàn),在加入基于維度加權(quán)的盲KNN算法后,其結(jié)構(gòu)如圖2所示。

圖2 WKMP模型DPD結(jié)構(gòu)框圖
首先是進(jìn)行參考樣本集的訓(xùn)練,將已知的發(fā)射數(shù)據(jù)重新排列,形成每一次的輸入是包含記憶項(xiàng)的向量形式,以向量的中每一維數(shù)據(jù)的幅度作為聚類依據(jù),并選擇合適的維度加權(quán)值來表征記憶項(xiàng)對(duì)當(dāng)前輸出的影響程度,進(jìn)行加權(quán)K-means聚類,得到帶有標(biāo)簽的參考樣本集。進(jìn)行數(shù)字預(yù)失真(Digital PreDistortion, DPD)處理或PA建模時(shí),再根據(jù)輸入序列X(n)=(x(n),x(n ?1),...,x(n ?M+1))的加權(quán)KNN分類結(jié)果選擇對(duì)應(yīng)的子模型進(jìn)行處理。
對(duì)于每一個(gè)模型輸入序列,同一類的輸入信號(hào)向量之間會(huì)有很高的相似性,所造成的功放非線性和記憶效應(yīng)都是相似的,對(duì)同一類輸入序列采用同一子模型對(duì)功率放大器進(jìn)行建模,可以極大提高模型的精度。并且將模型的輸入序列進(jìn)行分類,可以視作將輸入空間進(jìn)行劃分,對(duì)應(yīng)著將功放的行為模型進(jìn)行劃分,每一段子輸入空間對(duì)應(yīng)著一段功放行為模型,在通過子模型的輸入輸出數(shù)據(jù)進(jìn)行建模后,子模型的數(shù)學(xué)模型與功放的實(shí)際模型進(jìn)行匹配,組合在一起構(gòu)成完整的功放行為模型。每一個(gè)子模型擁有獨(dú)立的系數(shù),只對(duì)功放的一部分行為進(jìn)行建模,因此可以獲得較高的精準(zhǔn)度。例如,在進(jìn)行參考樣本集的訓(xùn)練時(shí),在幅度上將輸入信號(hào)序列劃分為8類,對(duì)于模型的輸入信號(hào)來說,輸入信號(hào)向量被劃分為了8類,并且每一類輸入信號(hào)由對(duì)應(yīng)的DPD模型單獨(dú)處理,每一個(gè)DPD模型有著自己獨(dú)立的系數(shù),充分對(duì)功率放大器在不同工作條件下產(chǎn)生的不同的非線性效應(yīng)與記憶效應(yīng)進(jìn)行建模,提高模型的建模和預(yù)失真的能力。
對(duì)于一般的直接學(xué)習(xí)結(jié)構(gòu)的預(yù)失真模型,文獻(xiàn)[17]給出了基于牛頓迭代的系統(tǒng)辨識(shí)方法。然而,在WKMP模型中,輸入的信號(hào)向量使用了維度加權(quán)的KNN分類方法進(jìn)行了分類,每一類的輸入向量由對(duì)應(yīng)的子模型進(jìn)行處理。這種情況下,對(duì)于模型的輸入信號(hào)序列X(n)=(x(n),x(n ?1),...,x(n ?M+1)),X(n)表 示n時(shí)刻模型的輸入信號(hào)序列,當(dāng)時(shí)刻n發(fā)生變化時(shí),輸入信號(hào)序列X(n)所屬的子模型會(huì)發(fā)生變化。則原輸入信號(hào)所形成的預(yù)失真模型基函數(shù)矩陣將不再適用于各個(gè)子模型,需要為各個(gè)子模型的輸入序列計(jì)算其基函數(shù)矩陣,并尋找合適的系統(tǒng)系數(shù)計(jì)算方法。

對(duì)于功率放大器的正向建模,模型的輸入序列X(n)與 模型的輸出y(n)之間是一一對(duì)應(yīng)的關(guān)系。當(dāng)采用記憶多項(xiàng)式模型作為子模型的結(jié)構(gòu)時(shí),令第k個(gè)子模型的基函數(shù)矩陣Hk, 其系統(tǒng)系數(shù)為ωk,則模型輸出可用式(11)表示yk表 示第k個(gè)子模型的輸出,如y1=(y(1),y(3),...,y(L)), 整個(gè)模型的輸出由所有的子模型輸出一起構(gòu)成。對(duì)于單個(gè)子模型而言,輸入數(shù)據(jù)所構(gòu)成的基函數(shù)矩陣和輸出之間是一種線性關(guān)系,則子模型對(duì)功率放大器的正向建模的系統(tǒng)系數(shù)可以通過最小二乘的方法求得,如式(12)所示

將WKMP模型運(yùn)用于數(shù)字預(yù)失真時(shí),每一個(gè)子模型的系數(shù)不同,并且進(jìn)行維度加權(quán)的盲KNN分類之后,輸入信號(hào)序列會(huì)根據(jù)分類結(jié)果由不同的子模型進(jìn)行處理,模型輸出y的各元素y(n)由不同的子模型輸出,同時(shí),由于功率放大器的記憶效應(yīng),功率放大器的輸出z(n)是與多個(gè)子模型的輸出相關(guān)的,因此需要一種適合的算法計(jì)算各個(gè)子模型的系數(shù)。對(duì)于預(yù)失真系統(tǒng)而言,目的是使模型的輸入信號(hào)與功放的輸出信號(hào)一致,輸入輸出誤差可由式(13)表示

令代價(jià)函數(shù)如式(14)表示

代價(jià)函數(shù)和系統(tǒng)系數(shù)緊密相關(guān),其變化可以通過代價(jià)函數(shù)對(duì)子系數(shù)的共軛ωk?的導(dǎo)數(shù)體現(xiàn),使代價(jià)函數(shù)對(duì)第k個(gè)子系統(tǒng)的系數(shù)共軛ωk?求導(dǎo)為

為了驗(yàn)證所提基于維度加權(quán)的盲KNN記憶多項(xiàng)式模型的性能,本節(jié)使用了一套包含計(jì)算機(jī)(Personal Computer, PC)、矢量信號(hào)發(fā)生器(Vector Signal Generator, VSG)、Doherty功率放大器、頻譜分析儀(Vector Spectrum Analyzer,VSA)、電源、衰減器等模塊的實(shí)驗(yàn)平臺(tái)進(jìn)行驗(yàn)證。測試使用的PA工作在2.2 GHz,輸出信號(hào)的平均功率為34 dBm。計(jì)算機(jī)和矢量信號(hào)發(fā)生器使用局域網(wǎng)(Local Area Network, LAN)進(jìn)行連接,VSG發(fā)射信號(hào)經(jīng)驅(qū)動(dòng)放大后傳輸?shù)焦β史糯笃鳎M成傳輸路徑。功率放大器的輸出信號(hào)經(jīng)過衰減器后傳輸?shù)絍SA,再由VSA通過LAN連接到計(jì)算機(jī)構(gòu)成反饋路徑。圖3 給出了實(shí)驗(yàn)平臺(tái)現(xiàn)場圖。使用ADS2020進(jìn)行基帶信號(hào)的產(chǎn)生,所有信號(hào)處理和訓(xùn)練過程均在MATLAB中進(jìn)行。基帶信號(hào)使用了帶寬為30 MHz、采樣率122.88 MHz、峰值平均功率比為8.52 dB的3載波長期演進(jìn)(Long Term Evolution, LTE)信號(hào)。

圖3 實(shí)驗(yàn)平臺(tái)現(xiàn)場圖
在功率放大器的行為正向建模時(shí),使用歸一化均方誤差(Normalized Mean Squared Error,NMSE)作為建模精度的指標(biāo)。在DPD測試中,使用相鄰信道功率比(Adjacent Channel Power Ratio, ACPR)來衡量模型的線性化性能,并使用歸一化均方誤差(Normalized Mean Squared Error,NMSE)來衡量模型預(yù)失真的信號(hào)還原效果。
在實(shí)驗(yàn)中,WKMP模型的子模型使用階數(shù)為3,記憶深度為3,即有16個(gè)參數(shù)的記憶多項(xiàng)式模型,選擇子模型數(shù)量為1~9,進(jìn)行對(duì)比不同子模型數(shù)量對(duì)于WKMP模型正向建模能力的影響。為了直觀了解所提出模型的性能,使用了僅使用未加權(quán)KNN的記憶多項(xiàng)式模型(KMP)作為對(duì)比,子模型和WKMP采用同樣16個(gè)參數(shù)的MP模型,同時(shí),使用記憶深度為5,階數(shù)為4,總共92個(gè)參數(shù)的GMP模型和階數(shù)為3,記憶深度為3,16個(gè)參數(shù)的MP模型作為性能對(duì)比。
在進(jìn)行PA的正向建模時(shí),信號(hào)不經(jīng)過處理,直接通過矢量信號(hào)發(fā)生器發(fā)射,經(jīng)過PA放大和衰減器的衰減,接入頻譜分析儀,MATLAB通過局域網(wǎng)對(duì)VSA采集到的信號(hào)進(jìn)行對(duì)齊,再進(jìn)行功放行為模型的建模。WKMP模型的建模信號(hào)的功率譜信號(hào)與PA實(shí)際輸出信號(hào)的功率譜如圖4所示。

圖4 WKMP建模功率譜
隨著子模型數(shù)量的增多,WKMP模型和KMP模型的建模精度均會(huì)提高,但WKMP模型的建模精度在所有子模型分類數(shù)上均比KMP模型有著較大的提升,這一點(diǎn)可以在圖5中看出。并且,太多的子模型數(shù)量會(huì)使模型訓(xùn)練所需要的數(shù)據(jù)增多,同時(shí)也將會(huì)增大系數(shù)確認(rèn)的計(jì)算量,因此,需要考慮子模型的數(shù)量和性能的關(guān)系,在實(shí)驗(yàn)中選擇8個(gè)子模型。

圖5 建模精度和子模型數(shù)量的關(guān)系
如表1所示,在PA的正向建模精度上,根據(jù)結(jié)果,所提出WKMP模型相比于MP模型,其歸一化均方誤差降低13.95 dB,從–36.72 dB提升到了–50.67 dB,而與GMP模型相比提高了2.68 dB,同時(shí)相比于僅使用了未加權(quán)的KNN的KMP模型,在子模型數(shù)量為8時(shí),WKMP模型的建模精度提高了6.36 dB。可以看出,所提出的WKMP模型在PA正向建模能力上,已經(jīng)遠(yuǎn)超MP模型,也超過了GMP模型的建模能力,表現(xiàn)出了優(yōu)異的PA建模能力。

表1 3種模型PA正向建模精度對(duì)比(dB)
進(jìn)一步驗(yàn)證提出模型的DPD性能,實(shí)驗(yàn)采用的4種模型均采用直接學(xué)習(xí)結(jié)構(gòu),迭代次數(shù)設(shè)置為10次,再驗(yàn)證系數(shù)更新完善后的模型的DPD能力。4種模型的DPD后PA輸出信號(hào)的功率譜如圖6所示。可以看出,在4種模型的線性化效果對(duì)比中,WKMP模型表現(xiàn)出了最為優(yōu)異的性能。

圖6 4種模型DPD輸出信號(hào)功率譜
所提模型線性化后的幅度調(diào)制-幅度調(diào)制(Amplitude Modulation-Amplitude Modulation, AMAM)曲線和相位調(diào)制-相位調(diào)制(Phase Modulation-Phase Modulation, PM-PM)曲線如圖7所示。可以從AM-AM曲線中看出,即使PA表現(xiàn)出了顯著的非線性和記憶性,但所提出的WKMP模型仍然能夠表現(xiàn)出很好的線性化能力,具體的DPD性能結(jié)果如表2所示。

表2 各模型的DPD性能對(duì)比

圖7 WKMP模型AM-AM和PM-PM曲線
所提WKMP模型在DPD表現(xiàn)上與PA的正向建模表現(xiàn)一致,均表現(xiàn)出了極高的性能,相比于未經(jīng)過DPD的輸出信號(hào),其ACPR提高了14.4 dBc,并且相較于MP模型,有著3.34 dBc的性能提高,而與GMP模型相比,則超過了GMP模型1.02 dBc,也超過了KMP模型1.40 dBc。而僅經(jīng)過未加權(quán)KNN分類的KMP模型雖然相較于MP模型有著1.94 dBc的性能提升,但相較于GMP模型還有著0.38 dBc的差距。同時(shí),在信號(hào)還原效果上,WKMP模型也在4種模型中表現(xiàn)出最為優(yōu)秀的性能,其NMSE達(dá)到了–43.28 dB的水平,相較于MP模型和GMP模型分別提升了11.81 dB和12.63 dB。
同時(shí),相較于MP模型而言,本文所提WKMP模型僅會(huì)在確定模型輸入信號(hào)序列的類別時(shí)增加計(jì)算復(fù)雜度,在信號(hào)的預(yù)失真處理和模型系數(shù)確認(rèn)中由于采用相同階數(shù)和記憶深度的多項(xiàng)式,計(jì)算復(fù)雜度不會(huì)有大的變化,總的計(jì)算復(fù)雜度雖會(huì)超過MP模型的計(jì)算復(fù)雜度,但相較于GMP模型,仍然有著很大的優(yōu)勢。表3給出幾種模型計(jì)算復(fù)雜度的對(duì)比,計(jì)算復(fù)雜度使用迭代一次所用的復(fù)數(shù)乘法次數(shù)來衡量,其中,K是進(jìn)行加權(quán)KNN判別的已知數(shù)據(jù)集個(gè)數(shù),K=500,N代表訓(xùn)練所用的數(shù)據(jù)總的點(diǎn)數(shù),N=16384,Ni和Nj分別表示W(wǎng)KMP模型和KMP模型的第i個(gè)子模型和第j個(gè)子模型的數(shù)據(jù)點(diǎn)數(shù),P代表模型的基函數(shù)數(shù)量,即系數(shù)的數(shù)量,PMP=PKMP=PWKMP=16, PGMP=92。
從表3給出的各模型的計(jì)算復(fù)雜度對(duì)比, WKMP模型雖然相比于MP模型的有較大的計(jì)算復(fù)雜度,但換來了性能的大幅度提升,同時(shí)WKMP模型計(jì)算復(fù)雜度與KMP模型相當(dāng),卻做到了更好的數(shù)字預(yù)失真和建模表現(xiàn)。并且,在計(jì)算復(fù)雜度只有GMP模型的1/3的情況下,WKMP模型表現(xiàn)出了比GMP模型更加優(yōu)異的性能。

表3 各模型的計(jì)算復(fù)雜度對(duì)比
本文提出一種基于維度加權(quán)的盲KNN記憶多項(xiàng)式數(shù)字預(yù)失真算法,充分考慮到功率放大器的行為模型與當(dāng)前輸入信號(hào)的幅度以及此前輸入信號(hào)的幅度有關(guān),即功放的非線性和記憶效應(yīng)受輸入信號(hào)幅度的影響的特點(diǎn)。通過引入維度加權(quán)的方法,對(duì)未知樣本分類時(shí)不同維的數(shù)據(jù)對(duì)分類結(jié)果的影響進(jìn)行加權(quán),更加貼近功放的實(shí)際記憶特性,并使用維度加權(quán)的K-means聚類算法進(jìn)行參考樣本的預(yù)訓(xùn)練,克服了KNN算法需要參考樣本集的問題。使用維度加權(quán)的盲KNN算法,對(duì)模型的當(dāng)前時(shí)刻和記憶輸入項(xiàng)分別進(jìn)行分類,并根據(jù)分類結(jié)果確定模型的輸入信號(hào)序列所屬的類,不同的類進(jìn)行不同的行為模型建模。實(shí)驗(yàn)證明,本文所提WKMP模型擁有優(yōu)良的功放建模能力和線性化能力,在功放呈現(xiàn)出顯著非線性記憶效應(yīng)的條件下,仍然能很好地補(bǔ)償功放的非線性記憶效應(yīng),為新一代無線通信系統(tǒng)中的數(shù)字預(yù)失真系統(tǒng)設(shè)計(jì)提供了一種有效的方案和思路。