徐永杰, 李登峰, 張 娜, 伍之前
(1.海軍大連艦艇學(xué)院,遼寧 大連 116018; 2.大連市政府發(fā)展研究中心,遼寧 大連 116012)
從數(shù)據(jù)融合角度劃分,目標(biāo)類型識別分為信號級融合、特征級融合和決策級融合 3類,目前的相關(guān)文獻(xiàn)多從特征級融合角度研究[1-3]。編隊(duì)級目標(biāo)類型識別屬于決策級融合,其信息源包括上級指揮所、友鄰編隊(duì)、下屬作戰(zhàn)平臺,信息的內(nèi)容是目標(biāo)類型的情報(bào)。同時,信息源因?yàn)橹笓]層級的特性而具有不同的優(yōu)先等級差異,情報(bào)內(nèi)容因?yàn)閭鞲衅骺煽啃浴?zhàn)場環(huán)境復(fù)雜性等原因,具有明顯的不確定性。
針對具有優(yōu)先級的多準(zhǔn)則決策問題,美國學(xué)者Yager在 OWA算子[4]基礎(chǔ)上提出了可以集結(jié)模糊信息的優(yōu)先有序加權(quán)平均(Prioritized OWA,簡稱為POWA)算子[5];在處理模糊性和不確定性等方面,Atanassov[6]提出的直覺模糊集比 Zadeh的模糊集[7]更具靈活性和實(shí)用性。為此,可以應(yīng)用直覺模糊集描述各個信息源提供的目標(biāo)情報(bào)信息,用準(zhǔn)則優(yōu)先級描述信息源的指揮層級特點(diǎn),編隊(duì)級目標(biāo)類型識別問題可以歸結(jié)為一類具有優(yōu)先級的直覺模糊多準(zhǔn)則決策問題。本文把 POWA算子擴(kuò)展到直覺模糊集,應(yīng)用擴(kuò)展的 POWA算子研究艦艇編隊(duì)目標(biāo)類型融合識別方法。
設(shè) X是一個給定論域,則 X上的一個直覺模糊集A為:A={<x,μA(x),v(x)>|x∈ X},其中 μA(x)∶X→[0,1]和 vA(x)∶X→[0,1]分別代表 A的隸屬度函數(shù)μA(x)和非隸屬度函數(shù) vA(x),且對于 A上的任意 x∈X,都有 0≤μA(x)+vA(x)≤1成立,而且稱 πA(x)=1-μA(x)-vA(x)為 x對 A的猶豫度 。
定義 1設(shè) ai∈[0,1],i=1,2,…,n為一組實(shí)數(shù),Pi為相應(yīng)的優(yōu)先級別,且具有優(yōu)先關(guān)系 p:P1>P2>…>Pn;若 fp∶[0,1]n→[0,1],使得 :


POWA算子關(guān)聯(lián)權(quán)重的計(jì)算思路是:首先通過優(yōu)先關(guān)系得到基于優(yōu)先級的屬性權(quán)重,其次是以無優(yōu)先關(guān)系下的 OWA算子權(quán)重作為初始權(quán)重,然后利用特別構(gòu)造的基本單位區(qū)間單調(diào)(Basic Unit-interval Monotonic,BUM)函數(shù)和優(yōu)先級屬性權(quán)重獲得 POWA算子關(guān)聯(lián)權(quán)重向量。
為方便起見,稱 a=<μa,va>為直覺模糊數(shù),μa,va∈[0,1],μa+va≤1,且稱 Θ為全體直覺模糊數(shù)的集合。
定義 2設(shè) ai=<μ(ai),v(ai)>,i=1,2,…,n為一組直覺模糊數(shù),Pi為相應(yīng)的優(yōu)先級別,且具有線性優(yōu)先關(guān)系 p:P1>P2>… >Pn。若 F(ω,p)∶Θn→Θ,使得:


Yager教授用準(zhǔn)則值計(jì)算優(yōu)先級權(quán)重,在直覺模糊條件下權(quán)重計(jì)算方法需要改進(jìn),這里考慮采用直覺模糊數(shù)的得分值[8]來計(jì)算。下面給出 IFPOWA算子關(guān)聯(lián)權(quán)重向量計(jì)算步驟。
1)令 Vi表示直覺模糊信息的大小,其中:

2)因?yàn)?S(ai)∈ [-1,1],所以 (Vi+1)∈ [0,1]。
令 Ti表示各個優(yōu)先級別直覺模糊信息相對重要程度的度量,其中:



4)選擇 BUM方程為

5)令權(quán)重向量為 w=(w1,w2,…,wn)T,則:




IFHPOWA算子融合了基于優(yōu)先級的權(quán)重、基于確定性的權(quán)重和基于 OWA算子的權(quán)重,其關(guān)聯(lián)權(quán)重向量計(jì)算方法只需在 IFPOWA算子關(guān)聯(lián)權(quán)重計(jì)算方法中的 “ai”替換為 “naiλi”,將 “~aσ(i)”替換為 “aδ(i)”即可 。
水面艦艇編隊(duì)的目標(biāo)類型融合識別功能由指揮控制信息中心完成,其信息源有上級的敵情通報(bào),友鄰編隊(duì)的共享信息,下屬艦艇的初步判斷等。其融合功能如圖 1所示。

圖1 編隊(duì)指揮信息中心融合示意圖Fig.1 C2 information center fusion of ship formation
各個情報(bào)信息的來源因?yàn)橹笓]層次的區(qū)別而具有優(yōu)先等級,各種情報(bào)信息由于傳感器可靠性、戰(zhàn)場環(huán)境復(fù)雜性以及對作戰(zhàn)目標(biāo)知識和感知經(jīng)驗(yàn)缺乏等原因,具有明顯的不確定性,可以應(yīng)用直覺模糊集描述各個信息源提供的目標(biāo)類型信息,用準(zhǔn)則優(yōu)先級描述信息源的指揮層級特點(diǎn)對編隊(duì)情報(bào)融合目標(biāo)類型識別問題建模。
艦艇編隊(duì)目標(biāo)類型融合識別問題數(shù)學(xué)描述:設(shè) P1表示上級指揮所;P2表示友鄰編隊(duì)集合;P3表示下屬艦艇集合。P1={S11},P2={S21,S22,…,S2n2},P3={S31,S32,…,S3n3},有 q=(1+n2+n3)個信息源,顯然存在優(yōu)先關(guān)系:P1>P2>P3。設(shè)目標(biāo)類型劃分為 T={T1,T2,T3,T4,T5}。令1,2,3;j=1,…,max{1,n2,n3}表示由 Sij判斷目標(biāo) O是Tl類型的直覺模糊數(shù),則 Sij的目標(biāo)情報(bào)表示為一個直覺模糊集則直覺模糊識別決策矩陣,其中 :i=1,2,3;j=1,…,max{1,n2,n3}。
應(yīng)用本文定義的擴(kuò)展 POWA算子,建立艦艇編隊(duì)空中目標(biāo)類型融合識別方法如下所示。
步驟 1 應(yīng)用 IFWA算子[9]集結(jié)同一優(yōu)先級別中的直覺模糊信息。分別計(jì)算級別內(nèi)各個信息源信息的直覺模糊熵 H(Aij),i=1,2,3;j=1,…,max(1,n2,n3),根據(jù)文獻(xiàn)[10]的直覺模糊熵權(quán)計(jì)算方法得到相應(yīng)集結(jié)權(quán)重

根據(jù)直覺模糊集運(yùn)算法則和 IFWA算子,計(jì)算得到級別直覺模糊集 Ak,k=2,3為

步驟 2 應(yīng)用 IFHPOWA算子集結(jié)不同優(yōu)先級別的直覺模糊信息。計(jì)算 3個優(yōu)先級別信息源信息的直覺模糊熵 H(Ak),k=1,2,3,相應(yīng)地確定性權(quán)重為

根據(jù)式(3)~式(7),得到 IFHPOWA算子關(guān)聯(lián)權(quán)重向量 w=(w1,w2,w3)T,k=1,2,3,若為=1,2,3中第 k大的元素,則根據(jù)式(8),令:

得分向量 b=(b1,b2,b3,b4,b5)T。
步驟 3 對各個類型的直覺模糊綜合得分值進(jìn)行比較排序和識別決策。應(yīng)用得分函數(shù)和精確函數(shù)[11]對 bl大小進(jìn)行比較,對目標(biāo)類型歸屬進(jìn)行排序并做出識別決策。
編隊(duì)指揮信息中心在 t0時刻收到來自上級指揮所情報(bào):一批來襲目標(biāo) O很可能是 T2,也有可能是 T1,不太可能是 T3,絕不可能是 T4和 T5。用直覺模糊集表示為 A1={<T1,0.6,0.3>,<T2,0.8,0.1>,<T3,0.1,0.7>,<T2,0,1>,<T5,0,1>},t1時刻得到兩個艦艇對目標(biāo) O的初步類型識別結(jié)果,t2時刻收到兩個友鄰編隊(duì)對目標(biāo) O共享戰(zhàn)場態(tài)勢信息,用直覺模糊集對目標(biāo) O的類型進(jìn)行描述,得到的初始直覺模糊識別矩陣為

首先,應(yīng)用文獻(xiàn)[12]的直覺模糊熵函數(shù),利用式(9),計(jì)算信息源直覺模糊熵向量為 H=(H(A11),H(A21),H(A22),H(A31),H(A32))T=(0.25,0.275,0.314,0.39,0.329)T,P2,P3級別內(nèi)的直覺模糊熵權(quán)分別為21=0.53,22=0.47和31=0.46,32=0.54。
再應(yīng)用 IFWA算子,對 P2,P3級別內(nèi)的直覺模糊信息進(jìn)行集結(jié),進(jìn)而得到 3個優(yōu)先級別的目標(biāo)類型識別矩陣:

利用式(10),得到 A1,A2,A3的直覺模糊熵和直覺模糊熵權(quán)分別為:H(A1)=0.25;H(A2)=0.28,H(A3)=0.496;λ=(λ1,λ2,λ3)T=(0.41,0.37,0.22)T。
下面,以目標(biāo)類型 T1為例,應(yīng)用 IFHPOWA算子計(jì)算其直覺模糊綜合得分。
2)取初始權(quán)重向量 ω=(0.5,0.4,0.1)T,根據(jù)式(6),得到 BUM方程為

3)利用式(7)計(jì)算得到優(yōu)先有序權(quán)重向量為:w=(w1,w2,w3)T=(0.58,0.345,0.075)T。
4)根據(jù)式(11),應(yīng)用 IFHPOWA算子集成目標(biāo)類型 T1的直覺模糊綜合得分:
同理,可以計(jì)算其他目標(biāo)類型的直覺模糊綜合得分,得到直覺模糊識別得分向量為 b=(b1,b2,b3,b4,b5)T=(<0.57,0.28>,<0.81,0.087>,<0.33,0.65>,<0,0.97>,<0,1>)T。
5)根據(jù)得分函數(shù)比較可得出 b2>b1>b3>b4>b5,所以識別目標(biāo)為 T2類型。
直覺模糊集上的擴(kuò)展 POWA算子解決了具有優(yōu)先級的直覺模糊信息集結(jié)問題,能夠應(yīng)用于直覺模糊條件下的多準(zhǔn)則決策問題。應(yīng)用直覺模糊集理論研究編隊(duì)空中目標(biāo)類型融合識別問題,結(jié)合直覺模糊熵權(quán)的思想和直覺模糊加權(quán)平均算子,應(yīng)用直覺模糊優(yōu)先有序加權(quán)平均算子建立的融合模型有效地處理了來自不同指揮層級的目標(biāo)情報(bào)融合問題。下一步將研究簡化直覺模糊優(yōu)先有序加權(quán)平均算子的關(guān)聯(lián)權(quán)重的計(jì)算方法和算子性質(zhì)。
[1] 孫玉鵬,李延磊,孫暄.基于最大隸屬度與證據(jù)理論的目標(biāo)識別融合[J].電光與控制,2007,14(6):60-63.
[2] 史豪杰,邢清華,沈繼承.基于支持向量機(jī)和無源特征的目標(biāo)識別方法[J].電光與控制,2009,16(2):36-38.
[3] 劉海燕,陳琳,史志富.基于模糊貝葉斯網(wǎng)絡(luò)目標(biāo)多傳感器融合識別[J].電光與控制,2009,16(3):37-41.
[4] YAGER R R.On ordered weighted averaging aggregation operators in multi-criteria decision making[J].IEEE Transactions on Systems,Man,and Cybernetics,1988,18:183-190.
[5] YAGERR R.Prioritized aggregation operators[J].International Journal of Approximate Reasoning,2008,48(1):263-274.
[6] ATANASSOV K T.Intuitionistic fuzzy sets[J].Fuzzy Sets and Systems,1986,20:87-96.
[7] ZADEH L A.Fuzzy sets[J].Information and Control,1965(8):338-353.
[8] CHEN S M,TAN J M.Handling multicriteria fuzzy decision-making problems based on vague set theory[J].Fuzzy Sets and Systems,1994,67(2):163-172.
[9] 徐澤水.直覺模糊信息集成理論與應(yīng)用[M].北京:科學(xué)出版社,2008.
[10] 徐永杰,李登峰,伍之前,等.基于直覺模糊熵和CC-OWA算子的雷達(dá)目標(biāo)識別模型 [J].數(shù)學(xué)的實(shí)踐與認(rèn)識,2009,39(10):86-90.
[11] HONG D H,CHOI C H.Multicriteria fuzzy decisionmaking problems based on vague set theory[J].Fuzzy Sets and Systems,2000,114(1):103-113.
[12] VLACHOSIK,SERGIADISGD.Intuitionistic fuzzy information-applications topattern recognition[J].Pattern Recognition Letters,2007,28(2):197-206.