石靜雯, 侯立群
(華北電力大學(xué) 控制與計(jì)算機(jī)工程學(xué)院,河北 保定 071003)
滾動(dòng)軸承是旋轉(zhuǎn)機(jī)械的重要部件。統(tǒng)計(jì)數(shù)據(jù)表明,近一半機(jī)械故障的發(fā)生與軸承有關(guān)[1]。因此,有效的軸承故障診斷方法備受關(guān)注[2]。傳統(tǒng)的滾動(dòng)軸承故障診斷方法常利用信號(hào)分析方法對(duì)軸承振動(dòng)信號(hào)進(jìn)行故障特征提取與診斷[3]。但是,傳統(tǒng)方法難以處理復(fù)雜工況下的振動(dòng)信號(hào)。近年來(lái),深度學(xué)習(xí)以其強(qiáng)大的數(shù)據(jù)處理能力,被成功應(yīng)用于軸承故障診斷領(lǐng)域。唐剛等[4]利用變分模態(tài)分解和深度置信網(wǎng)絡(luò),實(shí)現(xiàn)了軸承故障診斷。齊詠生等[5]提出了面向風(fēng)電機(jī)組滾動(dòng)軸承的最小熵解卷積與Teager能量算子相結(jié)合的故障診斷方法。Zou等[6]將多尺度加權(quán)熵形態(tài)濾波與雙向長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)(long short-term memory,LSTM)相結(jié)合,實(shí)現(xiàn)了滾動(dòng)軸承故障診斷。Zhao等[7]利用STIM(signal-to-image mapping)映射將一維振動(dòng)信號(hào)轉(zhuǎn)化為二維灰度圖像作為卷積神經(jīng)網(wǎng)絡(luò)的輸入,并利用卷積網(wǎng)絡(luò)實(shí)現(xiàn)了軸承故障診斷。
上述基于深度學(xué)習(xí)的軸承故障診斷方法雖然取得了不錯(cuò)的診斷結(jié)果,但其實(shí)現(xiàn)需要滿(mǎn)足兩個(gè)條件:①足夠多的樣本數(shù)據(jù);②數(shù)據(jù)獨(dú)立同分布。實(shí)際應(yīng)用中,軸承運(yùn)行狀況復(fù)雜多變,實(shí)際獲得的振動(dòng)數(shù)據(jù)難以滿(mǎn)足以上兩個(gè)條件,這將直接影響故障診斷的準(zhǔn)確性。因此,提高小樣本條件下故障診斷的準(zhǔn)確率成為目前的研究熱點(diǎn)之一。
遷移學(xué)習(xí)能將模型已經(jīng)學(xué)會(huì)的知識(shí)遷移到新的任務(wù)中[8]。其中,已學(xué)會(huì)的知識(shí)稱(chēng)為源域,新的任務(wù)稱(chēng)為目標(biāo)域。遷移學(xué)習(xí)只要找到源域和目標(biāo)域的相似性,就可以順利地實(shí)現(xiàn)遷移。李俊卿等[9]將小波變換、卷積網(wǎng)絡(luò)和遷移學(xué)習(xí)相結(jié)合,實(shí)現(xiàn)了小樣本下滾動(dòng)軸承的故障診斷。蘇靖涵等[10]利用小波包變換方法和深度遷移自編碼器提高了不同工況下的軸承故障診斷準(zhǔn)確率。Chen等[11]首先利用連續(xù)小波變換將軸承振動(dòng)信號(hào)轉(zhuǎn)換為時(shí)頻圖,再用深度遷移卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行故障診斷,以提高小樣本下的軸承故障診斷準(zhǔn)確性。Shao等[12]提出了一種遷移學(xué)習(xí)深度對(duì)抗網(wǎng)絡(luò),解決了故障診斷標(biāo)記樣本不足的問(wèn)題。總之,遷移學(xué)習(xí)能提高小樣本或變工況下的故障診斷準(zhǔn)確性。但文獻(xiàn)[9-12]均是先利用小波變換、時(shí)頻變換等信號(hào)處理方法進(jìn)行故障特征提取,再進(jìn)行故障診斷,這會(huì)造成故障信息的損失,影響故障診斷結(jié)果。
針對(duì)以上問(wèn)題,本文提出了一種適用于小樣本的軸承故障診斷方法。該方法首先利用一維卷積網(wǎng)絡(luò)(1D convolutional neural networks,1DCNN)、門(mén)控循環(huán)單元網(wǎng)絡(luò)(gated recurrent unit,GRU)和注意力機(jī)制(Attention)構(gòu)建一種基于一維卷積注意力門(mén)控循環(huán)網(wǎng)絡(luò)(1DCNN-Attention-GRU)的軸承故障診斷模型,并將軸承原始振動(dòng)數(shù)據(jù)作為模型輸入,以減小故障信息損失,避免故障特征提取對(duì)人工經(jīng)驗(yàn)的依賴(lài);然后采用基于預(yù)訓(xùn)練-微調(diào)的遷移學(xué)習(xí)方法,提高小樣本下的軸承故障診斷的準(zhǔn)確性。


圖1 GRU結(jié)構(gòu)圖
應(yīng)用深度學(xué)習(xí)算法訓(xùn)練網(wǎng)絡(luò)時(shí),迭代過(guò)程容易出現(xiàn)過(guò)擬合,為此,本文通過(guò)添加Dropout層來(lái)降低過(guò)擬合。對(duì)于卷積網(wǎng)絡(luò),一般直接將Dropout層添加到卷積層或池化層之前,但對(duì)于GRU、LSTM等循環(huán)網(wǎng)絡(luò)來(lái)說(shuō),Dropout層的正確使用方法為:對(duì)每個(gè)時(shí)間步使用相同的Dropout掩碼,簡(jiǎn)而言之就是將不隨時(shí)間變化的Dropout掩碼應(yīng)用于層的內(nèi)部循環(huán)激活(叫作循環(huán)Dropout掩碼[13])。這樣可以使網(wǎng)絡(luò)沿著時(shí)間正確地傳播學(xué)習(xí)誤差,有利于學(xué)習(xí)過(guò)程。
注意力機(jī)制最早被廣泛應(yīng)用于自然語(yǔ)言處理、統(tǒng)計(jì)學(xué)習(xí)、語(yǔ)音識(shí)別等領(lǐng)域[14]。其核心目標(biāo)是從眾多信息中選擇出對(duì)當(dāng)前任務(wù)目標(biāo)更關(guān)鍵的信息,從數(shù)學(xué)公式上Attention可以理解為加權(quán)求和,從形式上Attention可以理解為鍵值查詢(xún)。對(duì)于循環(huán)卷積網(wǎng)絡(luò),人們通常直接將GRU層最后一個(gè)時(shí)間步作為網(wǎng)絡(luò)的輸出,這樣會(huì)丟失一部分時(shí)間步的信息。本文在GRU層后面添加Attention層,這樣可以從所有時(shí)間步中自動(dòng)選擇最相關(guān)的特征,實(shí)現(xiàn)對(duì)多個(gè)時(shí)間步信息的綜合利用,解決長(zhǎng)序列數(shù)據(jù)識(shí)別率低的問(wèn)題,提高復(fù)雜環(huán)境下軸承故障診斷的準(zhǔn)確性。
注意力機(jī)制結(jié)構(gòu)如圖2所示。將GRU網(wǎng)絡(luò)的節(jié)點(diǎn)輸出H=[h1,h2,…,hn],輸入Attention層,進(jìn)行加權(quán)求和計(jì)算,得到各項(xiàng)權(quán)重系數(shù)ai,即

圖2 注意力機(jī)制結(jié)構(gòu)圖
ui=tanh(Wihi+bi)
(1)
(2)
然后將隱含變量和各項(xiàng)權(quán)重系數(shù)相乘,得到最終加權(quán)求和的時(shí)間步ct,即
ct=∑iaihi
(3)
式中,Wi,bs分別為隱含變量的權(quán)重矩陣和偏置。
遷移學(xué)習(xí)是指一種學(xué)習(xí)對(duì)另一種學(xué)習(xí)的影響,或習(xí)得經(jīng)驗(yàn)對(duì)完成其他活動(dòng)的影響[15]。Pan等[16]使用領(lǐng)域、任務(wù)和邊際概率來(lái)描述遷移學(xué)習(xí),定義為:領(lǐng)域D包含兩部分,特征空間X和邊緣概率分布P(X),即
D={x,P(X)}
(4)
另一方面,任務(wù)T也包含兩部分,特征空間γ,目標(biāo)函數(shù)f(·),即
T={γ,f(·)}
(5)
式中,f(·)為通過(guò)訓(xùn)練樣本{xi,yi}學(xué)習(xí)得到的,從概率角度講f(·)=P(γ|X)。
遷移學(xué)習(xí)的目標(biāo)就是利用從源域DS和源任務(wù)TS中獲取的相關(guān)知識(shí)提高目標(biāo)域任務(wù)TT和目標(biāo)域DT上的預(yù)測(cè)準(zhǔn)確率,其中DS≠DT,TS≠TT。其學(xué)習(xí)原理圖如圖3所示。
按照學(xué)習(xí)方法的不同,遷移學(xué)習(xí)可分為四大類(lèi):基于實(shí)例的遷移學(xué)習(xí)、基于特征表示的遷移學(xué)習(xí)、基于模型參數(shù)的遷移學(xué)習(xí)、基于相關(guān)知識(shí)的遷移學(xué)習(xí)。本文采用的是基于模型參數(shù)的遷移方法,該方法從源域和目標(biāo)域中找到他們之間共享的參數(shù)信息,以實(shí)現(xiàn)遷移。具體實(shí)現(xiàn)過(guò)程為:首先選擇樣本充足的數(shù)據(jù)集進(jìn)行網(wǎng)絡(luò)模型訓(xùn)練,確定模型參數(shù)信息;然后將卷積層、池化層、GRU層以及Attention層凍結(jié),保留模型參數(shù)信息;添加新的全連接層,采用小樣本數(shù)據(jù)對(duì)全連接層參數(shù)進(jìn)行微調(diào),得到最終的軸承故障診斷模型。
為了實(shí)現(xiàn)在小樣本變工況下的軸承故障診斷,本文利用1DCNN-Attention-GRU網(wǎng)絡(luò)和遷移學(xué)習(xí)進(jìn)行故障診斷。系統(tǒng)總體結(jié)構(gòu)如圖4所示,主要包括兩部分:

圖4 系統(tǒng)總體結(jié)構(gòu)
(1) 第一部分是源域模型訓(xùn)練。將源域訓(xùn)練數(shù)據(jù)輸入1DCNN-Attention-GRU網(wǎng)絡(luò),網(wǎng)絡(luò)模型通過(guò)迭代訓(xùn)練,得到網(wǎng)絡(luò)模型的最優(yōu)參數(shù)。
(2) 第二部分是目標(biāo)域模型訓(xùn)練。首先將源域訓(xùn)練好的模型中的權(quán)重參數(shù)遷移到目標(biāo)域,再添加新的dense層;接著進(jìn)行微調(diào)處理,凍結(jié)遷移過(guò)來(lái)的特征提取層,利用目標(biāo)域少量樣本數(shù)據(jù)對(duì)dense層進(jìn)行微調(diào),其余數(shù)據(jù)進(jìn)行測(cè)試,完成軸承故障類(lèi)型的識(shí)別。
為了避免特征提取依賴(lài)人工的問(wèn)題,本文提出一種基于1DCNN、GRU和Attention的1DCNN-Attention-GRU故障診斷模型。其卷積層個(gè)數(shù)、優(yōu)化器和dropout率需要根據(jù)實(shí)際情況進(jìn)行設(shè)定,本文通過(guò)多次實(shí)驗(yàn)確定以上3個(gè)參數(shù)。
2.2.1 卷積層的選擇
在卷積網(wǎng)絡(luò)中,卷積層的作用是提取數(shù)據(jù)特征或進(jìn)行信息匹配,池化層的作用是對(duì)輸入特征進(jìn)行降維,以簡(jiǎn)化網(wǎng)絡(luò)計(jì)算復(fù)雜度,提取主要特征。因此,卷積部分網(wǎng)絡(luò)層數(shù)的選擇至關(guān)重要。如果網(wǎng)絡(luò)層數(shù)較少,不能處理復(fù)雜問(wèn)題;如果網(wǎng)絡(luò)層數(shù)較大,計(jì)算量大大增加,簡(jiǎn)單的分類(lèi)問(wèn)題容易出現(xiàn)過(guò)擬合。本文選擇不同的卷積層和池化層進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表1所示。卷積層數(shù)選擇以準(zhǔn)確率高,損失率低為標(biāo)準(zhǔn)。由表1可見(jiàn),3個(gè)卷積層和兩個(gè)池化層的準(zhǔn)確率最高,達(dá)到了99.16%,損失率最低,為1.8%,因此,卷積部分選擇3個(gè)卷積層和2個(gè)池化層。

表1 不同網(wǎng)絡(luò)結(jié)構(gòu)的對(duì)比
2.2.2 優(yōu)化器選擇
優(yōu)化器的選擇會(huì)影響模型的參數(shù)優(yōu)化和收斂速度,本文通過(guò)多次實(shí)驗(yàn)比較了Adadelta、RMSprop和Adam這3種優(yōu)化器的效果,實(shí)驗(yàn)結(jié)果如圖5所示。本文以收斂速度和訓(xùn)練平緩程度為標(biāo)準(zhǔn)選擇優(yōu)化器。Adam優(yōu)化器和Adadelta優(yōu)化器的收斂速度相對(duì)更快,而Adam優(yōu)化器的訓(xùn)練過(guò)程相對(duì)平緩。所以,本文選用了Adam優(yōu)化器。

圖5 不同優(yōu)化器實(shí)驗(yàn)結(jié)果
2.2.3 dropout率選擇
dropout是指在深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練過(guò)程中,按照一定的概率將該層的輸出特征舍棄(設(shè)置為0)。dropout率指被設(shè)置為0的特征所占的比例。如果dropout率設(shè)置太低,其作用有限;如果dropout率設(shè)置太高,輸出特征大大減少,使得訓(xùn)練不充分。本文將dropout率設(shè)置為0.1,0.2,0.5,0.8,比較其對(duì)網(wǎng)絡(luò)的影響,結(jié)果如表2所示。dropout率的選擇以準(zhǔn)確率高,損失率低為標(biāo)準(zhǔn)。由表2可知,dropout率為0.2時(shí),模型的準(zhǔn)確率最高,損失率最低,可以有效防止神經(jīng)網(wǎng)絡(luò)的過(guò)擬合。因此本文的dropout率選為0.2。

表2 不同dropout率實(shí)驗(yàn)結(jié)果
通過(guò)上述實(shí)驗(yàn),本文的網(wǎng)絡(luò)模型選擇了Adam優(yōu)化器和0.2的dropout率,其結(jié)構(gòu)參數(shù)如表3所示。

表3 網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)
本文使用深度學(xué)習(xí)框架Keras2.3.1和python實(shí)現(xiàn)和訓(xùn)練網(wǎng)絡(luò)模型。實(shí)驗(yàn)所用硬件配置如下:CPU是Interl Core TM i5 CPU,處理器是NVIDIA GeForce MX350,內(nèi)存12 G,固態(tài)硬盤(pán)512 GBPCIe 3.0。
本文選用凱斯西儲(chǔ)大學(xué)(Case Western Reserve University,CWRU)的軸承數(shù)據(jù)集對(duì)所提方法進(jìn)行驗(yàn)證[17],該數(shù)據(jù)集被眾多作者用來(lái)比較驗(yàn)證不同軸承故障診斷方法的有效性。CWRU的實(shí)驗(yàn)裝置包括扭矩傳感器、功率測(cè)試儀、電機(jī)、電子控制器和記錄電機(jī)底座、驅(qū)動(dòng)端和風(fēng)扇端振動(dòng)信號(hào)的3個(gè)加速度計(jì)。
本實(shí)驗(yàn)所用軸承型號(hào)為6205SKF,振動(dòng)信號(hào)采樣頻率為12 kHz,電機(jī)轉(zhuǎn)速為1 797 r/min,1 772 r/min,1 750 r/min或1 730 r/min,電機(jī)負(fù)載為0,745 W,1 470 W,2 205 W。選取上述工況下的電機(jī)驅(qū)動(dòng)端振動(dòng)信號(hào)構(gòu)建實(shí)驗(yàn)數(shù)據(jù)集(D1,D2,D3,D4)。實(shí)驗(yàn)數(shù)據(jù)集的具體構(gòu)成情況如表4所示。

表4 實(shí)驗(yàn)數(shù)據(jù)集
每個(gè)數(shù)據(jù)集中包括正常運(yùn)行和3種故障工況(內(nèi)圈故障、外圈六點(diǎn)鐘故障、滾動(dòng)體故障),故障點(diǎn)直徑取0.177 8 mm,0.355 6 mm,0.533 4 mm,共計(jì)10種故工況。每種工況選取300個(gè)實(shí)驗(yàn)樣本,共3 000個(gè)樣本,每個(gè)樣本包括1 024個(gè)采樣點(diǎn)。
實(shí)驗(yàn)一:1DCNN-Attention-GRU模型故障診斷效果驗(yàn)證。本實(shí)驗(yàn)使用數(shù)據(jù)集D1,從中隨機(jī)抽取每種工況下70%,50%,30%,10%和3%的數(shù)據(jù)作為訓(xùn)練數(shù)據(jù),其余數(shù)據(jù)作為測(cè)試數(shù)據(jù),來(lái)評(píng)估所提方法的準(zhǔn)確性。將1DCNN-Attention-GRU方法與方法1(使用1DCNN-GRU模型,不使用注意力機(jī)制)、方法2(單獨(dú)使用GRU)和方法3(單獨(dú)使用支持向量機(jī)(support vector machine, SVM))進(jìn)行比較。
實(shí)驗(yàn)結(jié)果如圖6所示。隨著訓(xùn)練數(shù)據(jù)的增加,各種方法的故障診斷準(zhǔn)確率也相應(yīng)提高。當(dāng)訓(xùn)練數(shù)據(jù)取70%和50%時(shí),不帶遷移學(xué)習(xí)的1DCNN-Attention-GRU方法和方法1(1DCNN-GRU)的診斷準(zhǔn)確率均達(dá)到了97%。當(dāng)訓(xùn)練數(shù)據(jù)為10%和3%時(shí),診斷準(zhǔn)確率大大降低。但在不同訓(xùn)練比例下,1DCNN-Attention-GRU算法的診斷準(zhǔn)確率均高于方法1,說(shuō)明Attention層能從所有時(shí)間步中自動(dòng)選擇最優(yōu)值,實(shí)現(xiàn)對(duì)多個(gè)時(shí)間步信息的綜合利用,達(dá)到提高故障診斷準(zhǔn)確率的效果。此外,1DCNN-Attention-GRU算法的診斷效果也優(yōu)于另外兩種算法。

圖6 實(shí)驗(yàn)結(jié)果
實(shí)驗(yàn)二:小樣本、變工況條件下,故障診斷效果驗(yàn)證。為了驗(yàn)證本文所提出的帶遷移學(xué)習(xí)的1DCNN-Attention-GRU方法在小樣本、變工況條件下的準(zhǔn)確性,本實(shí)驗(yàn)以0負(fù)載條件下的數(shù)據(jù)集作為源域,745 W,1 470 W,2 205 W負(fù)載的數(shù)據(jù)集分別作為目標(biāo)域(記作D1-D2,D1-D3,D1-D4),比較了在不同樣本比例下,帶遷移學(xué)習(xí)的1DCNN-Attention-GRU(方法1)與不帶遷移學(xué)習(xí)的1DCNN-Attention-GRU(方法2)這兩種方法的故障診斷準(zhǔn)確率。為了避免實(shí)驗(yàn)結(jié)果的偶然性,本實(shí)驗(yàn)取10次測(cè)試的平均值。實(shí)驗(yàn)結(jié)果如表5所示。

表5 不同樣本比例下變工況故障診斷準(zhǔn)確率
由表5可知,不同樣本比例下方法1的故障診斷準(zhǔn)確率均高于方法2。樣本比例為3∶7,5∶5和7∶3時(shí),方法1的準(zhǔn)確率均高于99%,方法2的準(zhǔn)確率也能達(dá)到94%以上,兩種方法診斷效果相差不大。當(dāng)樣本比例為1∶29和1∶9時(shí),方法1的準(zhǔn)確率在97%以上,明顯高于方法2。上述結(jié)果說(shuō)明:①當(dāng)目標(biāo)樣本較少時(shí),本文方法可獲得較高的故障診斷準(zhǔn)確率,能在小樣本條件下準(zhǔn)確識(shí)別軸承故障;②該方法具有較好的泛化性,對(duì)不同目標(biāo)域樣本數(shù)據(jù),均能得到較高的故障診斷準(zhǔn)確率。
為了更加直觀(guān)地分析所提方法的有效性,對(duì)一次D1-D2實(shí)驗(yàn)的結(jié)果進(jìn)行了t-SNE(t-distributed stochastic neighbor embedding)可視化,如圖7所示。

(a) 方法一
由圖7(a)可知,方法1能對(duì)大部分樣本進(jìn)行正確分類(lèi)。由圖7(b)可知,方法2將部分B021故障樣本(編號(hào)2,×圖標(biāo))識(shí)別為B007故障(編號(hào)0,·圖標(biāo))和B014故障(編號(hào)1,?圖標(biāo))。可見(jiàn),遷移學(xué)習(xí)適合小樣本數(shù)據(jù)下的軸承故障分類(lèi)。
為進(jìn)一步驗(yàn)證本文方法的優(yōu)越性,又進(jìn)行了D2-D3,D2-D4,D3-D4 3種遷移實(shí)驗(yàn),其源域選擇充足的訓(xùn)練樣本進(jìn)行訓(xùn)練,目標(biāo)域僅使用3%的數(shù)據(jù)進(jìn)行微調(diào),剩余數(shù)據(jù)作為測(cè)試數(shù)據(jù)。本實(shí)驗(yàn)取5次測(cè)試的平均值,兩種算法的分類(lèi)結(jié)果如表6所示。
由表6可知,不帶遷移學(xué)習(xí)的1DCNN-Attention-GRU方法在3種變工況實(shí)驗(yàn)條件下,平均故障診斷準(zhǔn)確率為97.07%。這說(shuō)明1DCNN-Attention-GRU方法具有一定的泛化能力。帶遷移學(xué)習(xí)的1DCNN-Attention-GRU算法在3種變工況實(shí)驗(yàn)條件下的故障診斷準(zhǔn)確率分別為99.79%,96.82%,99.51%,平均診斷準(zhǔn)確率為98.69%,均高于不帶遷移學(xué)習(xí)的方法。可見(jiàn),在小樣本和變工況條件下遷移學(xué)習(xí)進(jìn)一步提升了方法的準(zhǔn)確性和泛化能力。

表6 不同任務(wù)下故障診斷準(zhǔn)確率
為了分析所提方法對(duì)具體故障的診斷情況,本文繪制了實(shí)驗(yàn)D2-D3中第一次診斷結(jié)果的混淆矩陣,具體如圖8所示。其中,顏色的不同深淺程度代表了不同的分類(lèi)準(zhǔn)確性,顏色越深,分類(lèi)準(zhǔn)確率越高。由圖8可見(jiàn),本文方法僅在故障OR014處出現(xiàn)診斷錯(cuò)誤,將外圈故障誤判為內(nèi)圈故障,總體故障診斷準(zhǔn)確率為99.93%。

圖8 混淆矩陣
針對(duì)軸承數(shù)據(jù)樣本不足和訓(xùn)練、測(cè)試數(shù)據(jù)難以獨(dú)立同分布的問(wèn)題,本文提出了一種基于一維卷積注意力門(mén)控循環(huán)網(wǎng)絡(luò)(1DCNN-Attention-GRU)和遷移學(xué)習(xí)的軸承故障診斷方法。并進(jìn)行了實(shí)驗(yàn)驗(yàn)證,通過(guò)實(shí)驗(yàn)對(duì)比證明:
(1) 1DCNN-Attention-GRU故障診斷方法在不同訓(xùn)練樣本比例下的診斷準(zhǔn)確率均高于1DCNN-GRU、GRU或SVM故障診斷方法的準(zhǔn)確率。
(2) 與無(wú)遷移學(xué)習(xí)的1DCNN-Attention-GRU方法相比,帶遷移學(xué)習(xí)的1DCNN-Attention-GRU方法在小樣本、變工況條件下的準(zhǔn)確率更高,泛化性更好。
需要指出本文所提算法尚未在工業(yè)現(xiàn)場(chǎng)成功使用,利用實(shí)際工程數(shù)據(jù)驗(yàn)證該算法的有效性是我們下一步的研究重點(diǎn)。