孫 潔,崔婷婷,劉曉悅,徐 彬
(1.華北理工大學電氣工程學院,河北 唐山063210;2.首鋼京唐鋼鐵聯(lián)合有限責任公司 煉鐵部,河北 唐山063210)
由于高爐內的變量分布復雜和許多的物理化學反應,并且高爐內的環(huán)境具有高溫、高壓、高腐蝕性以及高爐結構的封閉性[1],因此高爐內的熱狀態(tài)要想直接進行測量有許多困難。鑒于鐵水硅含量和爐溫具有相關性,一般可以通過鐵水硅含量間接地反映爐內溫度的變化[2]。因此,為了有效的控制爐溫,保證高爐的穩(wěn)定運行要準確的對鐵水中的硅含量進行預測。
長期以來,國內外的許多研究人員做了很多針對鐵水硅含量預測模型的研究,隨著計算機等技術的發(fā)展,海量數據的獲得更加方便,數據驅動模型受到了許多人的關注,其不必了解專家經驗和過程機理,僅僅通過數據就能捕捉過程變量間錯綜復雜的關系。目前為止,基于數據驅動思想建立的高爐鐵水硅含量預測模型主要有:貝葉斯模型[3]、偏最小二乘模型[4]、自回歸模型[5]、支持向量機模型[6]、神經網絡模型[7-8]等。這幾類模型均有各自的優(yōu)點與缺陷,在生產條件不同的情況下,每個模型都曾起到過一定的積極作用,但其自身還存在一定的局限性,比如,貝葉斯模型建模比較耗時、適用不廣泛以及忽略了高爐冶煉機理;自回歸模型預測精度低,很難在復雜多變的高爐鐵水硅含量預報中有所表現(xiàn)等。而神經網絡在本質上可以認為是非線性系統(tǒng),并且它具有并行分布處理、自適應、自學習等能力,非常適合處理像高爐鐵水硅含量預測這種具有非線性、時變等性質的問題,而且在鐵水硅含量波動很大的情形下,該模型依然可以很好地跟蹤硅含量的變化軌跡,命中率較高。
ELM[9]算法是一種單隱含層前饋神經網絡學習算法,該算法在2004年由黃廣斌教授提出,具有學習速度快、泛化性能好以及在參數確定的過程中不用任何迭代調節(jié)等優(yōu)點,因此利用ELM神經網絡對鐵水硅含量進行預測。然而ELM隨機生成輸入層權值矩陣和隱含層閾值矩陣,在ELM模型為固定時,會引起預報精度下降、泛化性能減弱等問題。針對ELM存在的一些問題,將PSO和GA算法相結合,融合兩種算法各自的優(yōu)勢,進而優(yōu)化ELM的連接權值和閾值,建立基于PSO-GA-ELM的高爐鐵水硅含量預測模型,并通過分析ELM、GA-ELM、PSO-ELM和PSO-GAELM四種模型的仿真結果對比,來驗證PSO-GA-ELM模型的有效性。
ELM的網絡結構,如圖1所示。由輸入層、隱含層和輸出層三部分組成:

圖1 ELM基本結構圖Fig.1 Basic Structure Diagram of ELM
(1)輸入層:n個節(jié)點表示樣本維度,Xj表示第j個樣本;
(2)隱含層:有k個節(jié)點,k越大,表達能力越強;節(jié)點i與輸入層連接權值表示為αi=[α1i,α2i,…,αni],與輸出層連接權值表示為βi=[βi1,βi2,,…,βim]T;
(3)輸出層:O j表示樣本j的輸出,表示m個類別(m=1)。
其算法描述如下:
基于n個不同的訓練樣本(xj,tj),其中x j=[x j1,xj2,…,xjn]T∈Rn,tj=[tj1,tj2,…,tjm]T∈Rm,有k個隱含層節(jié)點數目,其中隱含層輸出函數具有如下定義:

其中,bi是隱含層閾值,αi×x j表示αi和xj的乘積,激勵函數g(x)選用sigmoid非線性函數,公式為:

圖1所示的ELM算法的最終目的是使得輸出的誤差為最小值,即:

因而目標為:

展開為:

令

則式(5)可以寫為Hβ=T,通過計算它的最小二乘解,可得輸出層連接權值為:

式中:H-1—隱含層輸出矩陣H的Moore-Penrose廣義逆矩陣。通過以上計算方法可實現(xiàn)訓練誤差的最小化。
粒子群算法是Kennedy和Eberhart在1995年提出的一種智能優(yōu)化算法,是從鳥群捕食的行為中得到啟發(fā)演變而來的[10]。PSO算法中每個粒子都代表待優(yōu)化問題的一個潛在最優(yōu)解,每個粒子的特征都由適應度、位置和速度來表示,適應度的好壞決定了粒子的優(yōu)劣。在每一次迭代過程中,粒子通過跟蹤兩個極值來更新自己,分別是:個體極值Pbest和群體極值Gbest。粒子的位置每次更新時,適應度值就計算一次,通過對比Pbest和Gbest的適應度值與新粒子的適應度值來更新Pbest和Gbest的速度和位置。
其算法描述如下:
設目標搜索空間為d維,粒子數有m個,則第i個粒子的位置為Xi=(Xi1,Xi2,…,Xi d),速度為Vi=(Vi1,Vi2,…,Vid),其中i=1,2,…,m,他們都是n維的空間向量。在進行每一次迭代時,速度和位置更新的公式如下:

式中:Pi=(Pi1,Pi2,…,Pid)—第i個粒子在迭代過程中尋找到的最優(yōu)位置,P g=(Pg1,Pg2,…,Pgd)—粒子群在迭代過程中尋找到的最優(yōu)位置;k—當前迭代的次數和—第k次迭代時粒子的位置和速度;c1、c2—粒子的學習因子;r1、r2通常是(0,1)之間的任一隨機數;w—慣性權重。
遺傳算法是在1975年由美國的J.Holland教授根據生物進化理論和基因遺傳原理而提出來的一種全局搜索最優(yōu)值的智能算法,它具有高度并行性、隨機性和自適應性等特征。遺傳算法的核心是選擇、交叉和變異等操作:
(1)選擇:通過個體評價,將適應度低的個體舍棄,適應度高的個體留下組成新的種群,選擇時最常用的是輪盤賭選擇法,fi為個體i的適應度值,則個體i被選擇的概率為:

(2)交叉:通過替換重組兩個父代個體的部分結構而形成新的個體,交叉時最常用的是實數交叉方式,其公式為:

式中:r1—(0,1)之間的隨機數;Smk、S nk—第m和第n個染色體在第k位上的交叉操作。
(3)變異:變動群體中的個體串的某些基因座上的基因值從而形成新的個體,通過變異操作可以增加種群的多樣性,變異公式為:

其中,基因S ij的上下界分別為Smax和Smin,r2和r3為(0,1)之間的隨機數,k和kmax分別為當前和最大的迭代次數,f(k)為變異概率。
PSO算法在尋優(yōu)時,假若有一個粒子找到了當前最優(yōu)解,別的粒子就會快速往此處聚攏,導致了種群全局搜索能力下降,因此就造成了算法出現(xiàn)“早熟”的現(xiàn)象,獲得的是局部最優(yōu)解。在GA算法中,經過選擇、交叉和變異等操作可以提高種群的多樣性以及保留較優(yōu)個體。但在收斂速度上GA算法比PSO算法慢,而且PSO算法的結構更簡單并具有記憶功能。基于以上對PSO和GA這兩種算法的優(yōu)缺點對比,將GA算法和PSO算法融合成為PSO-GA算法,使得PSO-GA算法的收斂速度更快、魯棒性更強、全局搜索能力和優(yōu)化能力更高。
PSO-GA算法的基本思想為:以PSO算法為主,引入遺傳算法中的選擇、交叉和變異等操作。在每次進行迭代尋優(yōu)時,首先將適應度值按由小到大的順序進行排序,并將種群其平分為兩份,適應度值小的部分為P1,適應度值大的部分為P2;其次種群P1中粒子的適應度值、位置和速度保持不變,對于種群P2中的粒子進行速度更新時引入交叉操作,進行位置更新時引入變異操作;最后將種群P1和經過交叉變異操作的種群P2的適應度值進行比較,適應度值最小的粒子為最優(yōu)粒子,并重新更新Pi和Pg。
由于ELM的輸入層權值矩陣和隱含層閾值矩陣是隨機選取的,這種隨機性會影響ELM訓練的時間和精度,因此利用PSOGA優(yōu)化ELM的輸入層權值矩陣和隱含層閾值矩陣,進而將選出的最優(yōu)輸入權值和閾值帶入ELM中,并進行鐵水硅含量預測。其中PSO-GA-ELM的基本運算步驟如下:
(1)初始化參數和粒子群。隨機生成ELM的輸入層權值α和隱含層閾值b構成粒子群中的粒子,選定粒子的Pi和Pg。
(2)計算適應度函數。適應度函數為均方根誤差(Root mean square error,RMSE),其公式為:

式中:fi—第i個粒子的適應度函數;f(xi)—樣本預測值;ti—樣本實測值;n—輸入數據總數,適應度值越小,預測精度越高。
(3)引入遺傳算法中的選擇算子。首先計算每個粒子的適應度值,然后將適應度值按由小到大的順序進行排序,將種群其平分為兩份,適應度值小的部分為P1,適應度值大的部分為P2,種群P1中粒子的適應度值、位置和速度保持不變,對于種群P2進行交叉和變異操作,這樣不僅能夠保留較多優(yōu)質粒子,而且可以選出更優(yōu)的適應度值,從而使算法的收斂速度得以提高。
(4)對種群P2中的粒子進行速度更新時,引入遺傳算法中的交叉算子,使速度更新公式變?yōu)椋?/p>

(5)對種群P2中的粒子進行位置更新時引入遺傳算法中的變異算子。由于粒子具有記憶功能,會跟隨記憶進行搜索從而陷入局部最優(yōu),因此引入變異算子來改變粒子的位置信息,改善粒子重復落在同一點的情況,跳出局部最優(yōu)解。位置更新公式變?yōu)椋?/p>

式中:上下界—Xmax和Xmin;r3、r4為(0,1)之間的隨機數;k、kmax—當前和最大的迭代次數;f(k)—變異概率。
(6)重新將種群P1中的粒子和進行遺傳操作后的種群P2中的粒子的適應度值進行排序,并且更新Pi和Pg。
(7)若算法滿足終止條件,即達到了設定的最大迭代次數或者得出最優(yōu)的適應度值,則轉到步驟(8);否則轉到步驟(2),繼續(xù)進行迭代。
(8)將輸出最優(yōu)的α和b代入到ELM預測模型中。
(9)將訓練數據用于訓練ELM模型,并將訓練好的模型用于鐵水硅含量預測中。
實驗數據來自于某鋼廠2號高爐實際在線采集的400組數據,經過對數據進行去噪、剔除異常值以及對滯后步數數據進行處理得到270組可用于實驗的數據。在這些數據中,隨機抽取200組數據作為訓練樣本,其余70組數據作為預測樣本。
在高爐冶煉過程中存在多種多樣的數據信息,有許多變量都和鐵水硅含量的變化有著密切的關系,如噴煤量、熱風溫度、富氧流量、實際風速、熱風壓力、冷風壓力、鼓風動能、富養(yǎng)壓力、透氣性指數以及全壓差等。如果模型的輸入變量過多會使模型變得復雜,過少又會使模型精度降低,因此根據現(xiàn)場經驗及相關性分析,選取與鐵水硅含量相關性較強的7個變量作為模型的輸入變量,如表1所示。

表1 模型的輸入變量Tab.1 The Input Variable of Model
由于以上各輸入變量的量綱和數量級不同會對建模有影響,因此要歸一化處理樣本數據中各變量的范圍為[-1,1]。
在對模型的預測精度進行評價時,有兩個指標起到關鍵的作用,分別為命中率(Hit rate,HR)和均方根誤差(Root mean square error,RMSE),其公式如下:

式中:n—樣本總數;f(x i)—樣本預測值;ti—樣本實測值。在對預測模型進行評價時,HR越大,RMSE越小,說明模型的預測精度越高。
經過多次實驗分析,對模型的各參數進行如下設置:ELM結構為7-29-1,GA和PSO的最大迭代次數為500,種群規(guī)模為100,交叉概率為0.8,變異概率為0.3,慣性權重wmax=0.98,wmin=0.8,學習因子c1=2,c2=1.7。根據設置好的參數進行模型的建立、學習訓練和仿真預測。
為了驗證文中所構建的PSO-GA-ELM模型的有效性,分別通過ELM、GA-ELM、PSO-ELM和PSO-GA-ELM四種模型的預報結果進行對比分析。不同建模方法對硅含量預報結果圖,如圖2所示。
由圖2看出,相比于ELM、GA-ELM和PSO-ELM三種預測模型來說,PSO-GA-ELM模型在硅含量波動較大的爐次預測效果最好,并且隨著樣本爐次的增加,PSO-GA-ELM模型的預測值依舊能夠很好地跟蹤到實際值的變化,這能很好地說明在樣本數量較大時,PSO-GA-ELM模型的泛化性能和學習能力均有所提高。

圖2 不同建模方法對硅含量預報結果圖Fig.2 The Prediction Result of Silicon Content Based on Different Modeling Methods
ELM、GA-ELM和PSO-ELM模型的預測誤差多數在[-0.1,0.1]之內,而PSO-GA-ELM模型的預測誤差多數在[-0.05,0.05]之內,這說明PSO-GA-ELM模型的預測誤差最為穩(wěn)定,增加了預測模型的穩(wěn)定性能,如圖3所示。

圖3 不同模型的預測誤差曲線Fig.3 Prediction Error Curve of Different Models


不同建模方法的預報結果對比,如表2所示。對于4種模型的預報結果對比,顯然PSO-GA-ELM模型的預測命中率最高,且均方根誤差最小,相比于原始的ELM模型,其預測命中率提高了13%,均方根誤差降低了0.017,有效的提高了模型的預測精度。

表2 不同建模方法的預報結果對比Tab.2 Comparison of Prediction Results of Different Modeling Methods
針對高爐冶煉過程的非線性、多尺度以及動態(tài)等因素,提出了PSO-GA-ELM預測模型。在使用同一組實驗數據的情況下,通過對比ELM、GA-ELM、PSO-ELM和PSO-GA-ELM這四種預測模型的預報結果圖、預報誤差、命中率以及均方根誤差可得到以下結論:
(1)利用PSO-GA算法優(yōu)化ELM模型的連接權值和閾值,使優(yōu)化后的預測模型的學習能力以及泛化性能上均有所提高,且具有更高的穩(wěn)定性。
(2)PSO-GA-ELM模型有效的解決了PSO-ELM模型易陷入早熟收斂問題的情況,跳出局部最優(yōu)解,提高了模型的預測精度。