李博文,張宏帥,趙華東,胡曉亮,田增國(guó)
(1.鄭州大學(xué)機(jī)械與動(dòng)力工程學(xué)院,河南鄭州 450001;2.麥斯克電子材料股份有限公司,河南洛陽(yáng) 471003;3.鄭州大學(xué)物理(微電子)學(xué)院,河南鄭州 450001)
集成電路是現(xiàn)代信息社會(huì)的基石,其制造能力及水平?jīng)Q定著一個(gè)國(guó)家工業(yè)實(shí)力及水平。集成電路基礎(chǔ)部件常用硅晶半導(dǎo)體作為基板。其中,切片工序又是硅晶半導(dǎo)體制片過(guò)程中的重要環(huán)節(jié),其加工質(zhì)量直接決定了整批硅片的機(jī)械加工質(zhì)量[1-2]。因此,在加工過(guò)程中準(zhǔn)確監(jiān)控硅片質(zhì)量可以有效保證工件表面加工質(zhì)量,提高生產(chǎn)效率,降低生產(chǎn)成本。
針對(duì)硅片線切割的機(jī)制模型,GAO 等[3]通過(guò)建立金剛石線鋸切割單晶硅材料去除機(jī)制模型,分析如何提高切片質(zhì)量。趙華東、馬新偉[4]通過(guò)建立多線切片過(guò)程的順序耦合熱應(yīng)變分析有限元模型,分析影響硅片質(zhì)量的因素并預(yù)測(cè)趨勢(shì)。LI 等[5]通過(guò)建立工藝參數(shù)及切割條件與回線率的關(guān)系,建立了線切割金剛線磨損模型,分析了硅片質(zhì)量與金剛線磨損量的關(guān)系。
研究人員不僅對(duì)物理模型進(jìn)行了研究,同時(shí)也從數(shù)據(jù)驅(qū)動(dòng)的方向,建立切割工藝參數(shù)到硅片質(zhì)量之間的映射關(guān)系。ZAIN 等[6]用神經(jīng)網(wǎng)絡(luò)分析預(yù)測(cè)硅片表面粗糙度。MIA、DHAR[7]基于神經(jīng)網(wǎng)絡(luò)分析冷卻液對(duì)硅片表面粗糙度的影響。KAYABASI 等[8]用多層神經(jīng)網(wǎng)絡(luò)對(duì)線切割過(guò)程進(jìn)行建模,并分析了線速度、進(jìn)給速度和冷卻液用量對(duì)硅片切割結(jié)果的影響。然而,以上都是采用傳統(tǒng)神經(jīng)網(wǎng)絡(luò)對(duì)單線切割進(jìn)行預(yù)測(cè),工業(yè)上為了提高效率多采用多線切割,多線切割單次就可生產(chǎn)500 多片硅片,若用單片的數(shù)據(jù)來(lái)表示多片將會(huì)造成實(shí)驗(yàn)誤差大。對(duì)于用卷積神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)多線切割硅片質(zhì)量,來(lái)解決檢測(cè)耗時(shí)、檢測(cè)成本高等問(wèn)題的相關(guān)報(bào)道較少。同時(shí),常規(guī)的數(shù)據(jù)預(yù)測(cè)模型需要海量的歷史數(shù)據(jù)樣本用于訓(xùn)練,而在工業(yè)生產(chǎn)早期,難以獲取足夠多的歷史樣本數(shù)據(jù)。為了解決數(shù)據(jù)不足,近年來(lái)提出了基于生成對(duì)抗網(wǎng)絡(luò)(Generating Adversarial Network,GAN)[9]的小樣本學(xué)習(xí)。其中,嚴(yán)繼偉等[10]利用GAN 對(duì)SAR 飛機(jī)圖像進(jìn)行增廣,實(shí)現(xiàn)了數(shù)據(jù)增強(qiáng)。DING 等[11]提出了基于GAN 的小樣本機(jī)械故障檢測(cè)方法。何鵬等人[12]提出用GAN 來(lái)處理小樣本激光切割工藝參數(shù)的研究。
基于上述分析,本文作者主要開展兩方面的工作:(1)針對(duì)硅片線切割缺少大量歷史數(shù)據(jù)的問(wèn)題,提出一種新的生成對(duì)抗網(wǎng)絡(luò)WGAN-GP(Wasserstein GAN-Gradient Penalty)模型,即由多個(gè)殘差模塊組成鑒別器,用于擴(kuò)充樣本;(2)針對(duì)多線硅片檢測(cè)耗時(shí)、檢測(cè)成本高等問(wèn)題,提出基于自注意力機(jī)制的殘差網(wǎng)絡(luò)的硅片總體厚度偏差(Total Thickness Variation,TTV)預(yù)測(cè)模型,從而達(dá)到準(zhǔn)確預(yù)測(cè)硅片TTV。
多線切割原理如圖1 所示,鋼線繞在切割輥上,在主輥的來(lái)回扭轉(zhuǎn)下做往復(fù)運(yùn)動(dòng),硅棒向下運(yùn)動(dòng),實(shí)現(xiàn)切片過(guò)程。其中,在硅片多線切割過(guò)程中,速度、張力、溫度、切割的位置、扭矩等都直接影響硅片質(zhì)量[13-15]。基于此,選擇線速度、進(jìn)給速度、金剛線左/右張緊力、冷卻液供給量、泵頻率、液溫、切割位置、左/右主軸轉(zhuǎn)矩、左/右兩側(cè)鋼線儲(chǔ)量、3 個(gè)主輥前后端的溫度、左/右排線位置一共20 個(gè)特征量,作為硅片質(zhì)量影響的特征參數(shù)。TTV 是硅片平整度評(píng)價(jià)的關(guān)鍵指標(biāo),其大小反映了切割硅片的表面平整度和切割設(shè)備運(yùn)行的平穩(wěn)性。針對(duì)硅棒加工,TTV 的均值能很好地反映硅片總體的質(zhì)量,且TTV 在數(shù)值上表現(xiàn)為連續(xù)值與特征參數(shù)相關(guān),類似于機(jī)器學(xué)習(xí)中的回歸問(wèn)題,所以可用神經(jīng)網(wǎng)絡(luò)中的回歸模型分析[16]。于是,TTV 回歸預(yù)測(cè)模型可表示為

圖1 金剛線切割原理Fig.1 Diamond wire cutting principle
式中:f為TTV 與工藝參數(shù)的映射關(guān)系;Ω為輸入矩陣,由20 工藝參數(shù)γ1、γ2、…、γ19、γ20列向量構(gòu)成;YP表示TTV。
線切割加工過(guò)程是連續(xù)的,多項(xiàng)參數(shù)是隨時(shí)間局部呈周期性變化(如線速度、扭矩、線張力、軸溫、液溫),而其余的則是呈現(xiàn)持續(xù)變化。所以,如果僅僅用平均數(shù)或者中位數(shù)等這些簡(jiǎn)單的統(tǒng)計(jì)量來(lái)表示此問(wèn)題的過(guò)程參數(shù),會(huì)造成實(shí)驗(yàn)誤差過(guò)大,而多個(gè)統(tǒng)計(jì)量的組合也帶來(lái)了復(fù)雜的數(shù)學(xué)分析過(guò)程。本文作者基于WEN 等[17]的方法,提出一種針對(duì)此問(wèn)題的新的信號(hào)轉(zhuǎn)化方式,將采集到的時(shí)間、線速度、進(jìn)給速度、冷卻液流量、泵頻率、液溫、切割位置、左側(cè)張力、右側(cè)張力、左側(cè)扭矩、右側(cè)扭矩、左側(cè)儲(chǔ)線量、右側(cè)儲(chǔ)線量、前小軸溫、后小軸溫、左前軸溫、右前軸溫、左后軸溫、右后軸溫、排線位置20 個(gè)特征量作為轉(zhuǎn)化的圖片的列特征,每隔一段時(shí)間取出一行數(shù)據(jù),直至將整個(gè)數(shù)據(jù)取完,以此來(lái)代表整個(gè)數(shù)據(jù)過(guò)程,使得在壓縮數(shù)據(jù)時(shí),數(shù)據(jù)丟失大大降低。同時(shí)轉(zhuǎn)化為圖像的數(shù)據(jù),更好地利用卷積神經(jīng)網(wǎng)絡(luò)提取數(shù)據(jù)信息,具體方法如圖2 所示。

圖2 表格轉(zhuǎn)化為圖像的方法Fig.2 Methods of converting tables into images
如圖2 所示,在表格轉(zhuǎn)化方法中,將二維的數(shù)據(jù)圖像按行劃分為一維數(shù)據(jù),并按照一定的規(guī)律填充到二維矩陣中去,即得到Ω。為了獲得一張n×m大小的圖片,根據(jù)采集的數(shù)據(jù)規(guī)律和工藝參數(shù)的特征數(shù)n=60、m=20,作者將表格數(shù)據(jù)的行數(shù)除以n作為提取表格行數(shù)據(jù)的間隔,表格列數(shù)按照原始大小直接填充,由此得到n×m大小的二維灰度圖。設(shè)L(j,k)(j=1,…,l;k=1,…,m)為原始的表格數(shù)據(jù),l=21 000,G(j,k)(j=1,…,l;k=1,…,m)為預(yù)處理圖像(介于0-255),P(j,k)(j=1,…,n;k=1,…,m)為圖像的像素值,其轉(zhuǎn)化關(guān)系如下所示:
式中:round()為取整函數(shù);L(x,k)為二維數(shù)組里面第k列的全部數(shù)字。將數(shù)字整個(gè)歸一化到0-255,使得表格數(shù)據(jù)轉(zhuǎn)化為二維繪圖圖像,利用卷積網(wǎng)絡(luò)可以很好地處理原始的數(shù)據(jù)。
采用機(jī)器學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)硅片TTV 的回歸預(yù)測(cè)問(wèn)題,可以有效避免傳統(tǒng)機(jī)制模型適應(yīng)性差和預(yù)測(cè)精度低的等問(wèn)題,然而工業(yè)生產(chǎn)早期數(shù)據(jù)的不足和各種外部因素的影響,導(dǎo)致無(wú)效樣本的引入,用于訓(xùn)練用的數(shù)據(jù)就會(huì)出現(xiàn)不完整小樣本的特征,成為機(jī)器學(xué)習(xí)在硅片切割應(yīng)用上的一大挑戰(zhàn)。因此,作者采用WGAN-GP 生成虛擬樣本,來(lái)進(jìn)行數(shù)據(jù)增強(qiáng)。與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)相比,卷積神經(jīng)網(wǎng)絡(luò)強(qiáng)大的特征提取能力,能夠高效提取數(shù)據(jù)特征,于是結(jié)合SeResNet 網(wǎng)絡(luò)建立線切割硅片質(zhì)量預(yù)測(cè)方法。
實(shí)際生產(chǎn)過(guò)程中,在工業(yè)生產(chǎn)早期難以獲取足夠多的線切割歷史數(shù)據(jù),造成神經(jīng)網(wǎng)絡(luò)訓(xùn)練難的問(wèn)題,而生成對(duì)抗網(wǎng)絡(luò)的出現(xiàn)解決了這一難題。GAN 模型結(jié)構(gòu)見(jiàn)圖3,生成器輸入服從正態(tài)分布的隨機(jī)噪聲Z,生成樣本G(Z),再將真實(shí)分布X與生成樣本G(Z)混合輸入鑒別器中,輸出鑒別結(jié)果y,先用真實(shí)數(shù)據(jù)X訓(xùn)練鑒別器D,然后凍結(jié)鑒別器的訓(xùn)練參數(shù),訓(xùn)練生成器G,然后凍結(jié)生成器訓(xùn)練參數(shù),訓(xùn)練鑒別器D,相互對(duì)抗直至達(dá)到平衡為止。由于原始的GAN用JS 散度(Jensen-Shannon Divergence)表示真實(shí)數(shù)據(jù)與合成數(shù)據(jù)之間的度量,容易造成引梯度消失,進(jìn)而模型崩塌。于是,ARJOVSKY 等[18]引入一種新的度量Wasserstein 距離來(lái)代替JS 散度,提出了Wasserstein GAN(WGAN)。而GULRAJANI 等[19]采用梯度懲罰(Gradient Penalty)手段對(duì)WGAN 中Wasserstein距離的實(shí)現(xiàn)方法進(jìn)行改進(jìn),即WGAN-GP,解決了參數(shù)修剪的問(wèn)題。最終損失函數(shù)數(shù)學(xué)表達(dá)式為

圖3 GAN 示意Fig.3 GAN schematic
式中:D(a)、G(a)分別為鑒別器與生成器的輸出結(jié)果;E(a)為EM 距離;為真實(shí)樣本與生成樣本插值;λ為懲罰系數(shù);為梯度范數(shù)。
綜上所述,WGAN-GP 相較于其他的生成對(duì)抗網(wǎng)絡(luò)對(duì)數(shù)據(jù)量的依賴更少,更容易收斂,更適合作為數(shù)據(jù)增強(qiáng)的方法,于是選用WGAN-GP 作為硅片線切割樣本量增強(qiáng)的模型。
基于WGAN-GP 的原理,將數(shù)據(jù)采集系統(tǒng)采集的20 個(gè)過(guò)程參數(shù)通過(guò)數(shù)據(jù)圖像轉(zhuǎn)化法轉(zhuǎn)化為60×20的圖像,在此圖像的尾部接上硅片的質(zhì)量檢測(cè)參數(shù)填充的60×8 矩陣,最后轉(zhuǎn)化為60×28 的圖像作為鑒別器的輸入,鑒別器的輸出為一個(gè)二分類的結(jié)果。生成器的輸入為一個(gè)128 的一維隨機(jī)數(shù)列,生成器的輸出為60×28 的生成樣本圖片。不管是生成器G,還是鑒別器D,最后都是用鑒別器來(lái)判斷模型的好壞。在模型的訓(xùn)練過(guò)程中,基于損失函數(shù)來(lái)迭代優(yōu)化模型,優(yōu)化器為Adam,生成器和鑒別器的學(xué)習(xí)率均為0.001。生成器和鑒別器的網(wǎng)絡(luò)結(jié)構(gòu)具體如圖4 和圖5 所示。

圖4 鑒別器網(wǎng)絡(luò)示意Fig.4 Discriminator network

圖5 生成器網(wǎng)絡(luò)示意Fig.5 Generator network
由于WGAN-GP 中的懲罰項(xiàng),所以鑒別器D由8個(gè)改進(jìn)的殘差塊構(gòu)成22 層網(wǎng)絡(luò)結(jié)構(gòu),卷積核是大小分別為1 和3 的方形塊,步長(zhǎng)分別為1 和2,卷積核通道數(shù)分別為64、128、256、512,所用激活函數(shù)均為L(zhǎng)eakyReLU,最后用一個(gè)全連接層輸出節(jié)點(diǎn)為1。
生成器G中,先輸入一個(gè)服從正態(tài)分布的128 維的隨機(jī)噪聲Z,輸入生成器中,全連接層增加維度,然后經(jīng)過(guò)4 個(gè)每次成倍增加上采樣塊,每次上采樣后都進(jìn)行一次卷積操作,卷積核是大小均為3 的方形塊,步長(zhǎng)均為1,卷積核數(shù)量分別為1、64、128、256。激活函數(shù)除了最后一層用thah,其余全用LeakyReLU。
對(duì)于線切割預(yù)測(cè)硅片TTV,輸入采用的是將數(shù)據(jù)轉(zhuǎn)化二維圖像的方法。為了適應(yīng)輸入的形式,根據(jù)HE 等[20]提出的ResNet(Deep Residual Learning for Image Recognition)卷積神經(jīng)網(wǎng)絡(luò),改進(jìn)為適用于回歸問(wèn)題的ResNet 卷積神經(jīng)網(wǎng)絡(luò)模型,其殘差模塊結(jié)構(gòu)如圖6 所示,由兩層權(quán)重層和一個(gè)恒等映射組成一個(gè)殘差塊,殘差塊輸入為X(t),輸出為X(t+1),直線為殘差部分F(X(t),W),即殘差塊表示為X(t+1)=F(X(t),W)+X(t)。

圖6 殘差塊網(wǎng)絡(luò)Fig.6 Residual block
由于卷積核局部特征提取的特性,導(dǎo)致很難進(jìn)行全局考慮。為了加強(qiáng)網(wǎng)絡(luò)的特征提取能力,本文作者引入自注意力模塊,并將自注意力模塊嵌入殘差網(wǎng)絡(luò)中。圖7 所示為自注意力機(jī)制模塊,數(shù)學(xué)表達(dá)式如下:

圖7 自注意力機(jī)制結(jié)構(gòu)Fig.7 Self-attention mechanism
式中:Q、K、V分別為大小為n×m矩陣D與大小為m×m的矩陣Wq、Wk、Wv相乘;softmax(a)為對(duì)數(shù)據(jù)進(jìn)行歸一化處理。
本文作者提出基于注意力機(jī)制的殘差網(wǎng)絡(luò)(SeResNet),旨在提高模型的特征提取能力,實(shí)現(xiàn)小樣本下硅片的質(zhì)量預(yù)測(cè)。SeResNet 網(wǎng)絡(luò)的輸入為數(shù)據(jù)采集系統(tǒng)采集的20 個(gè)過(guò)程參數(shù)轉(zhuǎn)化的60×20 的圖像,輸出為硅片的TTV,用均方差來(lái)判定預(yù)測(cè)值與真實(shí)值的差異,實(shí)現(xiàn)硅片線切割過(guò)程的模型搭建。SeResNet網(wǎng)絡(luò)輸入為生成數(shù)據(jù)集和真實(shí)數(shù)據(jù)集混合為訓(xùn)練集,訓(xùn)練好以后的網(wǎng)絡(luò)用于分析預(yù)測(cè)多線切割硅片的TTV。其中生成虛擬數(shù)據(jù)的60×28 的圖像截取后面的8 列取平均作為虛擬數(shù)據(jù)相對(duì)應(yīng)的TTV。SeResNet 網(wǎng) 絡(luò)具體網(wǎng)絡(luò)結(jié)構(gòu)如圖8 所示。

圖8 SeResNet 模型結(jié)構(gòu)Fig.8 Model structure of SeResNet
在SeResNet 中,為了達(dá)到回歸分析的效果,最后的全連接層輸出節(jié)點(diǎn)數(shù)為1,且激活函數(shù)均用ReLU 函數(shù),訓(xùn)練中所用的優(yōu)化器為Adam,生成器和鑒別器的學(xué)習(xí)率均為0.001,損失函數(shù)采用平方差函數(shù)。
本文作者所提出的小樣本數(shù)據(jù)集下基于WGANGP 和SeResNet 卷積神經(jīng)網(wǎng)絡(luò)的線切割硅片質(zhì)量(TTV)預(yù)測(cè)的建模方法如圖9 所示。引入WGANGP 對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行學(xué)習(xí),生成用于增強(qiáng)數(shù)據(jù)的樣本;然后將生成樣本與真實(shí)樣本一同輸入SeResNet 模型,訓(xùn)練工藝參數(shù)與TTV 之間的非線性函數(shù)關(guān)系;最后,當(dāng)輸入新的工藝參數(shù),用訓(xùn)練好的預(yù)測(cè)模型預(yù)測(cè)TTV的值。其中,文中研究是金剛線多線切割,這里以TTV 的平均值作為研究對(duì)象。其算法流程見(jiàn)表1。

圖9 硅片線切割質(zhì)量檢測(cè)預(yù)測(cè)流程Fig.9 Flow of silicon wafer wire cutting quality detection and prediction
如圖10 所示,采用多線切割機(jī)為實(shí)驗(yàn)平臺(tái),實(shí)驗(yàn)硅棒選用直徑20 cm(6 寸),單晶晶向(100),通過(guò)與設(shè)備控制系統(tǒng)(FANUC CNC)通信搭建數(shù)據(jù)采集系統(tǒng),每隔1 s 記錄一次所需采集的20 個(gè)數(shù)據(jù),直至硅片切割完成。完成切割需要3.5 h 左右,利用數(shù)據(jù)采集工控機(jī)和交換機(jī)將采集的數(shù)據(jù)上傳到數(shù)據(jù)服務(wù)器和PC 端。此次實(shí)驗(yàn)設(shè)計(jì)一共切割200 根硅棒,晶棒長(zhǎng)度為500~680 mm,測(cè)定每組硅片的TTV 均值。用圖像轉(zhuǎn)換法將每組數(shù)據(jù)轉(zhuǎn)化為60×20 的二維圖像作為預(yù)測(cè)模型的輸入。

圖10 線切割實(shí)驗(yàn)平臺(tái)Fig.10 Wire-electrode cutting experimental platform
本文作者基于Tensorflow 深度學(xué)習(xí)框架,搭建深度學(xué)習(xí)框架WGAN-GP 的模型。經(jīng)過(guò)多輪訓(xùn)練使得訓(xùn)練達(dá)到平衡,得到如表2 所示的生成樣本。對(duì)于WGAN-GP 就是擬合真實(shí)數(shù)據(jù)分布的特點(diǎn),加上生成的圖像可以得出。生成樣本與真實(shí)樣本的圖像很相似,但也有細(xì)小的差距,而這些細(xì)小的差距可以在一定程度上增加樣本的豐富度,同時(shí)也解決了樣本不足的問(wèn)題。

表2 真實(shí)樣本圖與生成樣本圖Tab.2 Real sample map and generated sample map
將實(shí)驗(yàn)獲取的實(shí)驗(yàn)數(shù)據(jù)進(jìn)行數(shù)據(jù)處理,隨機(jī)抽取一定比例數(shù)據(jù)作為訓(xùn)練集,其余為測(cè)試集。預(yù)測(cè)回歸問(wèn)題的評(píng)價(jià)指標(biāo)參照文獻(xiàn)[21]中所提的評(píng)價(jià)指標(biāo),針對(duì)文中研究的問(wèn)題引入平均絕對(duì)值誤差(MAE)、平均相對(duì)誤差百分比(MAPE)、均方根誤差(RMSE),見(jiàn)表3。

表3 評(píng)價(jià)指標(biāo)及適用性Tab.3 Evaluation index and applicability
用SeResNet、SeResNet _300、SeResNet _800、SeResNet_5000 來(lái)代表向真實(shí)數(shù)據(jù)集中加入300、500、5 000 個(gè)生成數(shù)據(jù)集,其中SeResNet 表示真實(shí)數(shù)據(jù)集。為了更好地研究增加數(shù)據(jù)集的效果,每個(gè)樣本均設(shè)置為訓(xùn)練批次35,訓(xùn)練輪數(shù)為100,然后計(jì)算出各模型的MAE、MAPE、RMSE。
由表4 可以看出:加入樣本比沒(méi)有增加樣本時(shí)的平均絕對(duì)值誤差、平均相對(duì)誤差百分比、均方根誤差都有明顯的改善,其預(yù)測(cè)精度優(yōu)于未擴(kuò)充數(shù)據(jù)集,但是值得注意的是當(dāng)樣本加到5 000 時(shí)比起加入800 的效果要差一點(diǎn)。根據(jù)WGAN-GP 的生成原理可以知道,生成數(shù)據(jù)是經(jīng)過(guò)生成器和鑒別器反復(fù)博弈以后,使得生成數(shù)據(jù)的分布與真實(shí)數(shù)據(jù)的分布大致一樣,但是在訓(xùn)練過(guò)程中數(shù)據(jù)分布不可能完全一樣,所以,當(dāng)真實(shí)數(shù)據(jù)被生成數(shù)據(jù)稀釋以后,真實(shí)數(shù)據(jù)的一些不足能夠被掩蓋住,同時(shí)也引入一些真實(shí)樣本原本沒(méi)有的信息,導(dǎo)致預(yù)測(cè)誤差有微小上升。總體而言,加入生成樣本有利于提高模型的泛化能力,使得模型的魯棒性更好。

表4 混入不同樣本對(duì)SeResNet 影響Tab.4 Effect of mixing of different samples on SeResNet
為了證明文中所提基于數(shù)據(jù)圖像轉(zhuǎn)換的WGANGP+SeResNet 的有效性,將其與ZAIN 等[6]所提的ANN、隨機(jī)森林和經(jīng)典LeNet5 做對(duì)比,其中隨機(jī)森林是直接使用sklearn 中的內(nèi)置隨機(jī)森林回歸模型,設(shè)置8 層,650 棵決策樹。用混合數(shù)據(jù)集作為訓(xùn)練樣本,而隨機(jī)森林和ANN 則是將數(shù)據(jù)轉(zhuǎn)化為一維數(shù)據(jù)進(jìn)行訓(xùn)練,實(shí)驗(yàn)結(jié)果見(jiàn)表5。

表5 硅片線切割不同算法對(duì)比Tab.5 Comparison of different algorithms for silicon wafer wire cutting
從表5 可以看出:SeResNet 和卷積神經(jīng)網(wǎng)絡(luò)方法要比ANN、隨機(jī)森林和LeNet5 方法效果好很多。綜合表4、5 的實(shí)驗(yàn)結(jié)果,可以得到本文作者提出的基于數(shù)據(jù)圖像轉(zhuǎn)換的小樣本W(wǎng)GAN-GP+SeResNet 很好地解決了小批量硅片線切割數(shù)據(jù)不足條件下硅片質(zhì)量預(yù)測(cè)的問(wèn)題,使得在實(shí)際加工過(guò)程中能利用少量數(shù)據(jù)來(lái)指導(dǎo)生產(chǎn)。
為了進(jìn)一步驗(yàn)證模型的預(yù)測(cè)性能,引入相關(guān)系數(shù)(IC)和決定系數(shù)(R2)來(lái)評(píng)估樣本的相關(guān)性和擬合程度。在SeResNet 中,引入WGAN-GP 生成的樣本與真實(shí)樣本組成訓(xùn)練集,訓(xùn)練中所用的優(yōu)化器為Adam,學(xué)習(xí)率為0.001,訓(xùn)練輪數(shù)設(shè)置為100,批處理樣本為100,由于大部分卷積神經(jīng)網(wǎng)絡(luò)都進(jìn)行的是分類功能,這里的網(wǎng)絡(luò)進(jìn)行了回歸問(wèn)題的改進(jìn),損失函數(shù)采用平方差函數(shù)。訓(xùn)練集和驗(yàn)證集的損失函數(shù)變化曲線見(jiàn)圖11。

圖11 訓(xùn)練集和測(cè)試集損失函數(shù)變化曲線Fig.11 Change curves of the loss function in the training and test sets
由圖11 可以看出:在迭代次數(shù)到40 輪的時(shí)候曲線已經(jīng)不再下降,說(shuō)明模型已經(jīng)訓(xùn)練得很好了。計(jì)算得到的αIC=0.866 及R2=0.749,再結(jié)合圖12 分析可得,對(duì)于硅片TTV,經(jīng)小樣本數(shù)據(jù)擴(kuò)充數(shù)據(jù)集訓(xùn)練出的模型預(yù)測(cè)曲線很好地?cái)M合了真實(shí)數(shù)據(jù)曲線。

圖12 SeResNet 對(duì)硅片TTV 的預(yù)測(cè)值Fig.12 Prediction of TTV of silicon wafer by SeResNet
針對(duì)硅片個(gè)性化生產(chǎn)中小樣本條件下深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練容易過(guò)擬合導(dǎo)致硅片TTV 預(yù)測(cè)不精準(zhǔn)和批量硅片檢測(cè)難的問(wèn)題,本文作者提出一種基于WGANGP 生成與真實(shí)硅片多線切割工藝參數(shù)相似的數(shù)據(jù)集,通過(guò)對(duì)比得出生成樣本數(shù)據(jù)集的數(shù)據(jù)分布與原始數(shù)據(jù)集分布一致。構(gòu)建SeResNet 卷積神經(jīng)網(wǎng)絡(luò)回歸模型擬合多線切割,然后通過(guò)所提的SeResNet 模型預(yù)測(cè)硅片TTV 的值,最后通過(guò)實(shí)驗(yàn)對(duì)SeResNet 模型進(jìn)行了驗(yàn)證。結(jié)論如下:
(1)所用的數(shù)據(jù)圖像轉(zhuǎn)換法將原始數(shù)據(jù)轉(zhuǎn)化為二維圖作為輸入,從而引入卷積神經(jīng)進(jìn)行分析,同時(shí)也證明了該方法比直接取單獨(dú)的統(tǒng)計(jì)量更好。
(2)所提模型加強(qiáng)了硅片多線切割機(jī)制的表征能力,能夠在小樣本條件下學(xué)習(xí)多線切割硅片的規(guī)律,提高了多線切割硅片TTV 的預(yù)測(cè)精度,并用于工程實(shí)踐。
(3)在相同條件下,所提模型的多線切割硅片TTV 預(yù)測(cè)精度均高于LeNet5、ANN、隨機(jī)森林模型。