999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于生成對抗網絡的跨分辨率拓撲優化方法的比較研究

2024-04-11 02:14:06朱赫鵬李小白
振動與沖擊 2024年6期
關鍵詞:優化結構方法

朱赫鵬, 丁 喆, 張 嚴, 李小白

(1. 武漢科技大學 機械傳動與制造工程湖北省重點實驗室,武漢 430081;2. 武漢科技大學 冶金裝備及其控制教育部重點實驗室,武漢 430081;3. 武漢科技大學 精密制造研究院,武漢 430081)

拓撲優化通過尋求設計域內材料的最優分布,力求在滿足約束的條件下,獲得性能最優的結構拓撲形式,是一種先進的結構優化設計方法,已被廣泛地應用于汽車以及航空航天等領域[1-2]。目前,常用的拓撲優化方法主要有固體各向同性材料懲罰法(solid isotropic materialwith penalization, SIMP)[3]、漸進結構優化法[4]、水平集法[5]和獨立連續映射法(independent continuous mapping, ICM)[6]等。為了實現復雜結構系統的高性能設計,需要對其進行更精細化的網格劃分。而隨著結構單元數量的增加,相應拓撲優化過程所需的計算成本也顯著增加。尤其當涉及三維結構時,設計變量與結構單元數目的增加共同導致了拓撲優化中有限元分析和迭代過程計算消耗的急劇增加。值得一提的是,本文后續所指的“分辨率”表示有限元網格劃分的精密度,獲得高分辨率結構需要更精細的網格劃分。因此,如何提高高分辨率拓撲優化方法的計算效率已成為當前拓撲優化領域的熱點問題[7-8]。

近年來,由于深度學習算法具有強大的擬合復雜函數以及特征表示的能力,已在圖像處理、自動駕駛和信號識別等領域得到了廣泛應用[9-10]。實際上,拓撲優化問題可抽象表示為優化目標與初始約束條件間的復雜函數[11]。因此將深度學習算法與拓撲優化方法相結合,可大幅提高傳統拓撲優化方法的計算效率,實現復雜結構系統的精細、高效和智能優化。目前,已有眾多將深度學習與拓撲優化相結合的研究[12-13],按照優化前后分辨率是否發生變化可分為同分辨率和跨分辨率拓撲優化設計。

同分辨率拓撲優化指在深度學習模型中預測結構的輸入與輸出保持相同維度。Sosnovik等[14]通過SIMP法得到樣本數據,利用U-Net網絡將中間構型作為輸入預測得到對應最優構型,實現了對SIMP法的加速。Deng等[15]針對柔順度和應力約束的多目標拓撲優化問題,將密度場信息作為輸入預測得到優化結構,與傳統拓撲優化方法相比,基于深度學習的方法所需設計變量顯著減少。Zhang等[16]基于神經網絡算法,將位移和應變作為輸入來預測最優構型。上述基于深度學習的拓撲優化方法雖大幅提高了優化效率,但并不能提高預測結構的分辨率。

為此,一些學者提出了跨分辨率的拓撲優化結構預測方法,通過對樣本數據的學習,建立低分辨率與高分辨率結構之間的端到端映射關系,進而對輸入的低分辨率結構進行重構,即通過輸入低分辨率結構的特征可預測得到對應高分辨率的優化結構。Yu等[17]采用變分自編碼器和生成對抗網絡(generative adversarial network, GAN)通過兩階段方法實現了跨分辨率拓撲優化。Li等利用由兩個耦合神經網絡組成的兩階段預測-精細化網絡結構進行跨分辨率導熱結構的拓撲優化,顯著降低了優化設計的計算量。雖然基于深度學習的非迭代拓撲優化方法具有較高的效率,且可以實現跨分辨率預測,但與單一網絡的跨分辨率預測相比,多網絡預測方法會加大預測結構的誤差。此外,上述跨分辨率拓撲優化方法研究均未涉及三維結構的預測。

生成對抗網絡通過生成器和判別器的相互博弈,來幫助生成器獲取真實樣本的數據分布情況,從而生成所需數據。目前,GAN網絡在圖像處理領域里的應用最為出彩,它可以實現各式各樣的圖像生成,例如圖像分割等[18]。但在其應用中也面臨著一些困難與挑戰,例如訓練不穩定、梯度消失和生成樣本多樣性不足等。因此,針對GAN的改進模型也不斷涌現。在CGAN(conditional generative adversarial network)的基礎上,Isola等[19]提出了Pix2pix網絡,生成器的結構使用了U-Net結構,并引入了L1損失,極大地改善了圖像映射效果。Wang等[20]在SRGAN(super resolution generative adversarial network)網絡的基礎上,提出了ESRGAN(enhanced super resolution generative adversarial network)網絡,該模型在生成器上使用殘差密集塊來提升模型的結構,擴大了網絡的容量且提高了網絡的特征學習能力。葉紅玲等[21]利用ICM法建立數據集并引入CGAN網絡實現了單一網絡的跨分辨率設計,但所得結果的效率和精度有待進一步提高。跨分辨率拓撲優化方法不僅提高了傳統拓撲優化設計效率,且在保證預測結構精度的前提下,提高了預測結構的分辨率,進而實現對結構的精細化設計。

基于上述分析,本文利用改進的Pix2pix網絡和Esrgan網絡構建了兩種單一網絡的跨分辨率結構拓撲優化設計方法,并將其擴展至三維結構的跨分辨率拓撲優化預測。首先以結構柔順度最小化為目標函數,利用SIMP法獲得低分辨率和對應高分辨率構型的數據集,并將載荷方向和體積分數等變量編碼化作為網絡的輸入;通過設置相關網絡參數進行網絡模型訓練,進而得到預訓練網絡模型;基于預訓練網絡模型得到預測結果,并對兩種網絡所得預測結果進行評估;最后將上述方法所得預測結果與基于CGAN網絡的預測結果進行對比,以驗證所提方法在像素點準確率、柔順度準確率、體積分數和預測時間等方面的優勢。

1 相關理論和技術基礎

1.1 基于SIMP的最小化柔順度拓撲優化

SIMP方法是在均勻化方法的基礎上提出的一種變密度法。在SIMP法中,通過引入0~1區間連續變化的單元密度,并以單元密度作為設計變量,通過建立單元密度與材料彈性模量之間的函數關系,將拓撲優化問題轉化為最優材料分布問題。采用材料插值模型的方法,讓優化過程中的單元密度趨向“1”和“0”,從而減少了中間密度單元的產生,成為目前拓撲優化方法中最常用的密度插值模型之一。

本文以單元相對密度為設計變量,結構的全局體積分數為約束條件,結構最小化柔順度為目標函數來建立優化模型,對應的數學模型可表示為

(1)

式中:e為第e個單元;ρe為第e個單元的密度值,取值范圍為[ρemin,1];ρemin為單元密度的最小密度值,本文設置為1×10-6;C為結構柔順度;K為結構的整體剛度矩陣;U為位移矢量;F為施加載荷;V為迭代過程中的實體單元體積;V0為初始體積;Vf為優化結構的許用材料體積分數。

1.2 Pix2pix網絡結構

生成對抗網絡的結構對模型解決問題的能力起著至關重要的作用。相比于CGAN網絡,Pix2pix網絡修改了CGAN的損失函數,并將U-Net集成至框架中作為生成器。利用U-Net和CGAN的優勢,大幅度提高了Pix2pix網絡生成圖像的精度,并具有能夠高精度提取目標信息邊界的優勢。然而,傳統U-Net網絡結構內部為卷積模塊,在卷積層傳遞信息時容易產生部分信息丟失的現象。如圖1所示,本文使用殘差模塊替代傳統U-Net網絡內部的卷積模塊,使信息直接從輸入端傳至輸出端,進而保證輸入信息的完整性,且滿足拓撲優化問題要求得到明確結構邊界和結構輪廓這一要求,為了實現跨分辨率結構預測,反卷積層輸出維度為卷積層輸入維度的兩倍,以解決二維和三維結構的跨分辨率拓撲優化問題。判別器采用馬爾科夫判別器,如圖2所示,將輸入圖像切分成大小不同的圖像塊進行判別。該方法更注重輸出圖像整體的效果,避免了判別器因某個區域的生成效果“逼真”而將整幅圖像判別為“真”。

圖1 Pix2pix生成器網絡結構Fig.1 Generator of the pix2pix network structure

圖2 Pix2pix判別器網絡結構Fig.2 Discriminator of the Pix2pix network structure

Pix2pix網絡包含生成器和判別器損失函數。與CGAN網絡相比,Pix2pix網絡還在生成器內引入了像素損失,可增強模型的收斂能力并提高最終預測結構的準確率。生成器的整體損失可表示為

(2)

而判別器的損失函數是一個標準的二分類交叉熵損失函數,其公式為

(3)

1.3 Esrgan網絡結構

增強型超分辨率生成對抗網絡由生成器RRDBNet(residual in residual dense block net)與相對判別器組成[22]。相較于條件生成對抗網絡Pix2pix,Esrgan網絡做出了以下優化:①將網絡的基本單元由殘差模塊替換為RRDB模塊;②移除了生成網絡中的標準化層,提升了網絡的泛化能力;③將GAN網絡改進為RaGAN(relativistic average generative adversarial network),這一改動有助于生成器學習更清晰的邊緣信息和更豐富的紋理細節。因此,本文將引入Esrgan網絡用于解決跨分辨率拓撲優化問題,生成器RRDBNet網絡結構由多層殘差網絡和密集連接組成,如圖3所示,該網絡的主框架由淺層特征提取網絡、深層特征提取網絡、密集特征融合網絡和上采樣網絡4個重要部分組成。

圖3 Esrgan生成器網絡結構Fig.3 Generator of the Esrgan network structure

判別器采用相對平均判別器(relativistic average discriminator,RaD)記為DRa,該判別器試圖預測真實圖像xr比樣本圖像xf更真實的概率。判別器的損失函數可定義為

LDRa=-Exr{ln[DRa(xr,xf)]}-
Exf{ln[1-DRa(xf,xr)]}

(4)

Esrgan網絡的損失函數由生成器和判別器損失函數組成,且生成器損失函數除了對抗損失函數外,另引入了感知損失函數和平均絕對損失函數。具體公式如下

(5)

式中:LGRa為生成器的對抗損失;L1為平均絕對損失;Lpercep為感知損失函數;xi為低分辨率圖像;xf為生成器所生成的高分辨率圖像;λ和η為平衡不同損失項的系數。

1.4 所提出的基于深度學習的跨分辨率拓撲優化算法流程

本文基于Pix2pix和Esrgan網絡所提出的跨分辨率拓撲優化方法主要分為三個部分:獲取樣本數據、訓練網絡結構以及得到預測結構。首先,通過SIMP法得到跨分辨率數據集;其次,搭建基于Pix2pix和Esrgan的深度學習模型,將樣本數據輸入至網絡以得到預訓練網絡模型;最終,將低分辨率構型輸入至預訓練網絡模型,網絡直接生成對應高分辨率優化結構。其算法流程如圖4所示。

圖4 基于深度學習的跨分辨率拓撲優化算法流程圖Fig.4 Algorithm flowchart of the cross-resolution topology optimization methods based on deep learning

2 數值算例

2.1 數據集生成

本文以二維懸臂梁和三維懸臂梁為優化算例,對二維方形懸臂梁進行42×42和84×84的單元劃分;對二維矩形懸臂梁進行40×25和80×50的單元劃分;對三維懸臂梁進行60×20×2和120×40×4的單元劃分。上述低密度網格劃分對應低分辨率中間結構,而高密度的網格劃分對應高分辨率優化結構。采用SIMP插值模型在MATLAB軟件中得到數據集。

二維懸臂梁的載荷均作用于懸臂梁右端,載荷數量為1、載荷作用點,體積分數以及載荷方向均在給定范圍內均勻變化,變量編碼信息如圖5所示。設計每個輸入通道的大小為86×86,三個通道分別表示X和Y方向上的載荷、位移和體積分數。三維懸臂梁的載荷作用在右端面中心節點線處,載荷數量為1,體積分數,載荷角度和載荷作用點也符合均勻分布,詳細信息如下:①體積分數,0.4~0.6(每次增加 0.01);②載荷方向,0°~160°(每次增加20°);③載荷作用點,懸臂梁右端面。

圖5 二維結構輸入信息Fig.5 The input information of 2D structure

圖6 三維結構輸入信息Fig.6 The input information of 3D structure

與二維拓撲優化設計方法不同,三維結構在深度方向上具有一個維度的數據信息,每個變量信息的編碼大小應該為 61×21×3,對應網絡中輸入層的每通道大小為61×21×1,三維結構的變量編碼信息如圖 6所示。

2.2 二維算例結果

2.2.1 網絡的參數設置與損失函數對比

利用基于SIMP法的最小化柔順度拓撲優化方法時,共計生成了3 780個低分辨率構型和對應的高分辨率優化構型,二者組成包含7 560個樣本數據。數據集以9∶1的比率被分為訓練集和測試集兩部分。對生成對抗網絡模型的參數進行設定,生成器和判別器模型的學習率均為0.000 2,小批量數據設置為5,使用ADAM優化器對模型進行訓練,使用交替訓練的方法更新生成器與判別器。由式(2)和式(3)計算得出Pix2pix網絡生成器、判別器以及L1損失函數值;由式(4)和式(5)得出Esrgan網絡生成器、判別器以及L1損失函數值。將Pix2pix和Esrgan網絡訓練過程曲線進行對比,如圖7所示。

圖7 網絡損失函數曲線Fig.7 Network loss function curves

由圖7可知,隨著迭代次數的增加,兩種網絡的生成損失和判別損失整體呈現下降趨勢,曲線后段趨于平緩。在經過200次迭代后,網絡模型訓練過程的曲線收斂,生成器與判別器之間的博弈達到均衡。由于Esrgan網絡生成器采用密集殘差塊RRDB,增加了網絡深度并減少了參數量;且相較于Pix2pix網絡全卷積判別器,Esrgan采用的相對平均判別器有助于學習更優質的邊緣與紋理信息,因此,Esrgan網絡生成器損失值和判別器損失值均低于Pix2pix,準確率高于Pix2pix網絡。

2.2.2 二維預測結構網絡可行性對比

本節通過數值算例測試基于生成對抗網絡拓撲優化方法的性能。將SIMP法計算的結果作為參考值分別與Pix2pix和Esrgan所得結果進行像素點準確率(Acc)、柔順度(C)、體積分數(Vol)和預測時間的比較。

SIMP方法生成的高分辨率結構和三種生成對抗網絡模型生成的高分辨率優化結構的比較,如表1所示(表中的例子為從測試集中隨機選取的5個樣本)。并在預測結果的下方依次展示了每個結果所對應的像素點準確率、預測時間和體積分數。結果表明,三種網絡生成高分辨率結構的清晰度均十分理想,設計域的材料分布細節還原充分,生成對抗網絡在模擬SIMP的優化過程中有著很好的性能。通過式(6)計算三種網絡預測結果的Acc與SIMP法相比,本文所提出的兩種方法大幅提高了獲得二維高分辨率優化結構的時間,同時Acc值均在95%以上,且預測結構的體積分數與SIMP法獲得的高分辨率結構的體積分數十分接近。這表明隨著不斷地更新迭代,生成對抗網絡可學習到合適的網絡參數用來表征拓撲優化內部的先驗知識。

表1 二維結構在不同生成對抗網絡下的預測結果比較Tab.1 Comparison of prediction results of two-dimensional structures under different generative adversarial networks

其次,將本文三種網絡所得結果的評價指標進行對比。由于Esrgan網絡較多關注圖像感知質量上的提高,并加入了感知損失和對抗損失來提升重建圖像的真實感,因此,相對于CGAN和Pix2pix網絡,其評價指標Acc和預測時間均有所提升,且預測結構的體積分數更為接近真實結構,即 Esrgan網絡具有更優的綜合性能。

(6)

2.2.3 二維預測結構的柔順度對比

對三種網絡生成的二維高分辨率結構的柔度值與基于SIMP法生成的二維高分辨率結構的柔順度進行了對比,如表2所示。利用式(7)計算得出本文方法相較于SIMP法的柔順度準確率,其中,ObjPred為預測結構的柔順度,ObjTrue為真實樣本結構的柔順度。由表2可知,由生成對抗網絡預測的高分辨率優化結構的柔順度與SIMP法獲得的高分辨率結構的柔順度是接近的,代表生成對抗網絡生成的二維高分辨率結構是可靠的,證明了本文所提方法的有效性。

Esrgan網絡的生成器刪掉所有BN層并引入具有更大容量和更易訓練的RRDB,結合了多層殘差網絡和密集連接;同時,判別器使用了激活前特征,增強了感知損失,這些特征可提供更強的監督,從而使該網絡的預測結果具有更精確的邊界信息和圖像紋理。因此:由表2可知,Esrgan網絡預測所得高分辨率結構的柔順度準確率最高,且與目標柔順度(SIMP法生成的高分辨率拓撲結構)最為接近。

(7)

2.3 三維算例結果

2.3.1 三維模型的可行性與計算成本對比

將文中使用的生成對抗網絡擴展至三維拓撲結構的預測。將網絡模型從二維擴展到三維的最顯著差異是輸入信息和輸出結構的維度,對二維拓撲結構預測僅需要三個通道(體積分數、載荷大小、初始位移),而對三維結構進行預測,考慮厚度方向的特征則需要15個通道(見2.1節)。

用測試集數據對訓練好的網絡模型的性能(計算效率及精度)進行評估,模型的精度包括像素點準確率、柔順度和體積分數。本節給出了兩組SIMP方法生成的高分辨率結構和三種生成對抗網絡模型生成的高分辨率優化結構。如表3所示,生成對抗網絡模型生成的三維高分辨率結構與SIMP方法的結果幾乎一樣。但SIMP法的平均計算時間為460.659 s,而本文提出兩種方法的平均時間約為0.4 s,大幅降低了獲得三維結構的時間成本。值得注意的是,基于深度學習方法的計算時間不包括生成數據集的時間(生成7 680個樣本需45 h)和訓練網絡的時間(2 h),因為數據準備和模型訓練僅為一次離線成本,而訓練后的模型可用來解決多種類似的拓撲優化問題。此外,通過式(8)計算得出三維結構的像素點準確率,并展示在預測結果的下方。由生成對抗網絡預測得到的生成的三維高分辨率構型均具有良好的像素點準確率值。由表3可知,由生成對抗網絡預測的高分辨率拓撲優化結構的體積分數均在由SIMP法計算得到的拓撲優化結構的體積分數附近波動。綜上所述,本文提出的基于生成對抗網絡的拓撲優化方法能在保證結果高準確性的情況下,高效地生成高分辨率優化結構。

表3 三維結構在不同生成對抗網絡下的預測結果比較Tab.3 Comparison of prediction results of three-dimensional structures under different generative adversarial networks

由表3還可知,由生成對抗網絡預測的三維高分辨率優化結構的柔順度與體積分數均接近基于SIMP法獲得的高分辨率優化結構,證明了基于生成對抗網絡的三維拓撲優化方法的有效性。

(8)

2.3.2 三維模型預測結構的性能對比

兩組數據對應的柔順度和體積分數準確率,如表4所示,通過式(7)計算得出表中展示的兩組算例的柔順度準確率均大于92%。由于Esrgan網絡的判別器可預測圖像的相對真實性,且使用激活函數之前的所學特征,可提供對亮度一致性和紋理恢復更強的監督力,提高生成圖片的視覺質量。綜合分析表3與表4可得,Esrgan網絡預測得到的高分辨率優化結構的柔順度、體積分數和像素點準確率均高于Pix2pix網絡和CGAN網絡。

表4 三維結構在不同生成對抗網絡下的柔順度與體積分數準確率結果比較

3 結 論

(1) 本文基于Pix2pix和Esrgan提出了兩種基于生成對抗網絡的拓撲優化方法,并擴展至三維結構,實現了對結構系統的高效跨分辨率拓撲優化設計。與傳統拓撲優化方法相比,本文所提出的兩種方法能夠在極短的時間內得到高分辨率優化結構,而無需進行任何迭代分析,且準確率可達94%以上,為高精度和高效率拓撲優化設計提供了理論參考,體現了所提方法的有效性。

(2) 相較于基于CGAN的拓撲優化方法,本文所改進的Pix2pix網絡和引入的Esrgan網絡的預測結果在效率和精度方面均有提高。對于Pix2pix網絡,本文使用殘差模塊替代U-Net網絡內部的卷積模塊,保證了信息在傳遞過程中的完整性,增強了Pix2pix網絡的特征學習能力和生成圖像的精度;而Esrgan網絡的生成器使用RRDB模塊,提升了網絡的深度與容量,且由于去除了BN層,增強了網絡的穩定性。

(3) Esrgan網絡所得預測結果的效率和精度均優于Pix2pix。相較于Pix2pix網絡,Esrgan網絡生成器中包含密集塊與多級殘差結構,加強了特征圖在各個層中的復用,并有效提高網絡的泛化能力。

猜你喜歡
優化結構方法
超限高層建筑結構設計與優化思考
房地產導刊(2022年5期)2022-06-01 06:20:14
《形而上學》△卷的結構和位置
哲學評論(2021年2期)2021-08-22 01:53:34
民用建筑防煙排煙設計優化探討
關于優化消防安全告知承諾的一些思考
一道優化題的幾何解法
論結構
中華詩詞(2019年7期)2019-11-25 01:43:04
論《日出》的結構
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
主站蜘蛛池模板: 国产又爽又黄无遮挡免费观看| 爆乳熟妇一区二区三区| 国产网站在线看| 国产一二三区在线| 国产日韩欧美在线播放| 国产人人干| 中文精品久久久久国产网址| 夜夜拍夜夜爽| 国产精品毛片一区视频播| 天天综合网在线| 九月婷婷亚洲综合在线| 久久综合亚洲鲁鲁九月天| AⅤ色综合久久天堂AV色综合 | 日韩欧美国产综合| 伊人成人在线视频| 日本在线国产| 久久精品视频一| 久草性视频| 天堂亚洲网| 亚洲中文字幕久久精品无码一区 | 午夜福利网址| 亚洲福利网址| 日本久久久久久免费网络| 日本高清在线看免费观看| 亚洲欧美一区二区三区图片| 九色91在线视频| 国产成人精品无码一区二| 久操线在视频在线观看| 丁香婷婷激情网| 亚洲AⅤ波多系列中文字幕 | 色爽网免费视频| 国产小视频a在线观看| 99久久亚洲精品影院| 91无码网站| 亚洲天堂成人| 国产a v无码专区亚洲av| 思思99热精品在线| 亚洲首页国产精品丝袜| A级毛片无码久久精品免费| 久久久久亚洲AV成人人电影软件 | 国产情侣一区二区三区| 久久大香伊蕉在人线观看热2| 老司国产精品视频| 亚洲资源站av无码网址| 亚洲国模精品一区| 天堂va亚洲va欧美va国产| 色噜噜在线观看| 国产欧美网站| 亚洲永久精品ww47国产| 1024国产在线| 久久伊人操| 91国内视频在线观看| 无码不卡的中文字幕视频| 亚洲三级片在线看| 色噜噜综合网| 亚洲性色永久网址| 日本国产精品一区久久久| 91人妻日韩人妻无码专区精品| 欧美日韩中文字幕在线| 无码中文AⅤ在线观看| 中文字幕伦视频| 国产成人精品一区二区三区| 国产中文在线亚洲精品官网| 国产成人精品一区二区三区| 欧美国产在线一区| 黄色一及毛片| 亚洲小视频网站| 少妇精品在线| 欧美综合一区二区三区| 国产一区二区三区精品久久呦| 国产视频a| 亚洲永久免费网站| 老司国产精品视频| 欧美色香蕉| 男女性色大片免费网站| 91色综合综合热五月激情| av大片在线无码免费| 国产日韩欧美精品区性色| 亚洲三级影院| 亚洲欧美日韩另类| 国产在线91在线电影| 天天躁夜夜躁狠狠躁躁88|