





















【摘要】為解決板殼結(jié)構(gòu)網(wǎng)格劃分效率低、合格率低等問題,提出了一種基于深度學(xué)習(xí)的板殼結(jié)構(gòu)有限元網(wǎng)格智能劃分技術(shù)。首先,對板殼結(jié)構(gòu)典型特征進(jìn)行分類,并為每類特征開發(fā)網(wǎng)格劃分策略;其次,基于卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練特征識(shí)別模型,自動(dòng)調(diào)用策略完成特征區(qū)域網(wǎng)格劃分;最后,對非特征區(qū)域進(jìn)行幾何清理及網(wǎng)格優(yōu)化。經(jīng)某乘用車白車身驗(yàn)證,與主流batchmesh方法相比,該方法將網(wǎng)格自動(dòng)劃分合格率從82.1%提升至92.6%,總工時(shí)減少66.7%,顯著改善了網(wǎng)格質(zhì)量與效率。該技術(shù)通過AI模型與預(yù)定義策略的結(jié)合,減少了人工干預(yù),為板殼結(jié)構(gòu)網(wǎng)格劃分提供了智能化解決方案。
主題詞:深度學(xué)習(xí) 板殼結(jié)構(gòu) 有限元分析 網(wǎng)格劃分
中圖分類號(hào):TP181;O316" "文獻(xiàn)標(biāo)志碼:A" "DOI: 10.19620/j.cnki.1000-3703.20241025
Research on Intelligent Meshing Technology for Plate and Shell Structures Based on Deep Learning
Huang Zehui, Tang Hongbin, Fan Yang, Wang Shibin
(Global Ramp;D Center, China FAW Corporation Limited, Changchun 130013)
【Abstract】To address the issues of low efficiency and low qualification rates in mesh generation for plate and shell structures, this paper proposes an intelligent finite element meshing technology based on deep learning. First, typical features of plate and shell structures are classified, and meshing strategies are developed for each feature type. Second, a feature recognition model is trained using convolutional neural networks to automatically invoke the corresponding strategies for meshing in feature regions. Finally, geometry cleanup and mesh optimization are performed for non-feature regions. Verified by the white body of a passenger car, this method increases the automatic meshing qualification rate from 82.1% to 92.6% and reduces total working hours by 66.7% compared with the mainstream batchmesh approach, significantly improving both mesh quality and efficiency. By combining AI models with predefined strategies, this technology minimizes manual intervention and provides an intelligent solution for meshing in plate and shell structures.
Key words: Deep learning, Plate and shell structures, Finite element analysis, Mesh generation
【引用格式】 黃澤輝, 唐洪斌, 范陽, 等. 基于深度學(xué)習(xí)的板殼結(jié)構(gòu)網(wǎng)格智能劃分技術(shù)研究[J]. 汽車技術(shù), 2025(4): 47-55.
HUANG Z H, TANG H B, FAN Y, et al. Research on Intelligent Meshing Technology for Plate and Shell Structures Based on Deep Learning[J]. Automobile Technology, 2025(4): 47-55.
1 前言
隨著有限元分析(Finite Element Analysis,F(xiàn)EA)在工程領(lǐng)域的廣泛應(yīng)用,高效生成高質(zhì)量網(wǎng)格成為縮短項(xiàng)目周期的關(guān)鍵。傳統(tǒng)人工網(wǎng)格劃分方法在處理汽車白車身等復(fù)雜板殼結(jié)構(gòu)時(shí),存在效率低、易出錯(cuò)等問題;而現(xiàn)有商業(yè)軟件如ANSA和Hypermesh的批量網(wǎng)格劃分方法(batchmesh)雖能實(shí)現(xiàn)自動(dòng)化,但其網(wǎng)格合格率低、流向控制差、特征區(qū)域質(zhì)量不足,仍需大量人工干預(yù)。
近年來,隨著人工智能技術(shù)的進(jìn)步,特別是深度學(xué)習(xí)在圖像識(shí)別、模式識(shí)別等方面的廣泛應(yīng)用[1],研究人員開始探索其在網(wǎng)格劃分領(lǐng)域的潛在應(yīng)用。Carlos等[2]利用特征識(shí)別技術(shù)在關(guān)鍵區(qū)域進(jìn)行局部網(wǎng)格細(xì)化,提高有限元求解精度;He等[3]基于深度神經(jīng)網(wǎng)絡(luò)模型在關(guān)鍵區(qū)域進(jìn)行局部網(wǎng)格細(xì)化,提高有限元求解精度。Lu等[4]基于卷積神經(jīng)網(wǎng)絡(luò)處理復(fù)雜結(jié)構(gòu)化網(wǎng)格邊界條件和材料屬性變化問題,有效處理高維數(shù)據(jù)。Xu等[5]基于數(shù)據(jù)驅(qū)動(dòng)的網(wǎng)格密度提升模型Super-Meshing-Net,縮短有限元計(jì)算時(shí)間和成本。Xu[6]將SuperMeshing方法與傳統(tǒng)的網(wǎng)格生成方法比較顯示,SuperMeshing方法在處理復(fù)雜幾何形狀和邊界條件時(shí)具有更好的適應(yīng)性和靈活性。Jaeho等[7]利用深度學(xué)習(xí)技術(shù)改進(jìn)有限元網(wǎng)格劃分過程,在保證計(jì)算精度的同時(shí)提高計(jì)算效率。劉翰林等[8]利用深度學(xué)習(xí)技術(shù)對生成的網(wǎng)格分類篩選,在保證網(wǎng)格質(zhì)量不下降的前提下提升工作效率。張偉等[9]基于深度學(xué)習(xí)技術(shù)對三角形網(wǎng)格占比過多的曲面進(jìn)行網(wǎng)格重建,提高有限元求解精度。
基于上述研究,本文提出一種基于深度學(xué)習(xí)的板殼結(jié)構(gòu)網(wǎng)格智能劃分技術(shù)。首先,分類典型特征并預(yù)定義對應(yīng)網(wǎng)格劃分策略;其次,訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模型實(shí)現(xiàn)特征自動(dòng)識(shí)別與策略調(diào)用;最后,對非特征區(qū)域進(jìn)行幾何清理與網(wǎng)格優(yōu)化。該方法通過AI模型與預(yù)定義策略協(xié)同,顯著降低人工干預(yù),為板殼結(jié)構(gòu)高效劃分提供新方案。
2 深度學(xué)習(xí)模型架構(gòu)適用性分析
在本研究中,為了識(shí)別出典型特征的類別,進(jìn)而實(shí)現(xiàn)板殼結(jié)構(gòu)網(wǎng)格的智能劃分,采用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)作為主要的模型架構(gòu)。CNN通過局部連接與權(quán)重共享機(jī)制有效捕捉局部信息,同時(shí)減少模型參數(shù)數(shù)量,提高泛化能力。此外,CNN的層次化特征提取能力允許模型從低級(jí)特征,如邊緣和紋理,逐步學(xué)習(xí)到更高級(jí)別的特征,如形狀和對象,這對于復(fù)雜結(jié)構(gòu)的識(shí)別至關(guān)重要。池化層的應(yīng)用不僅有助于降低輸出維度,還能夠保持重要的特征信息,進(jìn)一步提升模型的計(jì)算效率和抗過擬合能力。
針對識(shí)別典型特征類別的具體需求,選擇4種典型的CNN模型:ResNet-50[10]、VGG-16[11]、DenseNet-121[12]和 MobileNet-v2[13]。ResNet-50通過引入殘差塊解決了深層網(wǎng)絡(luò)訓(xùn)練過程中的梯度消失問題,擁有50層的深度,能夠在保持模型復(fù)雜度的同時(shí)大幅提升性能,適用于需要高精度的任務(wù)。VGG-16是一個(gè)經(jīng)典且高效的深度卷積神經(jīng)網(wǎng)絡(luò),通過堆疊多個(gè)3×3的小卷積核構(gòu)建深層網(wǎng)絡(luò),能夠有效提取圖像的多層次特征;其結(jié)構(gòu)簡單、易于實(shí)現(xiàn),適合作為基準(zhǔn)模型進(jìn)行性能對比。DenseNet-121通過密集連接每一層與其后所有層,促進(jìn)了特征的重用和信息流的傳遞,有助于緩解梯度消失問題,同時(shí)減少了參數(shù)量。DenseNet-121版本具有較深的網(wǎng)絡(luò)結(jié)構(gòu),適用于需要強(qiáng)大表達(dá)能力的任務(wù)。最后,MobileNet-v2通過引入倒殘差結(jié)構(gòu)和線性瓶頸層,在保持模型輕量化的同時(shí)提升了準(zhǔn)確率,適用于資源受限環(huán)境下的板殼結(jié)構(gòu)網(wǎng)格劃分任務(wù)。通過對比這4種不同架構(gòu)的CNN模型,本研究旨在探索其在板殼結(jié)構(gòu)網(wǎng)格智能劃分任務(wù)中的表現(xiàn)差異,為實(shí)際應(yīng)用提供理論依據(jù)和技術(shù)支持。
3 研究方法
本研究進(jìn)行基于深度學(xué)習(xí)的板殼結(jié)構(gòu)有限元網(wǎng)格智能劃分。首先,使用深度學(xué)習(xí)技術(shù)對板殼結(jié)構(gòu)典型特征進(jìn)行識(shí)別并對不同AI模型進(jìn)行對比;然后,根據(jù)AI模型識(shí)別結(jié)果調(diào)用相應(yīng)的典型特征網(wǎng)格劃分策略,實(shí)現(xiàn)典型特征網(wǎng)格劃分;最后,對典型特征以外的結(jié)構(gòu)進(jìn)行幾何清理、網(wǎng)格劃分及質(zhì)量優(yōu)化。
3.1 特征識(shí)別
3.1.1 數(shù)據(jù)收集
本文選擇40款典型的汽車白車身作為數(shù)據(jù)源,這些白車身涵蓋了多種不同的設(shè)計(jì)風(fēng)格和制造工藝。為了確保數(shù)據(jù)集的多樣性和代表性,選取不同車型、不同年代的車輛。從這些白車身中,提取板殼結(jié)構(gòu)的典型特征,包括各種類型的沖壓起筋,數(shù)據(jù)收集結(jié)果如圖1所示。
3.1.2 數(shù)據(jù)整理與預(yù)處理
首先,對原始數(shù)據(jù)進(jìn)行清洗,去除冗余的信息和不必要的噪聲。此外,由于原始數(shù)據(jù)可能存在格式上的差異,本文將其統(tǒng)一轉(zhuǎn)換為適合深度學(xué)習(xí)模型處理的jpg圖像格式。最后,對數(shù)據(jù)進(jìn)行標(biāo)注工作,為每一種典型特征指定標(biāo)簽。初始樣本統(tǒng)計(jì)如表1所示。
3.1.3 數(shù)據(jù)增強(qiáng)
本研究的典型特征識(shí)別分為10類任務(wù),數(shù)據(jù)集的合理劃分對于模型訓(xùn)練、驗(yàn)證和最終評(píng)估至關(guān)重要。本文借鑒了FashionMNIST數(shù)據(jù)集的劃分方法,將數(shù)據(jù)集劃分為訓(xùn)練集、驗(yàn)證集和測試集,具體比例為60 000個(gè)訓(xùn)練樣本、10 000個(gè)驗(yàn)證樣本和10 000個(gè)測試樣本,每個(gè)類別典型特征的樣本量至少為8 000個(gè)。
根據(jù)工程經(jīng)驗(yàn),同一類別的典型特征存在以下常見場景:形狀一致,但角度不同;形狀相似,但大小不同。因此,對于樣本量不足8 000個(gè)的類別,本文采用旋轉(zhuǎn)、翻轉(zhuǎn)、縮放等數(shù)據(jù)增強(qiáng)方法生成額外的樣本;雖然經(jīng)過上述變換,但是圖像的核心特征仍然保留,即變換后的樣本與原始樣本屬于同一類別。數(shù)據(jù)增強(qiáng)后樣本統(tǒng)計(jì)如表2所示,所有類別的最終樣本量至少為8 000個(gè),增加了模型接觸到的數(shù)據(jù)量;每個(gè)類別各取8 000個(gè)樣本建立數(shù)據(jù)集,提高了模型對輸入變化的魯棒性。
數(shù)據(jù)增強(qiáng)可以使AI識(shí)別模型不會(huì)過度依賴于訓(xùn)練集中的特定類別,減少過擬合,幫助AI識(shí)別模型更好地泛化到新的未見數(shù)據(jù)上;但是,可能會(huì)引入不屬于工程實(shí)際的樣本,導(dǎo)致AI識(shí)別模型學(xué)到錯(cuò)誤的模式。數(shù)據(jù)增強(qiáng)對本文的影響需要根據(jù)AI識(shí)別模型的精度進(jìn)行調(diào)整優(yōu)化。
3.1.4 數(shù)據(jù)劃分與管理
為了保證模型訓(xùn)練的有效性和評(píng)估的公正性,從數(shù)據(jù)增強(qiáng)后的樣本中,按典型特征類別各取8 000個(gè)樣本,共80 000個(gè)樣本建立數(shù)據(jù)集。即每個(gè)類別各6 000個(gè)樣本用于訓(xùn)練,每個(gè)類別各1 000個(gè)樣本用于驗(yàn)證,每個(gè)類別各1 000個(gè)樣本用于最終的模型測試,數(shù)據(jù)分類結(jié)構(gòu)如圖2所示。
3.1.5 AI識(shí)別模型訓(xùn)練
使用遷移學(xué)習(xí)(Transfer Learning)的方法,分別基于ResNet-50、VGG-16、DenseNet-121、MobileNet-v24共4種卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)訓(xùn)練典型特征AI識(shí)別模型。實(shí)施模型遷移的流程如圖3所示:首先,使用PyTorch深度學(xué)習(xí)框架加載預(yù)訓(xùn)練模型及其權(quán)重;然后,修改模型結(jié)構(gòu),凍結(jié)特征提取器結(jié)構(gòu)及權(quán)重,修改分類器結(jié)構(gòu),將最后一層替換為10個(gè)輸出節(jié)點(diǎn)的全連接層;最后,進(jìn)行AI識(shí)別模型訓(xùn)練,學(xué)習(xí)分類器權(quán)重。
訓(xùn)練環(huán)境及參數(shù)設(shè)置如表3所示。
ResNet-50模型訓(xùn)練結(jié)果如圖4所示。模型訓(xùn)練過程中,損失函數(shù)在訓(xùn)練集、驗(yàn)證集上迅速減小然后逐漸收斂到一個(gè)較小的區(qū)間,精度在訓(xùn)練集、驗(yàn)證集不斷增大并收斂到一個(gè)很小的區(qū)間,說明模型已經(jīng)穩(wěn)定;類別10的識(shí)別準(zhǔn)確度最高,為99.7%,類別05、06的識(shí)別準(zhǔn)確度最低,為91.3%,所有類別平均識(shí)別準(zhǔn)確度為94.4%。
VGG-16模型訓(xùn)練結(jié)果如圖5所示。模型訓(xùn)練過程中,損失函數(shù)在訓(xùn)練集、驗(yàn)證集上迅速減小然后逐漸收斂到一個(gè)較小的區(qū)間,精度在訓(xùn)練集、驗(yàn)證集不斷增大并收斂到一個(gè)較小的區(qū)間,說明模型已經(jīng)穩(wěn)定;類別10的識(shí)別準(zhǔn)確度最高,為99.6%,類別05的識(shí)別準(zhǔn)確度最低,為90.8%,所有類別平均識(shí)別準(zhǔn)確度為94.57%。
DenseNet-121模型訓(xùn)練結(jié)果如圖6所示。模型訓(xùn)練過程中,損失函數(shù)在訓(xùn)練集、驗(yàn)證集上迅速減小然后逐漸收斂到一個(gè)較小的區(qū)間,精度在訓(xùn)練集、驗(yàn)證集不斷增大并收斂到一個(gè)很小的區(qū)間,說明模型已經(jīng)穩(wěn)定;類別09的識(shí)別準(zhǔn)確度最高,為99.5%,類別06的識(shí)別準(zhǔn)確度最低,為90.6%,所有類別平均識(shí)別準(zhǔn)確度為95%。
MobileNet-v2模型訓(xùn)練結(jié)果如圖7所示。模型訓(xùn)練過程中,損失函數(shù)在訓(xùn)練集、驗(yàn)證集上迅速減小然后逐漸收斂到一個(gè)較小的區(qū)間,精度在訓(xùn)練集、驗(yàn)證集不斷增大并收斂到一個(gè)較小的區(qū)間,說明模型已經(jīng)穩(wěn)定;類別10的識(shí)別準(zhǔn)確度最高,為99.5%,類別03、05的識(shí)別準(zhǔn)確度最低,為91.2%,所有類別平均識(shí)別準(zhǔn)確度為94.09%。
綜上,基于ResNet-50、VGG-16、DenseNet-121、MobileNet-v2這4種卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)的AI識(shí)別模型中,所有模型的最低識(shí)別精度類別均未出現(xiàn)類別08(數(shù)據(jù)增強(qiáng)前初其始樣本量僅為1 189個(gè),后通過旋轉(zhuǎn)、翻轉(zhuǎn)等數(shù)據(jù)增強(qiáng)擴(kuò)充至8 000個(gè))。這一現(xiàn)象表明,數(shù)據(jù)增強(qiáng)有效緩解了類別08因原始樣本不足導(dǎo)致的模型欠擬合問題,使其分類精度顯著提升。相比之下,最低識(shí)別精度集中于類別03、05、06,可能是類別之間差異較小、類別內(nèi)部差異較大、模型能力不足、超參數(shù)設(shè)置不當(dāng)?shù)仍蛟斐傻摹?/p>
3.1.6 AI識(shí)別模型對比
AI識(shí)別模型對比結(jié)果如表4所示。MobileNet-v2模型訓(xùn)練時(shí)間最短,為9.2 h,VGG-16模型訓(xùn)練時(shí)間最長,為10.8 h;DenseNet-121模型識(shí)別準(zhǔn)確度最高,為95.00%,MobileNet-v2模型識(shí)別準(zhǔn)確度最低,為94.09%。
3.2 典型特征網(wǎng)格劃分
3.2.1 典型特征網(wǎng)格劃分策略
針對10類典型特征,制定10種典型特征網(wǎng)格劃分策略,實(shí)現(xiàn)典型特征網(wǎng)格劃分合格率100%。典型特征網(wǎng)格劃分流程如圖8所示,AI識(shí)別模型識(shí)別典型特征類別后,自動(dòng)選擇典型特征網(wǎng)格劃分策略進(jìn)行典型特征網(wǎng)格劃分。其中,10類典型特征網(wǎng)格劃分流程一致,為特征線清理、特征切割、網(wǎng)格生成、質(zhì)量檢查、網(wǎng)格調(diào)整、結(jié)果輸出,子流程略有不同,可基于商業(yè)軟件的二次開發(fā)功能實(shí)現(xiàn)流程自動(dòng)化。
3.2.2 典型特征網(wǎng)格劃分結(jié)果
典型特征網(wǎng)格劃分結(jié)果如表5所示,網(wǎng)格合格率須達(dá)到100%,以提升整體結(jié)構(gòu)網(wǎng)格劃分質(zhì)量。
3.3 幾何清理
對典型特征以外的結(jié)構(gòu)進(jìn)行幾何清理,保留輪廓特征線,刪除非輪廓特征線。圖9為某乘用車車門內(nèi)板幾何清理過程:首先,讀取剔除典型特征后的車門內(nèi)板結(jié)構(gòu);然后,遍歷并判斷每條特征線是否與其他特征線閉合,若特征線可以與其他特征線閉合,則為輪廓特征線,須保留,若特征線無法與其他特征線閉合,則為非輪廓特征線,需刪除;最后,得到清理后的車門內(nèi)板幾何結(jié)構(gòu)。
3.4 網(wǎng)格劃分及優(yōu)化
3.4.1 網(wǎng)格劃分
基于商業(yè)軟件的二次開發(fā)功能對清理后的幾何結(jié)構(gòu)進(jìn)行網(wǎng)格劃分,本文使用ANSA軟件實(shí)現(xiàn)該功能,可實(shí)現(xiàn)網(wǎng)格劃分自動(dòng)化,主要參數(shù)設(shè)置如下:網(wǎng)格目標(biāo)尺寸為5 mm,扭曲距離為20%,扭曲角度為0°,最小網(wǎng)格尺寸為3.05 mm,倒角尺寸為最小網(wǎng)格尺寸的0.667倍。
3.4.2 網(wǎng)格優(yōu)化
網(wǎng)格自動(dòng)劃分后的合格率無法達(dá)到100%,主要原因如下:首先,雖然每個(gè)典型特征網(wǎng)格劃分策略都可以實(shí)現(xiàn)合格率100%的網(wǎng)格劃分,但是由于典型特征識(shí)別準(zhǔn)確度無法達(dá)到100%,導(dǎo)致AI識(shí)別模型無法100%調(diào)用正確的典型特征網(wǎng)格劃分策略,以致典型特征網(wǎng)格自動(dòng)劃分合格率無法達(dá)到100%;其次,清理后的幾何使用商業(yè)軟件進(jìn)行網(wǎng)格自動(dòng)劃分時(shí),因技術(shù)原因無法保證合格率達(dá)到100%。因此,為了獲得用于有限元仿真的網(wǎng)格,需要對自動(dòng)劃分后的網(wǎng)格進(jìn)行手動(dòng)網(wǎng)格優(yōu)化,提升網(wǎng)格合格率至100%。
4 基于深度學(xué)習(xí)的板殼結(jié)構(gòu)網(wǎng)格智能劃分流程
某板殼結(jié)構(gòu)零件如圖10所示,以該零件為例介紹基于深度學(xué)習(xí)的板殼結(jié)構(gòu)網(wǎng)格智能劃分流程,如圖11所示。首先,使用AI識(shí)別模型對該零件的典型特征進(jìn)行識(shí)別,得到典型特征類別;其次,根據(jù)典型特征類別調(diào)用對應(yīng)的網(wǎng)格劃分策略,進(jìn)行典型特征網(wǎng)格劃分;再次,對典型特征以外的結(jié)構(gòu)進(jìn)行幾何清理,保留輪廓特征線、刪除非輪廓特征線;然后,基于商業(yè)軟件的二次開發(fā)功能對清理后的幾何結(jié)構(gòu)進(jìn)行網(wǎng)格劃分;最后,根據(jù)網(wǎng)格質(zhì)量標(biāo)準(zhǔn)進(jìn)行網(wǎng)格優(yōu)化,得到用于有限元仿真的網(wǎng)格。
5 網(wǎng)格劃分結(jié)果對比
某乘用車白車身如圖12所示,以該白車身為例,分別使用本文方法與batchmesh法進(jìn)行網(wǎng)格自動(dòng)劃分并進(jìn)行結(jié)果對比,網(wǎng)格質(zhì)量標(biāo)準(zhǔn)如表6所示。
網(wǎng)格自動(dòng)劃分合格率對比如表7所示,batchmesh法網(wǎng)格自動(dòng)劃分合格率為82.1%,本文方法網(wǎng)格自動(dòng)劃分合格率為92.6%,說明本文方法可以顯著提升網(wǎng)格自動(dòng)劃分合格率。
網(wǎng)格劃分工時(shí)對比如表8所示,batchmesh法網(wǎng)格劃分及優(yōu)化總工時(shí)為24人日,本文方法網(wǎng)格劃分及優(yōu)化總工時(shí)為8人日,說明本文方法可以顯著提升工作效率,周期縮短66.7%。
局部網(wǎng)格劃分質(zhì)量對比如表9所示,batchmesh法存在三角形殼單元聚集、網(wǎng)格流向差、典型特征網(wǎng)格質(zhì)量差、局部單元畸變等不足,本文方法可以有效彌補(bǔ)以上不足,說明本文方法可以顯著提升網(wǎng)格自動(dòng)劃分質(zhì)量。
6 結(jié)束語
本文提出了一種基于深度學(xué)習(xí)的板殼結(jié)構(gòu)有限元網(wǎng)格智能劃分技術(shù)。首先,結(jié)合深度學(xué)習(xí)技術(shù)和網(wǎng)格劃分策略實(shí)現(xiàn)了板殼結(jié)構(gòu)典型特征自動(dòng)識(shí)別與網(wǎng)格劃分,然后,通過幾何清理、網(wǎng)格劃分及優(yōu)化實(shí)現(xiàn)了板殼結(jié)構(gòu)主體結(jié)構(gòu)網(wǎng)格劃分。試驗(yàn)結(jié)果表明,與當(dāng)前主流的網(wǎng)格劃分方法(batchmesh法)相比,本文方法可以顯著提升網(wǎng)格自動(dòng)劃分合格率、工作效率及網(wǎng)格質(zhì)量。
基于深度學(xué)習(xí)的板殼結(jié)構(gòu)有限元網(wǎng)格智能劃分技術(shù)的應(yīng)用顯著減少了人工干預(yù),為板殼結(jié)構(gòu)有限元網(wǎng)格劃分提供了一種新的智能化解決方案,為未來的智能化工程設(shè)計(jì)奠定了堅(jiān)實(shí)的基礎(chǔ)。下一步,將優(yōu)化識(shí)別算法和網(wǎng)格生成技術(shù),進(jìn)一步提升基于深度學(xué)習(xí)的板殼結(jié)構(gòu)網(wǎng)格劃分技術(shù)的應(yīng)用價(jià)值。
參 考 文 獻(xiàn)
[1] 弗朗索瓦·肖萊. Python深度學(xué)習(xí)[M]. 北京: 人民郵電出版社, 2018.
FRANCOIS C. Deep Learning with Python[M]. Beijing: Posts amp; Telecom Press, 2018.
[2] URIARTE C, PARDO D, JAVIER A, et al. A Finite Element Based Deep Learning Solver for Parametric PDEs[J]. Computer Methods in Applied Mechanics and Engineering, 2022, 391.
[3] HE J, ABUEIDDA D, RAAL R, et al. A Deeplearning Energy-Based Methd for Classical Elasticity[J]. International Journal of Plasticity, 2023, 162.
[4] LU Y, LI H, ZHANG L, et al. Convolution Hierarchical Deep-Learning Neural Networks(C-HIDeNN): Finite Elements, Isogeometric Analysis, Tensor Decomposition, and Beyond[J]. Computational Mechanics, 2023, 72: 333-362.
[5] XU Q F, NIE Z G, XU H D, et al. SuperMeshing: A New Deep Learning Architecture for Increasing the Mesh Density of Physical Fields in Metal Forming Numerical Simulation[J]. Journal of Applied Mechanics: Transactions of the ASME, 2022, 1(89): 1-10.
[6] XU H, NIE Z, XU Q, et al. SuperMeshing: Boosting the Mesh Density of Stress Field in Plane-Strain Problems Using Deep Learning Method[J]. Journal of Computing and Information Science in Engineering, 2023, 23(3): 1-12.
[7] JAEHO J, HYUNGMIN J, PHILL-SEUNG L, et al. Self-Updated Four-Node Finite Element Using Deep Learing[J]. Computational Mechanics, 2022, 69: 23-44.
[8] 劉翰林, 崔會(huì)敏, 張珍, 等. 基于BP算法的二維陣面推進(jìn)網(wǎng)格劃分方法的優(yōu)化與應(yīng)用[J]. 計(jì)算力學(xué)學(xué)報(bào), 2023, 8(30): 1-8.
LIU H L, CUI H M, ZHANG Z, et al. Optimization and Application of 2D Front Advancing Mesh Generation Method Based on BP Algorithm[J]. Chinese Journal of Computational Mechanics, 2023, 8(30): 1-8.
[9] 張偉, 姜獻(xiàn)峰, 陳麗能, 等. 基于神經(jīng)網(wǎng)絡(luò)的三角形網(wǎng)格智能重建[J]. 工程圖學(xué)學(xué)報(bào), 2004, 25(1): 71-75.
ZHANG W, JIANG X F, CHEN L N, et al. Intelligent Reconstruction of Triangular Meshes Based on Neural Networks [J]. Journal of Engineering Graphics, 2004, 25(1): 71-75.
[10] HE K, ZHANG X, REN S, et al. Deep Residual Learning for Image Recognition[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, Nevada, USA, 2016: 770-778.
[11] SIMONYAN K, ZISSERMAN A. Very Deep Convolutional Networks for Large-Scale Image Recognition[EB/OL]. (2015-04-10)[2024-12-17]. https://arxiv.org/abs/1409. 1556.
[12] HUANG G, LIU Z, VAN DER MAATEN L, et al. Densely Connected Convolutional Networks[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, Hawaii, USA, 2017: 4700-4708.
[13] SANDLER M, HOWARD A, ZHU M, et al. MobileNetV2: Inverted Residuals and Linear Bottlenecks[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA, 2018: 4510-4520.
(責(zé)任編輯 王 一)
修改稿收到日期為2024年12月17日。