999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于主從圖神經網絡的拓撲一致模型等幾何分析重用方法

2025-02-15 00:00:00鐘維真許金蘭
軟件工程 2025年2期

摘 要:目前,基于深度學習的偏微分方程求解工作聚焦于固定幾何區域,存在難以適配幾何模型實時變化的問題,因此提出了一種基于主從圖神經網絡的拓撲一致模型等幾何分析重用方法。該方法利用圖神經網絡預測偏微分方程的解。在自制數據集上進行實驗驗證,結果表明,即使在復雜幾何模型上預測復雜方程,該方法仍能將數值解的相對誤差控制在10%以內。這證明了該方法能夠高效且精確地在一組拓撲一致的B樣條模型上取得光滑連續的數值解,為基于深度學習的偏微分方程求解工作提供了創新思路。

關鍵詞:偏微分方程;拓撲一致;重用;等幾何分析;主從圖神經網絡

中圖分類號:TP391 文獻標志碼:A

0 引言(Introduction)

計算機輔助工程(CAE)是一種近似數值分析方法,它利用計算機技術輔助求解復雜工程和產品結構力學性能,并優化結構的性能,如何高效、準確地得到偏微分方程(PDE)的解是其需要解決的核心問題之一。計算機輔助設計(CAD)是一種利用計算機及其圖形設備協助設計師進行設計工作的技術,通常用于表示產品結構和創建數字化產品[1]。

盡管CAD和CAE的起步時間相近,但是發展路徑卻相對獨立。CAD主要采用樣條模型描繪幾何模型,而CAE則使用網格構建分析模型。因此,當在CAE系統中對CAD產品進行有限元分析(FEA)時,需要將樣條模型轉化為網格,這一過程導致了頻繁的數據交換與大量的資源浪費。為了實現CAD與CAE的無縫集成,HUGHES等[2]基于樣條理論和等參思想,提出了等幾何分析(IGA)方法。

雖然IGA的計算效率相比于FEA的計算效率有了很大的提升,但是其所需的高階幾何表示仍需要較長的計算時間,無法滿足實時仿真的需求。近年來,深度學習在多個領域表現優異,將深度學習與PDE求解相結合的智能仿真方法也層出不窮。然而,目前的研究主要專注于單一幾何區域的PDE求解,對處于同一仿真條件但幾何區域實時變化的復雜重用任務,現有方法不相適配。因此,本文提出了一種基于主從圖神經網絡的拓撲一致模型等幾何分析重用方法,該方法能夠在一組拓撲一致的B樣條模型上快速且準確地預測得到光滑連續的數值解。

1 相關工作(Relatedwork)

1.1 固定區域的智能仿真工作

物理信息神經網絡(PINNs)[3]自誕生起就備受關注,其基本原理是將物理方程集成到網絡中,并使用控制方程的殘差項構造損失函數,以限制可行解的空間。學術界和工業界的研究人員已經開始嘗試通過各種方式利用PINNs,例如多物理仿真網絡(SimNet)[4]以及用于科學計算的機器學習庫(DeepXDE)[5]等工具。鑒于卷積神經網絡(CNN)的強大特征學習能力,將其應用到PDE求解的研究日益增多。ZHU等[6]采用了卷積編碼器-解碼器神經網絡方法以及基于條件流的生成模型用于求解PDE。PeRCNN研究是致力于動態系統的數據驅動建模設計,它結合了稀疏回歸技術用于提取主要的候選函數和系數,通過迭代優化過程,對網絡參數進行微調,細化PDE結構和系數[7]。

CNN常用于規則物理域的求解工作,對于不規則物理域,將其視作圖數據并利用GNN 處理的思路備受重視。GAO等[8]提出了一種將圖卷積神經網絡(GCN)與PDE的變分結構相結合的新框架,以便處理非結構化網格的不規則幾何圖形。CFD-GCN研究是利用GCN進行流場預測,將從粗糙網格中得到的解上采樣并加入GCN中以提高模型的預測性能[9]。

1.2 固定區域的智能仿真工作

針對仿真條件固定但仿真區域不斷變化的情況,THUEREY等[10]把機翼流體仿真和深度學習結合以實現智能仿真重用工作。首先從低速翼型風洞試驗(UIUC)數據集中獲取到1505個不同的機翼模型,通過限定雷諾數和攻角的范圍得到初始速度場。其次將不同的機翼模型以及初始速度場輸入開源軟件OpenFOAM中進行流體仿真,得到雷諾平均納維斯托克斯(RANS)方程的解,即神經網絡輸出待比較的實際解。最后利用醫學圖像分割神經網絡(Unet)[11]在不同的機翼模型上得到RANS方程的預測解,并將其與實際解進行比較,不斷地對網絡模型迭代優化以提高其預測精度。

THUEREY等[10]的研究主要使用FEA方法,導致網絡模型得到的預測解不連續,對于未被采樣到的數據點需要通過插值得到數值解,從而限制了預測精度。為了克服這一局限,并借鑒XU 等[12]在等幾何分析(IGA)計算重用方面的成果,WANG等[13]提出了一個基于Unet3+[14]的IGA智能仿真重用方法,在一組拓撲一致的B樣條模型上得到光滑連續的數值解,實現了真正意義上的重用。然而,受限于CNN架構,該方法需要將B樣條模型轉換為二維矩陣數據,導致精度的損失以及冗余信息的引入,對預測準確率產生了負面影響。

2 方法(Method)

2.1 問題分析

本文研究可以描述為如何利用基于GNN的深度學習方法快速且精確地預測具有一致拓撲結構的復雜幾何泊松方程的數值解。首先,在一組拓撲一致的幾何上求解泊松方程,得到相應IGA數值解系數。其次,使用由幾何和系數解構成的數據集訓練神經網絡。所學習得到的GNN模型可以直接預測泊松方程在其他拓撲一致幾何上的數值解。該方法的主要應用如下:①對具有不同形狀但拓撲結構相同的一系列幾何圖形進行數值仿真;②對具有變化邊界的幾何圖形進行實時模擬。

在IGA中,將用于精確幾何建模的基函數用作數值方法解空間的基函數,對張量積樣條基函數進行線性重排序,則計算域Ω可以被參數化為

其中:Ni是雙變量基函數的張量積,Pi表示控制幾何區域形狀的控制頂點,X=(x,y)表示實際笛卡爾坐標,ζ=(ξ,η)表示參數坐標。

那么,PDE的數值解在計算域Ω上的近似表達式可以定義為

其中:ψi=Ni。G-1" ( X) 是形函數,。表示函數復合,ui是待求的控制頂點系數解。

本研究的目標是快速且精確地預測具有一致拓撲結構的復雜幾何泊松方程的數值解。在一組拓撲一致的B樣條模型上,各模型僅有控制頂點的坐標值不同,而相對應的同一物理問題利用IGA仿真得到的數值解中僅有系數不同。由此可以確定圖神經網絡的輸入和輸出,其中輸入包含B樣條模型的控制頂點特征P 和控制頂點間的鄰接信息A,輸出包含數值解對應的系數^u。P 由以下兩個部分組成:一部分是輸入到主網絡的四維頂點特征Pc=[x,y,bd,share],其中x 和y 表示控制頂點的二維坐標,bd 用于標志控制頂點是否在邊界上(值為1則表示該控制頂點是邊界點,為0則不是),share 用于標志控制頂點是否被多片B樣條模型共享(值為1則表示不被共享,為2則表示被兩片B樣條模型共享,以此類推);另一部分是輸入到從網絡中的m 維頂點特征Pc=[u1,u2,…,un],它代表不同的右端項方程在控制頂點對應的系數解。鄰接信息A 由邊的集合表示,是通過控制頂點之間的鄰接關系得到的。本文的方法流程如圖1所示。

2.2 主從圖神經網絡

受深度算子神經網絡(DeepONet)[15]和雙流神經網絡[16]的啟發,本文使用的主從圖神經網絡(MS-GNN)結構(圖2),由主網絡(MasterNetwork)和從網絡(SlaveNetwork)兩個部分的分支網絡組合而成。首先,主網絡和從網絡都分別通過一個3層的多層感知機(MLP)將節點特征映射到高維空間,并利用各自的GNN層提取信息;其次,分別由一個線性映射層映射到同一維度以便后續點乘操作;最后,將經由點乘操作融合后的信息輸入到一個6層的MLP中得到一維輸出,進行系數解的預測。

GNN有著獨特的過平滑現象,受消息傳播機制的影響,隨著網絡深度的加深,節點之間的信息過度傳播,導致深層節點的特征難以區分,從而影響網絡模型的預測能力。因此,在本文使用的主從圖神經網絡結構中,主網絡由點云轉換器神經網絡(PointTransformer)[17] 層和第二代殘差神經網絡(ResnetV2)[18]架構組成的殘差單元堆疊構成,殘差單元結構如圖3所示。

ResNetV2架構將激活函數(ReLU)和批歸一化函數(BN)移到權值層之前,形成預激活的方式,使得信息可以在單元間不受阻礙地進行前向和后向的傳播,從真正意義上實現了恒等映射,幫助深層網絡更有效地利用淺層信息。

作為權值層的PointTransformer起源于點云領域,它在例如語義分割、對象部分分割和對象分類等各種任務中展現出強大的性能。盡管PointTransformer最初是為針對以上特定應用場景設計的,但是經由實驗發現,其功能與PDE求解工作需求高度契合。

一方面,PointTransformer利用基于減法的方法計算自注意力系數,使模型能夠調整輸入特征的各個通道,從而能夠更靈活和自適應地進行特征轉換,并可以有效地捕獲和強調重要的信息,同時抑制不相關或有噪聲的成分。另一方面,PointTransformer的一個顯著特性是它使用坐標位置編碼捕獲數據中的局部結構,使得模型可以同時考慮點與點之間的語義關系以及位置關系。

PointTransformer的輸入是節點特征的矩陣P=[P1,P2,…,Pn]T,Pi∈Rd,其中n 代表節點的數量,d 表示每個節點的特征維度。該層將產生新的節點特征矩陣P'=[P'1,P'2,…,P'n]T,P'i∈Rd',每個節點經由PointTransformer層計算后特征維度為d',PointTransformer層在GNN 中的工作公式、注意系數αi,j和坐標位置編碼δi,j的計算方法如公式(3)至公式(5)所示:

其中:pos 表示點的二維坐標;,hθ和γθ是一個3層的MLP;Pi表示目標節點的特征;Pj包括目標節點及其鄰域節點的特征;權重矩陣W1,W2,W3∈Rd'×d 。

在原始的PointTransformer 中,需要利用K 最臨近(KNN)算法去取得節點的鄰域信息,而在B樣條網格中,控制頂點的鄰接關系天然包含在其中。在本文任務中,我們對PointTransformer進行了改進,采用了GNN形式,可以避免使用KNN算法帶來的額外計算開銷,同時天然且精確的鄰域信息也對提升網絡模型的預測精度起到了促進作用。

由于單獨的主網絡就能夠在PDE預測方面取得優良的效果,因此從網絡主要起到輔助作用。考慮到過平滑現象的影響,過于復雜的網絡設計不僅不能有效地提取信息,而且還會降低模型的泛化能力和增大訓練壓力。因此,從網絡主要通過堆疊較為簡單的GCN[19]層實現其功能。GCN層的節點表達式為

其中:i 表示目標節點,N i( ) 是鄰域節點的集合,j 包括鄰域及目標節點,d(·)表示每個節點的度(包括自環)。

3 實驗及結果分析(Experimentandresultanalysis)

3.1 數據集制作

首先,基于數據增強的思想,研究人員使用偏移、非均勻縮放和旋轉等方法生成一組拓撲一致的B樣條模型,確保在拓撲關系保持一致的前提下,控制頂點坐標發生變化。本研究制作的數據集主要為3種不同拓撲的B樣條模型:洞(hole)、花(flower)和人(human)。

其次,為了防止無界解的出現對神經網絡訓練產生不利影響,需要限制幾何模型的范圍,因此使用公式(7)將B樣條模型的范圍歸一化到[0,1]×[0,1]范圍內。

再次,利用IGA求解程序求解歸一化后的拓撲一致B樣條模型,并得到系數解。為了滿足IGA求解程序的精度要求,需使用均勻h細化方法增大模型的自由度。細化后的模型及其對應的控制網格示例如圖4所示。

最后,將歸一化的B樣條模型和對應系數解轉換成符合GNN輸入和輸出格式的數據。通過將控制頂點作為節點,將控制點之間的連接關系作為邊,就可以很容易地將B樣條模型的控制網格轉換為對應圖結構數據。各種拓撲的B樣條模型數據集將按照8∶1∶1的比例分為訓練集、驗證集和數據集。

本文求解的對象為具有狄利克雷邊界條件的二維泊松方程,并且其邊界解固定為0:

-Δφ" (X ) =f "(X ) , X∈Ωφ "(X ) =0, X∈?Ω (8)

其中:Δ代表拉普拉斯算子,f 是右端項方程,φ 是未知函數,計算域Ω?R2,邊界為?Ω。

在3種不同拓撲的B樣條數據集上求解右端項為f1=100的常數泊松方程,并制作對應數據集,即hole_f1、flower_f1及human_f1。同時,求解右端項為f2=-100π2sin(2πx)的周期性泊松方程,并制作對應數據集,即hole_f2、flower_f2及human_f2。

3.2 評價指標

為了更好地說明網絡預測PDE解的能力,本研究主要使用系數解的絕對誤差、數值解的絕對誤差、數值解的相對誤差和泊松方程的后驗誤差4種評價指標評估訓練后的網絡模型的性能。

系數解的絕對誤差eu 用于衡量方程預測數值解的系數與實際IGA數值解的系數之間的L1誤差,它直接反映了網絡的解預測能力,其公式如下:

其中:^u 是網絡的預測系數解;u 是實際系數解;n 是系數個數,即控制頂點數量。

eu直截了當反映了系數解的誤差,然而對它的預測只是中間步驟。這些解需要通過與B樣條基函數線性組合構成一個整體,以表示整個模型的IGA數值解。因此,需要數值解的絕對誤差eφh 作為評價指標之一,其公式如下:

其中:φh表示實際數值解,φ^h 表示預測數值解;m 表示幾何模型上的采樣點個數,為了兼顧效率和準確性,通常設定的采樣點不低于模型的控制頂點個數。

為了便于評估不同網絡模型的預測性能,本研究還需要利用網絡預測數值解與實際數值解之間的相對誤差er 作為評價網絡模型預測能力的主要評價指標,其公式如下:

為了表明預測數值解是否滿足物理規律,本研究同時采用了泊松方程的后驗誤差ep 作為評價指標之一,其公式如下:

其中,網絡預測數值解相對于物理域X =(x,y)的偏導數,最終將通過雅克比(Jacobi)矩陣進行轉換,成為樣條基函數相對于參數域ζ=(ξ,η)的偏導數。

3.3 訓練設置

考慮到目前求解對象主要是狄利克雷邊界條件下邊界解固定為0的二維泊松方程,計算邊界誤差沒有意義,因此使用適用于狄利克雷邊界條件的損失函數,其公式如下:

其中,s 代表不在邊界上的控制頂點的數量。

此外,本文使用的激活函數均為ReLU激活函數,優化器為Adam,學習率設置為5e-4,batchsize設置為16,epoch設置為600。

3.4 基于GNN與基于CNN的方法對比實驗

為了證明相比CNN,GNN能夠更有效地利用B樣條模型數據,本研究將在相同的數據集上分別用基于CNN 的方法(IGA-Reuse-Net)與本文使用的MS-GNN中的主網絡部分進行對比實驗。

IGA-Reuse-Net采用CNN架構實現分析重用,它建立在UNet3+架構上。UNet3+采用了全尺寸跳躍連接,結合了不同級別的低級語義信息和高級特征,并且利用深度監督從多尺度聚合的特征圖中學習層次表示,彌補了原始UNet架構的局限性。同時,IGA-Reuse-Net結合了交叉自注意力模塊,為每個點的計算提供了全局參考,以增強模型捕捉重要信息的能力。IGA-Reuse-Net在具有復雜邊界的拓撲一致幾何上預測高精度PDE解方面有著出色的表現。

用于對比的主網絡部分架構圖如圖5所示,由于不需要融合來自從網絡部分的信息,因此在單獨的主網絡中,最后直接由一個3層的MLP得到一維輸出,進行系數解的預測。

主網絡與IGA-Reuse-Net在6個數據集上的4個誤差評價指標結果如表1所示。在所有的誤差指標上,主網絡的誤差值均低于IGA-Reuse-Net。在human_f1和human_f2數據集上,主網絡在所有誤差指標上都顯著降低了約50%。對于hole_f1和flower_f1數據集,主網絡仍然表現出優異的性能,其數值解相對誤差分別降低了40.14%和47.48%。然而在面對hole_f2和flower_f2數據集時,主網絡的方程預測解能力受到了一定的限制,但仍然分別實現了19.01%和8.31%的數值解相對誤差降低幅度。

使用CNN處理B樣條模型時,需要將其轉化為二維矩陣的形式,然而這一過程并不是很自然,為了方便卷積神經網絡的計算,原始精確的數據需要進行舍入,在映射到二維矩陣的過程中,必然伴隨著精度損失。與此同時,二維矩陣上也包含一堆無意義的點,這些點在卷積的過程中也會參與到計算之中,不僅影響了卷積計算的效率,而且還進一步影響了網絡模型的預測能力。

然而,將B樣條模型的控制頂點視作節點、控制頂點的鄰接關系視作邊進行轉換的圖結構數據是精確的,不會伴隨信息損失,同時也不會引入無用的計算點。此外,B樣條基函數具有很強的局部支撐性,鄰近的控制點對于中心控制點的影響程度更大,這與GNN的基于鄰域的消息傳遞機制非常適配。因此,利用基于GNN的主網絡對一組拓撲一致的B樣條模型進行重用分析能取得比基于CNN方法更好的結果。

3.5 主從圖神經網絡與主網絡對比實驗

雖然目前單獨的主網絡已能在一組拓撲一致的B樣條模型上取得較好的預測求解效果,但是在部分數據集上,如flower_f2和human_f2,其數值解的相對誤差仍較大,這主要是模型的拓撲結構較為復雜且求解的右端項方程難度更大導致的。

因此,為了提升模型的預測能力,研究人員在主網絡架構的基礎上額外附加了一個輸入為多個仿真問題系數解的從網絡,旨在學習物理方程控制的系統行為,提升解的預測能力。為了更清楚地說明問題,在本節實驗中制作了右端項為f3=-100π2sin(2xy)的更為復雜的周期性泊松方程對應的數據集,即hole_f3、flower_f3和human_f3。

為了說明主從網絡的有效性及通用性,本研究從兩個方面進行對比實驗:一方面比較同一拓撲下對于不同右端項的泊松方程解的預測能力,另一方面比較同一右端項下不同拓撲的求解情況。

根據主從網絡的結構,從網絡中輸入的右端項對應的泊松方程系數解,需要與待求解右端項對應的泊松方程系數解不同,防止數據污染。以本文制作的數據集為例,當待求解的是右端項為f1的泊松方程時,從網絡將輸入右端項為f2和f3的泊松方程的系數解;當待求解的是右端項為f2的泊松方程時,從網絡將輸入右端項為f1和f3的泊松方程的系數解;當待求解的是右端項為f3的泊松方程時,從網絡將輸入右端項為f1和f2的泊松方程的系數解。

首先,比較形狀為human的B樣條模型,分別求解3個不同的泊松方程的結果誤差,human模型上主網絡與主從圖神經網絡結果對比如表2所示。其次,將結果進行可視化,human模型上主網絡與主從圖神經網絡數值解誤差可視化如圖6所示。圖6中的每個子圖從左往右依次為主網絡和主從網絡的數值解絕對誤差圖,以及主網絡和主從網絡的數值解相對誤差圖,其中深色部分代表誤差較大的區域,淺色部分代表誤差較小的區域。

表2中的誤差數據表明,在human形狀的B樣條模型上,從網絡的加入使得各個誤差指標有了不同程度的降低。以數值解的相對誤差為主要分析對象發現,在human_f1、human_f2和human_f3 數據集上,數值解的相對誤差分別降低了11.89%、31.01%和36.55%,說明主從圖神經網絡對于不同右端項數據集有著較強的泛化能力。其中,兩個周期性右端項的降低幅度明顯大于常數右端項。這是因為在周期性右端項對應的泊松方程數值解中,會有一部分解從極大值到極小值的跳變區域,這部分區域的解預測難度較大,而從網絡的加入使得神經網絡能在一定程度上學習到這部分跳變的變化規律,從而提升了預測精度。相比之下,其他解正常變化的區域預測難度相對較小,因此預測精度的提升幅度不大。

表2中的數據結果與圖6的可視化結果相互印證。在相對誤差圖中,淺色區域代表求解較準確的區域;而誤差主要集中于深色區域,即解發生跳變的區域。主從網絡的相對誤差圖中深色區域明顯較少,證明從網絡的加入使得神經網絡能夠學習到解變化的規律。

本研究同時做了右端項為f2時,在3種拓撲B樣條上主從圖神經網絡與單獨的主網絡的對比實驗,得到了在hole_f2、flower_f2和human_f23個數據集上的誤差結果(表3)。

在hole_f2 數據集上,數值解相對誤差的降低幅度為32.65%,即使在相對復雜的flower模型和human模型對應的flower_f2和human_f2數據集上,誤差依然有著33.06%和31.01%的降低幅度,說明主從圖神經網絡的加入對PDE方程解的預測精度有著巨大的提升,同時在不同拓撲B樣條模型上也有較好的通用性。

右端項為f2時主網絡與主從圖神經網絡數值解誤差可視化如圖7所示。圖7中的每個子圖從左往右分別是主網絡和主從網絡的數值解絕對誤差圖,以及主網絡和主從網絡的數值解相對誤差圖。正如之前所分析的,在這3個數據集當中,解發生跳變導致的誤差較大的深色區域在主從網絡的數值解相對誤差圖中明顯較少,說明從網絡對于物理方程解變化規律的學習在不同的拓撲形狀上具有通用性。定量分析與定性分析結果相互印證,為我們提供了一個更為清晰、直觀的理解主從網絡有效處理不同拓撲B樣條模型并提升預測能力的方式。

4 結論(Conclusion)

對于處于同一仿真條件但幾何區域實時變化的復雜求解任務,傳統的求解PDE 的方法無法很好地適配,同時基于CNN的智能重用仿真方法也受到CNN對數據格式的限制。因此,本文提出了一個基于主從圖神經網絡的拓撲一致模型等幾何分析重用方法。它能充分利用B樣條數據格式,并使網絡架構中附加的從網絡能有效地學習解變化的規律,從而提升求解精度。與基于CNN方法的對比實驗以及對于不同拓撲和不同右端項的對比實驗結果,都說明了本文方法能夠高效且精確地在一組拓撲一致且具有復雜邊界的B樣條模型上取得光滑連續的數值解。然而,目前主要求解對象為二維平面的泊松方程,如何拓展至更通用的PDE形式是一個值得考慮的問題。同時,目前本文方法主要基于數據驅動方式訓練網絡模型,制作數據集成本較高,因此如何將無監督訓練的方式與本文方法結合也值得進一步探討。

參考文獻(References)

[1]中國計算機學會學術工作委員會.中國計算機科學技術發展報告2005[M].北京:清華大學出版社,2006.

[2]HUGHESTJR,COTTRELLJA,BAZILEVSY.Isogeometricanalysis:CAD,finiteelements,NURBS,exactgeometryandmeshrefinement[J].Computermethodsinappliedmechanicsandengineering,2005,194(39/40/41):4135-4195.

[3]RAISSIM,PERDIKARISP,KARNIADAKISGE.Physicsinformedneuralnetworks:adeeplearningframeworkforsolvingforwardandinverseproblemsinvolvingnonlinearpartialdifferentialequations[J].Journalofcomputationalphysics,2019,378:686-707.

[4]HENNIGHO,NARASIMHANS,NABIANMA,etal.NVIDIASimNetTM:anAI-acceleratedmulti-physicssimulationframework [M]∥ComputationalScience-ICCS2021.Cham:SpringerInternationalPublishing,2021:447-461.

[5]LU L,MENG X H,MAOZP,etal.DeepXDE:adeeplearninglibraryforsolvingdifferentialequations[J].SIAMreview,2021,63(1):208-228.

[6]ZHUYH,ZABARASN,KOUTSOURELAKISPS,etal.Physics-constraineddeeplearningforhigh-dimensionalsurrogatemodelinganduncertaintyquantificationwithoutlabeleddata[J].Journalofcomputationalphysics,2019,394:56-81.

[7]RAO CP,REN P,LIU Y,etal.DiscoveringnonlinearPDEsfromscarcedatawithphysics-encodedlearning[DB/OL].(2022-01-28)[2024-05-23].https:∥arxiv.org/abs/2201.12354v1.

[8]GAOH,ZAHRMJ,WANGJX.Physics-informedgraphneuralGalerkinnetworks:aunifiedframeworkforsolvingPDE-governedforwardandinverseproblems[J].Computermethodsin applied mechanics and engineering,2022,390:114502.

[9]BELBUTE-PERESFDA,ECONOMONTD,KOLTERJZ,etal.Combiningdifferentiablepdesolversandgraphneuralnetworksforfluidflowprediction[C]∥PMLR.Proceedingsofthe37thInternationalConferenceonMachineLearning.Vienna:PMLR,2020:2402-2411.

[10]THUEREYN,WEI?ENOW K,PRANTLL,etal.Deeplearning methodsfor Reynolds-averaged navier-stokessimulationsofairfoilflows[J].AIAAjournal,2020,58 (1):25-36.

[11]RONNEBERGERO,FISCHERP,BROXT.U-net:convolutionalnetworksforbiomedicalimagesegmentation[C]∥Springer.ProceedingsofMedicalImageComputingandComputer-AssistedIntervention-MICCAI2015.Munich:Springer,2015:234-241.

[12]XUG,KWOKTH,WANGCCL.Isogeometriccomputationreusemethodforcomplexobjectswithtopologyconsistentvolumetricparameterization[J].Computeraideddesign,2017,91:1-13.

[13]WANGDD,XUJL,GAOF,etal.IGA-reuse-NET:adeep-learning-basedisogeometricanalysis-reuseapproachwithtopology-consistentparameterizationimage1[J].Computeraidedgeometricdesign,2022,95:102087.

[14]HUANGH M,LINLF,TONGRF,etal.Unet3+:Afull-scaleconnectedunetformedicalimagesegmentation [C]∥IEEE.ProceedingsofICASSP2020—2020IEEEInternationalConferenceonAcoustics,SpeechandSignalProcessing(ICASSP).Barcelona:IEEE,2020:1055-1059.

[15]LUL,JINPZ,KARNIADAKISGE.Deeponet:learningnonlinearoperatorsforidentifyingdifferentialequationsbasedontheuniversalapproximationtheoremofoperators [DB/OL].(2020-04-15)[2024-05-23].https:∥arxiv.org/abs/1910.03193.

[16]SIMONYANK,ZISSERMANA.Two-streamconvolutionalnetworksforactionrecognitioninvideos[J].Advancesinneuralinformationprocessingsystems,2014,27:18-28.

[17]ZHAO HS,JIANGL,JIAJY,etal.Pointtransformer [DB/OL].(2020-12-16)[2024-05-23].https:∥arxiv.org/abs/2012.09164v2.

[18]HEKM,ZHANGXY,RENSQ,etal.Identitymappingsindeepresidualnetworks[M]∥ComputerVision-ECCV2016.Cham:SpringerInternationalPublishing,2016:630-645.

[19]KIPFTN,WELLING M.Semi-supervisedclassificationwithgraphconvolutionalnetworks[DB/OL].(2016-09-09)[2024-05-23].https:∥arxiv.org/abs/1609.02907v4.

作者簡介:

鐘維真(1999-),男(漢族),紹興,碩士生。研究領域:深度學習,圖神經網絡,等幾何分析,智能仿真。

許金蘭(1987-),女(漢族),洛陽,副教授,博士。研究領域:計算機輔助幾何設計,計算機圖形學,等幾何分析。本文通信作者。

主站蜘蛛池模板: 香蕉精品在线| 日本午夜视频在线观看| 亚洲无码37.| 国产在线观看91精品亚瑟| 永久免费AⅤ无码网站在线观看| 亚洲天堂视频在线免费观看| 天堂亚洲网| 蜜臀av性久久久久蜜臀aⅴ麻豆 | 毛片最新网址| 日韩毛片在线视频| 在线免费看黄的网站| 国产成人精品2021欧美日韩| 亚洲视频无码| 伊人AV天堂| 中文国产成人精品久久| 热热久久狠狠偷偷色男同 | 国产精品福利导航| 91人妻在线视频| 高清免费毛片| 久久人搡人人玩人妻精品| 成人国产精品视频频| 人妻无码中文字幕第一区| 国产一区二区免费播放| 亚洲aaa视频| 精品福利一区二区免费视频| 丝袜国产一区| 狠狠综合久久| 香蕉久久国产超碰青草| 国产sm重味一区二区三区| 日韩麻豆小视频| a在线亚洲男人的天堂试看| 精品国产免费观看一区| 久久香蕉国产线看观看式| 极品性荡少妇一区二区色欲| 精品一区二区三区视频免费观看| 一区二区三区四区精品视频 | 国产精彩视频在线观看| 亚洲日韩Av中文字幕无码| 国产网友愉拍精品| 亚洲小视频网站| 色悠久久综合| 久草青青在线视频| 99久久免费精品特色大片| 亚洲人成高清| 中文字幕永久在线看| 日韩欧美视频第一区在线观看| 91美女视频在线| 风韵丰满熟妇啪啪区老熟熟女| 亚洲人成色在线观看| 中文精品久久久久国产网址| 国产男人天堂| 欧美色综合网站| 亚洲一区二区三区中文字幕5566| 91成人免费观看| 亚洲男人天堂网址| 日本爱爱精品一区二区| 日本精品视频| 欧美国产三级| 91久久性奴调教国产免费| 亚洲福利一区二区三区| 亚洲无码高清视频在线观看 | 国产成人永久免费视频| 国产精品制服| 国产高清国内精品福利| 无码内射中文字幕岛国片| 国产成人精品综合| 日韩久草视频| 国产免费久久精品99re丫丫一| 国产日韩精品欧美一区喷| 亚洲精品777| 538精品在线观看| 国产亚洲欧美在线专区| 欧美日韩国产在线播放| 国产乱人视频免费观看| 性喷潮久久久久久久久| 青青极品在线| 美女被躁出白浆视频播放| 日韩a级毛片| 欧美日韩激情在线| 好紧太爽了视频免费无码| 日本高清成本人视频一区| 亚洲精品高清视频|