999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于隱式描述符的三維模型對應(yīng)關(guān)系計(jì)算

2022-05-14 03:28:36HAYTHEMAlhag
計(jì)算機(jī)工程 2022年5期
關(guān)鍵詞:特征方法模型

HAYTHEM Alhag,楊 軍

(蘭州交通大學(xué)電子與信息工程學(xué)院,蘭州 730070)

0 概述

三維模型具有顯著的幾何信息[1],在三維模型研究初期,學(xué)者們就利用這些顯著的幾何信息來進(jìn)行三維模型分析與處理。現(xiàn)有三維模型對應(yīng)關(guān)系研究是通過基于描述符的方法來完成模型間各部件的準(zhǔn)確對應(yīng)。雖然基于描述符的方法有效利用了豐富的幾何信息,但識別特定模型以及對其進(jìn)行進(jìn)一步分析仍然需要人工干預(yù),從而導(dǎo)致計(jì)算所得到的描述符具有主觀片面性,嚴(yán)重依賴于專家經(jīng)驗(yàn),泛化能力較差。

現(xiàn)有三維模型對應(yīng)關(guān)系計(jì)算方法僅通過幾何信息來進(jìn)行有意義的相似性對應(yīng)計(jì)算,這些算法采用描述符來描述興趣點(diǎn)周圍的局部幾何特征,通過距離度量即可以很容易地進(jìn)行相似度估計(jì)。此外,采用更高級別的描述符(如基于主成分分析和曲率分析的描述符)能夠同時(shí)編碼模型的局部屬性,然而,僅依據(jù)低層次幾何線索計(jì)算出的對應(yīng)關(guān)系準(zhǔn)確率并不理想。

從1987 年開始,機(jī)器學(xué)習(xí)方法就被用來計(jì)算三維模型的特征描述符,直到2006 年,深度學(xué)習(xí)方法開始流行起來,將其應(yīng)用到數(shù)據(jù)驅(qū)動方法中所得到的特征描述符泛化能力較強(qiáng),能夠推廣到不同的任務(wù)場景中,而且不需要人工構(gòu)建特征描述符,具有更好的模型特征表征能力。鑒于深度學(xué)習(xí)在計(jì)算機(jī)視覺領(lǐng)域取得的成功,本文提出一種基于深度學(xué)習(xí)的三維模型對應(yīng)關(guān)系計(jì)算方法。具體地,對文獻(xiàn)[2]中所提的先驗(yàn)知識表達(dá)和應(yīng)用的方式進(jìn)行改進(jìn),通過將三維模型投影為視圖數(shù)據(jù)并進(jìn)行預(yù)分割來標(biāo)記相應(yīng)的模型“部件”,以提高模型的部分對應(yīng)關(guān)系計(jì)算性能,然后采用多視圖卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取。在此基礎(chǔ)上,計(jì)算緊湊的隱含具有較高表面點(diǎn)之間相似性的信息的數(shù)據(jù)驅(qū)動描述符,并利用已構(gòu)建的數(shù)據(jù)驅(qū)動描述符推導(dǎo)出最終的三維模型對應(yīng)關(guān)系。

1 研究現(xiàn)狀

三維模型的部分對應(yīng)關(guān)系計(jì)算問題在計(jì)算機(jī)視覺和計(jì)算機(jī)圖形學(xué)領(lǐng)域均具有重要的研究意義。從傳統(tǒng)意義上來說,模型間對應(yīng)關(guān)系計(jì)算問題是在幾何處理的范疇內(nèi)進(jìn)行研究的[1],與此密切相關(guān)的模型檢索[3]、模型識別[4]以及模型分析處理[5]也是如此。現(xiàn)在的主流三維模型對應(yīng)關(guān)系計(jì)算方法是基于語義驅(qū)動的方法。文獻(xiàn)[6]允許模型之間存在明顯的形變,但由于它們依賴于幾何相似性,因此沒有達(dá)到語義建模的預(yù)期效果,文獻(xiàn)[7]也存在相同的問題。

傳統(tǒng)三維模型分割方法利用幾何特征[8]來識別整體模型的各個(gè)部件[9]。此外,利用固有的表面度量或曲率進(jìn)行聚類的方法也很常見[10]。以上方法主要關(guān)注拓?fù)浣Y(jié)構(gòu)[11],雖然這些方法都能取得令人滿意的分割結(jié)果,但無法完成模型之間的一致性分割任務(wù)[12]。文獻(xiàn)[13]解決了一致性分割問題,但沒有考慮模型在大尺度變化下語義信息不同的情況。文獻(xiàn)[14]在模型的部位處于非均勻拉伸情況下提出一種圖像分割方法。文獻(xiàn)[15]在未進(jìn)行數(shù)據(jù)驅(qū)動的情況下提出將先驗(yàn)知識納入模型分割的方法。文獻(xiàn)[16]提出不需要帶標(biāo)簽分割的高效的模型對應(yīng)關(guān)系計(jì)算方法,其中,對應(yīng)關(guān)系計(jì)算不需要從模型的構(gòu)成部分以及特征值中提取信息。文獻(xiàn)[17-18]通過無監(jiān)督學(xué)習(xí)的方式完成三維模型的對應(yīng)關(guān)系計(jì)算。

本文受到文獻(xiàn)[2]研究內(nèi)容的啟發(fā),并作出如下改進(jìn):

1)文獻(xiàn)[2]通過一致預(yù)分割和標(biāo)記來計(jì)算模型的手工特征描述符,相當(dāng)于在模型表面上分配分割的概率標(biāo)簽,而本文則通過一致預(yù)分割和標(biāo)記相應(yīng)模型部件的豐富視圖特征來計(jì)算得到數(shù)據(jù)驅(qū)動描述符,這樣可以隱式地將語義標(biāo)簽分配給緊湊的數(shù)據(jù)驅(qū)動描述符。

2)文獻(xiàn)[2]所提方法采用一種學(xué)習(xí)的方式來增強(qiáng)算法的特征表示能力,具體地,將訓(xùn)練集中的模型表面進(jìn)行對應(yīng),同時(shí)利用分類器來進(jìn)行學(xué)習(xí),為相關(guān)模型的表面間的幾何類型分配概率標(biāo)簽。上述過程的缺點(diǎn)在于如果目標(biāo)模型不在訓(xùn)練集中,這些模型間的對應(yīng)關(guān)系計(jì)算則無法使用這個(gè)學(xué)習(xí)結(jié)果,同時(shí),如果采用的人工描述符泛化能力較差,那么該方法的有效性會進(jìn)一步降低。因此,本文利用隱式標(biāo)記的數(shù)據(jù)驅(qū)動描述符來指導(dǎo)算法的幾何相似性計(jì)算,并通過在一個(gè)相對大的數(shù)據(jù)集中訓(xùn)練本文網(wǎng)絡(luò)來解決文獻(xiàn)[2]方法所存在的問題。由于初始的非剛性對齊是由語義標(biāo)簽引導(dǎo)的,因此即使在同一標(biāo)簽部分之間存在的任意幾何變形,計(jì)算出的描述符編碼也不會受其影響。

3)在文獻(xiàn)[2]中,幾何相似性在建立三維模型對應(yīng)關(guān)系中起到了重要的作用,只有在建立了模型表面之間的對應(yīng)關(guān)系之后,這些模型的各個(gè)部位才會被賦予相應(yīng)的語義標(biāo)簽。而本文利用深度學(xué)習(xí)網(wǎng)絡(luò)模仿人類計(jì)算先驗(yàn)知識的過程,以此指導(dǎo)對應(yīng)關(guān)系計(jì)算,從而提高三維模型對應(yīng)關(guān)系計(jì)算的準(zhǔn)確率。此外,在現(xiàn)實(shí)世界的場景處理中,研究人員往往會先識別出相關(guān)模型,然后再推導(dǎo)其各部分之間的對應(yīng)關(guān)系。受此啟發(fā),本文首先采用多視圖卷積神經(jīng)網(wǎng)絡(luò)完成三維模型分割,接著用分割的部件進(jìn)行對應(yīng)關(guān)系計(jì)算。

2 三維模型對應(yīng)關(guān)系計(jì)算

2.1 問題定義

本文目標(biāo)是計(jì)算2 個(gè)三維模型之間的有意義的對應(yīng)關(guān)系,如在模型A和B之間,將A模型上的一組表面映射到B模型上的一組相關(guān)面,傳統(tǒng)的低層次特征描述符首先捕捉2 個(gè)模型表面的幾何屬性和上下文信息,然后使用基于描述符相似性的方法得出最終的對應(yīng)關(guān)系。

2.2 語義信息

低層次的特征描述符存在幾何信息不足的問題[1],特別是當(dāng)涉及的模型發(fā)生顯著變化時(shí),此時(shí)需要在學(xué)習(xí)網(wǎng)絡(luò)中模仿人類識別圖像的先驗(yàn)知識。與文獻(xiàn)[2]方法不同,本文的語義先驗(yàn)知識是從一組預(yù)先分割和標(biāo)記的訓(xùn)練集中得到的,每個(gè)模型部分通過一個(gè)分類器模型來表征,其中,每個(gè)分類器模型捕捉屬于同一標(biāo)簽的表面特征。本文使用包含豐富視圖特征的視圖數(shù)據(jù)來計(jì)算圖像分類的先驗(yàn)知識,這些視圖數(shù)據(jù)傳遞了一致的預(yù)分割和標(biāo)記的相應(yīng)模型的部件信息,本文將其輸入到多視圖卷積神經(jīng)網(wǎng)絡(luò)中進(jìn)行特征提取。

本文方法將獲取訓(xùn)練階段和測試階段的所有特征信息,并對其進(jìn)行增強(qiáng),以實(shí)現(xiàn)有意義的模型對應(yīng)關(guān)系計(jì)算。此外,本文在訓(xùn)練階段和測試階段采用不同的數(shù)據(jù)處理方式:

1)在訓(xùn)練階段,本文采用的數(shù)據(jù)是一致的預(yù)分割和標(biāo)記的以三角網(wǎng)格或點(diǎn)云表示的三維模型,將這些數(shù)據(jù)輸入到多視圖卷積神經(jīng)網(wǎng)絡(luò)以提取視圖特征,這些視圖數(shù)據(jù)既傳遞了語義類別信息,也傳遞了幾何結(jié)構(gòu)信息,本文方法使用其中的語義標(biāo)簽來指導(dǎo)訓(xùn)練集模型之間的初始對應(yīng)關(guān)系計(jì)算,然后將相應(yīng)模型部分的視圖輸入到深度學(xué)習(xí)架構(gòu)中,并采用孿生網(wǎng)絡(luò)進(jìn)行訓(xùn)練。但是,如果這個(gè)過程發(fā)生大尺度形變時(shí),會丟失大量幾何信息,因此,本文采用非剛性配準(zhǔn)進(jìn)行輔助計(jì)算,從而提高對應(yīng)關(guān)系計(jì)算的準(zhǔn)確率。

2)在測試階段,本文采用2 個(gè)以三角網(wǎng)格或點(diǎn)云表示的模型。為了進(jìn)行準(zhǔn)確的對應(yīng)關(guān)系計(jì)算,本文使用文獻(xiàn)[17,19]中的2 個(gè)識別架構(gòu)和1 個(gè)融合層,其中,融合層用來決定2 個(gè)輸入模型是否屬于同一類別。從本質(zhì)上來講,本文方法構(gòu)建了基于深度學(xué)習(xí)的三維模型對應(yīng)關(guān)系計(jì)算網(wǎng)絡(luò)架構(gòu),通過訓(xùn)練可以識別語義相關(guān)的模型部件,從而避免了人工設(shè)計(jì)三維模型特征描述符的弊端。

在整體網(wǎng)絡(luò)結(jié)構(gòu)上,本文方法結(jié)合了文獻(xiàn)[20-21]的網(wǎng)絡(luò)架構(gòu):首先對文獻(xiàn)[20]中的多視圖卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)進(jìn)行改進(jìn),利用它來提取更具鑒別力的特征,使得最終的三維模型對應(yīng)關(guān)系計(jì)算結(jié)果更準(zhǔn)確且平滑;然后優(yōu)化文獻(xiàn)[21]中計(jì)算通用描述符的架構(gòu),使其計(jì)算出最適合三維模型對應(yīng)關(guān)系計(jì)算的描述符。

2.3 描述符計(jì)算網(wǎng)絡(luò)架構(gòu)

文獻(xiàn)[21]中通用描述符的計(jì)算網(wǎng)絡(luò)架構(gòu)是建立在經(jīng)過預(yù)訓(xùn)練的CNN 上的,這些CNN 在二維圖像處理領(lǐng)域取得了較大成果。本文對該架構(gòu)進(jìn)行優(yōu)化,如圖1 所示。首先,利用ShapeNetCorel[22]和文獻(xiàn)[2]中的數(shù)據(jù)集模型進(jìn)行一致預(yù)分割和標(biāo)記,并使用標(biāo)簽來指導(dǎo)和初始化非剛性對齊;然后,將表達(dá)語義和幾何信息的對應(yīng)點(diǎn)傳遞給卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取。使用照相機(jī)對三維模型進(jìn)行多方位拍照,以得到三維模型的渲染視圖信息,具體地,使用Phong 照相機(jī)和單一方向光從每個(gè)選定的視點(diǎn)渲染三維模型表面。此外,含有冗余圖像的渲染視圖將被進(jìn)一步修剪,在選定的觀察方向上調(diào)用K-mediods聚類算法來實(shí)現(xiàn)修剪,K設(shè)置為3。通過將視點(diǎn)M設(shè)置為3 來獲取每個(gè)表面點(diǎn)的多尺度上下文及其選定的觀察方向信息,這些視點(diǎn)分別放置在模型的邊界球半徑為0.25、0.50 和0.75 距離處。對相應(yīng)模型的部分設(shè)定4 次旋轉(zhuǎn),每個(gè)點(diǎn)共產(chǎn)生36 幅圖像,所有圖像的分辨率為227×227 像素。

圖1 用于提取模型對應(yīng)關(guān)系描述符的CNN 架構(gòu)Fig.1 CNN architecture for extracting model correspondence descriptor

本文網(wǎng)絡(luò)總體框架與AlexNet[23]類似,但去除了AlexNet 的最后2 個(gè)全連接層。每一個(gè)輸入圖像都要經(jīng)過2 個(gè)卷積層、2 個(gè)池化層和ReLU 非線性激活函數(shù)層的處理,最后是3 個(gè)帶有ReLU 非線性的卷積層、1 個(gè)池化層和1 個(gè)全連接層。

每幅圖像通過識別架構(gòu)提取特征得到一個(gè)4 096 維的特征描述符。為了產(chǎn)生一個(gè)單點(diǎn)特征描述符,本文通過使用最大池化操作來聚合輸入的36 個(gè)渲染視圖中的描述符,該操作選擇了各視圖中最具鑒別力的特征描述符。

2.4 識別網(wǎng)絡(luò)架構(gòu)

文獻(xiàn)[20]基于卷積神經(jīng)網(wǎng)絡(luò),采用預(yù)訓(xùn)練微調(diào)的方法來提高模型的識別準(zhǔn)確率,該方法使用2 種攝像機(jī)設(shè)置用于獲得視圖數(shù)據(jù):第1 種攝像機(jī)設(shè)置中假設(shè)模型是直立,沿中心軸線間隔均勻地放置12 臺虛擬攝像機(jī),然后調(diào)整到與地面成30°,且每個(gè)攝像機(jī)朝向網(wǎng)格的形心,這樣可以獲得12 個(gè)視圖;第2 種攝影機(jī)設(shè)置中假設(shè)沿著模型的豎直方向,將20 個(gè)虛擬攝影機(jī)放置在環(huán)繞該模型的二十面體的20 個(gè)頂點(diǎn)上,使用4 個(gè)旋轉(zhuǎn)角度(0°、90°、180°和270°)來創(chuàng)建80 個(gè)視圖。

如圖2 所示,本文的識別網(wǎng)絡(luò)架構(gòu)首先使用文獻(xiàn)[23]中 的VGG-M 網(wǎng) 絡(luò),該網(wǎng)絡(luò) 由5 個(gè)卷積 層conv1,conv2,…,conv5、3 個(gè) 全連接層fc6,fc7,fc8以及Softmax 分類層組成。該網(wǎng)絡(luò)在ImageNet 圖像上進(jìn)行預(yù)訓(xùn)練,圖像由1 000 個(gè)類別組成,然后在訓(xùn)練集中進(jìn)行微調(diào)。網(wǎng)絡(luò)第1 部分中的所有分支在CNN1中共享參數(shù),并采用1 個(gè)視圖池化層進(jìn)行特征聚合得到一維特征描述符。本文通過添加特征融合層來改進(jìn)網(wǎng)絡(luò)體系結(jié)構(gòu),識別網(wǎng)絡(luò)構(gòu)架的其余層與文獻(xiàn)[20]相同。

圖2 本文識別網(wǎng)絡(luò)構(gòu)架Fig.2 The architecture of the recognition network in this paper

在測試階段,由于本文事先不知道模型間的對應(yīng)關(guān)系,因此通過輸入模型的相關(guān)性特征值來縮小對模型相應(yīng)部分的搜索范圍。

2.5 模型配準(zhǔn)

如圖3 所示,本文使用隱式的描述符來完成最終的三維模型對應(yīng)關(guān)系計(jì)算。

圖3 基于隱式標(biāo)記描述符的對應(yīng)關(guān)系計(jì)算過程Fig.3 Process of correspondence calculation based on implicit marked descriptor

給定一對一致分割并標(biāo)記的模型A和B,首先,本文從其網(wǎng)格表示中抽取10 個(gè)點(diǎn),這些點(diǎn)被分配了相應(yīng)面的部分標(biāo)簽。對于每個(gè)部分,本文為其計(jì)算一個(gè)初始仿射變換,以使其具有相同的定向邊界框,然后對于這些部分的每個(gè)點(diǎn)進(jìn)行一個(gè)平移操作,使其盡可能接近所對應(yīng)的表面,同時(shí)相鄰點(diǎn)的偏移盡可能保持均勻,確保產(chǎn)生的變形是平滑的。為了計(jì)算相鄰點(diǎn)的偏移量,本文將表面變形最小化,同時(shí)設(shè)置正則化項(xiàng)來懲罰2 個(gè)部分點(diǎn)集之間的距離以及相鄰點(diǎn)之間偏移量的不一致,如式(1)所示:

其中:N(a)和N(b)分別是a點(diǎn)和b點(diǎn)的鄰域(在本文中,每個(gè)點(diǎn)使用6 個(gè)最近鄰點(diǎn));dist 為計(jì)算平移點(diǎn)到另一個(gè)點(diǎn)集最接近兼容點(diǎn)的距離的操作;ο()是偏移計(jì)算分別是各自模型上的點(diǎn)集。

可以使用基于ICP 的方法來最小化式(1)。首先在2 個(gè)部分上給定最接近的一對對應(yīng)點(diǎn);然后通過最小化式(1)來計(jì)算偏移量,更新最接近的點(diǎn)對,通過迭代執(zhí)行上述過程來計(jì)算最終的結(jié)果;最后求得的偏移量可用于計(jì)算A和B間的密集對應(yīng)關(guān)系。

2.6 網(wǎng)絡(luò)訓(xùn)練

通過最小化損失函數(shù)[24]來估計(jì)描述符計(jì)算網(wǎng)絡(luò)的參數(shù)。損失函數(shù)對描述符差異較大的對應(yīng)點(diǎn)進(jìn)行懲罰,以防止參數(shù)值任意變大。該損失函數(shù)的計(jì)算公式如下:

其中:C是從基于部分的配準(zhǔn)過程中得出的一組相應(yīng)的點(diǎn)對;D是測量一對輸入描述符之間歐幾里得距離的操作。正則化參數(shù)被稱為權(quán)重衰減,其值設(shè)置為0.000 5,余量m設(shè)置為1,其絕對值不影響參數(shù)的學(xué)習(xí),僅縮放距離,以使非對應(yīng)點(diǎn)對至少留有一個(gè)單位距離的余量。

卷積層的參數(shù)是在ImageNet[25]數(shù)據(jù)集上初始化得到的。由于圖像包含模型以及紋理信息,因此在大量圖像數(shù)據(jù)集上訓(xùn)練的卷積核可以捕獲模型信息。本文采用批量梯度下降法使損失函數(shù)最小化。在每次迭代中,隨機(jī)選擇32 對相應(yīng)的點(diǎn),并且預(yù)先對其進(jìn)行基于部分的配準(zhǔn)計(jì)算。另外,選擇32 對非對應(yīng)點(diǎn),使總批次為64。實(shí)驗(yàn)采用Adam 優(yōu)化算法在每次迭代中更新模型參數(shù),與其他算法相比,Adam具有更快的收斂速度。

3 實(shí)驗(yàn)與結(jié)果分析

將本文方法與文獻(xiàn)[2,26]方法進(jìn)行實(shí)驗(yàn)對比,通過定性和定量對比來驗(yàn)證本文方法在計(jì)算準(zhǔn)確率以及所生成的對應(yīng)關(guān)系結(jié)果質(zhì)量上的優(yōu)越性,其中,文獻(xiàn)[26]方法是目前最新的非等距模型間對應(yīng)關(guān)系計(jì)算方法。實(shí)驗(yàn)的軟件及開發(fā)環(huán)境配置如下:Ubuntu 16.04,RTX 2080TI,CUDA 9.0,cuDNN 7.0,Caffe 深度學(xué)習(xí)框架。

3.1 數(shù)據(jù)集

本文實(shí)驗(yàn)使用3 個(gè)數(shù)據(jù)集,所有數(shù)據(jù)集均已預(yù)先進(jìn)行了分段和標(biāo)注,同時(shí)對應(yīng)關(guān)系的ground-truth都為已知。第1 個(gè)數(shù)據(jù)集采用文獻(xiàn)[2]中的數(shù)據(jù)集,由四類人造模型組成,具有明顯的幾何拓?fù)渥兓瑫r(shí)某些形狀在同一模型上重復(fù)出現(xiàn)多次;第2 個(gè)數(shù)據(jù)集由網(wǎng)格分割基準(zhǔn)[27]中選定的數(shù)據(jù)集組成,本文使用文獻(xiàn)[16]中的方法為這些模型創(chuàng)建分割的標(biāo)簽,數(shù)據(jù)集選擇了具有不同姿勢和較大結(jié)構(gòu)與幾何變化的模型;第3 個(gè)數(shù)據(jù)集使用源自三維模型庫的BHCP 和ShapeNetCore[22]數(shù)據(jù)集。

3.2 結(jié)果分析

圖4 所示為本文方法對應(yīng)關(guān)系計(jì)算可視化結(jié)果。從圖4 可以看出,本文方法的對應(yīng)關(guān)系計(jì)算結(jié)果非常平滑,質(zhì)量較高。

圖4 本文方法的對應(yīng)關(guān)系計(jì)算結(jié)果Fig.4 The calculation results of the correspondence of the method in this paper

模型對應(yīng)關(guān)系計(jì)算結(jié)果的準(zhǔn)確率一般采用測地誤差(Geodesic Error)來度量,即目標(biāo)模型上的點(diǎn)與真實(shí)對應(yīng)點(diǎn)(Ground-truth Correspondence)之間的測地距離與目標(biāo)模型表面積之比。假定點(diǎn)x為源模型X上的一點(diǎn),目標(biāo)模型Y上存在與點(diǎn)x對應(yīng)的點(diǎn)y,(x,y*)為標(biāo)記的真實(shí)對應(yīng)關(guān)系,則定義測地誤差gerr(x)為:

其中:dy(y,y*)為目標(biāo)模型上的點(diǎn)y與標(biāo)記的點(diǎn)y*之間的測地距離;area(Y)為目標(biāo)模型的表面積。測地誤差越小,表明對應(yīng)關(guān)系計(jì)算結(jié)果準(zhǔn)確率越高。

表1 所示為本文方法和文獻(xiàn)[2,26]方法的對應(yīng)關(guān)系測地誤差對比,最優(yōu)結(jié)果加粗表示。從表1 可知,與文獻(xiàn)[2,26]方法相比,本文方法的對應(yīng)關(guān)系計(jì)算測地誤差均有所降低,在各個(gè)類別中可以獲得更為準(zhǔn)確的對應(yīng)關(guān)系結(jié)果。

表1 各方法的測地誤差對比Table 1 Comparison of geodesic errors of various methods

文獻(xiàn)[2]方法是以預(yù)分割標(biāo)注形狀部分的形式傳授先驗(yàn)知識,本文也以預(yù)分割標(biāo)注形狀部分的形式使用先驗(yàn)知識,將本文方法與文獻(xiàn)[2]方法獲得的結(jié)果進(jìn)行對比,在每一個(gè)類別的計(jì)算中,本文方法的測地誤差都有所降低,其中,在Vase 這一類別中誤差降幅最大,達(dá)到0.155,在Οctopus 這一類別中誤差降幅最小,也有0.041,這是由于不同形狀的三角網(wǎng)格質(zhì)量不同,有些形狀邊界畫得更準(zhǔn)確,結(jié)果會較好,而有些形狀邊界不清晰,結(jié)果會較差。

相較文獻(xiàn)[26]方法,本文方法在所有類別上表現(xiàn)均更好,在Lamp 這一類別中,本文方法誤差降幅最大,達(dá)到0.059,在Airplane 這一類別中,本文方法誤差降幅最小,達(dá)到0.004。

4 結(jié)束語

本文提出一種基于隱式描述符來計(jì)算三維模型對應(yīng)關(guān)系的方法。該方法首先在多個(gè)尺度上獲取形狀區(qū)域的多個(gè)渲染視圖,然后通過多視圖卷積神經(jīng)網(wǎng)絡(luò)對其進(jìn)行特征提取以計(jì)算局部形狀描述符,最后對模型中的相應(yīng)形狀部分進(jìn)行非剛性對齊,進(jìn)而獲得準(zhǔn)確的對應(yīng)關(guān)系計(jì)算結(jié)果。實(shí)驗(yàn)結(jié)果驗(yàn)證了該方法的有效性。但是本文研究仍存在下列不足:用于識別輸入模型的多視圖卷積神經(jīng)網(wǎng)絡(luò)存在視圖信息冗余的問題;最初為訓(xùn)練集計(jì)算的對應(yīng)關(guān)系結(jié)果不如人工標(biāo)注的結(jié)果理想;對三維模型進(jìn)行多方位投影時(shí)丟失了其幾何拓?fù)湫畔ⅰ=鉀Q上述問題并提高本文方法的適用性將是下一步的研究方向。

猜你喜歡
特征方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
如何表達(dá)“特征”
不忠誠的四個(gè)特征
抓住特征巧觀察
3D打印中的模型分割與打包
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
主站蜘蛛池模板: 成人综合网址| 漂亮人妻被中出中文字幕久久| 亚洲第一区欧美国产综合| 欧美特黄一免在线观看| 一本久道久综合久久鬼色| 综合色在线| 九九久久99精品| 国产亚洲现在一区二区中文| 午夜不卡视频| 国产精品青青| 2018日日摸夜夜添狠狠躁| 国产日韩精品欧美一区喷| 亚洲色图欧美| 亚洲区欧美区| 欧美激情,国产精品| 日韩精品无码免费一区二区三区| 波多野结衣的av一区二区三区| 92精品国产自产在线观看| 试看120秒男女啪啪免费| 四虎AV麻豆| 激情国产精品一区| 永久毛片在线播| 东京热av无码电影一区二区| 成人综合在线观看| 亚洲成年人网| 999国内精品视频免费| 国产精品2| 成人毛片免费在线观看| 亚洲AV人人澡人人双人| AV片亚洲国产男人的天堂| 久久国产精品嫖妓| 国产精品私拍在线爆乳| 不卡午夜视频| 免费va国产在线观看| 久久五月天国产自| 亚洲欧美自拍视频| 亚洲无码高清视频在线观看 | 国产在线观看精品| 2021精品国产自在现线看| 综合成人国产| 伊在人亚洲香蕉精品播放| 久久青草免费91观看| 99久久精品国产麻豆婷婷| 欧美在线视频不卡| 在线观看免费国产| 国产免费久久精品99re丫丫一| 成人伊人色一区二区三区| 久久久久久久久18禁秘| 国产精品专区第1页| 精品久久777| 免费a级毛片18以上观看精品| 欧美成人精品高清在线下载| 亚洲国产成人麻豆精品| 欧美精品v| 免费观看三级毛片| swag国产精品| 国产美女91视频| 国产成人盗摄精品| 九九这里只有精品视频| 亚洲免费毛片| 99久久免费精品特色大片| 欧美福利在线| 久热这里只有精品6| 青青草国产免费国产| 99视频在线免费看| 国产在线日本| 四虎影视库国产精品一区| 久久久久国色AV免费观看性色| 这里只有精品国产| 91精品国产自产91精品资源| a色毛片免费视频| 亚洲最猛黑人xxxx黑人猛交| 国产欧美日韩一区二区视频在线| 久久人搡人人玩人妻精品| 99精品久久精品| 欧美午夜视频| 亚洲精品黄| 无码专区在线观看| 国产精品亚洲一区二区三区z| 精品伊人久久久久7777人| 全部无卡免费的毛片在线看| 亚洲熟妇AV日韩熟妇在线|