999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

面向三維人臉重建的自編碼體素網絡研究

2020-11-11 08:02:58董俊呈左旺孟
智能計算機與應用 2020年6期
關鍵詞:特征模型

董俊呈, 左旺孟

(哈爾濱工業大學 計算機科學與技術學院, 哈爾濱150001)

0 引 言

本文主要研究單幅人臉圖像的三維重建問題,基于VRN 論文的相關方法和技術,完成面部照片三維重建任務的端到端的神經網絡。 本文首先驗證了現有各種三維重建方案的效果、性能和可行性,同時對3DMM 和VRN 進行復現并驗證效果;其次,驗證基本無誤,并且復現效果達到baseline 水平后對VRN 的模型結構,損失函數和引導項這三個方向進行了改進。

1 對現有工作的復現和驗證

1.1 三維可變形模板(3DMM)

本文實現了傳統的3DMM 重建方法,用蒙特卡洛法對輸入進行擬合,在適當的初始化條件下可以得到不錯的效果。

代碼實現的操作大體如下:

a.讀取BFM 數據集,經PCA 后構建特征值和特征向量,目標是計算擬合所對應的的各個特征值系數。

b. 對于任意一個要擬合的人臉,檢測36,39,42,45,31,33,35,48,54,51,57 號特征點,計算在齊次坐標系下經過平移,水平拉伸和豎直拉伸后得到的與原圖對應特征點的MSE 距離最小的情況作為初始化,如圖1 所示。

圖1 通過人臉特征點進行初始化Fig. 1 Initialization by face landmark

c.如圖2 所示,調用蒙特卡洛算法,以顏色直方圖的MSE 距離作為優化目標,對三維人? 臉的特征向量系數進行優化。 如果擬合中誤差小于設定的最小閾值,則可以提前結束;如果誤差大于設定的最大閾值,則認為模型已經偏離梯度下降方向,結束擬合過程,返回-1;否則,算法進行2 000 次后停止,返回當前的最好結果。

如果初始化得當,最終可以取得較好的擬合結果,如圖3 所示。

圖2 蒙特卡洛算法進行擬合過程Fig. 2 The fitting process with Monte Carlo

圖3 傳統3DMM 擬合結果Fig. 3 The result of the traditional 3DMM fitting

利用蒙特卡洛方法對三維人臉進行擬合偽代碼如下:

算法1利用蒙特卡洛方法對三維人臉進行擬合

輸入:待擬合三維人臉特征向量系數矩陣G,輸入RGB 圖片I,蒙特卡洛步長l

輸出:擬合結果人臉特征向量系數矩陣

1.function MontFit(G, I, l):

2. for i in range(2000):

3. if MSE(Z(P(G)),Z(I)) >ThresholdMax:

4. return -1

5. end if

6. if MSE(Z(P(G)),Z(I))<ThresholdMin:

7. return G

8. end if

9. L←{for i in range(20), MontStep(G,l)} + {G}

10. temp L←{for i in range(20), MSE(Z(P(L[i])), Z(I))}

11. G←L[minIndex(tempL)]

12. end for

13.return G

1.2 自編碼體素網絡(VRN)

VRN 是一個端到端的神經網絡,輸入是一張三通道RGB 或灰度的任意姿態,任意光照,任意表情,允許遮擋的人臉照片,輸出是一個三維人臉的體素表示[1],即一個192×192×200 的三維矩陣,其中數字“1”代表該位置有一個體素立方體,“0”則代表沒有,這個三維人臉向Z軸的垂直投影應該與輸入人臉對齊。 需要注意的是,由于姿態變化,人臉(尤其是鼻子導致的)會有自遮擋問題,因此這個體元表示與簡單輸出一張深度圖是有區別的。

本文將VRN release 的MATLAB 代碼重寫成了pytorch 代碼,完成了training 和testing 的工作,并用原文所列出的訓練集對模型進行了訓練并達到了baseline,在原文中提供的測試集 Florence 和AFLW2000-3D 上均達到了原文的水平,同時對文中用于比較VRN 性能的重建方法EOS 和3DDFA在對應數據集上進行了驗證,與VRN 提供的數據基本一致,本文復現VRN 的可視化結果如圖4 所示。

圖4 VRN 復現的可視化結果Fig. 4 Visualization results of VRN reproduction

同時測試了文中用于比較效果的3DDFA 和EOS,證明VRN 的方法是可行的。 圖5 是在AFLW2000-3D 上比較VRN,復現VRN(VRNrepro),EOS 和3DDFA 的NME 損失,圖5(a)是VRN 論文中的結果,圖5(b)是復現的結果;圖6 是在Florence 上比較VRN,復現VRN(VRN-repro),EOS 和3DDFA 的NME 損失,圖6(a)是VRN 論文中的結果,圖6(b)是復現的結果。 本文在各數據集上各個方法的平均NME 損失值如表1 所示。

圖5 AFLW2000 數據集上的結果Fig. 5 The result on AFLW2000

圖6 Florence 數據集上的結果Fig. 6 The result on Florence

表1 在各數據集上各個方法的平均NME 損失Tab. 1 The average NME loss of each method on each data set

2 對自編碼體素網絡的改進

VRN 網絡是一個端到端的,簡潔輕量的模型,但是模型的表達效果仍然沒有達到理想的效果。 因此,本文又訓練了vrn-multitask,來提取人臉特征點的熱度圖,把熱度圖信息和原圖一起輸入到vrnguided 中來優化輸出,確實得到了提升。 但是本文認為VRN 采用的U-Net 結構是可以改進的,嘗試如Fish-Net 這些被證明相同結構下效果更好的網絡[2]。 另外,只有二維的特征點信息并不能最好的起到引導的作用,希望加入pose 等更多的信息來對VRN 進行引導,試著得到更好一些的效果。 VRN 采用的全局的損失本文認為也是有一定不足的,顯然人臉內部的體素權重應當小于靠近邊緣和表面的體素。

2.1 對自編碼體素網絡結構的改進

在VRN 中,本文使用兩個串聯的UNET 端到端訓練了一個輸出體元人臉的網絡,U-Net 使用的“上/下采樣+跳躍連接”的結構,使得其構成的神經網絡具有易收斂、輕量級,深層網絡容易更快的獲取淺層網絡梯度,保留了圖片各個像素的位置信息的優點。 但也存在當多個U-Net 共同工作于同一個模型時,各個U-Net 直接配合較差的問題,據此UNET 被提出后,已經產生了很多基于UNET 結構的其他模型結構,如FishNET 等。

Fish-Net 是對U-Net 的一種改進。 Fish-Net 認為,當多個U-Net 串聯時,單個U-Net 內的對應上采樣和下采樣之間有跳躍連接,但兩個相鄰的UNet 之間的下采樣和上采樣之間沒有跳躍連接,因此兩個U-Net 之間的通路可能會成為梯度傳播的瓶頸;同時Fish-Net 的作者提取了相鄰兩個U-Net對應的下采樣層和上采樣層,發現從語義信息的角度這兩個特征也處于不同的域。 因此Fish-Net 除了將下采樣層和自身對應的上采樣層進行連接,還將每個U-Net 的上采樣層和后面相鄰的一個U-Net的下采樣層做了跳躍連接,使得后面的U-Net 可以更容易的感受到前面U-Net 的梯度。

在Fish-Net 中,有兩種用于上采樣和下采樣的卷積塊,分別是上采樣-重制塊(UR-block)和下采樣-重制塊(DR-block)。 通過在FishNet 中設計的身體和頭部,將尾部和身體各個階段的特征連接到頭部。 Fish-Net 精心設計了頭部中的各層,以使其中沒有I-conv。 頭部中的層是由串聯,具有特征的卷積和池化層組成。 因此,Fish-Net 解決了尾部在軀干網絡前獲得梯度傳播的問題,用到的兩種方法分別是:1)排除頭部的I-conv 和2)在身體和頭部使用串聯。 為了避免像素之間重疊,對于跨度為2的下采樣Fish-Net,將卷積核大小設置為2×2,消融實驗顯示了網絡中不同種類的內核大小對實驗效果的影響。 為了避免I-conv 問題,應避免采用上采樣方法中的加權反卷積,為簡單起見,Fish-Net 選擇最近鄰插值進行上采樣,由于上采樣操作將以較低的分辨率稀釋輸入特征,Fish-Net 在重制模塊中還應用了膨脹卷積,該方法被證明是可行并且確實可以提高UNET 效果的,本文將UNET 替換成FishNET,并對數據結構進行相應的更改并重新訓練,實驗證明在相同參數和模型規模下,不論是AFLW2000 數據集上,表2 所示,還是Florence 數據集上,表3 所示,FishNET 的表現都要優于UNET(圖7)。

另外,本文提出了MR-UNET,如圖8 所示,來對原UNET 進行多尺度條件下的改進,實驗結果表明,在相同的網絡規模和參數量下,Stacked UNET表現不如原UNET,但隨著網絡規模的增加,其準確度依然有很高的上限,且其網絡結構和輸出的特征與FishNET 和UNET 有著較好的契合度。 因此,本文在后面的實驗中也使用該網絡來產生用于引導原網絡的pose 信息。

表2 AFLW2000 上各個模型的參數規模和對應的NME-LOSSTab. 2 The parameter scale and corresponding NME-LOSS of each model on AFLW2000

表3 Florence 上各個模型的參數規模和對應的NME-LOSSTab. 3 The parameter scale and corresponding NME-LOSS of each model on Florence

MR-Net 全程端到端訓練模型,使用RMSProp方式。 首先關閉所有上下采樣通路,使模型中只有主干網絡(第一行)處于工作狀態,初始化學習率,每40 個epoch 后學習率衰減為之前的0.1。 在訓練中對數據進行一系列增強操作:輸入圖片被施加一個XOY 平面的旋轉,旋轉處于{-45,…,45}之間的整數,然后被施加一個隨機的平移操作,平移距離是{-15,…,15}之間的整數像素,然后被施加一個縮放,由于盡量不使面不變形過于明顯,以及方便groundtruth 的z 方向,可以根據輸入圖片的變化產生對應變化,本文中的縮放均使用等比例縮放,這樣groundtruth 的三維數據可以直接按照相同的比例進行縮放,隨機縮放比例處于1-{-0.15,…,0.15}之間,隨機選取20%的樣本做水平翻轉,最后輸入數圖片在RGB 三個通道分別做等比例的隨機亮度調整,調整范圍在{0.6,…,1.4}之間。 同時,作為對應的三維人臉也要做同樣的變換,與輸入的RGB 圖片保持對齊。

圖7 FishNET 與UNET 的參數規模和NME-LOSS 關系的比較Fig. 7 Comparison of FishNET and UNET parameter scale and NME-LOSS relationship

圖8 MR-UNET 的網絡結構Fig. 8 MR-UNET network structure

在主網絡訓練至LOSS 不再下降,打開對應通道,使第二行的網絡加入訓練,訓練參數相較于第一行訓練參數均減少為原先的一半,訓練至LOSS 不再下降;同樣在模型的LOSS 穩定且不再下降后,打開對應通路將第三行的網絡加入模型,訓練方式仿照第一二行的情況,同樣需注意第三行和前兩行的數據應保持等比例情況下的一致,且groundtruth 的三維人臉應做對應的變換來與輸入圖像保持對齊。

同樣在模型的LOSS 穩定且不再下降后,打開對應通路將第三行的網絡加入模型,訓練方式仿照第二行的情況,同樣需注意第三行和前兩行的數據應保持等比例情況下的一致,且groundtruth 的三維人臉應做對應的變換來與輸入圖像保持對齊。

本文對MR-UNET 與UNET 的參數規模和NME-LOSS 關系的比較,結果如表4 所示。 可見MR-UNET 在單幅人臉圖像三維重建任務上達到了最低的NME-LOSS。

表4 MR-UNET 與UNET 的參數規模和NME-LOSS 關系的比較Tab. 4 Comparison of the parameter scale of MR-UNET and UNET and the relationship between NME-LOSS

2.3 對自編碼體素網絡引導項的研究

簡單的兩個串聯的UNET 模型表達能力有限,因此又訓練了一個vrn-multitask 用于輸出人臉特征點的熱度圖,模型結構如圖9 所示。 將這個熱度圖與原輸入連接到一起,輸入網絡進行重建,讓這個特征點的熱度圖對原模型進行引導,稱為vrn-guided,網絡結構如圖10 所示。

圖9 VRN-multitask 的網絡結構Fig. 9 VRN-multitask network structure

圖10 VRN-guided 的網絡結構Fig. 10 VRN-guided network structure

在vrn-duided 中,首先訓練了一個叉狀網,如圖9 所示。 輸入圖片進入一個U-Net 后,輸出的特征被分為兩份,分別輸入到兩個單獨的U-Net 中,上半部分用于預測輸入人臉的熱度圖,下半部分用于預測三維重建結果,其中面部特征點熱度圖和三維體素人臉的損失同時能影響到左邊第一個U-Net 的參數學習,vrn 原文中稱這個網絡為vrn-multitask,這個模型可以同時預測輸入圖片中人臉的特征點概率分布熱度圖和重建體素三維模型。 從模型角度來看,vrnmultitask 的左下半部分(去除第二列最上面的一個U-Net)與vrn-unguided 模型結構一致。

提取vrn-multitask 的左上半部分的熱度圖提取網絡。 首先將RGB 人臉圖片輸入該網絡,得到192×192×68 的面部特征點熱度圖矩陣,將其和輸入圖片的192×192×3 的矩陣連接,這一步要確定兩者維度的對齊,一起輸入到重建網絡中進行重建,這個流程的模型就是vrn-guided,結構如圖10 所示。

本文認為二維的特征點的熱度圖并不能最好的對模型進行引導,原圖中很多信息并沒有被包含進去:如姿態、光照等信息。 因此,希望能訓練一個網絡對姿態等信息進行預測,并與特征點信息一起對原模型進行引導,嘗試達到比VRN 更好的效果。

2.3.1 面部特征點信息用于引導

在VRN 原文中,本文使用了一個另外的網絡用于面部特征點的檢測, 將檢測結果轉化為192x192x68 的熱度圖與vrn-unguided 連接后再輸入到UNET 中,用于引導三維重建過程,本文首先復現了該工作并達到了baseline,復現結果的NMELOSS,如表5 所示。

表5 VRN-guided 復現結果的NME-LOSSTab. 5 NME-LOSS of the VRN-guided reproduction

本文認為就人臉特征點的表達來說,使用熱度圖并不是唯一且最好的方法。 通過面部特征點提取的神經網絡獲得人能理解的面部特征點的熱度圖,再從熱度圖轉化為機器能理解的神經網絡特征,經歷了兩次不同domain 的翻譯過程,這個翻譯的過程可能導致一些信息的損失和網絡訓練難度增加。 因此,本文在LFPW, HELEN, AFW, AFLW 等數據集上訓練了一個以UNET 為基本結構的面部特征點檢測網絡,在IBUG 和MUG 數據集上測試達到dlib 的標準化MSE 誤差,將倒數第二層的特征提取代替原先的特征點熱度圖進行引導。

希望倒數第二層的特征更好地起到引導重建的作用,本文首先將預測特征點網絡和三維重建網絡分別訓練作為初始化,打開連接兩個網絡的通道一起訓練,重復上面的兩個步驟幾次以后,得到最終結果,模型結構如圖11 所示。

圖11 模型結構Fig. 11 The model structure

最終保持了面部特征點檢測的準確性,達到了dlib 相當的baseline,同時得到了比使用特征點熱度圖更高的結果,如圖12 所示。 圖12(a)是在AFLW2000上的結果,圖12(b)是在Florence 上的結果。

圖12 特征點信息引導方法與VRN 的比較Fig. 12 Comparison of vrn and method with feature point information guidance

2.3.2 面部姿態信息用于引導

同時本文發現MR-UNET 在面部姿態預測有著很好的表現,因此本文參考面部特征點信息用于引導的方法,將MR-UNET 的倒數第二層特征用于補充引導VRN-guided,最終在原基礎上得到了更好的效果。 圖13(a)是在AFLW2000 上的結果,圖13(b)是在Florence 上的結果。

首先單獨訓練MR-UNET 和VRN-guided 作為初始化,然后將兩個網絡連接起來同時訓練,重復這兩個步驟若干次直到重建損失不再下降。

2.4 對自編碼體素網絡損失函數的研究

在VRN 的原文中,使用了一個全局的交叉熵損失函數作為網絡的LOSS 進行訓練,式(1):

圖13 姿態信息引導的方法與vrn 的比較Fig. 13 Comparison of vrn and method with pose information guidance

近期在目標檢測領域Focal-Loss 被提出,用于優化交叉熵損失函數[3]。 目標檢測通常被分成兩階段和一階段兩種算法,前者的代表是Faster RCNN,這類算法準確率高但執行效率低,雖然可以通過減少proposal 的數量或者降低輸入圖像的分辨率等方式來進行提速,但實際上治標不治本,速度并沒有質的提升;后者的代表是yolo,這種直接回歸的檢測算法效率高,但準確度低。 經過實驗研究表明單階段的算法不如兩階段的算法準確度高是因為樣本類別不均勻,在目標檢測中,成千上萬個候選位置中只有少部分是正樣本,導致樣本不均衡,這使負樣本占據了總LOSS的大部分,而且大多數都是簡單樣本,導致了模型優化偏離了預期,之前的OHEM 方法也試圖解決樣本不均勻的情況,但是它雖然增加了分錯的樣本的權重,卻忽略了容易分類的樣本。 針對這個問題,本文提出了focal loss,通過減少易分類樣本的權重使得模型在訓練時能夠更加專注于難分類的樣本,同時在原文中還訓練了一個retinaNet 來證明focal loss 是有效的。 實驗結果表明retinaNet 即具有單階段檢測器的速度,又擁有兩階段檢測器的準確度。

按照Focal Loss 的思想,全局形式的交叉熵損失未必是最好的損失函數表達,因為正負樣本都被賦予了同樣的權重。 而在體素模型下,本文統計得到三維空間中負樣本(空塊)與正樣本(體元塊)的比值大約為3:1,希望模型把更多注意力放在正樣本上,也就是那些體元塊上。 因此,本文提出Focal Loss 來解決這個問題,其表達式(2)如下:

其 中,α和γ是 超 參 數。 本 文 測 試 了AFLW2000 和Florence 數據集下,不同α和γ下的VRN 的NME-LOSS,結果如表6 和表7 所示。

表6 AFLW2000 下的結果Tab. 6 Result on AFLW2000

表7 Florence 下的結果Tab. 7 Result on Florence

實驗證明:α =0.5,γ =2.0 時,模型的重建效果最好。

3 結束語

本文首先討論了基于單幅圖像的三維人臉重構的研究背景、意義、和幾種主流方法,包括傳統的基于貝葉斯統計學習建模,使用馬爾科夫-Metropolis算法優化的方法和以VRN 和3DDFA 為代表的利用卷積神經網絡的深度學習模型,逐一討論了這些方法的優缺點和適用的條件及范圍。 復現了傳統的基于統計學習的重建方法,并給出了實驗結果,比較了這些結果和幾種其他的已有方法的效果優劣。 另外,也復現了VRN 的有引導項和無引導向的兩個版本,訓練達到了原文的baseline,驗證了VRN 算法的有效性,為接下來對VRN 算法的改進奠定了基礎。

本文從3 個方向對VRN 算法進行了改進。 本文對體素重建網絡使用的U-Net 結構和性能進行了描述,并分析了其優點和缺點;針對其缺點,介紹了Fish-Net 模型,并根據其思想對體素重建網絡進行了修改和優化,給出了實驗對比結果,證明了在同等參數規模下改進后的模型表現得更好;同時,本文提出了MR-Net模型,在多尺度下對VRN 進行優化,實驗表明MR-Net在多尺度下對VRN 的改進是有效的;本文就帶有引導項的體素重建網絡進行了討論,研究了帶有引導項的重建網絡效果優于不帶有引導項的重建網絡的原因,分析了利用人臉特征點熱度圖引導的優勢和不足,進而構建了一個由串聯U-Net 構成的面部特征點檢測網絡,使用網絡的特征對體素重建網絡進行引導,實驗測試證明這種改進較直接用特征點熱度圖的方式引導更加合理,并且得到了更好的結果;本文還嘗試了使用MR-Net 對姿態進行預測,用姿態預測網絡的倒數第二層對重建網絡進行引導,實驗證明這種改進同樣是有效的,相比VRN-Guided 得到了更好的結果;最后,本文對體素重建網絡的損失函數進行了討論和改進,敘述了VRN 的損失函數的推導方法,說明了其本質上是一種交叉熵損失函數及其原理,介紹了Focal Loss,并借助Focal Loss 的思想對這種交叉熵損失函數進行了改進,并給出了實驗的對比結果,結果表明本文提出的非全局方式的Loss 形式相比與原文的全局形式在同等條件下有更好的表現。

猜你喜歡
特征模型
一半模型
抓住特征巧觀察
重要模型『一線三等角』
新型冠狀病毒及其流行病學特征認識
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: 91美女视频在线| 亚洲男人天堂网址| 欧美成一级| 国产成人一级| 久久国产毛片| 999福利激情视频| yjizz视频最新网站在线| 国产精品第| 99激情网| 99re热精品视频中文字幕不卡| 亚洲免费三区| 精品视频第一页| 91精品国产麻豆国产自产在线| 好久久免费视频高清| 亚洲精品天堂在线观看| www.亚洲国产| 波多野结衣一级毛片| 精品国产aⅴ一区二区三区| 又爽又大又黄a级毛片在线视频| 无码内射中文字幕岛国片| 日本a∨在线观看| 一个色综合久久| 国产一区二区三区在线观看视频| 日韩欧美中文字幕在线精品| 四虎国产成人免费观看| 国产精品理论片| 九九久久精品国产av片囯产区| 亚洲 欧美 日韩综合一区| 欧美日韩国产精品va| 免费国产不卡午夜福在线观看| 国产福利微拍精品一区二区| 免费国产在线精品一区| 久久人妻xunleige无码| 国产熟女一级毛片| 一区二区无码在线视频| 午夜视频在线观看区二区| 亚洲天堂免费| 久久semm亚洲国产| 国产成人免费| 亚洲精品制服丝袜二区| 久久国产精品无码hdav| 在线观看国产一区二区三区99| 国产综合网站| 国内精品九九久久久精品| 狠狠躁天天躁夜夜躁婷婷| 国产小视频在线高清播放| 伊人久久大香线蕉aⅴ色| 成人91在线| 亚洲欧美天堂网| 免费国产福利| 中文字幕久久波多野结衣| 亚洲第一区欧美国产综合 | 欧美亚洲欧美| 2021精品国产自在现线看| 欧美精品在线免费| 国产精品手机在线观看你懂的| 国产无码高清视频不卡| 亚洲国产成人无码AV在线影院L| 国产爽妇精品| 中文字幕第4页| 99色亚洲国产精品11p| 亚洲国产精品VA在线看黑人| 亚洲精品福利网站| 国产av一码二码三码无码| 国产视频一二三区| 亚洲第一视频网站| 精品视频91| 精品少妇人妻av无码久久| 国产成人高清精品免费软件| 色成人综合| 天天综合色网| 国产精品播放| 国产视频一区二区在线观看| 国产亚洲高清视频| 欧美成人影院亚洲综合图| 国产精品无码影视久久久久久久| 国产情侣一区| 亚洲色欲色欲www网| 国产乱子伦精品视频| 亚洲a级毛片| 成人午夜天| 在线观看亚洲人成网站|