999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于Kinect的三維重建技術綜述*

2017-08-08 03:25:02倪國斌
傳感器與微系統 2017年8期
關鍵詞:深度模型

艾 達, 倪國斌, 王 苗, 楊 珍

(1.西安郵電大學 公安部電子信息勘驗應用技術實驗室,陜西 西安 710121;2.西安郵電大學 通信與信息工程學院,陜西 西安 710121)

?

綜述與評論

基于Kinect的三維重建技術綜述*

艾 達1, 倪國斌2, 王 苗2, 楊 珍2

(1.西安郵電大學 公安部電子信息勘驗應用技術實驗室,陜西 西安 710121;2.西安郵電大學 通信與信息工程學院,陜西 西安 710121)

詳細介紹了三維重建和Kinect工作原理;對現有利用Kinect進行三維重建的技術方法進行了說明,重點對配準過程中的迭代就近點(ICP)算法的相關改進進行分析和比較;并在上述基礎上對Kinect Fusion做了介紹和說明,列舉其最新改進和應用;最后對基于Kinect的三維場景重建的發展趨勢進行了簡單總結和展望。

Kinect; 三維重建; 迭代就近點算法; Kinect Fusion

0 引 言

三維重建是在虛擬環境中處理、分析和操作模型的基礎,同時也是虛擬現實的關鍵技術[1],根據獲取的場景信息的不同可將其分為基于紋理和基于深度的三維重建[2],后者又可分為非接觸式和接觸式,而非接觸式技術又有主、被動掃描之分。常見的飛行時間(time of flight,ToF) 相機、手持激光系統、結構光系統和Kinect深度傳感器等[3]均使用了非接觸式主動掃描技術。Rushmeier H等人[4]將基于深度圖像的三維重建過程分為幾何處理和面的表示。

Kinect由于其成本低廉擁有廣泛的應用潛力而在近兩年備受關注,操作簡單、攜帶輕便的特性使其成為理想的深度數據獲取設備。因此,基于Kinect的三維場景重建技術應運而生。

1 Kinect概述

與普通的攝像機只能獲得一般的彩色圖像不同,Kinect可以不受光照條件影響,同時獲得被測物體的顏色和深度信息。

一代Kinect搭載PS1080芯片[11],通過光編碼技術[12]獲取深度信息。由于Kinect 2.0使用了X871141—001 SoC處理器[13],在第一代光編碼的基礎上,加入了ToF技術[14],通過發射一個強度隨時間周期變化的正弦信號,獲得發射和接收信號的相位差計算深度信息,在傳感器分辨率相同的情況下獲得了更高的精度。

在獲取深度信息的同時,Kinect的彩色攝像頭實時拍攝場景彩色圖像。為了方便后續的紋理映射操作[2],兩個相機產生的視差經過修正,使得兩種目標圖像對齊到相同的位置。

2 基于Kinect的三維重建過程

利用Kinect完成三維場景重建的方法有很多種,基本均由三個主要步驟構成[2]:獲取點云數據并處理、配準及重建與紋理映射。

2.1 三維點云數據獲取與處理

Kinect獲得深度圖像后將深度數據轉化為點云。需要注意的是,后續的三維模型重建精度會因為Kinect獲取的大量點云數據,尤其是邊緣處的不穩定噪聲點,而受到嚴重影響。為了在去除深度噪聲點的同時充分保留邊緣信息,還需對獲得的數據進行濾波等預處理。中值濾波[15],高斯濾波[16],拉普拉斯濾波[17]和雙邊濾波[18]等是比較常用的幾種處理算法。通過對濾波算法的合理改進可以在降低噪聲影響的同時充分保留圖像信息,尤其是圖像邊緣的信息。

2.2 三維點云配準

不同視角下獲取的數據經過濾波后,需要將點云配準到一個單一的模型中。配準過程大體分為兩大類:粗配準和精細配準[19]。配準的關鍵是找出正確的旋轉和平移向量以表示兩組點云數據集的空間變換關系,通過變換使其處于同一坐標系下,使兩者的交集區域重疊。粗配準過程通過求出近似配準變換,使兩組點云數據盡可能的靠近,以達到縮小差異、為更精細配準提供好的初始位置、增大迭代收斂到最優變換概率的目的;在此基礎上,通過逐漸逼近、迭代,可以獲得更好的變換參數,實現精細配準。

由于無法獲取精確的控制點,粗配準往往很難達到較高的精度。而精配準中的ICP算法是改進的較為成熟、使用最廣的精確配準算法。

2.2.1 ICP算法

在20世紀90年代由Besl P J等人[20]提出了ICP算法,利用在來自不同坐標系的兩組數據點集中找到的變換關系進行數據匹配。其一般過程可分為以下幾個步驟:1)點選擇,選擇樣本尋找兩組點云之間的最優轉換;2)點匹配,找出目標表面和原數據點的交集,或直接找出最鄰近的點。這是ICP算法中最關鍵的一步;3)點對加權,給匹配程度不同的點對賦予不同的權值以改善質量;4)點對去除,排除噪聲或不重疊的區域產生的離群點;5)誤差最小化,兩個點云數據集合需要通過合適的最小化誤差度量表達。

2.2.2 ICP不同階段上的改進

除上文所述,根據ICP數據處理階段,其過程還包括重采樣、空間查找及距離度量、目標度量函數最小化和算法迭代4個階段[22]等劃分方法。但Nishino K等人[23]提出:幾乎所有的改進都著手于配準策略、配準元素和誤差度量3個方面。各個階段的相關改進以及因改進而增加的新階段如下[24]:

1)控制點選取

在標準的ICP算法中,采用集合中的所有點計算對應點,并沒有控制點選取這一階段[20,25]。算法一經提出,就有學者嘗試使用一致采樣[26]、隨機采樣[27]和深度圖梯度采樣[28]等方法有效提高算法效率;通過邊緣點集采樣[29]和法向量分布最大化采樣[25]顯著優化了算法。總之,通過對深度圖像的合理采樣可以獲取更可靠的控制點集或更小的計算數據量。

2)特征度量

為了找到對應點,首先要確定模型數據點和場景數據點的特征差異,于是引入了特征度量的概念。表1為多種在特征度量方面的代表性改進。此外,在確定特征差異后迭代優化的目標函數仍需利用特征度量建立。

表1 特征度量的代表性改進

3)空間搜索

ICP算法在選取對應點時需要進行大量的搜索,從上世紀末至本世紀初,通過引入多維二元搜索樹(K-D Tree)[40]、近似多維二元搜索樹(AK-D Tree)[41]和自適應對偶近似搜索樹(ADAK-D Tree)[40]等算法,有效處理了非完全對應點集、局部遮擋和自遮擋問題,并自動剔除異常值,逐步提高了配準效率;期間利用反響定標技術和Z-buffer方法和投影搜索[44]明顯改善了配準效率;此后Okuda H等人使用分級搜索[45]顯著提高了搜索效率,Greenspan M等人提出了球面三角形約束的最近鄰域方法[46],顯著減少了計算量。

4)點對權重

表2列出了幾種不同的加權方法。

表2 點對加權的代表性改進

標準ICP算法中對點不做區別,均賦予非零常數權重。通過改進效果可以看出,提高了算法的魯棒性,并在點選擇、異常篩除等方面進一步改善了算法。

5)剛體變換的求解

為ICP算法的最后一個階段,最小化方法有四元數[53]、正交矩陣[54]、雙四元數和奇異值分解等;Eggert D W分析了上述方法的精確和穩定性,并總結了其差異[55 ];此外,選擇不同的計算方法以適應不同的目標函數可以獲得更好的效果,例如通過點到面距離建立的目標函數即通常采用非線性最小二乘方法求閉合解[25]。

2.3 三維點云重建與紋理映射

相鄰幀點云完成配準后,還需要將這些不同視角的點云融合為一個完整的三維模型,使融合后的模型中,不同點云的重疊區域沒有重復的數據點。

2.3.1 面元表達下的點云融合

點云融合[56]大致可以分為面元更新、面元增加和面元移除3個主要步驟,面元[57]是局部近似物體表面形狀和陰影屬性的零維n元組,非常適合于動態幾何形狀建模,每個面元由位置pi、半徑r、法向量ni以及可見置信度vi組成,其中模型曲面Mt用一組面元si,i=1,…,Nt表示[58]。融合時,首先更新掃描輸入對應的面元,在所有面元完成更新后,新的面元會增加到還未被模型面元覆蓋的掃描深度圖中。另外可以根據輸入設備的理論精度限制設置合適的面元半徑估計,從而實現通過將目標物體靠近攝像頭來增加模型細節水平的效果[2]。

2.3.2 紋理映射

即通過紋理模式將其映射到對象表面上是為目標表面添加細節的常用方法。進行紋理映射的基本問題為定義映射函數,即確定指定像素與目標對象上指定點的一一對應關系[2]。利用OpenGL[2]開源庫中包含的大量關于紋理操作的API函數,Kinect獲取的彩色信息作為紋理輸入,映射到三維點云模型中,即可得到可視化的真實三維模型顯示,如圖1。

圖1 模型面元和紋理映射

3 Kinect Fusion

Kinect Fusion能夠實現通過Kinect傳感器進行現實場景的三維重建,重建后的三維場景數據可以通過.obj及.stl等格式導出。Kinect Fusion在工業設計、3D打印等領域均有較為廣闊的發展潛質。相比于傳統的三維建模方式,快速便捷、交互友好是Kinect Fusion最大的優勢。

3.1 Kinect Fusion概述

與Kinect Fusion類似的建模系統很早就有研究:2010年,華盛頓大學利用基于SIFT特征匹配定位和TORO優化算法[59],設計了一種實時視覺SLAM系統;次年,弗萊堡大學提出了RGBD-SLAM算法,使用Hogman優化算法和SURF特征匹配[60]搭建了實時性高、魯棒性強的重建系統;結合上述經驗,微軟在2012年采用高效并行的GPU算法和基于TSDF的點云融合方法[61,62],使系統實時性更高,并增加了點云融合,重建模型冗余點少,質量更好。

圖2為Kinect Fusion的流程效果。Kinect獲取的深度圖像起初有較多的數據丟失,通過移動傳感器掃描物體,很快就能夠重建足夠平滑和完整的靜態場景,同時生成3D模型和點云數據。

圖2 Kinect Fusion流程效果

3.2 Kinect Fusion工作原理

Kinect Fusion融合了從多個角度得到的深度圖像數據,重建物體的單幀光滑表面模型[63]。

1)深度圖像數據轉換和預處理:首先將傳感器獲取的原始深度幀數據轉換為浮點數據并優化,然后通過獲取傳感器的坐標信息,將這些浮點數據轉換為與傳感器朝向相同的點云數據。

2)傳感器追蹤通過計算傳感器的位置、朝向等姿勢信息,再在Kinect移動時不斷獲取其姿勢,計算出當前傳感器相對于起始幀時的相對姿勢。配準時,Kinect Fusion將從傳感器深度影像數據中獲取的點云與從重建目標計算得來的點云進行配準,同時配準同一場景不同視場角的數據。

3)體元數據融合:將從已知姿勢傳感器生成的深度數據逐幀、連續地融合成代表傳感器視場內的模型體元,并加入平滑算法來降低噪聲的影響,同時一定程度解決了場景內的動態變化問題。原始圖像中沒有捕捉到的部分則隨著Kinect的移動陸續捕捉,重建場景中的空洞也會被相繼填充。

4)渲染場景,并根據光線跟蹤方法,預測傳感器即將接收到的環境數據,重建的同時反饋給步驟(2)進行配準。

通過上述步驟,Kinect Fusion通過其獨特的體繪制技術完成了較高質量的模型重建,精度能夠達到mm級別。并且與傳統的重建方法相比,效率較高,極大地改善了消費級傳感器的實時三維場景重建效果,為三維場景重建創造了良好的用戶體驗,甚至提供了基于重建場景人機交互應用[61,62]的可能。

3.3 Kinect Fusion相關改進及應用

自Kincet Fusion加入軟件開發工具包(SDK)中后,不少學者和研究人員都對該快捷便利的建模方式做了進一步的改進以及更深一步的應用。童偉亮[64]等人用Kinect架在不同位置獲取到的深度數據和傳感器位置、姿勢信息進行特征匹配、表面拼接、生成點云信息,完成場景建模;蔡晨賈農[65]等人基于Kinect Fusion 掃描的點云數據,用一種新的點云分割方法將點云數據中的平面結構準確識別、提取并重建;朱笑笑[66]等人使用邊線特征進行匹配并預設地面點云提高了Kinect Fusion的魯棒性并降低了累積誤差;Yilmaz O[67]等人同時使用了主動和被動深度傳感器以及外圍硬件使重建精度進一步改進;Igelbrink T[68]等人提出了一種無需附加濾波過程即可從RGBD圖像中生成拓撲結構的三角形網格;Centonze E[69]等人通過對從Kinect獲得的數據進行了特征提取進行睡眠障礙分析;Hisahara H[70]等人利用多個Kinect構造了更大范圍場景來進行機器人控制方案的安全測試。

4 結 論

首先對目前三維重建的基本概況進行了介紹;其次對現有利用Kinect進行三維重建的技術方法進行了說明,重點對配準過程中的ICP算法的改進進行了分析,對比和總結了不同改進和取得的效果。通過對比發現:基于Kinect的三維重建技術有著比較成熟且效果明顯的改進,改進后的重建算法在重建質量、幀率和運行時間等核心參數上有明顯提高。基于此,引出Kinect Fusion,為未來基于消費級設備的高精度快速三維重建提出了解決方案。

[1] 曾慶軍,黃惟一.虛擬現實中的傳感器技術[J].傳感器與微系統,1997,16(1):1-4.

[2] 葉日藏.基于Kinect深度傳感器的三維重建技術應用研究[D].廣州:華南理工大學,2013:1.

[3] 趙建敏,趙忠鑫,李 琦.基于Kinect傳感器的羊體體尺測量系統[J].傳感器與微系統,2015,34(9):100-103.

[4] Rushmeier H,Bernardini F.The 3D model acquisition pipe-line[J].Comput Graph Forum,2002,21(2):149-172.

[5] Hilton A,Illingworth J.Geometric fusion for a hand-held 3D sensor[J].Machine Vision & Applications,2000,12(1):44-51.

[6] Tubic D,Hebert P,Deschenes J,et al.A uified representation for iteractive 3D modeling[C]∥International Symposium on 3D Data Processing Visualization and Transmission,IEEE Computer Society,2004:175-182.

[7] Koninckx T P,Jaeggll T,Van GooL L.Adaptive scanning for online 3D model acquisition[C]∥Workshop on Real-Time 3D Sensors and Their Use,2004:32.

[8] Huang P,Zhang S.High-resolution,real-time 3D shape acquisition[C]∥2012 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops,IEEE Computer Society,2004:28-28.

[9] Kim Y M,Theobalt C,Diebel J,et al.Multi-view image and tof sensor fusion for dense 3D reconstruction[C]∥2009 IEEE 12th International Conference on Computer Vision Workshops (ICCV Workshops) ,IEEE,2009:1542-1549.

[10] Cui Y.3D shape scanning with a time-of-flight camera[J].Computer Vision and Pattern Recognition(CVPR),2010,23(3):1173-1180.

[11] 范 哲.基于Kinect的三維重建[D].西安:西安電子科技大學,2012:1.

[12] 余 濤.Kinect應用開發實戰:用最自然的方式與機器對話[M].北京:機械工業出版社,2012:56-60.

[13] Xbox One Kinect內部芯片拆解詳解[EB/OL].[2015—06—16].http:∥jingyan.baidu.com/article/6dad5075c91d68a123e36ee4.html.

[14] 微軟自主研發的 Xbox One Kinect 2.0 體感技術跟上代機型所使用 PrimeSense 的方案有何不同?-Kinect-知乎 [EB/OL].[2015—06—17].http:∥www.zhihu.com/question/22058180.

[15] Arce G R.Nonlinear signal processing:A statistical approach[M].Hoboken:John Wiley & Sons,Inc,2005:80-138.

[16] Nixon M S,Aguado A S.Feature extraction and image processing[J].Journal of Medical Ethics,2008,26(1):78.

[17] Ulichney R.Digital halftoning[J].Digital Halftoning,1987(4):12-13.

[18] Tomasi C,Manduchi R.Bilateral filtering for gray and color images[C]∥Sixth International Conference on Computer Vision,Bombay,IEEE Computer Society,1998:839-846.

[19] 肖慧敏.點云數據的配準算法[D].西安:西安電子科技大學,2012:1.

[20] Besl P J,Mckay N D.A method for registration of 3D shapes[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,1992,14(2):239-256.

[21] Rusinkiewicz S,Levoy M.Efficient variants of the ICP algori-thm[C]∥Proceedings of Third International Conference on 3D Digital Imaging and Modeling,Quebec,IEEE,2001:145-152.

[22] 伍 毅.三維掃描信息獲取的深度圖像配準算法設計及開發[D].杭州:浙江大學,2005:1.

[23] Nishino K,Ikeuchi K.Robust simultaneous registration of multiple range images comprising a large number of points[J].Electronics & Communications in Japan,2001(8):61-74.

[24] 李世飛,王 平,沈振康.迭代最近點算法研究進展[J].信號處理,2009,25(10):1582-1588.

[25] Chen Y,Medioni G.Object modeling by registration of multiple range images[C]∥Proceedings of IEEE International Conference on Robotics and Automation,IEEE,1991:2724-2729.

[26] Turk G,Levoy M.Zippered polygon meshes from range images[C]∥Proceedings of Annual Conference on Computer Graphics & Interactive Techniques,Siggraph’94,1994.

[27] Masuda T,Sakaue K,Yokoya N.Registration and integration of multiple range images for 3D model construction[C]∥Procee-dings of 13th International Conference on Pattern Recognition,1996:879-883.

[28] Weik S.Registration of 3D partial surface models using luminance and depth information[C]∥1997.Proceedings of International Conference on Recent Advances in 3D Digital Imaging and Modeling,IEEE,1997:93-100.

[29] Angel Domingo S,Restrepo-Specht A,Devy M.Range image registration by using an edge-based representation[C]∥Proceedings of the 9th International Symposium on Intelligent Robotic Systems,SIRS’01,2001.

[30] Schutz C.Geometric point matching of free-form 3D objects[D].Neuchatel,Switzerland; University of Neuchatel,1998:1.

[31] Jost T.Fast geometric matching for shape registration[D].Neuchatel,Switzerland:University of Neuchatel,2002:1.

[32] Pulli K.Multiview registration for large data sets [C]∥The Second International Conference on 3D Digital Imaging and Modeling ,Ontario,IEEE,1999:160-168.

[33] Godin G,Laurendeau D,Bergevin R.A method for the registration of attributed range images[C]∥Int’l Conf on Imaging & Mode-ling,Quebec,2001:179.

[34] Pottmann H,Leopoldseder S,Hofer M.Registration without ICP[J].Computer Vision and Image Understanding.2004,95(1):54-71.

[35] 張鴻賓,謝 豐.基于表面間距離度量的多視點距離圖像的對準算法[J].中國科學,2005,35(2):150-160.

[36] Ezra E,Sharir M,Efrat A.On the Performance of the ICP Algorithm[J].Computational Geometry,2008,41(1-2):77-93.

[37] Bernardini F,Mittleman J,Rushmeier H,et al.The ball-pivoting algorithm for surface reconstruction[J].IEEE Transactions on Visualization & Computer Graphics,1999,5(4):349-359.

[38] Godin G.Range image registration through invariant computation of curvature[C]∥Proc of ISPRS Workshop from Pixels to Sequences,Zurich,1995:170-175.

[39] Sharp G C,Lee S W,Wehe D K.ICP registration using invariant features[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2002,24(1):90-102.

[40] Zhang Z.Iterative point matching for registration of free-form curves and surfaces[J].International Journal of Computer Vision,1994,13(2):119-152.

[41] Greenspan M,Yurick M.Approximate k-d tree search for efficient ICP[C]∥(3DIM) Proceedings of Fourth International Confe-rence on 3D Digital Imaging and Modeling,IEEE,2003:442.

[42] Lee J D,Hsieh S S,Huang C H,et al.An Adaptive ICP Registration for Facial Point Data[C]∥(ICPR)18th International Conference on Pattern Recognition,IEEE,2006:703-706.

[43] Neugebauer P J.Geometrical cloning of 3D objects via simulta-neous registration of multiple range images[C]∥1997 International Conference on Shape Modeling and Applications.IEEE,1997:130-139.

[44] Benjemaa R,Schmitt F.Fast global registration of 3D sampled surfaces using a multi-z-buffer technique[C]∥Proceedings of International Conference on Recent Advances in 3D Digital Imaging and Modeling,1997:113-120.

[45] Okuda H.Fast 3D registration algorithm with hierarchical and region selection approach of M-ICP[J].Journal of Robotics & Mechatronics,2006,18:765-771.

[46] Salvi J,Matabosch C,Fofi D,et al.A review of recent range image registration methods with accuracy evaluation[J].Image & Vision Computing,2007,25(5):578-596.

[47] Greenspan M,Godin G.A nearest neighbor method for efficient ICP[C]∥Proceedings Third International Conference on 3D Digital Imaging and Modeling,Quebec ,IEEE Computer Society,2001:161-168.

[48] Godin G ,Rioux ’VI ,Baribeau R.Three-dimensional registration range and intensity information[C]∥Proc of SPIE 2350,Boston ,SPIE.1994:279-290.

[49] Dorai C,Wang G,Jain A K,et al.Registration and integration of multiple object views for 3D model construction[J].IEEE Tran-sactions on Pattern Analysis & Machine Intelligence,1998,20(1):83-89.

[50] Rusinkiewicz S,Levoy M.Efficient variants of the icp algorithm[C]∥The Third International Conference on 3D Digital Imaging and Modeling,IEEE,2001:145-152.

[51] Pulli K.Multiview registration for large data sets[C]∥Procee-dings of Second International Conference on 3D Digital Imaging and Modeling,IEEE,1999:160-168.

[52] Shunichi K,Tomonori K,Atsushi M.Robust matching of 3D contours using iterative closest point algorithm improved by M-estimation[J].Pattern Recognition,2003,36(9):2041-2047.

[53] Horn B K P.Closed-form solution of absolute orientation using unit quaternions[J].Journal of the Optical Society of America A,1987,4(4):629-642.

[54] Horn B,Hilden H M,Negahdaripour S.Closed-form solution of absolute orientation using orthonormal matrices[J].Journal of the Optical Society of America A,1988,5(7):1127-1135.

[55] Eggert D W,Lorusso A,Fisher R B.Estimating 3-D rigid body transformations:A comparison of four major algorithms[J].Machine Vision & Applications,1997,9(5-6):272-290.

[56] Weise T,Wismer T,Leibe B,et al.Online loop closure for real-time interactive 3D scanning[J].Computer Vision & Image Understanding,2011,115(5):635-648.

[57] Pfister H,Zwicker M,Van Baar J,et al.Surfels:Surface elements as rendering primitives[C]∥Proceedings of the 27th Annual Conference on Computer Graphics and Interactive Techniques,ACM,2000:335-342.

[58] Habbecke M,Kobbelt L.A surface-growing approach to multi-view stereo reconstruction[C]∥2007 IEEE Conference on Computer Vision and Pattern Recognition,2007:1-8.

[59] Henry P,Krainin M,Herbst E,et al.RGB-D mapping:Using depth cameras for dense 3D modeling of indoor environments[J].International Journal of Robotics Research,2012,31(5):647-663.

[60] Fioraio N,Konolige K.Realtime visual and point cloud SLAM[C]∥RSS Workshop on RGB-D Cameras,2011.

[61] Izadi S,Kim D,Hilliges O,et al.Kinect Fusion:Real-time 3D reconstruction and interaction using a moving depth camera[C]∥Proceedings of the 24th Annual ACM Symposium on User Interface Software and Technology,ACM,2011:559-568.

[62] Fitzgibbon A.Kinect Fusion:Real-time dense surface mapping and tracking[C]∥Proceedings of the 2011 10th IEEE International Symposium on Mixed and Augmented Reality,IEEE Computer Society,2011:127-136.

[63] Kinect Fusion[EB/OL].[2016—03—07].https:∥msdn.microsoft.com/en-us/library/dn188670.aspx.

[64] 童偉亮,王廣偉.基于Kinect及雙目機器視覺原理的物體3維建模系統[J].中國水運月刊,2015,15(8):121-122.

[65] 蔡晨賈農,施逸飛,徐 凱,等.基于KinectFusion的室內場景平面結構重建[J].系統仿真學報,2015(10):2239-2245.

[66] 朱笑笑,曹其新,楊 揚,等.一種改進的KinectFusion三維重構算法[J].機器人,2014,36(2):129-136.

[67] Yilmaz O,Karakus F.Stereo and kinect fusion for continuous 3D reconstruction and visual odometry[C]∥2013 International Conference on Electronics,Computer and Computation(ICECCO),Ankara,IEEE,2013:115-118.

[68] Igelbrink T,Wiemann T,Hertzberg J.Generating topologically consistent triangle meshes from large scale kinect fusion[C]∥2015 European Conference on Mobile Robots(ECMR),Lincoln,IEEE,2015:1-6.

[69] Centonze F,Schatz M,Prochazka A,et al.Feature extraction using MS Kinect and data fusion in analysis of sleep disorders[C]∥2015 International Workshop on Computational Intelligence for Multimedia Understanding(IWCIM),Prague,IEEE,2015:1-5.

[70] Hisahara,S HaneH,Takemura,et al.3D point cloud-based virtual environment for safe testing of robot control programs:Measurement range expansion through linking of multiple kinect v2 sensors[C]∥2015 6th International Conference on Intelligent Systems,Modelling and Simulation(ISMS),IEEE,2015:24-27.

Review of 3D reconstruction technology based on Kinect*

AI Da1, NI Guo-bin2, WANG Miao2, YANG Zhen2

(1.Key Laboratory of Ministry of Public Security-Electronic Information Processing Techniques in Criminal Investigation Applications,Xi’an University of Posts and Telecommunications,Xi’an 710121,China;2.School of Telecommunication and Information Engineering,Xi’an University of Posts and Telecommunications,Xi’an 710121,China)

3D reconstruction technology and working principle of Kinect are introduced in detail,existing 3D reconstruction methods using Kinect are reviewed,iterative closest point(ICP) and its improvements are analyzed and compared.On this basis,the Kinect Fusion and its improvement and applications are introduced.Prospects of development trend of 3D reconstruction based on Kinect are summarized and prospected in brief.

Kinect;3D reconstruction; iterative closest point(ICP) algorithm; Kinect Fusion

10.13873/J.1000—9787(2017)08—0001—06

2016—05—05

公安部科技強警基礎工作專項項目(2014GABJC023)

TP 391

A

1000—9787(2017)08—0001—06

艾 達(1973-),男,博士,副教授,高級工程師,碩士生導師,研究方向為視頻、圖像處理,人工智能技術、虛擬現實技術。

猜你喜歡
深度模型
一半模型
深度理解一元一次方程
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
深度觀察
深度觀察
深度觀察
深度觀察
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: 日韩成人午夜| 日韩在线成年视频人网站观看| 久久综合AV免费观看| 毛片免费高清免费| 老司机精品99在线播放| 亚洲国产理论片在线播放| 亚洲资源在线视频| 欧美国产精品不卡在线观看| 国产精品理论片| 日韩精品一区二区三区免费在线观看| 亚洲日韩精品无码专区| 国产福利不卡视频| 亚洲欧美激情小说另类| 日韩黄色大片免费看| 凹凸精品免费精品视频| 婷婷色在线视频| 国产系列在线| 中文字幕在线日本| 91精品国产自产91精品资源| 国产99精品久久| 在线视频亚洲欧美| 欧美日韩91| 午夜影院a级片| 国产一级二级在线观看| 亚洲人成网址| 亚洲天堂成人在线观看| 国产av无码日韩av无码网站| 日本高清免费一本在线观看| 国产超薄肉色丝袜网站| 久久夜夜视频| 国产成年无码AⅤ片在线| 欧美成人区| 天天干伊人| 亚洲成人免费在线| 国产精女同一区二区三区久| 亚洲伊人久久精品影院| 久久无码高潮喷水| 青青草原偷拍视频| 欧美三級片黃色三級片黃色1| 国产视频入口| 91亚洲免费| 99re视频在线| 免费播放毛片| 国产亚洲欧美日韩在线一区二区三区| 国产精品污污在线观看网站| 亚洲日韩Av中文字幕无码| 日韩视频福利| 青青草a国产免费观看| swag国产精品| 国产新AV天堂| 欧美中文字幕一区| 尤物国产在线| 日韩精品中文字幕一区三区| 国产在线视频福利资源站| 国产又爽又黄无遮挡免费观看 | 大陆精大陆国产国语精品1024| 国产精品成人AⅤ在线一二三四 | 亚洲—日韩aV在线| 国产免费羞羞视频| 午夜色综合| 色哟哟国产精品一区二区| 国产在线观看一区精品| 天天做天天爱夜夜爽毛片毛片| 九色在线观看视频| 国产97色在线| 国产午夜小视频| 亚洲第一区欧美国产综合 | 久久中文字幕2021精品| 综合社区亚洲熟妇p| v天堂中文在线| 欧美亚洲香蕉| 国产黑人在线| 亚洲中文字幕国产av| 国产午夜人做人免费视频| 综合色亚洲| 亚洲国产成人久久精品软件| 久草网视频在线| 日本久久网站| 久久精品日日躁夜夜躁欧美| 国产99精品视频| 国产精品国产三级国产专业不| 欧美啪啪精品|