999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于三維VR技術的小區域目標重建研究

2017-10-12 08:42:12郭亮
現代電子技術 2017年19期

郭亮

摘 要: 針對當前重建目標區域缺失圖像信息時局限性較大,提出一種結合三維VR技術的小區域目標重建方法。對小區域目標進行相機標定,在相機標定過程中,引入小區域目標二維圖像物理參數組建相機成像模型,利用直接法求解小區域目標成像參數,結合相機標定的結果利用SURF算法對小區域目標二維圖像提取特征點。尋找小區域目標圖像內任意一個主方向,構成各個特征點的圖像旋轉不變量,以該不變量為依據利用歸一化互相關方法計算出小區域目標兩圖像塊之間的近似程度,通過對極幾何的性質約束小區域目標特征匹配點計算基礎矩陣,以獲得的小區域目標投影矩陣和特征點的匹配關系為依據,完成小區域目標空間點的三維重建。實驗結果表明該方法準確率及實用價值較高。

關鍵詞: 三維VR技術; 小區域目標重建; 相機標定; 特征點匹配

中圖分類號: TN948.4?34; TP391 文獻標識碼: A 文章編號: 1004?373X(2017)19?0094?04

Research on small?area target reconstruction based on 3D VR technology

GUO Liang

(College of Electrical Information, Changchun Guanghua University, Changchun 130000, China)

Abstract: The current reconstruction of the target area has strong limitation while image information is missing, so a small?area target reconstruction method combining with 3D VR technology is proposed. The small?area target is performed with camera calibration, in which the 2D image′s physical parameters of small?area target are introduced to establish the camera imaging model, the direct method is used to solve the imaging parameters of small?area target, and the SURF algorithm is adopted to extract the feature points of 2D image of small?area target according to the camera calibration results. The arbitrary main direction within the small?area target image is found out to compose the image rotation invariant of each feature point. On this basis, the normalized cross?correlation method is used to calculate the approximation degree between two image blocks of small?area target. According to the property of epipolar geometry, the feature matching points of small?area target is restrained to calculate the basis matrix. The matching relation between the obtained small?area target projection matrix and feature points is taken as the basis to realize the 3D reconstruction of small?area target spatial points. The experimental results show that the method has high accuracy and high practical value.

Keywords: 3D VR technology; small?area target reconstruction; camera calibration; feature points matching

0 引 言

隨著計算機技術的快速發展,三維技術日益完善,計算機技術不斷突破,虛擬現實、三維技術動畫等三維VR技術均獲得了較大的發展。三維重建[1]不僅在制造業、建筑行業,軍事技術科技、地理信息位置系統等一些領域獲得了廣泛的應用,而且快速地融入了大眾生活。

三維技術以虛擬的形式出現,文獻[2?3]不僅可以利用觀察數據,并且可以與數據相互交換,而且這種區域觀察具有從內而外和從外而內的重建空間特征。文獻[4?5]利用三維技術來表示數據和過程,能夠讓用戶走進一個視覺效果逼真的三維虛擬世界,因此如何加快進行三維VR技術的小區域目標重建是當前急需解決的問題。

當前也存在一些相關研究成果。文獻[6]提出一種利用尺度不規則變化的特征檢驗算法,該算法檢測特征點的實時性較好,準確性較高,魯棒性特點強,被廣泛地利用在圖像拼接、紋理識別和圖像復原等領域。其描述部分利用代替圖像的表述方式對其研究進行了改良。雖然改良效果好,但是特征提取速度比較慢。

文獻[7]研究一種利用空間點進行分類的三維景物重建方法。首先剔除局外點,這樣可以提高重建的精確度,由于在后續的三維技術重建過程中不需要再對局外點的重建數據進行三維技術重建計算,所以減少了重建技術的計算時間。改進的范數重建方法可以不斷去調整搜索的上下方向,減少了調整次數,提高了調整效率,但局限性較大。

文獻[8]提出一種具有區域尺度特征的提取方法,此方法以區域尺度為基礎,將空間和區域尺度確定為角點;為了滿足不同區域尺度下提取特征的要求,對圖像亮度相關矩陣增加了自適應區域尺度;針對特征點匹配的視圖問題,利用區域匹配算法獲得的視圖實驗結果可知,所研究的聯合匹配算法可得出視圖,證明了算法的有效性和可行性,但該算法復雜性比較強。

針對上述所存在的問題,研究一種結合三維VR技術對小區域目標進行重建的方法。首先進行相機標定、重建特征點的提取與匹配,計算三維技術信息。將該方法應用到重建小區域,實現快速重建小區域建筑物三維模型,可以有效縮短重建時間,同時提高三維VR技術小區域的重建精度。

1 三維VR技術的小區域目標重建研究

1.1 三維VR技術的小區域目標匹配

在進行三維VR技術的小區域重建過程中,先利用相機標定得到坐標系與空間坐標系之間的關系,把求出的坐標系與坐標點的關系應用到空間點的三維重建中,這對三維VR技術的小區域空間重建有著重要的意義。

相機標定分為兩部分,先是代入物理參數去建立相機圖像模型,再用直接法求解相機參數。在坐標系下,相機標定坐標點可以表示為:

[Tcw=Rcwtcw] (1)

式中,世界坐標系轉為相機坐標系[cw,][Rcw,][tcw]可表示為:

[Rcw tcw0 0=e] (2)

式(2)為坐標系下的相機坐標,對該軸方向的轉換量[?]描述如下:

[?=0μ6-μ6μ1-μ60μ4μ2μ5-μ10μ30000] (3)

利用相機的坐標位姿建立相機坐標系點[p]與世界坐標系點的轉換關系為:

[p=Tcwpw] (4)

小區域重建的特征點提取與匹配利用文獻[9]中的SURF算法,是由Herbert Bay提出的新型特征提取算法。利用SURF算法對小區域目標二維圖像進行特征點提取,通過尋找小區域目標圖像內任意一個主方向,構成各個特征點的圖像旋轉不變量。對特征點的檢測是Hessian近似矩陣,根據Hessian矩陣行列的最大值檢測特征點。對Hessian矩陣進行計算,將高斯微分模板與區域圖像相結合,為簡化高斯微分模板,將模板與區域圖像結合轉化成盒子濾波計算,確定簡化后的模板是由幾個矩形區域組成。

對于盒子濾波表述的值,可以簡單地利用積分圖像來求得,積分圖像定義為:

[IΣ(x,y)=i=0x j=0yI(i,j)] (5)

利用積分圖像能求出任意大小區域的灰度值,即能求盒子濾波的回應值。所以,Hessian矩陣行列式可表示為:

[det=DxxDyy-(0.9Dxy)2] (6)

由矩陣行列式求出的區域值來計算圖像中某點的回應值。在一個尺度下,圖像中的每個像素點計算特征點得出回應值,就形成了在該確定的尺度下特征點檢測的回應圖像,依據盒子濾波不同的模板尺寸,就形成了在不同尺度下特征點的回應圖像,確定最終的金字塔圖像。對金字塔區域圖像進行抑制非極大值,通過像素插值得到實際圖像極值點的高精確坐標:

[x=?2H-1?x2-?H?x] (7)

最終利用SURF算法提取特征點子維向量,進行歸一化處理。

根據上述SURF算法,以給出的不變量為依據,利用歸一化互相關方法表征小區域目標兩圖像塊之間的近似程度,通過對極幾何的性質約束小區域目標特征匹配點計算基礎矩陣,以獲得小區域目標投影矩陣和特征點的匹配關系。計算兩幅圖片中的匹配代價[NCC(v0,v1)],并對此求平均值:

[NCC(v0,v1)=j=0n-1v0(j)-v0?v1(j)-v1xp2IΣ(x,y)] (8)

式中:[v0(j)]和[v1(j)]分別代表窗口[v0]和[v1]中第[j]個像素的像素值;[v0]和[v1]代表窗口圖像像素平均值。

1.2 小區域目標空間點的三維重建

結合上述SURF 算法求出像素值,由一個空間圖像點反射投影到三維技術空間形成一條空間射線,兩條空間射線相交便能確定空間射線點的位置,由此得出射線投影矩陣和射線圖像點的匹配關系以及重建空間點的坐標位置。假定,空間上的任意點能夠在兩個圖像中分別表示出來,即空間上的任意點的坐標,還有兩個相機的效果平面上的成像點、圖像點上的像素坐標在投影矩陣上顯示為:

[M=m111m112m113m114m121m122m123m124m131m132m133m134] (9)

根據投影矩陣變換公式得出:

[μ1ν11=m111m112m113m114m121m122m123m124m131m132m133m134] (10)

其中空間點分別在兩個相機坐標系中繞光線軸方向的坐標分別是其在各自圖像中的圖像坐標,展開式(10)得:

[μ1=m111xw+m112yw+m113+m114ν1=m121xw+m122yw+m123+m124] (11)

整理式(11)可得:

[(μ1m131-m111)xw+(μ1m132-m112)yw+(μ1m133-m113) =m114-μ1m134(ν1m131-m121)xw+(μ1m132-m122)yw+(μ1m133-m123) =m124-ν1m134] (12)

式(12)中的兩個線性方程是空間中兩個表示平面的方程,兩個表示平面的方程相結合為空間的直線方程,即為兩個平面的交線。同理可得出式(12)是一個空間內的直線方程。

三維空間區域的平面方程為線性方程,由于空間點有交點,所以它必定同時滿足式(10)~式(12)。

由上述求出的空間重建坐標,假設相機中照片的投影矩陣為:

[Q=A-1M=(RI-RT)] (13)

由旋轉和平移向量可得:

[Q=(UWVTI-μ3)] (14)

式(14)為矩陣正確解。

以投影矩陣為例,設:

[Q=qq11q12q13q14q21q22q23q24q31 q32q33q34] (15)

得出下列式子:

[Zeu=q11Xw+q12Yw+q13Zw+q14Zev=q21Xw+q22Yw+q23Zw+q24Ze=q31Xw+q32Yw+q33Zw+q34] (16)

消去[Ze]得:

[q11Xw+q12Yw+q13Zw+q14-q31uXw-q32uYw-q33uZw=q34uq21Xw+q22Yw+q23Zw+q24-q31vXw-q32vYw-q33vZw=q34v] (17)

該方程組表達兩個平面相交成為一條直線。在兩張照片中找一個相同匹配點,求出其相應的投影矩陣,即為區域重建的三維坐標。由上述得出的結論可知,把該方法應用到三維VR技術的小區域重建目標中能夠取得重大的成果。

2 實驗與分析

對本文提出的SURF算法在VC 6.0 環境下用多組立體圖像進行實驗,驗證本文提出的SURF匹配算法精確度較高,可用于小區域目標的三維重建。圖1是SURF算法檢測提取的角點和改進的SURF算法檢測提取到的角點的對比效果圖。這組原圖圖像是384×288的立體匹配圖像。

由圖1能夠看出改進后的SURF算法可以減弱角點聚集的現象。同時對圖1中的建筑圖像的點數進行提取,將統計結果表示在表1中。從表1的統計結果能夠發現特征點大量減少,但圖1中反映重建物體的外貌特征點并沒有丟失,仍很好地反映出物體的結構特征,這樣在后期的匹配中可以有效地減小誤差匹配率,并且還能提高匹配的速度。

不能準確確定重建物體的坐標,將對重建物體對應線段的長度重建方法進行誤差分析,重建物體線段長度誤差結果對比如圖2,圖3所示。

圖2,圖3中的實驗數據對比分析發現,以三角形重心為約束條件,對多張圖像信息特征點進行三維VR技術重建,可以取得較高的區域重建精準度,并且在算法的穩定性方面具有較大的改進。

3 結 論

本文針對傳統的三維重建技術環境構建困難、成本偏高、靈活性較低,難以適應動態變化的建筑模型對象,提出一種以相機獲取設備圖像的方式,對重建的小區域目標進行特征點的提取與匹配和三維VR技術重建的空間計算。本文方法具有設備圖像獲取便利,特征點信息易于提取、應用范圍受限小等優勢,在利用三維VR技術進行小區域目標重建等領域具有廣闊的應用前景。

參考文獻

[1] 盧毅,李曉艷,徐熙平.雙目立體視覺三維重建技術[J].長春工業大學學報,2015,36(6):678?682.

[2] 顧剛,袁杰.基于超分辨率圖像重建技術的運動估計研究[J].現代電子技術,2015,38(10):80?86.

[3] 張紀滿,韓宇鵬,周振華,等.基于二維圖形數據的三維模型重建[J].電子技術與軟件工程,2014(21):122.

[4] 席小霞,宋文愛,邱子璇,等.基于RGB?D值的三維圖像重建系統研究[J].測試技術學報,2015,27(5):409?415.

[5] 鄭金鑫,湯幟,王勇濤.基于單幅線條圖的三維立體重建方法綜述[J].計算機科學,2014,41(1):43?47.

[6] 魏楚亮,羅培羽,洪曉斌,等.基于單張照片模式的三維圖像重建新方法研究[J].中國測試,2014,40(2):23?26.

[7] 韓寶玲,朱穎,徐博,等.一種基于場景輪廓特征的三維地形重建方法[J].光學技術,2015,41(4):322?326.

[8] 賀濤.基于雙目立體攝像機圖像的三維建模方法設計及實現[J].電子技術與軟件工程,2014(10):123?126.

[9] 鄭立國,劉楊,羅江林.基于PCL的人體實時3D重建技術的研究與實現[J].電子技術與軟件工程,2015(10):95?97.

主站蜘蛛池模板: 日韩资源站| 亚洲欧美日韩色图| 精品国产污污免费网站| 国内老司机精品视频在线播出| 波多野结衣国产精品| 东京热一区二区三区无码视频| 亚洲av无码人妻| 亚洲五月激情网| 亚洲精品无码成人片在线观看| 成人日韩视频| 日本a级免费| 72种姿势欧美久久久久大黄蕉| 国产精品尤物铁牛tv| 福利在线免费视频| 香蕉综合在线视频91| 国产无码在线调教| 人妖无码第一页| 亚洲日韩国产精品无码专区| 国产成人1024精品下载| 免费观看欧美性一级| 国产无码网站在线观看| 免费在线成人网| 国产免费福利网站| 丁香综合在线| 日韩在线播放欧美字幕| 中文字幕无码电影| 夜夜爽免费视频| 谁有在线观看日韩亚洲最新视频| 91丝袜美腿高跟国产极品老师| 日韩精品成人网页视频在线| 日本成人不卡视频| 一级毛片视频免费| 妇女自拍偷自拍亚洲精品| 午夜日韩久久影院| 亚洲无码精品在线播放| 无码一区18禁| 手机永久AV在线播放| 欧美日韩在线第一页| 欧美www在线观看| 国产精品男人的天堂| 很黄的网站在线观看| 日本午夜影院| 午夜激情福利视频| 国产迷奸在线看| 亚洲一级毛片免费观看| 色亚洲成人| 9999在线视频| 欧美日韩国产精品va| 久久国产高潮流白浆免费观看| 91精品国产综合久久香蕉922| 91视频免费观看网站| 亚洲男人的天堂久久精品| 亚洲国产精品VA在线看黑人| 香蕉色综合| 91精品啪在线观看国产| 91福利免费视频| 国产黄网站在线观看| 国产99热| 国产成人亚洲无吗淙合青草| 免费不卡视频| 久久这里只有精品免费| 伊人网址在线| 无码人妻免费| 五月婷婷伊人网| 亚洲色精品国产一区二区三区| 国产偷倩视频| 91丨九色丨首页在线播放| 全部免费毛片免费播放| 伊人久久久大香线蕉综合直播| 久久99国产综合精品女同| 亚卅精品无码久久毛片乌克兰| 亚洲欧美天堂网| 在线观看亚洲人成网站| 欧美一区福利| 亚洲人成人无码www| 成人精品区| 国产91麻豆视频| 欧美一级大片在线观看| 久久久久亚洲AV成人人电影软件| h视频在线播放| 欧美日韩动态图| 91人人妻人人做人人爽男同|