999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

用于三維重建的改進(jìn)特征匹配策略

2019-11-25 00:11:54吳越李勝旺白宇

吳越 李勝旺 白宇

摘 要:為了能夠更加快速地獲取特征點(diǎn)以及提高特征匹配結(jié)果的穩(wěn)定性,提出了一種改進(jìn)的匹配策略。首先,對(duì)圖像進(jìn)行下采樣,通過低分辨率的圖像進(jìn)行匹配,快速篩選掉匹配失敗的匹配對(duì),然后對(duì)匹配成功的匹配對(duì)對(duì)應(yīng)的原始圖像進(jìn)行匹配,以達(dá)到加速的目的。其次,為有效提高三維點(diǎn)云的精度,對(duì)SIFT的匹配結(jié)果和SURF的匹配結(jié)果進(jìn)行融合,將融合后的結(jié)果應(yīng)用到三維重建技術(shù)中。最后,通過使用自采數(shù)據(jù)集和公開數(shù)據(jù)集對(duì)算法進(jìn)行測(cè)試,并對(duì)實(shí)驗(yàn)數(shù)據(jù)進(jìn)行分析。結(jié)果顯示,改進(jìn)的特征匹配策略使三維重建的運(yùn)行速度提高了40%,并大幅增加了三維點(diǎn)的個(gè)數(shù)。所提出的方法不僅可以減少特征匹配過程的運(yùn)算量,還可以提高三維重建的穩(wěn)定性,在三維重建研究工作中具有一定的參考價(jià)值。

關(guān)鍵詞:計(jì)算機(jī)視覺;三維重建;下采樣;特征匹配;SIFT;SURF

中圖分類號(hào):TP319 文獻(xiàn)標(biāo)志碼:A

doi:10.7535/hbkd.2019yx05007

Improved feature matching strategy for 3D reconstruction

WU Yue, LI Shengwang, BAI Yu

(School of Information Science and Engineering, Hebei University of Science and Technology, Shijiazhuang, Hebei 050018, China)

[WT5HZ][HJ1.7mm]Abstract:

In order to get the feature points in the image more quickly and improve the stability of feature matching results, an improved matching strategy is proposed. First, the image is subsampled, matched by a low-resolution image, and the matching pair that matches the failure is quickly filtered out, and then the matched ones that succeed are matched with the corresponding original images, so as to achieve the purpose of acceleration. In addition, the matching result of SIFT and the matching result of SURF are merged, and the fusion result is applied to the 3D reconstruction technology, which effectively improves the accuracy of the 3D point cloud. The algorithm is tested by using self-acquired data set and public data set, and the experimental data is analyzed. The results show that the improved feature matching strategy improves the running speed of 3D reconstruction by 40% and greatly increases the number of 3D points. Therefore, the proposed method can not only reduce the computational burden of feature matching process, but also improve the stability of 3D reconstruction, so it has certain reference value in the research of 3D reconstruction.

Keywords:computer vision; 3D reconstruction; subsampling; feature matching; SIFT; SURF

三維模型重建是計(jì)算機(jī)視覺領(lǐng)域中一個(gè)非常重要的研究方向,相比二維圖像信息,三維模型具有更加強(qiáng)烈的真實(shí)感,能夠呈現(xiàn)出更多的信息。隨著虛擬現(xiàn)實(shí)和增強(qiáng)現(xiàn)實(shí)技術(shù)的發(fā)展,可以預(yù)見三維數(shù)據(jù)將是未來數(shù)據(jù)呈現(xiàn)的主要形式。要進(jìn)行三維重建,首先要獲取三維點(diǎn)云。獲取三維點(diǎn)云的方式多種多樣,其中對(duì)無序圖像的三維重建是眾多方法中最為廉價(jià)的一種方法,其特點(diǎn)是只需要計(jì)算資源即可,但是重建的速度較慢。立體匹配是三維重建過程中最重要的一個(gè)環(huán)節(jié),旨在以不同的圖像中找到相同的特征點(diǎn),其效果直接影響整個(gè)三維重建的質(zhì)量。一方面,針對(duì)無序圖像三維重建的輸入是圍繞目標(biāo)物體拍攝的一組照片,輸出是一個(gè)三維模型,由于圖像之間沒有時(shí)間和空間上的關(guān)系,所以在匹配過程中需要進(jìn)行兩兩匹配,從而需要花費(fèi)大量的時(shí)間進(jìn)行計(jì)算。另一方面,在三維重建算法的研究中,通常只保留一種圖像特征匹配的結(jié)果,因此可能會(huì)出現(xiàn)由于匹配不足而導(dǎo)致重建失敗的情況。

近年來,三維重建的學(xué)術(shù)研究涉及到眾多領(lǐng)域[1],如考古、醫(yī)學(xué)[2]、農(nóng)業(yè)、航天、工業(yè)等。但是在實(shí)際應(yīng)用中還是存在一些不穩(wěn)定性,因此,仍需要在該學(xué)術(shù)領(lǐng)域中做出更加深入的研究。隨著深度學(xué)習(xí)的發(fā)展[3-5],三維重建技術(shù)也得到了迅猛發(fā)展。三維重建的方式有很多,如基于圖像的三維重建[6-7]、基于視頻的三維重建[8]。特征匹配是三維重建流程中非常重要的一部分[6,9],主要由特征檢測(cè)和特征匹配兩部分組成。最常見的特征檢測(cè)有Harris,SIFT,SURF,ORB等。Harris角點(diǎn)檢測(cè)[10]要求特征點(diǎn)具有局部差異性,所以其檢測(cè)結(jié)果主要分布在與周圍環(huán)境不一樣的點(diǎn),對(duì)于紋理比較均勻的地方效果不佳。另外,Harris角點(diǎn)檢測(cè)不具有尺度不變性。為了解決尺度變化的問題,LINDEBERG[11]提出了LoG邊緣檢測(cè)算子,其檢測(cè)效果好,但是要先對(duì)圖像進(jìn)行高斯濾波,再進(jìn)行拉普拉斯運(yùn)算,導(dǎo)致計(jì)算量太大。為了能夠更好地運(yùn)用LoG邊緣檢測(cè)算子的性質(zhì),LOWE[12]提出了SIFT算法,此算法具有尺度不變性、旋轉(zhuǎn)不變性和亮度變化不變性,另外在視角變化、仿射變換方面也具有一定的魯棒性,但是SIFT算法也需要進(jìn)行大量計(jì)算,運(yùn)行速度也不太理想。為了提高特征點(diǎn)檢測(cè)的速度,BAY等[13-14]提出了問題算法,該算法不但延續(xù)了SIFT 算法的優(yōu)良性能,還解決了其計(jì)算量大、運(yùn)行速度慢的問題,在提取特征點(diǎn)和描述特征向量等方面做了改進(jìn),大幅提高了運(yùn)算速度。RUBLEE等[15]提出了ORB算法,它結(jié)合了FAST特征點(diǎn)的檢測(cè)方法與BREIF特征描述子,并進(jìn)行了改進(jìn),效率有很大提升。齊冰潔等[16]針對(duì)SURF算法對(duì)特征檢測(cè)誤差敏感的特點(diǎn),提出了oSURF算法,與SURF算法相比,在相同計(jì)算速度下,oSURF算法的精度提高了5%~10%。基于SIFT的可擴(kuò)展性,馮玉朋等[17]提出了Harris-SIFT算法用于無人駕駛領(lǐng)域,先用Harris算法將圖像中的角點(diǎn)提取出來作為特征候選點(diǎn),再用SIFT算法在候選點(diǎn)中進(jìn)行特征點(diǎn)提取,起到了加速的作用,解決了實(shí)時(shí)性較差的問題。為了解決旋轉(zhuǎn)和尺度不變性,KARTHIK等[18]提出了Harris-FAST算法,其原理是將Harris和FAST興趣點(diǎn)檢測(cè)器進(jìn)行融合,使得算法具有旋轉(zhuǎn)和尺度不變性,然后將興趣點(diǎn)檢測(cè)器定位到優(yōu)選區(qū)域來優(yōu)化檢測(cè)器,降低了算法的運(yùn)行時(shí)間。

本文提出了一種特征匹配的加速方法,通過下采樣降低圖像的分辨率,利用低分辨率的圖像進(jìn)行篩選,濾除掉匹配失敗的匹配對(duì),再將匹配成功的匹配對(duì)對(duì)應(yīng)的原圖進(jìn)行匹配,減少原圖的匹配次數(shù),達(dá)到加速的效果。給出了一種提高三維點(diǎn)云穩(wěn)定性的方法,融合SIFT特征匹配的結(jié)果和SURF特征匹配的結(jié)果,使2種特征匹配結(jié)果互補(bǔ),增加三維點(diǎn)云中點(diǎn)的數(shù)量,提高了三維點(diǎn)云的精度。

1 三維重建

針對(duì)無序圖像的三維重建[19],通過計(jì)算機(jī)視覺技術(shù)來恢復(fù)二維圖像中的三維信息,以此來建立目標(biāo)場(chǎng)景的三維模型。其主要流程如下。

第1步:獲取圖像集;

第2步:特征點(diǎn)檢測(cè)及匹配;

第3步:使用運(yùn)動(dòng)恢復(fù)結(jié)構(gòu)(SFM)進(jìn)行相機(jī)標(biāo)定,獲取稀疏點(diǎn)云;

第4步:使用多視角立體技術(shù)(MVS)進(jìn)行稠密匹配[20],獲取稠密點(diǎn)云;

第5步:對(duì)稠密點(diǎn)云進(jìn)行表面重建。

以獲取的無序圖像作為輸入,對(duì)圖像進(jìn)行特征點(diǎn)檢測(cè)及匹配。在SFM技術(shù)中,通過捆綁調(diào)整(Bundle Adjustment)對(duì)相機(jī)進(jìn)行標(biāo)定,恢復(fù)相機(jī)的姿態(tài),進(jìn)而獲取稀疏的三維點(diǎn)云。在此基礎(chǔ)之上進(jìn)行多視角的稠密匹配,得到稠密的三維點(diǎn)云。最后,為了創(chuàng)建更加完整、平滑的表面,需要對(duì)稠密點(diǎn)云進(jìn)行表面重建。為了提高三維重建的運(yùn)行速度及穩(wěn)定性,本文在第2步做了改進(jìn)。

2 改進(jìn)的匹配策略

2.1 下采樣篩選

在對(duì)圖像進(jìn)行下采樣的過程中,會(huì)不斷縮小圖像的尺寸,得到一組不同尺寸的圖像。若對(duì)一幅分辨率為M×N的圖像I進(jìn)行n倍下采樣,就會(huì)得到分辨率為(M/n) ×(N/n)的圖像,其原理就是將原始圖像中n×n的區(qū)域合成1個(gè)像素點(diǎn),此像素點(diǎn)的值就是區(qū)域內(nèi)所有像素的均值,如式(1)所示:

pk=∑[DD(X]i∈win(k)[DD)][SX(]Ii[]n2[SX)],(1)

式中:pk為將原始圖像的第k個(gè)區(qū)域合成的第k個(gè)像素點(diǎn);Ii為原圖中的第i個(gè)像素,其中i屬于第k個(gè)區(qū)域,這里要求n是M和N的公約數(shù)。

表1列出了不同倍數(shù)的下采樣對(duì)應(yīng)的圖像尺寸。

在進(jìn)行無序圖像的三維重建過程中,要對(duì)圖像進(jìn)行兩兩匹配,例如在4張圖像之間進(jìn)行匹配,則會(huì)產(chǎn)生3+2+1=6次匹配。因此在圖像集數(shù)量很大的情況下,會(huì)產(chǎn)生龐大的計(jì)算量。在同等條件下,由于低分辨率圖像的像素點(diǎn)少,所以低分辨率圖像之間匹配的速度比高分辨率圖像之間匹配的速度快。因此,本文的算法原理是在得到低分辨率的圖像之后,先利用低分辨率的圖像進(jìn)行匹配,若匹配成功,則對(duì)相應(yīng)的原圖進(jìn)行匹配,若匹配失敗,則過濾掉這對(duì)匹配關(guān)系,達(dá)到快速篩選的目的。此方法可有效減少匹配的計(jì)算量,篩選算法描述如表2所示。

2.2 融合SIFT和SURF的匹配結(jié)果

SIFT算法具有旋轉(zhuǎn)不變性、尺度不變性、亮度變化不變性,并且對(duì)視角變化、仿射變換具有一定程度的穩(wěn)定性。SURF算法由SIFT算法改進(jìn)而來,SIFT算法構(gòu)建尺度空間是用DoG對(duì)LoG近似,SURF算法是用盒子濾波器對(duì)LoG近似,并且利用積分圖像進(jìn)行卷積計(jì)算,此計(jì)算過程可以在不同尺度空間下同時(shí)運(yùn)行。SURF算法計(jì)算特征點(diǎn)的位置和尺度也依賴于Hessian矩陣,因此SURF算法的速度約為SIFT算法的3倍,并且更加具有魯棒性。SURF算法在處理模糊和旋轉(zhuǎn)的圖像時(shí)具有一定的優(yōu)勢(shì),但是在處理具有視角變化和光照變化的圖像時(shí)效果并不理想。

生成SIFT特征后,一般采用歐氏距離作為判斷的標(biāo)準(zhǔn)。輸入圖像A和圖像B的特征點(diǎn)a與b,則兩者的歐氏距離如式(2)所示,因SIFT特征的維度為128,所以式(2)中n=128。計(jì)算出歐氏距離,使用式(3)進(jìn)行最近鄰搜索。

設(shè)b*為a的最近鄰,b**為a的次近鄰。為了篩選掉一些孤立的點(diǎn),有2種常見方法。一種方法是設(shè)定一個(gè)閾值β,滿足D(a,b*)<β,即要求距離小于β。一般情況下,β的取值為1,以此來排除一些距離較遠(yuǎn)的點(diǎn)。另一種是本文采用的方法,找到最近距離D(a,b*)與次近距離D(a,b**)后,滿足D(a,b*)/D(a,b**)<α,則認(rèn)為此匹配是可靠的。LOWE[12]認(rèn)為0.4<α<0.6,取值越小,精度就越高,因此匹配到的點(diǎn)就越少。

與SIFT特征匹配類似,SURF特征匹配也是通過歐氏距離來確定匹配度,區(qū)別在于SURF特征匹配通過加入Hessian矩陣跡的判斷來提高匹配效率。若2個(gè)特征點(diǎn)的Hessian矩陣跡正負(fù)號(hào)相同,則表示2個(gè)特征點(diǎn)的對(duì)比度相同,若正負(fù)號(hào)不同,則表示2個(gè)特征點(diǎn)的對(duì)比度相反,直接排除。

因?yàn)榛趫D像的三維重建所用到的圖像集是通過網(wǎng)絡(luò)收集或者個(gè)人拍攝的,因此圖像集可能存在尺寸大小不一致、光照明暗不一致、圖像之間發(fā)生旋轉(zhuǎn)等問題。針對(duì)這種情況,結(jié)合SIFT算法和SURF算法各自的特性,將SIFT的匹配結(jié)果和SURF的匹配結(jié)果進(jìn)行融合,以增強(qiáng)匹配結(jié)果的穩(wěn)定性。

定義圖像A到圖像B的匹配結(jié)果為RAB,則RAB(SIFT)為使用SIFT匹配的結(jié)果,

RAB(SURF)為使用SURF匹配的結(jié)果。設(shè)容器的尺寸為L,通過式(4)求取容器R的大小,即SIFT匹配結(jié)果的數(shù)量加上SURF匹配結(jié)果的數(shù)量。依次將SIFT的匹配結(jié)果RAB(SIFT)和SURF的匹配結(jié)果RAB(SURF)放入容器RAB(ALL)中,融合后的匹配結(jié)果為RAB(SIFT)與RAB(SURF)的合集,由式(5)表示。

用同樣的方法求出圖像B到圖像A的匹配結(jié)果RBA(ALL)。此方法可以彌補(bǔ)只用一種特征匹配的結(jié)果產(chǎn)生的匹配不足問題,3種匹配結(jié)果的關(guān)系如圖1所示。

通過融合2種特征匹配結(jié)果的匹配數(shù)量必然會(huì)增加,從而可以增加SFM算法得到的稀疏點(diǎn)云中點(diǎn)的數(shù)量,提高稀疏點(diǎn)云到稠密點(diǎn)云過程中的穩(wěn)定性,最終可以提高三維模型的質(zhì)量。圖2分別展示了SIFT特征匹配的結(jié)果、SURF特征匹配的結(jié)果和融合了2種特征匹配的結(jié)果,圖2 a)中有21條匹配對(duì),圖2 b)中有4條匹配對(duì),圖2 c)中有21+4=25條匹配對(duì)。

3 實(shí)驗(yàn)及結(jié)果分析

3.1 實(shí)驗(yàn)數(shù)據(jù)

為了驗(yàn)證匹配策略的有效性以及對(duì)三維重建效果的影響,通過大量實(shí)驗(yàn)進(jìn)行測(cè)試。本實(shí)驗(yàn)是在配置了Intel Xeon X5450 3.00 GHz的CPU,NVIDIA Quadro FX 370(256 MB)的GPU和4 GB內(nèi)存的個(gè)人工作站上進(jìn)行的,操作系統(tǒng)為Ubuntu 18.04。

考慮到測(cè)試數(shù)據(jù)的完整性,實(shí)驗(yàn)選用了1組自采數(shù)據(jù)集和2組公開數(shù)據(jù)集。自采數(shù)據(jù)集是個(gè)人拍攝的河北科技大學(xué)風(fēng)勇廣場(chǎng)石刻(FY),公開數(shù)據(jù)集包括慕尼黑工業(yè)大學(xué)計(jì)算機(jī)視覺組提供的貝多芬石膏像(Beethoven)和維羅納大學(xué)計(jì)算機(jī)科學(xué)系提供的布拉廣場(chǎng)照片(PiazzaBraNew),詳細(xì)信息如表3所示。

FY是在室外自然環(huán)境中拍攝的,Beethoven是在室內(nèi)光照下拍攝的,PiazzaBraNew是在廣場(chǎng)中任意采集的。其中FY和Beethoven是小規(guī)模的圖像集,即每張照片都包含了整個(gè)目標(biāo)物體,而PiazzaBraNew是大規(guī)模的圖像集,每張照片只包含場(chǎng)景的一小部分。圖3為拍攝示意圖,目標(biāo)物體周圍的錐形標(biāo)識(shí)代表每張照片的拍攝位置及方向。

3.2 驗(yàn)證匹配策略

首先,對(duì)圖像集進(jìn)行8倍下采樣,通過FY得到分辨率為408×306的圖像,通過Beethoven得到分辨率為128×96的圖像,通過PiazzaBraNew得到分辨率為376×250的圖像。然后,使用篩選策略(2.1中描述的方法)和融合策略(2.2中描述的方法)對(duì)3組圖像集進(jìn)行測(cè)試。最后,對(duì)實(shí)驗(yàn)數(shù)據(jù)進(jìn)行對(duì)比和分析。

圖4展示了FY的三維點(diǎn)云對(duì)比圖,圖5展示了Beethoven的三維點(diǎn)云對(duì)比圖,圖6展示了PiazzaBraNew的三維點(diǎn)云對(duì)比圖。

具體對(duì)比項(xiàng)包括:

a)未使用篩選策略,只使用SIFT特征匹配結(jié)果生成的三維點(diǎn)云;

b)未使用篩選策略,只使用SURF特征匹配結(jié)果生成的三維點(diǎn)云;

c)未使用篩選策略,使用融合策略生成的三維點(diǎn)云;

d)使用篩選策略,只使用SIFT特征匹配結(jié)果生成的三維點(diǎn)云;

e)使用篩選策略,只使用SURF特征匹配結(jié)果生成的三維點(diǎn)云;

f)使用篩選策略,使用融合策略生成的三維點(diǎn)云。

表4記錄了各組實(shí)驗(yàn)的數(shù)據(jù),包括使用各種匹配策略完成整個(gè)三維重建流程的時(shí)間和生成的三維點(diǎn)云的點(diǎn)數(shù),以及使用本文算法提高的效率和三維點(diǎn)的增長量。通過觀察圖表可以看出,使用篩選策略的三維重建時(shí)間比未使用篩選策略的三維重建時(shí)間短,使用融合策略生成的三維點(diǎn)云比只使用一種特征匹配結(jié)果生成的三維點(diǎn)云的完整度更高。

由于數(shù)據(jù)太多,本文僅以通過FY生成的實(shí)驗(yàn)數(shù)據(jù)為例說明表4中數(shù)據(jù)的含義。與未使用篩選策略的三維重建時(shí)間相比,使用篩選策略并且只用SIFT特征匹配結(jié)果的三維重建時(shí)間速度提高了56%。在未使用篩選策略的情況下,使用融合策略生成的三維點(diǎn)云的點(diǎn)數(shù)比只使用SIFT特征匹配結(jié)果生成的三維點(diǎn)云的點(diǎn)數(shù)增長了26%,比只使用SURF特征匹配結(jié)果生成的三維點(diǎn)云的點(diǎn)數(shù)增長了48%。Beethoven和PiazzaBraNew同理,故不再贅述。

通過3組圖像集可知,使用篩選策略的三維重建在速度上平均提高了約40%,其中在FY中提速52%,在Beethoven中提速41%,在PiazzaBraNew中提速26%。相對(duì)只使用SIFT特征匹配的結(jié)果而言,使用融合策略平均增加了約25%的三維點(diǎn)個(gè)數(shù),其中在FY中增加了16%的三維點(diǎn),在Beethoven中增加了37%的三維點(diǎn),在PiazzaBraNew中增加了23%的三維點(diǎn)。相對(duì)只使用SURF特征匹配的結(jié)果而言,使用融合策略平均增加了約114%的三維點(diǎn)個(gè)數(shù),其中在FY中增加了40%的三維點(diǎn),在Beethoven中增加了80%的三維點(diǎn),在PiazzaBraNew中增加了223%的三維點(diǎn)。

使用篩選策略的三維重建速度比未使用篩選策略的三維重建速度快,在對(duì)比圖中可以看出,使用篩選策略產(chǎn)生的三維點(diǎn)云沒有產(chǎn)生空洞,也就意味著對(duì)三維重建結(jié)果并未產(chǎn)生影響。在FY中,融合策略的優(yōu)勢(shì)不是很明顯。與圖4 c)相比,圖4 a)和圖4 b)只是損失了石刻周圍的一些場(chǎng)景,保留了目標(biāo)物體的絕大部分內(nèi)容,在細(xì)節(jié)上有些損失。但是在Beethoven和PiazzaBraNew中,融合策略發(fā)揮了很大的作用。由于只使用一種特征匹配的結(jié)果,導(dǎo)致匹配數(shù)量不足,使三維點(diǎn)云產(chǎn)生空洞,例如圖5 b)的石膏像后側(cè)產(chǎn)生了很大的空洞,圖6 a)的廣場(chǎng)右側(cè)丟失了一部分場(chǎng)景,圖6 b)只保留了廣場(chǎng)的一角。綜上所述,所提出的匹配策略不僅提高了三維重建的運(yùn)行速度,還改善了三維重建的效果。

4 結(jié) 語

針對(duì)無序圖像之間匹配的復(fù)雜性,提出了一種篩選策略,有效減少了算法的計(jì)算量,大幅提高了三維重建的運(yùn)行速度。另外,根據(jù)SIFT算法和SURF算法的特性,提出了融合SIFT匹配結(jié)果和SURF匹配結(jié)果的方法,增加了三維點(diǎn)的數(shù)量,增強(qiáng)了三維點(diǎn)云的穩(wěn)定性,提高了三維重建的質(zhì)量。

雖然所提出的匹配策略達(dá)到了預(yù)期效果,但是仍然需要繼續(xù)改進(jìn)。首先,本文提出的篩選策略是在低分辨率下進(jìn)行的,可能會(huì)出現(xiàn)本應(yīng)成功匹配的匹配對(duì)被過濾,從而導(dǎo)致三維模型失真的情況。未來可考慮對(duì)降采樣算法進(jìn)行改進(jìn),改善低分辨率圖像的精度,提高匹配的成功率。其次,本文提出的融合策略需要同時(shí)運(yùn)行SIFT算法和SURF算法,可能會(huì)導(dǎo)致一部分匹配對(duì)被重復(fù)計(jì)算,增加算法的運(yùn)行時(shí)間。未來可考慮加入去重算法,提高算法的運(yùn)行速度。

參考文獻(xiàn)/References:

[1]孫玉娟. 基于光學(xué)圖像的三維重建理論與技術(shù)[M]. 北京:清華大學(xué)出版社, 2017.

[2]YANG Hongkai, LIANG Kaichao, KANG Kejun, et al. Slice-wise reconstruction for low-dose cone-beam CT using a deep residual convolutional neural network[J]. Nuclear Science and Techniques, 2019, 30(4): 53-61.

[3]陳加, 張玉麒, 宋鵬, 等. 深度學(xué)習(xí)在基于單幅圖像的物體三維重建中的應(yīng)用[J]. 自動(dòng)化學(xué)報(bào), 2019, 45(4): 657-668.

CHEN Jia, ZHANG Yuqi, SONG Peng, et al. Application of deep learning to 3D object reconstruction from a single image[J]. Acta Automatica Sinica, 2019, 45(4): 657-668.

[4]LI Jianwei, GAO Wei, WU Yihong. High-quality 3D reconstruction with depth super-resolution and completion[J]. IEEE Access, 2019:2895653.

[5]MESCHEDER L, OECHSLE M, NIEMEYER M, et al. Occupancy networks: Learning 3D reconstruction in function space[C]// Proceedings of IEEE Conference. on Computer Vision and Pattern Recognition.[S.l.]:[s.n], 2019:arXiv:1812.03828.

[6]郭悅. 無序圖像的多視立體匹配算法研究[D]. 成都:電子科技大學(xué), 2017.

GUO Yue. Research on Multi-View Stereo Matching Algorithm Based on Unordered View[D]. Chengdu: University of Electronic Science and Technology of China, 2017.

[7]BOORA S, SAHU B C, PATRA D. 3D image reconstruction from multiview images[C]//2017

8th International Conference on Computing, Communication and Networking Technologies. [S.l.]:[s.n.], 2017:8204120.

[8]KURNIAWAN R A, RAMDANI F, FURQON M T. Videogrammetry: A new approach of 3-dimensional reconstruction from video using SfM algorithm: Case studi: Coal mining area[C]// 2017 International Symposium on Geoinformatics. [S.l.]:[s.n.], 2017:8280665.

[9]HAMZAH R A, KADMIN A F, HAMID M S, et al. Improvement of stereo matching algorithm for 3D surface reconstruction[J]. Signal Processing: Image Communication, 2018, 65: 165-172.

[10]HARRIS C G, STEPHENS M J. A combined corner and edge detector[C]// Proceedings of Fourth Alvey Vision Conference.[S.l.]:[s.n.], 1988: 147-151.

[11]LINDEBERG T. Detecting salient blob-like image structures and their scales with a scale-space primal sketch: A method for focus-of-attention[J]. International Journal of Computer Vision, 1993, 11(3): 283-318.

[12]LOWE D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision, 2004, 60(2): 91-110.

[13]BAY H, TUYTELAARS T, GOOL L V. SURF: Speeded-up robust features(SURF) [C]// Proceedings of European Conference on Computer Vision.[S.l.]:[s.n.], 2006: 404-417.

[14]BAY H, ESS A, TUYTELAARS T, et al. Speeded-up robust features(SURF)[J]. Computer Vision and Image Understand-ing, 2008, 110(3): 346-359.

[15]RUBLEE E, RABAUD V, KONOLIGE K, et al. ORB: An efficient alternative to SIFT or SURF[C]// Proceedings of the 2011 International Conference on Computer Vision. Washington, DC :IEEE, 2011: 2564-2571.

[16]齊冰潔,劉金國,張博研,等.高分辨率遙感圖像SIFT和SURF算法匹配性能研究[J].中國光學(xué),2017, 10(3):331-339.

QI Bingjie, LIU Jinguo, ZHANG Boyan, et al. Research on matching performance of SIFT and SURF algorithms for high resolution remote sensing image[J]. Chinese Optics, 2017, 10(3):331-339.

[17]馮玉朋, 曾慶喜, 馬杉, 等. 無人駕駛車輛基于角點(diǎn)和斑點(diǎn)的特征提取算法[J]. 河北科技大學(xué)學(xué)報(bào), 2017,38(3):237-243.

FENG Yupeng, ZENG Qingxi, MA Shan, et al. A feature extraction algorithm based on corner and spots in self-driving vehicles[J]. Journal of Hebei University of Science and Technology, 2017, 38(3): 237-243.

[18]KARTHIK O S, VARUN D, RAMASANGU H. Localized Harris-FAST interest point detector[C]// 2016 IEEE Annual India Conference (INDICON).[S.l.]:[s.n.], 2016:7839107.

[19]FUHRMANN S, LANGGUTH F, GOESELE M. MVE-A multiview reconstruction environment[C]// Proceedings of the Eurographics Workshop on Graphics and Cultural Heritage.[S.l.]:[s.n.], 2014: 11-18.

[20]FERREIRA E, CHANDLER J, WACKROW R, et al. Automated extraction of free surface topography using SfM-MVS photogrammetry[J]. Flow Measurement and Instrumentation, 2017, 54: 243-249.

主站蜘蛛池模板: 久久精品嫩草研究院| 欧美啪啪精品| 国产亚洲高清在线精品99| 亚洲国产成人在线| 欧美精品1区2区| 色婷婷色丁香| 天天色天天操综合网| 久久人搡人人玩人妻精品一| av天堂最新版在线| 国产尤物视频在线| 麻豆AV网站免费进入| 国产h视频在线观看视频| 国产亚洲第一页| 奇米精品一区二区三区在线观看| 色综合天天视频在线观看| 国产精品自在自线免费观看| 亚洲AV无码不卡无码 | 青青青国产在线播放| 无码中文字幕精品推荐| 在线无码九区| 夜精品a一区二区三区| 伊在人亚洲香蕉精品播放| 亚洲精品无码AV电影在线播放| 亚洲V日韩V无码一区二区| 国产理论最新国产精品视频| 国产精品入口麻豆| 午夜精品福利影院| 色婷婷啪啪| 激情在线网| 国产精品视频999| 91无码人妻精品一区| 在线五月婷婷| 亚洲欧美不卡中文字幕| 久久先锋资源| 成人综合久久综合| 国产一区二区三区在线无码| 亚洲天堂视频在线免费观看| 国产亚洲高清视频| 久久精品免费国产大片| 情侣午夜国产在线一区无码| 国产白浆视频| 性视频一区| 五月婷婷亚洲综合| 99re热精品视频国产免费| 国产女人在线| 久久久久免费看成人影片 | 免费看黄片一区二区三区| 97超爽成人免费视频在线播放| 亚洲一区第一页| 久久综合一个色综合网| 国产精品女熟高潮视频| 亚洲日韩精品伊甸| 亚洲va在线观看| 日韩免费无码人妻系列| 人妻91无码色偷偷色噜噜噜| 最新日韩AV网址在线观看| 91色老久久精品偷偷蜜臀| 国产亚洲精品97在线观看| 久久青草视频| 国产精品无码一二三视频| 精品天海翼一区二区| 91精品视频在线播放| 伊在人亚洲香蕉精品播放| 国产黄色片在线看| 在线免费看片a| 免费人成黄页在线观看国产| 午夜不卡视频| 五月天天天色| 精品人妻一区二区三区蜜桃AⅤ| 91无码人妻精品一区| 日本三级欧美三级| 国国产a国产片免费麻豆| 久久www视频| 天天激情综合| 18黑白丝水手服自慰喷水网站| 亚洲色成人www在线观看| 国产真实乱人视频| 欧美日韩午夜| 亚洲天堂久久| 午夜福利网址| 欧美日韩亚洲国产主播第一区| 国产精品99在线观看|