湯一平, 周靜愷, 徐海濤
(浙江工業大學 信息工程學院,浙江 杭州 310023)
?
一種主動式全景立體視覺傳感器設計
湯一平, 周靜愷, 徐海濤
(浙江工業大學 信息工程學院,浙江 杭州 310023)
摘要:現有的三維激光掃描儀無法實時、全自動地計算空間三維信息,需要對獲得的點云數據進行配準。為解決這些問題,研制了一種新型主動式全景立體視覺傳感器(ASODVS),并且從影響ASODVS測距精度的各個因素進行了分析。實驗結果表明:設計的ASODVS能自動、實時地進行空間物點深度測量,并得到相應的點云數據。
關鍵詞:主動式全景立體視覺傳感器; 面激光發生器; 單視點; 深度測量; 三維重構
0引言
與傳統的測量技術相比,三維激光掃描技術能夠快速、精確、無接觸地完成復雜表面的測量和建模[1]。但三維激光掃描儀的制造成本和維護成本十分昂貴[2],并且需要對不同傳感器的同名特征點進行配準。由于三維激光掃描技術在不同掃描站獲得的空間三維數據分別采用各自的局部坐標系,因此,需要將它們配準到統一坐標系下。任何一種拼接都可能產生誤差,并且還需要花費較大的計算資源[3]。
為解決上述問題,很多研究者從主動式全景立體視覺技術出發,通過集成全方位視覺傳感器和激光信息解決了傳統立體視覺中存在的特征點匹配問題[4~7]。視覺傳感器的全方位成像特點使得這種技術在應用于空間三維信息測量和點云數據獲取時無需對數據進行拼接。但是,目前這種技術最大問題是難以應用同一傳感器對全景空間物點實現幾何和色彩信息的同步獲取,并且測量過程無法滿足實時性、自動化的要求。
為此,本文結合實驗室自主設計的全方位視覺傳感器(omni-directional vision sensor,ODVS)[8]和移動面激光發生器實現了一種新型主動式全景立體視覺傳感器(active ste-reo omni-directional vision sensor,ASODVS),并對其精度和適用情況進行了分析。ASODVS研究的貢獻在于能夠實時獲取實際物體的幾何、顏色信息,從視頻信號獲取源上解決計算機視覺測量領域中的準確性、實時性及魯棒性等方面的問題。
1ASODVS的設計
1.1設計原理
主動式全景立體視覺技術通常涉及四個坐標系:全景攝像機坐標系(camera coordinate system,CCS)、世界坐標系(global coordinate system,GCS)、移動面激光發生器坐標系,即掃描坐標系(scan coordinate system,SCS)和數字化圖像平面坐標系(image coordinate system,ICS)。大多數情況下,激光發生器、被測物和攝像機均處于不同的空間位置,因此,四個坐標系不能構成簡單的關系,這樣就使得測量時需要對坐標系進行配準和轉換。坐標系之間的轉換不僅會增大計算復雜度,也會降低測量數據的精度和魯棒性。
為了解決這個問題,ASODVS在設計時充分利用ODVS的單視點特性[8],以單視點在水平地面的投影點上為原點建立GCS,并且使ODVS的軸心和帶動移動面激光發生器移動的螺桿軸心完全重合。使得GCS,CCS和SCS在垂直方向上構成直接關系重合。如圖1所示,SCS與CCS的XOY平面互相平行,并在Z軸方向上相距h(Z),h(Z)的值通過估計激光發生器的移動速度和時間得到[9]。
ASODVS的設計降低了計算的復雜程度、提高了檢測精度和魯棒性。

圖1 ASODVS各個坐標系之間的關系Fig 1 Relationship between coordinate systems of ASODVS
1.2硬件組成
ASODVS由移動面激光發生器和ODVS構成,系統的硬件結構如圖2所示。為了與ODVS的全方位成像特點相匹配,移動面激光發生器由四個相隔90°的綠色線激光組成,其發射出的激光能夠覆蓋空間水平面的360°范圍。通過步進電機的轉動使得移動面激光發生器上下運動從而掃描場景,電機由型號為M542(4.2A,50 V)的驅動器驅動。四個綠色線激光發生器的型號為FU53212L10—BD22,波長為532 nm,形成的光斑模式為一字線狀,功率為10 mW。

圖2 ASODVS硬件結構圖Fig 2 Hardware structure of ASODVS
2ASODVS測距原理
ASODVS在進行空間點三維測距時采用了三角測距原理[10],相比于其他激光測距原理,三角測距法的激光掃描效率更高,并且系統復雜度更低。
ASODVS在進行空間三維信息測量時,啟動移動面激光發生器并對場景進行掃描,同時獲得一系列帶有激光信息的全景圖像。通過對全景圖像中的激光點進行解析[9]能夠獲得相應的入射角α和方位角β,根據式(1)、式(2)和式(3)可以計算該點的三維坐標值,如圖3所示。在空間三維坐標計算的同時,ASODVS能夠根據全景圖像得到對應點的顏色信息,實現空間點幾何信息和顏色信息的同步獲取。ODVS的具體標定方法參考文獻[11],標定結果如表1所示。

表1 ODVS的標定結果

(1)

(2)
式中‖u″‖為成像平面上的點到平面中心的距離,α0,α2為ODVS的標定參數,h(Z)為W點到視點Om的垂直距離,稱為基線距,rw為W到Om的距離,βw為W相對于Om的方位角,αw為W相對于Om的入射角。空間點三維坐標分別為

(3)
其中,α為入射角,r為空間某一點與坐標原點之間的深度值,β角為水平面與X軸正向的夾角,即全方位圖像上對應像素點的方位角。

圖3 三維坐標的計算Fig 3 Calculation of 3D coordinates
3實驗研究
為驗證ASODVS空間三維坐標計算的準確性,將其放置在一個大小約為25 m2的場景內進行測距。表2為測得的數據,根據數據繪制的誤差曲線如圖4所示。由圖可知,空間點到單視點的距離最大測量誤差在3 %以內。應用ASODVS在圖5所示場景中掃描可得如圖6所示三維點云模型。
3.1基線距對測距誤差的影響
對式(1)中的基線距h求偏微分可得到

(4)

表2 距離估算數據

圖4 距離誤差與方位角的關系曲線Fig 4 Curve of relationship between distance error and azimuth angle

圖5 十個測距位置Fig 5 Ten ranging positions

圖6 場景的三維點云Fig 6 3D points cloud of scene
由公式可知,入射角α越大,φh的值越大,即基線距誤差對測距誤差的影響越大。
3.2入射角對測距誤差的影響
對式(1)中的入射角α求偏微分可得到

(5)
式中φα為測量誤差對入射角的敏感系數,其與入射角和測量距離的關系曲線如圖7所示。當測量距離r和入射角α越大時,φα的值越大。當入射角接近90°時,入射角誤差對測距誤差的影響非常大。

圖7 φα關系曲線Fig 7 φα relationship curve
3.3圖像分辨率對測距誤差的影響
完成ODVS的標定之后,空間某一點相對于單視點Om的入射角α可以通過式(6)進行計算

(6)
將式(6)代入式(5),并將|u″‖記為u可以得到式(7)

(7)
其中,a0,…,aN為ODVS的標定參數,并且a4,…,aN近似為0。
因此,入射角對的變化關系可以用式(8)計算,對式(8)進一步處理可得到式(9)

(8)

(9)
式中φu為測量誤差對像素距離的敏感系數。圖8為φu與r和u的關系曲線,當估算距離越大,像素距離越小時,φu越大。由于像素距離u的值可以反映圖像的分辨率,因此,當估算距離r不變時,圖像分辨率越高,φu越小,即像素誤差對距離測量誤差的影響越小。

圖8 φu關系曲線Fig 8 φu relationship curve
4結論
本文設計的ASODVS能夠實時、快速、準確地計算場景的空間三維坐標,并同時得到點云對應的顏色信息。通過上述精度分析可知,從以下三個方面改進ASODVS可以提高三維測量的精度:
1)提高h的精度:系統通過估算電機的運動速度和運動時間來得到h值,如果采用位移傳感器直接實時獲取激光光源的移動距離,可以進一步提高三維測量精度。
2)增大圖像分辨率:增大圖像分辨率可以從硬件和軟件兩方面進行改進。在硬件方面,本文的ODVS分辨率為1280像素×720像素,可以采用更高分辨率的成像芯片。在軟件實現方面,可以通過對圖像進行超分辨率重構的方式提高分辨率。
參考文獻:
[1]Qingguo T,Yujie Y,Xiangyu Z,et al.An experimental evaluation method for the performance of a laser line scanning system with multiple sensors[J].Optics and Lasers in Engineering,2014,52:241-249.
[2]Stoyanov T,Mojtahedzadeh R,Andreasson H,et al.Comparative evaluation of range sensor accuracy for indoor mobile robotics and automated logistics applications[J].Robotics and Autonomous Systems,2013,61(10):1094-1105.
[3]Kwang-Ho B,Derek D L.A method for automated registration of unorganized point clouds[J].ISPRS Journal of Photogrammetry and Remote Sensing,2008,63:36-54.
[4]Orghidan R,Mouaddib E M,Salvi J.Omnidirectional depth computation from a single image[C]∥International Conference on Robotics and Automation,2005:1222-1227.
[5]Yi S,Suh J,Hong Y,et al.Active ranging system based on structured laser light image[C]∥SICE Annual Conference,2010:747-752.
[6]Kenki Matsui,Atsushi Yamashita.3D shape reconstruction of pipe with omnidirectional laser and omnidirectional camera[C]∥Asian Symposium for Precision Engineering and Nanotechnology,2009:1701-1706.
[7]Zhang C,Xu J,Xi N,et al.Development of an omnidirectional 3D camera for robot navigation[C]∥Advanced Intelligent Mechatro-nics, Kaohsiung:IEEE,2012:262-267.
[8]湯一平,葉永杰,朱藝華,等.智能全方位視覺傳感器及其應用研究[J].傳感技術學報,2007,20(6):1316-1320.
[9]徐海濤,周靜愷,林璐璐,等.基于ASODVS的全景點云數據獲取技術的研究[J].計算機測量與控制,2014,22(7):2284-2287.
[10] 李冬冬,王永強,許增樸,等.激光三角法在物面傾斜時的測量誤差研究[J].傳感器與微系統,2015,34(2):28-36.
[11] 周宗思.全方位視覺技術及其在移動機器人導航中的應用[D].杭州:浙江工業大學,2009:10-20.
Design of an active stereo omni-directional vision sensor
TANG Yi-ping, ZHOU Jing-kai, XU Hai-tao
(College of Information Engineering,Zhejiang University of Technology,Hangzhou 310023,China)
Abstract:Existing three-dimensional laser scanners cannot calculate three-dimensional information in real-time and automatically,and data registration is essential after acquisition of points cloud.In order to solve these problems,a new kind of active stereo omni-directional vision sensor(ASODVS)is developed,and factors influence ranging precision are also analyzed.Experimental results demonstrate that the proposed ASODVS system can automatically measure 3D panorama space in real-time,and corresponding points cloud datas will also be acquired.
Key words:active stereo omni-directional vision sensor(ASODVS); planar laser generator; single view point; depth measurements; 3D reconstruction
DOI:10.13873/J.1000—9787(2016)02—0109—04
收稿日期:2015—05—19
中圖分類號:TP 391
文獻標識碼:A
文章編號:1000—9787(2016)02—0109—04
作者簡介:
湯一平(1956-),男,浙江杭州人,博士,教授,研究領域為計算機視覺、全方位視覺傳感器、物聯網技術。