999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于雙目視覺的水面障礙物識(shí)別算法

2018-09-26 11:34:32韓佳穎周楠

韓佳穎 周楠

摘要:為了實(shí)現(xiàn)無人艇對(duì)水面障礙物的定位,將雙目視覺技術(shù)應(yīng)用于障礙物圖像識(shí)別與定位,提出一種改進(jìn)的雙目識(shí)別的快速算法。該算法基于HSI顏色空間和SURF 特征原理實(shí)現(xiàn)特征點(diǎn)的提取,運(yùn)用多類約束條件對(duì)匹配點(diǎn)對(duì)進(jìn)行篩選,提高匹配效率。

關(guān)鍵詞:雙目識(shí)別;特征匹配;識(shí)別算法

中圖分類號(hào):TP391.41 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1007-9416(2018)05-0140-02

雙目識(shí)別技術(shù)作為立體視覺的前沿科學(xué)在工業(yè)自動(dòng)化生產(chǎn)、人機(jī)交互和虛擬現(xiàn)實(shí)等諸多領(lǐng)域都得到了廣泛應(yīng)用[1]。目前在雙目識(shí)別技術(shù)的研究中,特征的提取和匹配是關(guān)鍵技術(shù),主流采用SURF特征點(diǎn)提取和匹配算法,但是通過SURF特征匹配識(shí)別目標(biāo),會(huì)使圖像特征點(diǎn)數(shù)量多,運(yùn)算量較大,實(shí)時(shí)性較差。無人艇水面實(shí)時(shí)避障過程中,障礙物的距離信息是需要提取的主要信息,由此改進(jìn)SURF特征匹配算法,優(yōu)化特征點(diǎn)對(duì)匹配的約束條件,提高匹配速度和精度,為無人艇的自動(dòng)航行和避障提供一種有效技術(shù)。

1 雙目識(shí)別與定位基本原理

雙目識(shí)別與定位的常規(guī)過程包括:圖像獲取、攝像機(jī)標(biāo)定與矯正、特征提取、特征匹配和立體重構(gòu)[2]。本文實(shí)現(xiàn)主要流程如下:

(1)通過雙目攝像頭來獲得二維圖像;(2)采用SURF原理獲得左右圖像匹配的特征點(diǎn)對(duì),特征提取前進(jìn)行圖像預(yù)處理,便于特征提取;(3)利用三類約束條件進(jìn)行左右圖像中對(duì)應(yīng)特征點(diǎn)對(duì)的篩選;其中特征點(diǎn)對(duì)篩選和匹配是本文研究的關(guān)鍵問題。

2 特征提取與匹配

2.1 圖像預(yù)處理

攝像頭獲取的圖像常采用RGB顏色空間描述,相比于RGB空間,HSI顏色空間用色調(diào)、色飽和度和亮度來細(xì)分顏色空間,有助于目標(biāo)物體的分離。采用圖像分割方法,容易將目標(biāo)物體從背景中分離出來,分離后圖像特征提取的計(jì)算量大大減小[3]。

2.2 基于SURF的特征點(diǎn)提取與匹配

Speeded Up Robust Features(SURF)[4],是一種穩(wěn)健的局部特征點(diǎn)檢測(cè)和描述算法,是對(duì)David Lowe在1999年提出的Sift算法的改進(jìn)[5]。

SURF特征點(diǎn)的提取和匹配由4個(gè)步驟組成(1)檢測(cè)特征點(diǎn);(2)選取特征點(diǎn)主方向;(3)生成特征描述符;(4)SURF特征點(diǎn)匹配。

3 特征匹配點(diǎn)對(duì)的篩選

雙目識(shí)別技術(shù)在機(jī)器人的傳感器中已得到廣泛應(yīng)用。利用它可以計(jì)算攝像機(jī)可拍攝范圍內(nèi)任意一點(diǎn)的三維坐標(biāo),其關(guān)鍵在于對(duì)應(yīng)點(diǎn)的匹配[6]。通過SURF特征匹配獲得的匹配點(diǎn)對(duì)數(shù)據(jù)量大,實(shí)時(shí)性較差,需要對(duì)匹配點(diǎn)進(jìn)行進(jìn)一步篩選。

3.1 誤匹配原因分析

在左右圖像匹配中,受攝像頭差異、畸變和特征不一致性、精度等諸多因素影響,特征點(diǎn)匹配過程中會(huì)出現(xiàn)誤匹配。一般有兩種誤匹配:一對(duì)多和匹配到錯(cuò)誤的特征點(diǎn)。前者一般是由于圖像中存在多個(gè)區(qū)域亮度信息分布近似的點(diǎn),導(dǎo)致左圖像中的一個(gè)特征點(diǎn)可與右圖像中的多個(gè)特征點(diǎn)匹配。后者一般是由于特征點(diǎn)局部信息近似,導(dǎo)致左圖像中的特征點(diǎn)匹配到了與之無關(guān)的特征點(diǎn)。因而需要對(duì)匹配點(diǎn)對(duì)進(jìn)行篩選,增強(qiáng)匹配點(diǎn)對(duì)的準(zhǔn)確率,提高計(jì)算的精度。

3.2 約束條件

本文設(shè)定三類約束:針對(duì)一對(duì)多的誤匹配,采用唯一性約束原理排除此類誤匹配;針對(duì)匹配到錯(cuò)誤特征點(diǎn)的誤匹配,采用局部極線約束和左右坐標(biāo)約束減少誤匹配。

(1)唯一性約束條件。對(duì)于左圖像中的特征點(diǎn),在右圖中與之匹配的點(diǎn)若存在,則是唯一的[7]。左圖中的特征點(diǎn)一旦匹配到右圖特征點(diǎn),則停止匹配。

(2)局部極限約束條件。極線約束常用于特征匹配[8],應(yīng)用極線約束可以大大減少匹配到錯(cuò)誤匹配點(diǎn),但左右圖像特征點(diǎn)互相映射,增大了算法的運(yùn)算量,不適用于實(shí)時(shí)系統(tǒng)中。所以本文采用局部極線約束,不做投影變換,選用合理閾值來減少第二類誤匹配,方法如下:

根據(jù)上述雙目攝像頭特點(diǎn),左右圖像在縱向 y 軸上存在一個(gè)左、右目標(biāo)點(diǎn)的匹配搜索區(qū)域,如式(1)所示。

其中,yl、yr分別為左、右匹配點(diǎn)自y軸坐標(biāo)。若T取值太小(接近0),則蛻化為極線約束。這使得正確匹配點(diǎn)對(duì)被大量濾除;當(dāng)T取值太大,則不能濾除錯(cuò)誤匹配點(diǎn)對(duì),需要通過試錯(cuò)法來獲取T。

(3)左右坐標(biāo)約束條件。左右坐標(biāo)差可表示為:

其中,zc為目標(biāo)點(diǎn)在攝像機(jī)坐標(biāo)系中的z坐標(biāo),b為基線的長(zhǎng)度,f為焦距,ds為像素的物理尺寸,xl為目標(biāo)點(diǎn)在左圖像中x坐標(biāo),xr為該目標(biāo)點(diǎn)在右圖像中對(duì)應(yīng)的x坐標(biāo)。如式2所示,需滿足左右圖像橫坐標(biāo)xl與xr的差值為正。

4 實(shí)驗(yàn)結(jié)果與分析

采用索尼1300萬像素Exmor RSTM堆棧式圖像傳感器,獲取左右攝像頭圖像后處理過程如圖1(a-c)所示。本文采用局部極線約束條件,大大減少了匹配算法的計(jì)算量。

在matlab環(huán)境下分別進(jìn)行SURF匹配、SURF加上局部約束條件后以及SURF加上三類約束條件后匹配的匹配點(diǎn)對(duì)數(shù)量,如表1所示,通過三類約束能夠修正誤匹配點(diǎn)對(duì)。經(jīng)過唯一性約束、局部極線約束和左、右坐標(biāo)約束后,誤匹配點(diǎn)對(duì)數(shù)量大大減少,不僅減少了目標(biāo)深度數(shù)據(jù)的計(jì)算量,提高系統(tǒng)時(shí)效性,還能提高深度計(jì)算數(shù)據(jù)的精度。

5 結(jié)語

本文采用雙目攝像頭,通過改進(jìn)SURF匹配算法,實(shí)現(xiàn)水面障礙物識(shí)別。首先對(duì)圖像進(jìn)行預(yù)處理,提取有用特征圖像,然后基于SURF特征原理實(shí)現(xiàn)特征點(diǎn)的提取和匹配,運(yùn)用優(yōu)化的三類約束條件,對(duì)誤匹配的特征點(diǎn)對(duì)進(jìn)行篩選,獲得有效的特征點(diǎn)對(duì)。該算法能夠應(yīng)用于水面無人艇障礙物識(shí)別與距離測(cè)量,深度的測(cè)量范圍主要由攝像頭的像素量決定。本文所識(shí)別的障礙物為遠(yuǎn)處小型障礙物,障礙物的深度信息視為各處基本一致,測(cè)量快速有效,但對(duì)于大型障礙物,各處深度信息變化較大,有效的特征點(diǎn)對(duì)的選取仍是值得研究的問題。

參考文獻(xiàn)

[1]尚倩.基于雙目立體視覺的目標(biāo)識(shí)別與定位[D].北京交通大學(xué),2011.

[2]唐獻(xiàn)獻(xiàn).基于雙目立體視覺的目標(biāo)識(shí)別與定位研究[D].哈爾濱理工大學(xué),2017.

[3]高麗,令曉明.基于數(shù)學(xué)形態(tài)學(xué)的HSI空間彩色邊緣檢測(cè)方法[J].光電工程,2010,(4):125-129.

[4]H Bay,A Ess, T Tuytelaars ,LV Gool. SURF: Speeded Up Robust Feature[J].Computer Vision & Image Understanding, 2008,110(3):346-359.

[5]蘇勇剛,高茂庭.基于分布式并行計(jì)算的SIFT算法[J].現(xiàn)代計(jì)算機(jī),2016,(20):18-23.

[6]肖婷,文懷興,夏田.基于雙目視覺技術(shù)的挖掘機(jī)智能化控制系統(tǒng)[J].工程機(jī)械,2007,(3):4-7.

[7]向登寧,鄧文怡,燕必希,等.利用極線約束方法實(shí)現(xiàn)圖像特征點(diǎn)的匹配[J].北京信息科技大學(xué)學(xué)報(bào)(自然科學(xué)版),2002,(4):21-25.

[8]陳潔,高志強(qiáng),密保秀,陳會(huì).引入極線約束的SURF特征匹配算法[J].中國(guó)圖象圖形學(xué)報(bào),2016,(8):1048-1056.

主站蜘蛛池模板: 国产成人啪视频一区二区三区| 中国毛片网| 天天综合网色中文字幕| 国产精品免费电影| 成年人国产网站| 国产精品jizz在线观看软件| 成人小视频在线观看免费| 国产日韩久久久久无码精品| 国产毛片基地| 色综合中文综合网| 国产一区二区福利| 亚洲天堂成人在线观看| 制服丝袜一区二区三区在线| 成人国产精品2021| 国内精品久久九九国产精品| 夜夜操国产| 亚洲h视频在线| 永久免费av网站可以直接看的| 精品综合久久久久久97超人| 亚洲Va中文字幕久久一区 | 国产成人精彩在线视频50| 天堂网国产| 蜜桃臀无码内射一区二区三区| 国产免费黄| 久久久亚洲色| 亚洲AⅤ综合在线欧美一区| 欧美特黄一级大黄录像| 亚洲国产综合自在线另类| 一级黄色欧美| 色综合五月婷婷| 欧美视频在线不卡| 精品午夜国产福利观看| AV色爱天堂网| 久久久精品国产亚洲AV日韩| 欧美a在线视频| 色婷婷色丁香| 呦视频在线一区二区三区| 亚洲日韩久久综合中文字幕| 制服丝袜一区| 成人毛片在线播放| 99久久性生片| 99国产在线视频| 国产农村妇女精品一二区| 激情乱人伦| 亚洲动漫h| 亚洲中文无码av永久伊人| 久久永久视频| 国产成人夜色91| 九色国产在线| 国产激爽大片在线播放| 国产在线第二页| 精品无码专区亚洲| 99久久国产综合精品女同| 在线人成精品免费视频| 区国产精品搜索视频| 色综合热无码热国产| 国产精品一区二区在线播放| 四虎亚洲国产成人久久精品| 2020久久国产综合精品swag| 毛片网站观看| 好紧好深好大乳无码中文字幕| 亚洲天堂视频网站| 一级黄色欧美| 亚洲精品无码成人片在线观看| 热re99久久精品国99热| 久久久91人妻无码精品蜜桃HD| 99热这里只有精品免费国产| 九九线精品视频在线观看| 亚洲狼网站狼狼鲁亚洲下载| 99er精品视频| 成人午夜久久| 国产第二十一页| 国产屁屁影院| 四虎成人在线视频| 欧美啪啪视频免码| 久久九九热视频| 亚洲中文精品久久久久久不卡| 久久精品娱乐亚洲领先| 老司机久久99久久精品播放| 亚洲第一色视频| 日本黄色a视频| 国产波多野结衣中文在线播放|