999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合絕對誤差和與Census變換的雙目立體圖像匹配算法

2020-11-24 07:45:16孫延坤李彩林王佳文蘇本婭崔志婷
科學技術與工程 2020年29期
關鍵詞:實驗

孫延坤, 李彩林, 王佳文, 蘇本婭, 崔志婷

(山東理工大學建筑工程學院, 淄博 255000)

計算機技術經過數十年的不斷發展,雙目立體視覺作為一種非接觸性的測量技術,被廣泛運用于航天航空、三維重建、機器人導航、安防監控等領域[1-2]。雙目立體視覺關鍵技術之一即為立體匹配,由于影像中通常存在光照和紋理結構變化的問題,利用傳統的立體匹配算法極易出現大量的誤匹配等問題,制約著后續應用的范圍及精度。因此,對弱紋理區域和視差不連續區域匹配精度的研究受到廣大學者的青睞。雙目立體視覺獲取空間物體三維信息的流程主要包括圖像獲取、攝像機標定、圖像矯正、立體校正、立體匹配、生成深度圖像[3],如圖1所示。

圖1 雙目立體視覺流程Fig.1 Binocular stereo vision process

Zahih等[4]為了提高算法精度,提出基于非參數變換的方法,同時克服了光照不同與幾何變化對灰度值的影響。Birchfield等[5]采用灰度絕對差(absolute difference,AD)作為匹配代價,可以較好地反映像素點之間的灰度變化,不足之處在于該算法對光照變化產生的噪點十分敏感,魯棒性較差。李志等[6]提出一種彩色Census變換匹配算法,提高對不同光照變化的魯棒性,但是存在視差邊緣匹配不準確的缺陷。Hirschmüller[7]提出一種介于局部算法與全局算法之間的半全局立體匹配(semi-global matching,SGM)算法。雙目立體像對采用基于互信息的匹配成本計算策略來提升匹配效率,通過優化最小能量函數并且進行多個方向代價聚合來提高計算精度,但復雜度較高。

綜合考慮上述算法的優缺點,針對弱紋理區域和視差不連續區域較難處理以及受噪聲和光照變化等復雜干擾因素的影響下極易產生誤匹配等問題,提出了利用局部匹配絕對誤差和(sum of absolute differences, SAD)算法在灰度信息及紋理豐富區域匹配速度快、計算效率高和Census變換對圖像輻射差異具有魯棒性的優勢,將SAD和Census算法融合替代單一匹配代價來改進傳統的立體匹配算法,同時采用簡單十字交叉方法進行代價聚合,通過后處理優化初始視差圖,進而得到最終效果良好的視差圖。

1 圖像預處理

以獲得的二維數字圖像為出發點,獲取空間物體三維幾何信息的過程之中,相機標定是十分重要的環節。采用簡單靈活得到廣泛使用的張正友平面攝像機標定方法[8-9]。相機與標準的標定板都允許在任意方向移動,利用不少于3個不同的視角圖像就可以獲取相機的內外參數,便于實現又可以得到相對較好的定標精度。由于相機移動以及外界環境的影響,相機無法避免獲取帶有畸變的影像,而對畸變的糾正主要是針對徑向畸變。雙目立體匹配利用Bouguet立體校正[10],在左右視圖中通過極線約束將尋找匹配點的搜索范圍從二維平面縮小到一維直線搜索,并且獲得嚴格水平行對準的左右視圖。立體像對利用一定的相似性測度算法,一旦確定了匹配點,即可獲得三角測量原理中的視差值,從而恢復真實客觀世界中該點的深度信息。現采用Scharstein等[11]的算法思想,如圖2所示,將立體校正后的立體像對通過匹配代價計算、代價聚合、視差選擇和視差優化4個階段,即可以獲取匹配效果良好、錯誤匹配少的高精度視差圖。

圖2 立體匹配流程Fig.2 Stereo matching process

2 算法原理

2.1 SAD算法原理

SAD算法具有計算速度快和實時性能好的優點,其核心思想是把左右圖像中匹配點每個像素對應數值之差的絕對值求和,并評估左右圖像塊之間的相似度。SAD算法計算公式為

(1)

式(1)中:IL(x,y)、IR(x,y)表示左右視圖中像點(x,y)位置的像素灰度值;d為視差值。用i、j遍歷匹配窗口中的每個像素,每進行一次運算d的數值會發生變化。匹配窗口的構建如圖3所示,其中,PL為左目參考圖像,PR為右目待匹配圖像,并且左右視圖Y軸相等,在X軸存在水平位移。左視圖像PL和右視圖像PR分別以中心像素點(x0,y0)、(x0+d,y0)構建尺寸大小為M×N的匹配窗口WL和待匹配窗口WR。然后,統計兩匹配窗口內像素灰度,并求取WL與WR中所有像素差的絕對值。根據相似性度量函數在預先設置的視差范圍內,從若干可能選取的匹配窗口中尋找最佳的匹配窗口。若兩個子窗口計算所得SAD最小時,即為最佳匹配窗口,則對應的點為最佳匹配點,此時當前的d即為視差值[12]。

圖3 SAD匹配原理Fig.3 SAD matching principle

2.2 SAD與Census融合原理

Census變換的核心思想是使用像素鄰域內的局部灰度差異,用比特串來表示編碼后像素灰度變換信息。由于Census變換能夠更好地檢測出圖像中的紋理空間分布信息,因而具有更好的魯棒性和適用性。Census變換公式為

(2)

(3)

式中:C(p)為窗口中心像素p為基準經過變換后的一個比特串;I(p)、I(q)為像素p、q的灰度值;W(p)為窗口中心像素p為基準的像素鄰域,若窗口中的某個像素q的灰度大于中心像素p,則將比特串的相應位置標記為1,否則將其設置為0[13];?為比特位的逐位連接運算。對視差搜索范圍內的每一個像素(x,y)的視差值,需要根據下式來計算相似性測度值。

(4)

式(4)中:CL(x,y)、CR(x,y-d)為經過Census變換后得到的比特串;d為當前搜索視差值,Hamming[CL(x,y),CR(x,y-d)]為兩比特串的漢明距離,漢明距越小,兩點之間相似度越高;n×n為匹配窗口大小。

設計了SAD和Census的融合策略,SAD與Census變換產生的初始匹配代價存在差異,為避免初始代價不一致導致視差圖準確度不夠的問題的產生,所以須經過處理后將兩者的初始代價進行歸一化以生成視差空間。因此,定義式(6)的歸一化公式將兩者的數據統一歸一化到[0,1]區間上,然后,將歸一化后的數據進行求和來生成新的匹配代價[14]。

C(p,d)=ρ[CCen(p,d),λCen]+

ρ[CSad(p,d),λSad]

(5)

(6)

式中:CCen(p,d)為經過Census變換后的得到匹配代價值;CSad(p,d)為經過SAD算法計算得到的匹配代價值;λCen、λSad分別為Census變換、SAD算法的影響參數;ρ(c,λ)通過預先設置λCen和λSad可以將兩種類型的代價值控制在[0,1],因此代價不會由于某一項而引起較大的突變。與單一基于SAD或Census變換的算法相比,融合算法生成的視差圖更為準確,因為Census變換利用鄰域像素與中心像素對比的信息來代替原有的灰度,對于光照等因素引起的亮度偏差有較好的魯棒性,并且SAD算法針對窗口內像素灰度值的匹配更加精確。結合兩者優勢,融合匹配算法比單獨使用兩者時正確率得到提高,產生的誤匹配率更小,具有更好的魯棒性和抗噪性。

2.3 代價聚合

采用簡單的十字交叉區域[15]獲得中心像素的方法進行代價聚合,十字交叉區域的結果不僅考慮中心像素與周圍像素的距離關系,而且可以用于視差圖像的后處理并且能夠提高代價聚合的效率。

算法將中心像素延伸到圖像邊緣的距離稱為臂長。如圖4所示,對中心像素進行4個臂拓展延伸的下一點p1應該滿足:

圖4 十字交叉原理Fig.4 Principle of cross

DC(p1,p)<τ1,DC[p1,p1+(1,0)]<τ1

(7)

DS(p1,p)

(8)

DC(p1,p)<τ2, 如果L2

(9)

式中:DC(p1,p)為p1和p像素點間的顏色差異,DS(p1,p)為p1和p像素點間的幾何距離。式(7)表明p1點與中心像素點p的顏色差異應該小于給定閾值,且p1與p的下一個點之間的顏色差異也要小于閾值τ1,這確保了自適應區域包含的點不會跨越圖像的邊緣。式(8)表明臂長要小于最大臂長,使其在給定的閾值范圍L1內擴張。式(9)則選擇較小的閾值τ2進行限制,當距中心像素的距離大于L2時,可確保在無紋理和弱紋理區域中有足夠的信息,并且不會在強紋理區域中引入不同的顏色的其他像素。當p1點違反上述任一條件時,相應的臂的擴張結束。在中心像素的4個臂擴展完成之后,每個像素q的水平臂在其垂直臂上形成一個自適應區域。

2.4 視差計算與后處理

計算初始匹配代價后,通過勝者為王策略[16](winner-takes-all,WTA)尋找最優視差,從所有可能選擇的匹配代價中確定最小匹配代價的位置后而對應的視差值即為最優視差。由于立體匹配的左右視圖從不同的視角進行拍攝,因而存在遮擋區域,即在一個圖像中存在而在另一圖像中不存在的區域。通過左右一致性檢測[17]后,對遮擋點進行視差填充。由于圖片本身存在噪聲以及填充后的視差仍然存在很多獨立的噪聲,為了提高結果的準確性,進行中值濾波[18]濾除噪聲。經過3種細化方法不但去除錯誤的孤立點減少錯誤匹配,同時還可以相對較好地保留圖像的邊緣信息。

3 實驗結果與分析

設計了兩個實驗,利用標定實驗得到的標定參數后,進行立體校正可以獲取嚴格水平的左右視圖。利用不同算法對左右視圖進行立體匹配對比實驗,同時也選取不同場景的數據集驗證了所提算法的可行性和適用性。

3.1 相機標定實驗

選取普通雙目攝像頭進行標定實驗,左右攝像機間距約4.15 cm,圖像最大分辨率是640×480。在同一場景下利用固定攝像機移動標定板的方法采集8組圖像(圖5)進行雙目攝像機標定測試,相機標定結果保存在計算機中,具體結果如表1所示。

表1 相機標定結果Table 1 Camera calibration results

圖5 相機標定圖片Fig.5 The image of camera calibration

根據相機標定結果對拍攝的一個立體影像對進行校正,取得了良好的效果。如圖6所示,圖6(a)是校正前的左右實拍圖,水杯的瓶蓋存在上下偏移的現象。圖6(b)是校正后的左右實拍圖,水杯的瓶蓋上下偏移現象消失,左右視圖只存在水平偏移現象。實驗結果表明,經過立體校正后,左右視圖的所有極線都相互平行,并且方向與圖像坐標系的X軸相同,同時對應點的縱坐標也相同。

圖6 立體校正前后Fig.6 Before stereo correction

3.2 立體匹配實驗

采用C++語言在Visual Studio 2013集成環境下編程實現SAD、Census、融合SAD和Census的立體匹配算法(簡稱SAD-CEN),采用操作系統為Win10 64位,處理器為AMD Ryzen 5 2600 Six-Core 3.4 GHz,運行內存8 GB的計算機進行實驗。實驗數據采用Middlebury[19]平臺提供的4組測試圖像Cones、Teddy、Tsukuba、Venus以及對應真實的視差圖。分別采用SAD(匹配窗口大小為5×5)、Census以及本文提出的SAD-CEN算法(匹配窗口大小均為9×9)對4組測試圖像進行實驗。實驗結果如圖7所示。

由圖7可以看出,與SAD和Census算法相比,采用SAD-CEN算法計算的視差圖具有明顯優勢:①Cones視差圖的圓錐影像更接近真實視差圖,圓錐的邊緣表達更清晰,并且面具模型的輪廓更加圓潤;②Teddy視差圖中間橫放的木頭更符合原來的形狀,并且玩偶熊的右手上方和頭部區域能夠很好地分離,且相對于SAD算法,弱紋理區域更加平滑;③Tsukuba視差圖燈罩形狀以及燈桿與燈罩的連接處更符合真實視差圖,不但燈桿兩個長柄之間的縫隙清晰可見,而且桌子下面的匹配更準確;④Venus視差圖的拐角邊緣準確,并且獨立噪聲點比較少,更符合真實視差圖。綜上所述,融合SAD與Census的SAD-CEN考慮紋理空間分布信息,克服了SAD算法在大面積紋理缺乏區域的錯誤匹配多的問題,融合算法平滑性較好,物體邊緣輪廓較清晰,匹配精度得到提高。

圖7 實驗結果Fig.7 Experimental results

為了更好地評估3種算法生成視差圖的效果,將3種算法生成的效果圖分別與Middlebury平臺提供的真實視差圖進行對比,兩者的視差閾值設置為1,如果兩者之間的差大于1,則認為該點是匹配錯誤點。通過不同的算法對4組圖像進行測試,所有區域平均誤匹配率數據如圖8所示。

圖8 視差圖誤匹配率折線圖Fig.8 Line chart of disparity map mismatch rate

由圖8可知,SAD算法誤匹配率最高,Census算法次之,SAD-CEN算法誤匹配率最低。在Teddy與Tsukuba視差圖像中的表現尤為明顯:Teddy視差圖像中SAD-CEN算法的誤匹配率比SAD算法降低約10%;而Tsukuba視差圖像中SAD-CEN算法的誤匹配率比Census算法降低約8%。表明SAD-CEN生成的視差圖誤匹配率比單獨使用SAD和Census的生成視差圖誤匹配率有一定程度降低,匹配精度得到提高,匹配效果得到改善。

為了測試算法在復雜情況下生成視差圖的效果以及適用性,另外選取兩組影像數據進行實驗。第1組數據為室外汽車行駛圖片,圖像分辨率為655×540,第2組數據為相機實際拍攝的影像,影像分辨率為290×230。采用SAD、Census和SAD-CEN算法進行測試,實驗結果如圖9所示。由圖9中第1組數據的實驗結果可知,相比Census和SAD算法,采用SAD-CEN算法進行立體匹配后的圖片,汽車輪廓更符合現實,同時信號燈的末尾也可以在視差圖上清晰反映。由圖9中第2組數據的實驗結果可知,SAD-CEN算法生成的視差圖在飲料瓶的邊緣及瓶子之間的間隔更加清晰。實驗結果表明SAD-CEN算法生成的視差圖錯誤匹配較少,驗證了該算法在復雜情況下仍具有較好的適用性。

圖9 不同場景的實驗結果Fig.9 Experimental results of different scenes

4 結論

在求得攝像機內外參數,進行立體校正的基礎上,針對立體匹配中弱紋理區域和深度不連續區域誤匹配率較高的問題,提出一種融合SAD和Census計算匹配代價的算法,同時采用簡單十字交叉的代價聚合方法不僅改善了視差圖生成效果而且提高了算法的準確度。針對不同實驗場景的測試仍可以生成效果較好的視差圖,進一步驗證了算法的適用性。立體匹配是計算機視覺中的關鍵技術,對立體匹配算法的準確性以及實時性改進是未來研究工作的重點。

猜你喜歡
實驗
我做了一項小實驗
記住“三個字”,寫好小實驗
我做了一項小實驗
我做了一項小實驗
記一次有趣的實驗
有趣的實驗
小主人報(2022年4期)2022-08-09 08:52:06
微型實驗里看“燃燒”
做個怪怪長實驗
NO與NO2相互轉化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
主站蜘蛛池模板: 激情亚洲天堂| 99久久精品免费看国产免费软件| 毛片网站观看| 高清无码不卡视频| 在线播放国产99re| 黄色网在线| 亚洲第一黄色网址| 99草精品视频| 国产拍揄自揄精品视频网站| 国产屁屁影院| 色AV色 综合网站| 亚洲国产成人超福利久久精品| 午夜少妇精品视频小电影| 在线观看亚洲精品福利片| 97国产在线播放| 亚洲天堂视频在线播放| 四虎永久免费地址在线网站| 91精品国产自产在线老师啪l| 久草视频中文| AV网站中文| 日本免费一区视频| 欧美日韩国产成人在线观看| 欧美人在线一区二区三区| 久久精品免费看一| 亚洲一区精品视频在线| 国产精品永久不卡免费视频| 日韩资源站| 日本人妻一区二区三区不卡影院| 97人妻精品专区久久久久| 天天色天天综合| 综合网久久| 久久综合AV免费观看| 欧美色视频在线| 99re精彩视频| 99re免费视频| 国产区精品高清在线观看| 日韩欧美亚洲国产成人综合| 999精品在线视频| 91视频国产高清| av在线手机播放| 亚洲成人福利网站| 色成人综合| 亚洲欧美日韩另类在线一| 国产99欧美精品久久精品久久| 国产精品三级专区| 成人亚洲国产| 亚洲第一色网站| 性色一区| 视频国产精品丝袜第一页| 成人蜜桃网| 在线观看亚洲人成网站| 狠狠ⅴ日韩v欧美v天堂| 在线观看国产精品第一区免费| 天天躁日日躁狠狠躁中文字幕| 国产欧美精品一区二区| 精品丝袜美腿国产一区| 亚洲国产看片基地久久1024| 91久久偷偷做嫩草影院免费看| 国产在线97| 亚洲综合久久成人AV| 精品视频一区二区观看| 亚洲一欧洲中文字幕在线| 成人在线不卡| 国产成人精品优优av| 亚洲国产综合自在线另类| 伊人久久福利中文字幕| 国产精品手机在线播放| 91蝌蚪视频在线观看| 99热6这里只有精品| 欧美成人午夜视频免看| 久久性视频| 片在线无码观看| 中文字幕中文字字幕码一二区| 露脸一二三区国语对白| 全午夜免费一级毛片| 99精品国产自在现线观看| 色天堂无毒不卡| 亚洲天堂久久久| 重口调教一区二区视频| 91成人在线免费视频| 五月综合色婷婷| 中文字幕丝袜一区二区|