999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

單目相機在無監督學習多任務場景理解中的應用

2021-02-28 06:49:54華東理工大學信息科學與工程學院童云斐陳俊詠李佳寧潘澤恩
電子世界 2021年22期
關鍵詞:前景深度模型

華東理工大學信息科學與工程學院 童云斐 陳俊詠 李佳寧 潘澤恩

為了解決場景理解在無標簽數據時難以適用的情況,以及無監督學習的場景理解存在的魯棒性差、未能滿足多任務需求等缺點,基于Mask R-CNN、struct2depth、SfMLearner模型,通過模型訓練、圖像預處理、多任務耦合等方法,用拍攝的實景視頻驗證模型效果,并和原模型處理結果作對比。實驗結果表明,進行預處理后的圖像結果前景輪廓更加清晰,我們的模型實現了多任務的場景理解,而原模型僅實現了單一任務。改進的無監督學習多任務場景理解算法不僅提升了魯棒性,而且直接反映了物體到相機的距離,同時提高了深度估計的精度。

隨著汽車行業的快速發展,為提供更便利安全的駕駛服務,無人駕駛技術開發已經成為汽車及信息行業的熱門研究對象。場景理解是輔助駕駛中關鍵性環節,常見的場景理解任務包括深度估計、目標識別、語義分割等。本課題擬對無監督單目相機場景理解技術的實現展開研究。基于無標簽圖像的場景理解算法無需價格高昂的標簽數據,應用范圍廣泛;除外,還可同時實現多種任務的耦合訓練,提高算法精度并降低訓練難度,有很好的研究前景。

1 場景理解

本文完成的場景理解任務包括目標識別、運動分割和深度估計。目標識別任務旨在檢測前景中的物體對象,并對其進行識別分類,得到對象的屬性信息。由于使用到分類算法,此部分網絡模型是有監督地訓練的。運動分割模塊是為了將前景中可能運動的物體分離出來,方便后續單獨進行深度估計,減小誤差。深度預測網絡使用卷積自編碼器,將原圖像經過編碼解碼得到深度信息圖。通過單目序列圖像前后幀間視差可以推導相機的運動情況,結合運動信息訓練深度估計網絡,得到好的估計模型。場景理解網絡結構圖如圖1所示。

圖1 場景理解網絡結構圖

1.1 目標識別

對于目標識別任務,我們使用了一個預訓練的監督模型。參考Mask R-CNN的方法,此網絡預先進行單獨訓練,獨立于深度模型。在目標識別網絡訓練完成后,輸入圖片序列,該網絡會將圖片調整為神經網絡需要的大小并做歸一化處理,在上述操作完成后,目標識別網絡會對圖片中可能存在的對象做預測,提供識別出來的對象的掩膜信息、對象邊界框的位置及大小信息、對象類型的預測結果以及該預測結果的置信度。本文設置了顯示在圖像上的預測對象置信度的閾值,限制了只有置信度高于90%的預測結果,才會將相應的掩膜和邊界框添加到圖像上。

1.2 運動分割

本文使用的方法參考的是Casser等人提出的struct2depth模型。在圖像輸入深度網絡進行學習之前,分析圖像的結構信息,對場景中的單個對象建模,分離可能運動的前景物體和靜止背景。攝像機自我運動和物體運動都是通過單目圖像序列幀與幀之間的視差來進行學習的。對于場景中的任意一點,根據其與相機的相對運動關系,可以反推出該點的運動參數,由此可對前景中識別到的對象進行單獨的運動建模。

1.3 基于單目序列圖像的深度估計模型

與單目相機相比,雙目設備可以利用兩個視點的位置視差對圖像進行立體的理解。本文使用的方法參考了Zhou等人提出的SfMLearner模型,通過利用單目序列圖像前后幀由相機運動產生的視差對圖像場景進行深度估計。模型由兩個網絡組成,深度估計網絡Depth CNN以及用于得到相機自運動矩陣的Pose CNN。

深度估計網絡使用的是多尺度卷積自編碼器,其是一種常見無監督卷積神經網絡模型,也被多次應用到無監督深度估計任務中。模型由編碼器和解碼器組成,生成多尺度的目標圖像。Pose CNN以連續的2幀圖像作為輸入,生成相機位姿變換矩陣,描述相機在兩幀圖像前后的運動情況,包括視角旋轉和位置移動。將相機運動情況在世界坐標系中建模,可以將其在拍攝兩幀圖像時刻的前后位置變化分解成六自由度運動參數。

2 應用實驗

2.1 數據預處理

對于進行預處理后的圖像,其特征被增強,輪廓更加清晰,實驗效果更好。本項目中對圖像進行了自適應對比度增強(Adaptive Contrast Enhancement,ACE)。不同于全局的圖像增強,本項目對圖像對比度弱的部分做增強,得到的效果更好。

具體實現方法如下:

首先,計算圖像中每個點的局部均值M(i,j)和局部標準差σ(i,j)。像素值計算公式如式(1),其中,I(i,j)是增強后的像素值,f(i,j)是該點的像素值,M為全局均值,α是一個系數參數,一般取值在0到1之間。

對于彩色圖像,本方法將圖像轉到YUV色彩空間,增強Y通道明亮度后再轉回RGB空間。

2.2 實驗結果

將本文實驗結果與我們參考的深度估計鄰域的另外兩個模型進行對比。

如實驗結果圖如圖2所示,SfMLearner模型可以大致估計場景的深度前后關系,對前景物體有識別,但是不夠魯棒、準確。struct2depth模型可以識別前景中的對象,對前景中的行人和樹木都有實例分割的效果。我們在圖像進入模型推斷前加上特征增強的預處理過程,使得前景輪廓更加明確了。最后,加上預訓練的目標識別模塊,可以分割并識別前景中的對象類別。我們還在圖像中添加了方框和文本信息幫助理解,方框標出實例對象,文本標注其類別、置信度以及深度估計值。

圖2 結果對比圖

3 結語

本文針對目前無監督學習場景理解算法存在的模型魯棒性不足、未能滿足多任務需求等問題,提出改進的結合Mask R-CNN的無監督學習多任務場景理解方法。我們在結合相機自運動的深度理解模型基礎上,在數據預處理階段加入了自適應對比度增強算法以增強圖片對比度,在目標識別階段加入了掩膜以降低靜態物體或者場景對后續深度估計造成的干擾,并且更便于觀察深度預測圖中物體所在位置。實驗結果表明,本文方法在深度預估精度上有一定的提高,且對對象的識別更加準確。但目前存在一部分靜態目標或場景被錯誤識別為對象,如何改善模型以去除這些錯誤識別的對象是我們后續研究的方向。

猜你喜歡
前景深度模型
一半模型
我國旅游房地產開發前景的探討
法德軸心的重啟及前景
深度理解一元一次方程
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
離岸央票:需求與前景
中國外匯(2019年11期)2019-08-27 02:06:32
深度觀察
深度觀察
深度觀察
主站蜘蛛池模板: 国产成人亚洲欧美激情| 久久熟女AV| 国产精品爽爽va在线无码观看 | 人妻丰满熟妇啪啪| 中文字幕亚洲乱码熟女1区2区| 国内精品小视频在线| 亚洲成人精品| 伊人查蕉在线观看国产精品| 99在线观看精品视频| 日韩精品成人网页视频在线 | 无码国产伊人| 久久久四虎成人永久免费网站| 天堂网国产| 视频一本大道香蕉久在线播放| 成人精品亚洲| 波多野结衣第一页| 亚洲综合色吧| 欧美色亚洲| 亚洲香蕉久久| 亚洲一区二区日韩欧美gif| 青青网在线国产| 综合色区亚洲熟妇在线| 国产又粗又猛又爽视频| 无码免费的亚洲视频| 国国产a国产片免费麻豆| 欧美日韩国产在线播放| 国产91精选在线观看| 久久中文字幕不卡一二区| 国产亚洲视频播放9000| 久久精品国产999大香线焦| 欧美国产成人在线| 国产主播一区二区三区| 亚洲日韩每日更新| 日本不卡在线| 亚洲成年人网| 欧美日韩v| 亚洲AⅤ波多系列中文字幕| 91蜜芽尤物福利在线观看| 国产男人天堂| 91蜜芽尤物福利在线观看| 99久久婷婷国产综合精| 国产资源免费观看| 天天摸天天操免费播放小视频| 亚洲男人天堂久久| 国产成年女人特黄特色毛片免| 国产亚洲视频免费播放| 色哟哟国产精品| 青青青伊人色综合久久| 久久99国产综合精品1| 狠狠色香婷婷久久亚洲精品| 国产在线97| 2021天堂在线亚洲精品专区| 国产精品欧美亚洲韩国日本不卡| 国产精品无码一区二区桃花视频| 亚洲日韩在线满18点击进入| 茄子视频毛片免费观看| 国产福利不卡视频| 国产精品区网红主播在线观看| 日韩精品一区二区深田咏美| 四虎精品免费久久| 制服丝袜一区| 夜夜高潮夜夜爽国产伦精品| 中文天堂在线视频| 国产精品刺激对白在线| 免费人成在线观看成人片| 巨熟乳波霸若妻中文观看免费| 国产极品美女在线观看| 在线精品自拍| 亚洲人成在线精品| 国产女人18水真多毛片18精品 | 国产后式a一视频| 亚洲娇小与黑人巨大交| 日韩精品高清自在线| 亚洲精品动漫| 国产本道久久一区二区三区| 中文字幕第4页| 亚洲一区网站| 亚洲无码精彩视频在线观看| 国产电话自拍伊人| 欧美激情伊人| 国产精品亚洲va在线观看| 99视频在线精品免费观看6|