999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

聯合3D實例分割和目標檢測用于自動駕駛

2021-11-12 02:17:02宋新萍姚振鑫
智能計算機與應用 2021年9期
關鍵詞:關鍵點語義檢測

趙 璐,宋新萍,姚振鑫

(上海工程技術大學 機械與汽車工程學院,上海 201600)

0 引 言

3D物體檢測是3D感知中的一項具有挑戰性的任務,是自動駕駛汽車(AV)的基本組成部分。與普通2D物體檢測不同,AV需要從現實世界中估計更多的3D邊界框信息,以完成諸如路徑規劃、避免碰撞之類的高級任務。3D物體檢測的最新方法利用了不同類型的數據,包括傳感器采集的數據,單眼圖像,立體圖像。在自動駕駛中,LiDAR捕獲的點云是更通用,信息量更大的數據格式[1]。LiDAR點云的3D實例分割和對象檢測示例如圖1所示,圖像分別顯示了原始點云和3D檢測結果,真實情況和預測結果分別以綠色和紅色繪制,其中的紅點是前景點的預測的對象中心,RGB圖像僅在此處用于可視化。

圖1 來自LiDAR點云的3D實例分割和對象檢測示例

目標檢測通常將對象表示為2D或3D BBox,并帶有多個參數,如Bbox的中心、尺寸和方向等,這種簡單的表示形式適合于深度學習框架,同時也有一些局限性。例如,對象的形狀信息已被完全丟棄,對于某個BBox,不可避免要包含來自背景或其它對象的一些像素;在遮擋的情況下,這種情況變得更加嚴重;此外,BBox表示不夠準確,無法描述對象的確切位置。為了克服此問題,已為每個BBox使用了一個附加的實例mask,以消除其它對象或背景的影響,通常實例mask是二進制的,以描述像素是否屬于此對象。

本文設計了一個自下而上的聯合3D實例分割與目標檢測的端到端框架,其主要目標是更好地進行3D目標檢測。

1 相關工作

1.1 來自多個傳感器的3D物體檢測

MV3D是一項開創性的工作,融合了視覺和雷達點云信息,將點云投射到鳥瞰圖和前視圖中,這樣既能減少計算量,又不至于丟失過多的信息[2]。受MV3D啟發,AVOD提出一種特征提取方式,借助FPN的想法,從點云輸入和RGB圖像得到全分辨率的特征圖送入RPN網絡,彌補了mv3d網絡在小目標物體檢測上的不足[3]。

1.2 基于LIDAR的3D檢測

已被數個領先的3D檢測器證明,LiDAR傳感器具有抗干擾能力強、對光照不敏感以及測距精度高等特點。學者們提出了兩種類型的方法,即單階段方法和兩階段方法。相比于單階段的方法,兩階段的方法檢測精度更高,但需要更多的網絡推理時間。

單階段方法:VoxelNet代替了人工提取的特征,將點云劃分為等距的3D體素,并通過類似PointNet的網絡來應用VFE層,通過神經網絡學習低級幾何特征,從而表現出良好的性能[4]。HVNet通過引進混合體素網格來提高檢測精度[5]。

兩階段方法:與直接生成3D邊界框的單階段方法不同,兩階段方法旨在通過在第二階段來優化第一階段生成的3D提議,以生成更準確的目標檢測框。最近,PointRCNN利用具有SA和FP層的PointNet++來提取每個點的特征,提出了區域提議網絡(RPN)來生成提議,并應用了改進模塊來預測邊界框和類標簽[6]。

1.3 3D實例分割

當前的3D方法可以分為兩種:第一種基于檢測方法提取3D邊界框,并在每個框內利用mask學習分支來預測對象mask。SGPN基于提取的特征為每個點建立了一個相似度矩陣,通過相似矩陣計算點在特征空間的距離來判斷兩個點是否屬于同一對象[7];第二種基于分段的方法預測語義標簽,并利用點嵌入將點分組為對象實例,與SGPN不同,新提出的GSPN采用綜合分析策略來生成實例細分的提議。

2 本文的方法

聯合實例分割和3D BBoxes回歸框架如圖2所示,可以分為兩部分:第一部分是基于聚類策略的對象建議,第二部分是基于最小二乘擬合算法的BBoxes改進。第一部分包括融合采樣模塊、語義分割與中心偏移模塊以及基于聚類的提案生成模塊;第二部分包括3D關鍵點選擇模塊和最小二乘擬合模塊。

圖2 聯合實例分割和3D BBoxes回歸框架圖

2.1 骨干網絡

融合采樣:通過融合采樣[8],刪除了基于點的方法中必不可少的Feature Propagate(FP)層, 從而極大地減少了框架的運行時間[9]。

點云特征提取:對于采用融合采樣策略后的輸入點云,使用具有多尺度采樣和分組操作的常用PointNet++(無FP層以增加網絡的運行速度)網絡作為骨干網絡。特別是,設計的框架具有獨立的模塊,特征提取模塊可以使用任何點特征提取網絡代替。

2.2 語義分割與中心偏移

利用語義分割模塊來提取描述性特征,并預測每個點的語義標簽,與語義分割平行,采用偏移分支來學習相對偏移,將每個點移至其各自的真實實例中心。通過這種方式,可以將同一對象實例的點移向相同的中心,并將其聚集得更近,從而可以將點更好地分組為對象,并且可以將附近的同一類對象分離。

2.2.1 語義分割

以逐點特征作為輸入,設計了一個分割分支Ms模塊用于語義類預測。由于采用了多尺度采樣和分組策略,局部結構和全局上下文信息都已在每個點狀特征向量中進行了編碼,這有利于處理不同大小的對象。為了很好地解決分類中的類不平衡問題,使用焦點損失作為評測標準,式(1):

(1)

其中,C表示類別數,如果真相屬于第i類,則yi等于1,否則等于0;pi是第i類的預測概率;γ∈(0,+∞)是聚焦參數;αi∈[0,1]是第i類的加權參數。

2.2.2 中心偏移

中心偏移模塊Mc用于預測每個點到其對象中心的偏移量,只要所有點都拉到其所屬物理中心的同一對象,則可以將其直接分為不同的實例。因此,偏移量分支對骨干網絡提取的特征進行編碼,以針對N個前景(FG)點生成N個偏移向量O={o1,…,oN}∈RN×3。對于屬于同一實例的點,通過L1-distance回歸損失將其學習偏移量約束,式(2):

(2)

(3)

從點到其實例質心的距離通常具有較小的值(0~1 m),考慮到不同類別的不同對象大小,發現網絡很難回歸精確的偏移量,尤其是對于大型對象的邊界點距離實例質心相對較遠。為了解決這個問題,制定了方向損失,來約束預測偏移矢量的方向,式(4):

(4)

2.3 基于聚類的提案生成

通過語義分割與中心偏移的操作,所有FG點都將匯總到其相應對象的中心。可以通過簡單的聚類算法(即k均值[10])進行實例分割,k-means是較經典的聚類算法之一,該算法的效率高,在對大規模數據進行聚類時被廣泛應用。聚類后,通過平均前k個預測值,還為每個實例生成了平均值BBox。

2.4 BBox優化

盡管從第一階段開始的BBox預測非常精確,但仍有一些改進空間。類似于其它基于兩階段的方法,將相同實例上的點投票為其目標關鍵點,將最小二乘擬合算法應用于預測的關鍵點,通過得到的3D旋轉R∈ SO(3)和平移t∈R3來優化第一階段得到的BBox。

(1)3D關鍵點檢測。對于生成的每個提案,使用3D關鍵點檢測模塊MK來檢測每個對象的3D關鍵點,MK會預測從可見點到目標關鍵點的每點歐幾里德平移偏移,這些可見點以及預測的偏移量將投票給目標關鍵點,通過聚類算法收集投票點,并選擇聚類中心作為投票關鍵點。

(5)

其中,M是對象的選定關鍵點數。

2.5 多任務損失

多任務損失被用于訓練的網絡,包括語義分割損失Lcls、中心偏移損失Lcenter、關鍵點平移偏移損失Lkeypoints和3D BBox回歸損失Lreg,式(6):

L=Lcls+Lcenter+Lkeypoints+Lreg

(6)

中心偏移損失, 在訓練過程中,直接為每個FG點生成監督信號,并將損失函數表述為式(7):

Lcenter=Lo_reg+Lo_dir+Lsize+Lθ

(7)

其中,Lo_reg、Lo_dir、Lsize和Lθ分別是偏移量約束損失、方向損失、BBox尺寸和方向角的平滑度L1-distance損失。

BBox回歸損失:每個建議都編碼為7維向量,包括對象中心(cx,cy,cz),對象尺寸(h,w,l)和頭方向角θ。旋轉后的3D聯合損失在這里用作評測標準,式(8):

(8)

其中,Bd和Bg分別代表預測的BBox和真實的BBox。

3 實驗

3.1 數據集

本文利用公共KITTI數據集評估了3D實例分割和對象檢測的框架。整個數據集分為訓練集和測試集兩個子集,分別由7 481和7 518幀組成。

3.2 3D實例分割

在KITTI中,已為3類對象汽車、行人和騎自行車的人提供了3D BBox注釋,只需提取每個BBox內部的點,即可為每個對象生成實例mask。3D實例地面真實情況的示例如圖3所示,其中不同的顏色表示該圖像底部的不同對象, 綠色的BBox是真實結果,其它顏色 BBox是預測結果,底部圖像僅用于可視化。

圖3 基于KITTI 3D BBox注釋生成的實例分割

圖4 KITTI 3D物體檢測測試集上兩階段方法的評估結果

3.3 KITTI上的3D對象檢測

將本文的3D點云目標檢測與其它最新方法進行了比較,結果見表1。在3D和BEV檢測任務中,本文的方法在所有競爭對手中均獲得了出色的性能,在不同的召回率設置方面優于最新方法,具有更好的檢測覆蓋率和準確性,如圖4所示。將從LiDAR檢測到的3D邊界框投影到RGB圖像,以實現更好的可視化,如圖5所示。

圖5 在KITTI基準上聯合實例分割和3D對象檢測的3個示例

表1 與KITTI測試服務器上其它方法的性能比較

3.4 可視化檢測到的關鍵點

在實例分割的基礎上,可視化了檢測到的3D關鍵點,如圖6所示。綠色點是真實3D關鍵點,紅色點是預測的3D關鍵點,實驗結果表明本文的方法能夠選擇合適的關鍵點。

圖6 3D關鍵點可視化

4 結束語

本文提出了用于聯合3D對象檢測和實例分割的統一框架。第一階段設計了一個語義分割模塊Ms與平行的中心偏移模塊Mc,將屬于同一對象的所有前景點拉到其所屬物理中心;第二階段,提出了一種簡單有效的基于關鍵點的方法來優化第一階段得到的BBox。本文所提出的框架僅需幾個區域提議就能獲得最新的效果,這對于在實際應用中進行實時感知非常重要。當前,使用PointNet ++作為骨干網,是實時檢測率的瓶頸。將來,希望設計一個更高效的骨干網絡,以使系統實時運行,以便在360°視點上進行目標檢測。

猜你喜歡
關鍵點語義檢測
聚焦金屬關鍵點
肉兔育肥抓好七個關鍵點
今日農業(2021年8期)2021-11-28 05:07:50
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
語言與語義
“上”與“下”語義的不對稱性及其認知闡釋
現代語文(2016年21期)2016-05-25 13:13:44
小波變換在PCB缺陷檢測中的應用
認知范疇模糊與語義模糊
醫聯體要把握三個關鍵點
中國衛生(2014年2期)2014-11-12 13:00:16
主站蜘蛛池模板: 欧美一区福利| 成人一级黄色毛片| 国产精品青青| 亚洲一区波多野结衣二区三区| 91九色国产在线| 亚洲日本中文字幕天堂网| 99久久精品美女高潮喷水| 国产成人精品男人的天堂下载| 日本免费新一区视频| 亚洲精品第五页| 无码aⅴ精品一区二区三区| 制服丝袜一区| 国产美女视频黄a视频全免费网站| 伊人久久婷婷| 欧美伦理一区| 国产男人的天堂| 国内精品视频在线| 免费观看男人免费桶女人视频| 亚洲一区二区三区在线视频| 欧美啪啪网| 亚洲乱码在线视频| 亚洲有码在线播放| 国产正在播放| 这里只有精品在线| 天堂网亚洲系列亚洲系列| 国产在线精品网址你懂的| 在线国产综合一区二区三区 | av在线5g无码天天| jizz亚洲高清在线观看| 高清无码手机在线观看| 日韩精品高清自在线| jizz在线观看| 欧美不卡在线视频| 国产成人a在线观看视频| 国外欧美一区另类中文字幕| 国产在线视频福利资源站| 青青草原国产精品啪啪视频| 国产欧美在线| 99热这里只有精品在线播放| www.精品国产| 高清色本在线www| 亚洲成A人V欧美综合天堂| 国产精品自在拍首页视频8| 国产麻豆aⅴ精品无码| 成人综合网址| 99久久婷婷国产综合精| 国内精自线i品一区202| 国产偷国产偷在线高清| 4虎影视国产在线观看精品| 人妻91无码色偷偷色噜噜噜| 色香蕉网站| 国产精品视频白浆免费视频| 看看一级毛片| 色有码无码视频| 波多野结衣中文字幕一区二区 | 国产精品一线天| 久久精品人人做人人爽电影蜜月 | 欧美日韩免费观看| 国模视频一区二区| 亚洲色图欧美激情| 高清视频一区| 性视频一区| 国模私拍一区二区| 国产99精品久久| 最新加勒比隔壁人妻| 免费在线a视频| 国产区在线看| 少妇精品久久久一区二区三区| 这里只有精品国产| 国产自产视频一区二区三区| 久久久久久久蜜桃| 国产精品九九视频| 中文字幕无码中文字幕有码在线 | 中文字幕第1页在线播| 免费一极毛片| 国产91无码福利在线| 国产精品视频999| 亚洲精品久综合蜜| 77777亚洲午夜久久多人| 亚洲不卡av中文在线| 丁香婷婷综合激情| 午夜激情福利视频|