999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

多尺度特征融合對比學習結合PointMetaBase的點云分割

2024-09-15 00:00:00楊林杰張斌張志圣
現(xiàn)代電子技術 2024年15期
關鍵詞:深度學習

摘 "要: 點云場景邊界的精確分割對提升三維點云整體分割精度和小目標的分割精度都非常重要。針對現(xiàn)有三維點云語義分割算法中存在的對點云場景邊界分割不準確的問題,設計了一種新的多尺度特征融合對比學習方法,并將其集成到PointMetaBase網(wǎng)絡上,提出了MFFCL?PMB三維點云語義分割網(wǎng)絡。該網(wǎng)絡將解碼器各層的輸入和輸出平行多路徑地輸入多尺度特征提取網(wǎng)絡,其次將多尺度特征進行拼接融合,最后由邊界搜索模塊確定點云場景邊界點,在邊界點對應的多尺度融合特征上進行對比學習,使網(wǎng)絡學習到使特征區(qū)分度更大的權重。MFFCL?PMB在數(shù)據(jù)集S3DIS的測試集區(qū)域5上的mIoU為70.9%,相比原始的PointMetaBase,在邊界上的mIoU增加了1.4%,內(nèi)部區(qū)域mIoU增加了1.2%,總體mIoU增加了1.2%,邊界mIoU增量比內(nèi)部區(qū)域增加的mIoU更大,說明MFFCL?PMB有效增強了PointMetaBase在邊界上的分割表現(xiàn)并提高了網(wǎng)絡在點云總體上的語義分割性能。

關鍵詞: 深度學習; 三維點云; 語義分割; 對比學習; 多尺度特征融合; 編碼器; 解碼器

中圖分類號: TN919?34; TP391.41 " " " " " " " " " 文獻標識碼: A " " " " " " " " "文章編號: 1004?373X(2024)15?0091?07

Multi?scale feature fusion contrastive learning combining

with PointMetaBase for point cloud segmentation

YANG Linjie, ZHANG Bin, ZHANG Zhisheng

(School of Electronic Engineering and Automation, Guilin University of Electronic Technology, Guilin 541004, China)

Abstract: The accurate segmentation of point cloud scene boundaries is crucial for improving the overall segmentation accuracy of 3D point clouds and the segmentation accuracy of small objects. A novel multi?scale feature fusion contrastive learning (CL) method is designed and integrated into the PointMetaBase network to address the issue of inaccurate segmentation of point cloud scene boundaries in the existing 3D point cloud semantic segmentation methods. The proposed network is termed MFFCL?PMB (multi?scale feature fusion contrastive learning combining with PointMetaBase) for 3D point cloud semantic segmentation. In this network, the input and output of each layer in the decoder are fed into a multi?scale feature extraction network in a parallel and multipath manner. Subsequently, the multi?scale features are concatenated and fused. Finally, the boundary search module (BSM) is used to determine the point cloud scene boundary points. Contrastive learning is carried out on the multi?scale fused features corresponding to the boundary points and enables the network to learn weights that enhance feature discrimination. The mIoU (mean intersection over union) of MFFCL?PMB on the test area 5 of the S3DIS dataset is 70.9%. In comparison with the original PointMetaBase, the mIoU on the boundaries increases by 1.4%, the mIoU in the internal regions increases by 1.2%, and the overall mIoU increases by 1.2%. The increment of mIoU on boundary is greater than that in internal regions, which indicates that the MFFCL?PMB effectively enhances the segmentation performance of PointMetaBase on the boundaries and improves the network′s semantic segmentation performance on the entire point clouds.

Keywords: deep learning; 3D point cloud; semantic segmentation; contrastive learning; multi?scale feature fusion; encoder; decoder

0 "引 "言

三維點云語義分割是自動駕駛、機器人環(huán)境感知、醫(yī)學影像處理應用的基礎任務,目的是為點云中的每一個點分配一個標簽。隨著激光雷達、RGB?D相機的應用,三維點云數(shù)據(jù)的獲取變得越來越便捷,大規(guī)模點云數(shù)據(jù)集被提出,越來越多的方法被提出用于解決點云的語義分割問題。基于深度學習的方法目前是三維點云語義分割領域的主流,可以分為基于投影[1?3]、基于三維體素劃分[4?8]和基于原始點云[9?13]三種。

與圖片不同,由于點云具有稀疏、無序和不規(guī)則的特點,難以直接使用卷積神經(jīng)網(wǎng)絡學習,基于投影的方法將點云轉換為一系列圖片后,使用已有的二維語義分割算法進行處理,但這種處理方式會導致空間信息、幾何信息的丟失。基于三維體素劃分的方法將點云轉換為三維體素應用三維卷積處理。這類算法的優(yōu)點是保留了點云的空間和幾何信息,但隨著體素分辨率的變化,會存在不同程度的細節(jié)信息損失。PointNet[9]引入了置換不變性,能夠直接處理原始點云數(shù)據(jù)。隨后一系列基于原始點云的方法被提出,如Pointnet++[10]、PointNeXt[11]、Point Transformer[12],這些方法專注于為每個點捕捉更廣泛的上下文并學習更豐富的局部結構,能夠避免空間信息的丟失,但具有較高的參數(shù)量和計算開銷。文獻[13]總結了主流基于原始點云方法的結構,提出了一種更高效的方法PointMetaBase。然而PointMetaBase在對點云局部信息的學習中仍忽視了對場景邊界信息的利用,并由于對場景邊界點的誤分類造成對點云整體分割精度的下降。

點云場景邊界的精確分割對自動駕駛車輛、機器人對環(huán)境的感知十分重要。如果對邊界識別不準確,可能造成嚴重的問題,例如:機器人將墻面和地面混淆,則可能發(fā)生碰撞。由于在場景邊界上,不同類的點距離很近,語義分割網(wǎng)絡在匯聚局部信息時容易混淆屬于不同類點的特征,學習到模糊的特征導致誤分類。大量誤分類發(fā)生在點云邊界上,因此提升邊界點分割精度對于提升模型的整體分割效果幫助很大[14]。

本文針對PointMetaBase算法中存在的對點云場景邊界分割不準確的問題,提出了一種多尺度特征融合對比學習(Contrastive Learning, CL)結合PointMetaBase的三維點云語義分割方法(Multi?scale Feature Fusion Contrastive Learning Combining with PointMetaBase, MFFCL?PMB)。具體研究內(nèi)容為:設計了一種新的對比學習方法,在多尺度融合特征上進行對比學習,包括:

1) 采用多尺度特征融合網(wǎng)絡(Multi?Scale Feature Fusion Network, MFF?Net)將PointMetaBase解碼器第一層的輸入和余下各層的輸出特征進行融合,為對比學習提供高層次的全局語義信息和低層次的局部幾何信息;

2) 采用邊界搜索模塊(Boundary Search Module, BSM)確定點云場景邊界點,在邊界點對應的多尺度融合特征上進行對比學習,使MFFCL?PMB在邊界的兩側學習到區(qū)分度更大的表征,從而提高網(wǎng)絡對場景邊界的分割性能。

基于原始點云的分割方法采用對比學習優(yōu)化網(wǎng)絡,對邊界的分割性能通常需要利用編碼器或解碼器提供的多個語義尺度的特征和上下文,MFFCL?PMB基于多尺度融合特征進行對比學習而非在各尺度上進行多次對比學習,能夠在充分利用各層隱藏表征的同時避免引入大量參數(shù)和浮點運算數(shù),提供了一種高效的點云語義分割方法。

1 "MFFCL?PMB方法

MFFCL?PMB方法的網(wǎng)絡結構如圖1所示。該網(wǎng)絡由PointMetaBase主干網(wǎng)、MFF?Net組成,采用對比學習損失、交叉熵損失對網(wǎng)絡進行優(yōu)化。

PointMetaBase主干網(wǎng)[13]采用編碼器?解碼器結構。編碼器由一層MLP和若干PointMetaSA、PointMetaBase模塊前后堆疊組成,解碼器采用文獻[11]中設計的特征傳播層。MLP的通道數(shù)為32,在其后編碼器的每一層由一個PointMetaSA下采樣模塊和若干個PointMetaBase構建模塊組成,根據(jù)PointMetaBase模塊數(shù)量的不同可組成不同規(guī)模的主干網(wǎng)。本文中各層編碼器的PointMetaBase的個數(shù)為2、4、2、2,對應的基準模型為PointMetaBase?L。PointMetaBase模塊的輸入輸出如式(1)、式(2)所示:

[ "f'i= fi+ MLP3Maxej+GroupMLP1( fi)] (1)

[ej=MLP2(pj-pi)] (2)

式中:[fi]、[ f'i]表示模塊的輸入、輸出特征;[pi]、[pj]分別表示點[xi]的坐標和鄰居點坐標;[Group (?)]表示分組函數(shù),不同下標的[MLP (?)]表示結構不同的多層感知機;[Max(?)]表示最大池化層;[ej]表示位置編碼。如式(1)、式(2)所示,采用先經(jīng)過MLP再分組的方式,減少了大量的浮點運算數(shù)(Floating Point Operations, FLOPs);采用最大池化進行鄰居聚合,相比于可學習的聚合函數(shù),在減少了計算量的情況下取得了相近的性能;采用顯式的位置編碼彌補了先經(jīng)過多層感知機再分組的方式導致對位置關系感知的不足[13]。

然而,PointMetaBase缺乏對邊界信息的利用。在提取特征和位置編碼的過程中對邊界上不同類的點不加區(qū)分,可能導致網(wǎng)絡根據(jù)鄰居點之間相近的位置關系錯誤分類。因此,MFFCL?PMB集成MFF?Net,將主干網(wǎng)解碼器4個特征傳播層的輸入和輸出平行多路徑輸入MFF?Net中的5個MLP對齊特征維度,再由上采樣層(Upsample)進行特征插值,隨后對各層特征進行拼接,最后由線性層(Linear)對特征進行融合,由BSM搜索確定邊界點對應的融合特征進行對比學習。以融合后的特征作為輸出預測,應用交叉熵損失函數(shù)優(yōu)化整個網(wǎng)絡。

MFFCL的設計是受文獻[15]提出的CBL方法啟發(fā),但與CBL在編碼器的4個下采樣階段進行對比學習后再對多尺度特征進行融合不同,MFFCL采用先對解碼器多尺度特征進行融合,再進行單階段對比學習的策略,這種策略既保證了利用多尺度信息進行對比學習,又減少了對比學習的次數(shù),大大減小了模型的計算消耗。另一方面,采用CBL進行子場景邊界挖掘,確定下采樣階段點云的標簽;對下采樣階段[n]的第[i]個點[xni],采用KNN查詢,從下采樣階段[n-1]的點云中采樣若干個點,對這些點的標簽進行平均池化得到[xni]的標簽[lni]。這種方法可能會導致經(jīng)過多次下采樣后,子場景的邊界與真實邊界產(chǎn)生偏差,從而導致對比學習效果不佳。消融實驗證明,在對PointMetaBase的改進中,相比于在PointMetaBase應用CBL采取的對比學習方法,MFFCL?PMB在計算開銷大大減小的情況下取得了更高的分割精度。

1.1 "多尺度特征融合網(wǎng)絡

如圖1所示,MFF?Net包含5個平行的MLP層、4個平行的上采樣層和1個線性層[15]。該網(wǎng)絡的MLP層從左向右依次是第0、1、2、3、4層,和上采樣層與解碼器各層平行多路徑連接,加深網(wǎng)絡深度,同時將解碼器各層輸出的每個特征維度數(shù)量對齊為32維,輸出總的特征數(shù)量對齊為原始點云[X]輸入的總點數(shù)[K]。MFF?Net將對齊后的5組特征在特征維度上進行拼接,得到[K]個160維的特征,最后送入線性層進行融合。每個MLP層由一個線性層、一個批量歸一化層和ReLU激活函數(shù)組成,線性層和批量歸一化層的具體結構如表1所示。經(jīng)過融合的特征既包含了全局語義信息也包含了局部幾何信息,在其基礎上進行對比學習,與CBL在編碼器的各層分別進行對比學習相比,既利用了多尺度信息又減小了計算量。

1.2 "邊界搜索模塊

BSM根據(jù)公式(3)對包含點坐標、特征和標簽信息的點云數(shù)據(jù)進行邊界搜索[15]。

[Bl=xi∈X? xj∈N(xi), lj≠li] (3)

式中:[Bl]表示邊界點的集合;[X]表示原始輸入點云集合;[N(xi)]表示點[xi]的鄰居點集合;[li]與[lj]分別表示點[xi]與其鄰居點[xj]的標簽。對點[xi∈X]采用KNN查詢,從[X]中采樣點集[N(xi)],如圖2中左側點云中的虛線圈所示,圖中圓圈、正方形、六邊形代表不同類的點。對[xj∈N(xi)],若[xi]與[xj]的標簽滿足[lj≠li],則[xi]為邊界點。本文根據(jù)文獻[16?17]中的做法,將鄰居點的采樣半徑設置為0.1。

1.3 "對比學習損失函數(shù)

MFFCL?PMB采用的對比學習損失函數(shù)如公式(4)所示[15,18]:

[LCL=-1Blxi∈Bllogxj∈N(xi)∧lj=liexp-dfi,fjτxk∈N(xi)exp-dfi,fjτ] (4)

式中:[fi]表示點[xi]的特征;[fj]表示[xi]的鄰居點的特征;[d(? , ?)]表示距離函數(shù);[τ]為對比學習中的溫度系數(shù)。如圖2中右側點云中虛線圈所示,對邊界點[xi]用KNN查詢采樣獲取鄰居點,將[xi]的特征與鄰居點中同類點特征、不同類點的特征組成不同的點對(如虛線圈中連線所示),進行對比學習。在訓練過程中,通過優(yōu)化網(wǎng)絡權重,使得特征空間中同類的特征點在距離度量的意義下更為接近,異類的特征點在距離度量的意義下更為遠離。通過對比學習,可以有效提升不同類的邊界點之間的區(qū)分度,有利于模型分割得到更清晰的邊界。

網(wǎng)絡的整體損失函數(shù)被定義為交叉熵損失和對比學習損失的加權和,具體形式如公式(5)所示。

[L=Lcrossentropy+γ LCL] (5)

式中[γ]為損失權重。MFFCL?PMB僅在單階段應用對比學習,為了與CBL的多階段對比學習取得對網(wǎng)絡相近的懲罰程度,[γ]取值為5。

2 "實驗與分析

2.1 "數(shù)據(jù)集

S3DIS[19]是一個包含了約7億個點的大規(guī)模室內(nèi)場景點云數(shù)據(jù)集,對點云語義分割任務來說很有挑戰(zhàn)性。其中包含了6個區(qū)域共272個房間的帶有RGB信息的點云數(shù)據(jù)。數(shù)據(jù)集中的點被標注為天花板、地板、墻、梁、柱、窗戶、門、桌、椅、沙發(fā)、書柜、板、雜物共13類。實驗將數(shù)據(jù)集中的區(qū)域5作為測試集,區(qū)域1~區(qū)域4和區(qū)域6作為訓練集。

2.2 "實驗環(huán)境與參數(shù)設置

實驗在一塊顯存為24 GB的NVIDIA RTX A5000顯卡上進行。訓練的batch size為8,采用AdamW優(yōu)化器,初始學習率為0.001,采用Cosine衰減學習率,權重為10-4,從頭開始訓練100個epoch。對于PointMetaBase的復現(xiàn),采用官方的代碼和預訓練權重。

2.3 "評價標準

除了目前多數(shù)論文注重的常見評價指標,如平均交并比(mIoU)、總體精確度(OA)外,為了對邊界點分割質量進行定量分析,本文引入邊界mIoU、內(nèi)部mIoU評價指標[15]來分別評估模型對邊界點和內(nèi)部點的分割性能。

對于整個點云[X],mIoU的計算如公式(6)所示:

[mIoU(X)=1Cc=1C xi∈XG(ρi=c∧ li=c) xj∈XG(ρi=c∨lj=c)] (6)

式中:[C]表示數(shù)據(jù)集中所有類的數(shù)量;[c]代表第[c]個類;[ρi]表示預測標簽;[G(?)]表示一個布爾函數(shù),當括號中的表達式為真時,函數(shù)值為1,否則為0。根據(jù)平均交并比的定義和公式(3)對邊界點的定義,定義點云邊界mIoU和內(nèi)部mIoU如式(7)、式(8)所示:

[mIoUboundary=mIoU( Bl)] (7)

[mIoUinner=mIoU( X-Bl)] (8)

OA的計算公式如公式(9)所示:

[OA=c=1C xi∈XG(ρi=c∧ li=c)K] (9)

式中[K]為點云[X]的總點數(shù),即預測總數(shù)。

2.4 "實驗結果及分析

2.4.1 "性能比較

為驗證多尺度特征融合對比學習網(wǎng)絡的有效性,在S3DIS數(shù)據(jù)集上進行了基準網(wǎng)絡PointMetaBase?L和改進后的網(wǎng)絡MFFCL?PMB的對比實驗。表2顯示,PointMetaBase?L在點云邊界上的mIoU遠遠落后于內(nèi)部的mIoU,而整體mIoU位于兩者之間,這說明是由于邊界上的誤分割降低了點云的整體分割精度。MFFCL?PMB相比于PointMetaBase?L,點云邊界mIoU提升了1.4%,點云內(nèi)部mIoU提升了1.2%,整體的mIoU提升了1.2%。MFFCL?PMB在邊界上的mIoU提升幅度相比于內(nèi)部和整體更為顯著,說明多尺度特征融合對比學習網(wǎng)絡有效提高了基準模型在點云邊界上的分割效果,進而提升了對點云整體的分割效果。

表3對比了MFFCL?PMB與近幾年提出的主流的三維點云語義分割方法的分割效果,表4對比了不同方法的參數(shù)量和浮點運算數(shù)。由表3可知,相比于基準模型PointMetaBase?L,MFFCL?PMB大幅提升了柱(+9.6%)、椅子(+2%)、板(+5%)等區(qū)域較小的類的分割效果,這說明了MFFCL?PMB通過提升邊界的分割精度,有效提升了小目標區(qū)域的分割效果。同時,與其他主流方法相比,MFFCL?PMB也取得了更好的表現(xiàn)。值得指出,MFFCL?PMB的有效性是由于采用了多尺度特征融合對比學習設計,而不是簡單地增大模型規(guī)模。如表4所示,MFFCL?PMB的參數(shù)量和浮點運算量僅為Point Transformer的36%和37%,mIoU卻提高了0.5%。PointNeXt?L將mIoU從69.5%提升到70.8%需要將網(wǎng)絡規(guī)模擴大為PointNeXt?XL,參數(shù)量增加了34.5M,浮點運算量增加了69.6 GFLOPs;而MFFCL?PMB將基準模型mIoU從69.7%提高到70.9%,參數(shù)量僅增加了0.1M,浮點運算量僅增加了0.06 GFLOPs。

圖3定性地展示了MFFCL?PMB通過提升邊界的分割精確度,有效地提升了網(wǎng)絡對場景的整體分割精度。

2.4.2 "消融實驗

如表5所示,消融實驗首先研究了MFFCL?PMB中MFF?Net和CL對PointMetaBase分割效果提升的有效性;其次研究了本文提出的新的結合MFF?Net和CL的設計方案MFFCL?PMB的有效性,并與CBL提出的原始對比邊界學習的方法進行了對比。

方法2的實驗結果顯示,若僅在PointMetaBase的原始輸出上應用對比學習,甚至會損害模型的分割表現(xiàn)(OA-0.2%),這可能是由于僅對模型最后一層輸出進行對比學習,缺乏多尺度信息,因此對比學習并不能幫助網(wǎng)絡學習到能更清晰地區(qū)分邊界的權重;方法3的結果顯示,多尺度特征能幫助PointMetaBase有效提高分割性能,但并不全面(mIoU+0.6%,OA-0.1%);方法4為本文提出的MFFCL?PMB,通過在多尺度融合特征上進行對比學習,網(wǎng)絡的分割性能獲得大幅提升(mIoU+1.2%,OA+0.1%);方法5的實驗結果顯示,CBL采用先進行多尺度對比學習,后對多尺度特征拼接融合輸出的方式,對模型分割效果的提升作用比較有限(mIoU+0.7%,OA-0.1%)。綜合各個方法的結果分析,簡單應用對比學習或多尺度特征融合對提升網(wǎng)絡的分割性能的作用比較有限,在多尺度融合特征的基礎上進行對比學習則能充分利用全局和局部的信息,通過優(yōu)化網(wǎng)絡學習充分提高網(wǎng)絡分割性能的權重,但利用多尺度信息進行對比學習的網(wǎng)絡結構需要精心設計,MFFCL?PMB相比于CBL能在減少計算量的情況下更好地提升PointMetaBase的分割性能。

3 "結 "語

本文設計了一種新的多尺度特征融合對比學習方法,用以解決現(xiàn)有三維點云語義分割方法存在的對點云場景邊界分割不準確的問題,并將其結合到PointMetaBase網(wǎng)絡中,提出增強了點云邊界分割性能的MFFCL?PMB。通過引入評價指標邊界mIoU、內(nèi)部mIoU,定量分析了PointMetaBase在邊界分割精度上的不足,并通過對比實驗驗證了MFFCL對提升PointMetaBase的邊界分割效果和點云整體分割效果的有效性。同時,實驗還顯示,本文提出的MFFCL的結構設計對提升分割性能具有關鍵作用,并且所提出的MFFCL?PMB在引入了較低的參數(shù)量和計算量的情況下獲得了性能提升,是一種高效的三維點云語義分割方法。

注:本文通訊作者為張斌。

參考文獻

[1] XU C F, WU B C, WANG Z N, et al. SqueezeSegV3: Spatially?adaptive convolution for efficient point?cloud segmentation [C]// Proceedings of 16th European Conference on Computer Vision. Heidelberg, Germany: Springer, 2020: 1?19.

[2] WU B C, ZHOU X Y, ZHAO S C, et al. SqueezeSegV2: Improved model structure and unsupervised domain adaptation for road?object segmentation from a lidar point cloud [C]// 2019 International Conference on Robotics and Automation (ICRA). New York: IEEE, 2019: 4376?4382.

[3] MILIOTO A, VIZZO I, BEHLEY J, et al. RangeNet++: Fast and accurate lidar semantic segmentation [C]// 2019 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). New York: IEEE, 2019: 4213?4220.

[4] HU Z Y, BAI X Y, SHANG J X, et al. Voxel?mesh network for geodesic?aware 3D semantic segmentation of indoor scenes [EB/OL]. [2022?07?28]. https://ieeexplore.ieee.org/document/9844250.

[5] CHEN Z Q, YIN K X, FISHER M, et al. BAE?NET: Branched autoencoder for shape co?segmentation [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. New York: IEEE, 2019: 8489?8498.

[6] CHOY C B, GWAK J Y, SAVARESE S. 4D spatio?temporal ConvNets: Minkowski convolutional neural networks [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2019: 3075?3084.

[7] HU Z Y, BAI X Y, SHANG J X, et al. VMNet: Voxel?mesh network for geodesic?aware 3D semantic segmentation [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. New York: IEEE, 2021: 15468?15478.

[8] MENG H Y, GAO L, LAI Y K, et al. VV?Net: Voxel VAE net with group convolutions for point cloud segmentation [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. New York: IEEE, 2019: 8499?8507.

[9] QI C R, SU H, MO K C, et al. PointNet: Deep learning on point sets for 3D classification and segmentation [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2017: 77?85.

[10] QI C R, YI L, SU H, et al. PointNet++: Deep hierarchical feature learning on point sets in a metric space [C]// Advances in Neural Information Processing Systems 30: Annual Conference on Neural Information Processing Systems 2017. [S.l.: s.n.], 2017: 5099?5108.

[11] QIAN G C, LI Y C, PENG H W, et al. PointNeXt: Revisiting PointNet++ with improved training and scaling strategies [C]// Advances in Neural Information Processing Systems 35: Annual Conference on Neural Information Processing Systems 2022. [S.l.: s.n.], 2022: 23192?23204.

[12] ZHAO H S, JIANG L, JIA J Y, et al. Point transformer [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. New York: IEEE, 2021: 16239?16248.

[13] LIN H J, ZHENG X W, LI L J, et al. Meta architecture for point cloud analysis [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2023: 17682?17691.

[14] GONG J Y, XU J C, TAN X, et al. Boundary?aware geometric encoding for semantic segmentation of point clouds [C]// Proceedings of the 35th AAAI Conference on Artificial Intelligence. [S.l.]: AAAI Press, 2021: 1424?1432.

[15] TANG L Y, ZHAN Y B, CHEN Z, et al. Contrastive boundary learning for point cloud segmentation [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2022: 8479?8489.

[16] LIU Z, HU H, CAO Y, et al. A closer look at local aggregation operators in point cloud analysis [C]// Proceedings of 16th European Conference on Computer Vision. Heidelberg, Germany: Springer, 2020: 326?342.

[17] THOMAS H, QI C R, DESCHAUD J E, et al. KPConv: Flexible and deformable convolution for point clouds [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. New York: IEEE, 2019: 6410?6419.

[18] FROSST N, PAPERNOT N, HINTON G E. Analyzing and improving representations with the soft nearest neighbor loss [C]// Proceedings of 36th International Conference on Machine Learning. New York: PMLR, 2019: 2012?2020.

[19] ARMENI I, SAX S, ZAMIR A R, et al. Joint 2D?3D?semantic data for indoor scene understanding [EB/OL]. [2022?09?23]. http://arxiv.org/abs/1702.01105.

[20] CHENG B W, GIRSHICK R B, DOLLáR P, et al. Boundary IoU: Improving object?centric image segmentation evaluation [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2021: 15334?15342.

[21] LEE H J, KIM J U, LEE S, et al. Structure boundary preserving segmentation for medical image with ambiguous boundary [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2020: 4816?4825.

[22] YUAN J L, DENG Z L, WANG S, et al. Multi receptive field network for semantic segmentation [C]// Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision. New York: IEEE, 2020: 1883?1892.

[23] HU Z Y, ZHEN M M, BAI X Y, et al. JSENet: Joint semantic segmentation and edge detection network for 3D point clouds [C]// Proceedings of 16th European Conference on Computer Vision. Heidelberg, Germany: Springer, 2020: 222?239.

[24] ZHANG B, SUN C F, FANG S Q, et al. Workshop safety helmet wearing detection model based on SCM?YOLO [J]. Sensors, 2022, 22(17): 6702.

[25] 魯子明,黃世秀,季錚,等.基于PointNet優(yōu)化網(wǎng)絡的鐵路站臺語義分割[J].現(xiàn)代電子技術,2024,47(3):68?72.

作者簡介:楊林杰(1997—),男,廣西人,碩士研究生,研究方向為深度學習、三維點云語義分割。

張 "斌(1970—),男,湖南人,碩士,研究員,博士生導師,研究方向為深度學習、智能物聯(lián)網(wǎng)技術。

張志圣(2001—),男,河南人,碩士研究生,研究方向為深度學習、三維重建、點云分割。

猜你喜歡
深度學習
從合坐走向合學:淺議新學習模式的構建
面向大數(shù)據(jù)遠程開放實驗平臺構建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學習的三級階梯
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
利用網(wǎng)絡技術促進學生深度學習的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉課堂融合的深度學習場域建構
大數(shù)據(jù)技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
主站蜘蛛池模板: 亚洲第一色网站| 久久久久无码精品| 亚洲黄网在线| 97超级碰碰碰碰精品| 天天躁夜夜躁狠狠躁躁88| 国产高清在线观看91精品| 久久夜色精品国产嚕嚕亚洲av| 国产自在线播放| 性做久久久久久久免费看| 色网站在线免费观看| 狠狠五月天中文字幕| 九九九久久国产精品| 亚洲成人免费在线| 久久6免费视频| 久久99国产综合精品1| 成人免费视频一区| 9cao视频精品| 亚洲中文字幕久久精品无码一区| 秋霞午夜国产精品成人片| 亚洲精品无码日韩国产不卡| 色呦呦手机在线精品| 最新无码专区超级碰碰碰| 91亚洲国产视频| 欧美黄网在线| 欧美a在线视频| 自偷自拍三级全三级视频| 亚洲成人黄色在线| 亚洲第一区在线| 老司机精品久久| 免费在线色| 国产美女91视频| 波多野吉衣一区二区三区av| 欧美成人影院亚洲综合图| 麻豆AV网站免费进入| 亚洲天堂免费| 国产美女在线免费观看| 欧美激情二区三区| 国产精品九九视频| 美美女高清毛片视频免费观看| 精品久久久久久久久久久| 欧美 亚洲 日韩 国产| 国产成人精品午夜视频'| 亚洲aaa视频| 久久久精品无码一区二区三区| 免费国产福利| 国产一区二区三区精品欧美日韩| 亚洲伊人久久精品影院| 亚洲天堂网视频| 欧美全免费aaaaaa特黄在线| 免费欧美一级| 欧美成人二区| 国产国语一级毛片| 99青青青精品视频在线| 国产一二三区视频| 亚洲人成电影在线播放| 欧美三級片黃色三級片黃色1| 欧美天堂久久| 热久久这里是精品6免费观看| 激情亚洲天堂| 暴力调教一区二区三区| 亚洲第一区精品日韩在线播放| 亚洲国产欧洲精品路线久久| 亚洲精品日产精品乱码不卡| 亚洲视屏在线观看| 亚洲无线一二三四区男男| 国产h视频免费观看| 色婷婷综合激情视频免费看| 大学生久久香蕉国产线观看| 精品久久久久久成人AV| 欧美一区二区三区不卡免费| 一区二区三区成人| 91国内在线观看| 国产乱肥老妇精品视频| 免费看久久精品99| 成人毛片免费在线观看| 老色鬼欧美精品| 91免费国产在线观看尤物| 日韩av手机在线| 国产精品深爱在线| 国产精欧美一区二区三区| 99视频精品在线观看| 国产成+人+综合+亚洲欧美|