










摘 要:針對自動駕駛場景中復雜環境下的3D 目標檢測任務,特別是遠距離和遮擋條件下,為提高模型的檢測準確率,在SECOND 的基礎上提出了Tv-SECOND 兩階段算法。該算法提出一種基于Transformer 架構的提案框特征提取模塊,并在傳統體素特征編碼基礎上提出可變形的體素特征編碼模塊。在KITTI 數據集上進行測試,結果顯示,所提出的算法相比SECOND 在遠距離和遮擋嚴重的情況下分別提高了7. 49% 、9. 72% 。同時與其他先進的兩階段方法相比,檢測精度有不同程度的提升,證明了Tv-SECOND 算法的有效性。新算法能夠建立特征之間的依賴關系,聚合周邊廣域的上下文信息,增強模型的學習推理能力,有效提升了模型在遠距離和遮擋的情況下的檢測性能。
關鍵詞:自動駕駛;3D 目標檢測;Transformer;SECOND
中圖分類號:TP391. 41 文獻標志碼:A 開放科學(資源服務)標識碼(OSID):
文章編號:1003-3114(2024)04-0823-08
0 引言
自動駕駛技術可以減輕駕駛員工作負擔和提高行車安全性,近年來受到了越來越多的關注[1-3]。3D 目標檢測作為自動駕駛系統的關鍵技術之一,扮演這重要角色。其主要任務是準確估計駕駛環境中目標的位置、大小和類別等信息,為環境感知、決策規劃、未來預測和碰撞預防等多個關鍵環節提供支持。
目前3D 目標檢測算法主要分為兩大類:基于圖像的算法和基于點云的算法?;趫D像的算法從圖像中獲取更加詳細的目標形狀信息,通過投影和渲染,并比較損失得到更準確的檢測結果。文獻[4-5]等方法使用改進過的2D 目標檢測框架和單目相機直接從圖像中回歸3D 框的參數?!?br>