999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

結構化區域全卷積神經網絡的鋼軌扣件檢測方法*

2020-11-15 11:10:10蔣欣蘭
計算機與生活 2020年11期
關鍵詞:深度區域檢測

蔣欣蘭

1.中國社會科學院大學 計算機教研部,北京 102488

2.中國社會科學院大學 計算社會科學研究中心,北京 102488

1 引言

近年來,隨著鐵路事業的快速發展,我國鐵路總里程已達124 000 km。鋼軌扣件是軌道上用以連接鋼軌和軌枕的軌道基礎設施部件,其作用是將鋼軌固定在軌枕上,保持軌距并防止鋼軌的側向移動。鋼軌扣件發生異常,將使得扣件對鋼軌起不到固定作用,對列車的運行安全產生嚴重的影響。因此,鐵路鋼軌扣件的服役狀態對保障鐵路安全運營至關重要,需要對其進行周期性的巡查,及時發現扣件的異常狀態。

然而,鐵路沿線環境非常復雜,獲取到的視頻數據的質量參差不齊,關鍵區域有可能被遮擋或覆蓋,扣件的類型多樣,這些因素使得現有的基于人工設計特征的視覺檢測方法無法滿足實際線路的檢測要求。近年來,基于深度學習的目標檢測技術取得重大突破,極大地提升了目標檢測的準確率。但已有的深度學習檢測模型大多針對自然場景中的多類物體檢測而設計,應用在結構化的特定軌道場景中,可能會出現過擬合的問題。其次,為了滿足時速350 km/h 的高速綜合檢測列車的實時檢測需求,對扣件的檢測速度提出了極高的要求,而已有的深度學習模型難以滿足高速檢測的時效性。

在這種背景下,本文提出了一種優化的結構化區域全卷積深度神經網絡(structured region fully convolutional neural network,SR-FCN),充分利用軌道的空間結構化信息,將扣件小目標的檢測問題轉化為結構化區域的定位問題,并通過優化區域提名網絡(region proposal network,RPN)的錨點(anchor)遍歷個數,極大地提升了扣件的定位速度,并避免了因局部扣件缺失或背景干擾造成的定位錯誤,提升了檢測的魯棒性。

2 相關工作

圖像中包含不同類別的多個目標,目標檢測的首要目的是對檢測目標進行精確定位,之后對定位的目標區域進行識別分類。與圖像分類相比,對圖像中的目標物體進行檢測更為困難,對其建立的深度學習模型也更為復雜?;谏疃葘W習的目標檢測總體上分為兩派,即基于候選區域生成的R-CNN(region based convolutional neural networks)[1]系列以及基于回歸方法的(無需區域提名)YOLO(you only look once)[2]、SSD(single shot detector)[3]系列。

對于基于候選區域生成的檢測算法,目標檢測的第一步是生成候選區域(region proposal),也就是找出可能的感興趣區域(region of interest,ROI)。常見的區域生成方法有:(1)滑動窗口?;瑒哟翱诒举|上就是窮舉法,利用不同的尺度和長寬比把所有可能的大大小小的塊都窮舉出來。(2)規則塊。在窮舉法的基礎上進行了一些剪枝,只選用固定的大小和長寬比。(3)選擇性搜索。從機器學習的角度來說,前面的方法可以取得較好的召回率,但是精度差強人意,因此問題的核心在于如何有效地去除冗余候選區域。其實冗余候選區域大多是發生了重疊,選擇性搜索利用這一點,自底向上合并相鄰的重疊區域,從而減少冗余。最經典的基于候選區域的深度學習目標檢測模型R-CNN 由Girshick 等人提出,該模型首先使用選擇性搜索(selective search)這一非深度學習算法來定位待分類的候選區域,然后將每個候選區域輸入到卷積神經網絡中提取特征,接著將這些特征輸入到線性支持向量機中進行分類,并在PASCAL VOC 數據集上取得了比傳統算法高約0.2 的平均正確率,為之后的基于卷積神經網絡的目標檢測模型構建奠定了基礎。

R-CNN 模型需要對圖像中所有的候選區域窗口都進行特征提取,這必然導致特征提取的時間耗費巨大。微軟亞洲研究院(MSRA)的He 等人[4]提出的空間金字塔池化網絡層(spatial pyramid pooling networks,SPP-Net)針對R-CNN 時間消耗較大的缺陷進行了改進,僅對輸入圖像進行一次卷積計算,大大提高了算法的執行效率。

Girshick 也意識到了R-CNN 速度慢的問題,提出了一種改進的方法Fast R-CNN[5]。與R-CNN 中的卷積神經網絡層相比,Fast R-CNN 提出了針對性的興趣域池化層(ROI Pooling)技術對最后一個池化層進行了改進。該層的作用與SPP-Net 中的空間金字塔池化層相似,對任意大小的輸入都輸出固定維數的特征向量,也是僅在最后一層卷積層對候選區域的卷積特征進行ROI Pooling。此外,Fast R-CNN 同時對用于目標定位和分類的兩個全連接層進行訓練,實現了目標定位與檢測分類的一體化。

Ren 等提出了一種多階段的R-CNN 網絡訓練算法,稱作Faster R-CNN[6]。Faster R-CNN 基于R-CNN網絡前幾層卷積層提取的特征對檢測目標進行定位,且網絡的構建利用GPGPU(general-purpose computing on graphics processing units)來實現,從而大幅降低了整個網絡構建的時間消耗,檢測所需時間約為原來的1/10。

R-CNN 系列方法是目前主流的目標檢測方法,但是速度上并不能滿足實時的要求。YOLO[2,7-9]等基于回歸的一類方法慢慢顯現出其重要性,這類方法使用了回歸的思想,對于給定的輸入圖像,直接在圖像的多個位置上回歸出檢測目標的邊框以及類別。YOLO 整個過程非常簡單,將目標檢測任務轉換成一個回歸問題,不需要執行耗時的區域生成來定位目標,直接回歸便完成了位置和類別的判定,大大提高了檢測的速度,每秒鐘可以處理45 張圖像。但同時由于取消了候選區域生成機制,也導致YOLO 的檢測精度并不是很理想。SSD 將YOLO 的回歸思想以及Faster R-CNN 的錨點機制有機結合,使用全圖各個位置的多尺度區域特征進行回歸,既保持了YOLO快速檢測的特性,也保證了Faster R-CNN 窗口提取的精準性。

R-FCN(region-based fully convolutional networks)[10]是基于Faster-RCNN 的改進,將耗時的全連接層轉化為卷積操作構成全卷積網絡,并引入區域敏感度的概念,顯著提高了目標檢測的精度和速度。

3 存在的問題

軌道巡檢車采集的圖像中軌道場景具有固定的空間結構,扣件類型多樣且形狀差異性較小。此外,高速巡檢對扣件的檢測速度也提出了極高的要求。下面從扣件定位的類型、速度和精度三方面闡述現有深度學習檢測模型在扣件檢測中面臨的問題和挑戰。

(1)扣件定位的類型

如圖1 所示為線路中幾種典型的扣件類型,其中無砟線路包括W300-1 型、Ⅴ型、WJ-7 型扣件,有砟線路也有多種扣件類型(與無砟扣件相比較?。4送?,由于成像設備與鋼軌平面存在一個拍攝角度,從而造成正反向行車時扣件成像不同。如圖所示,正向行車時,扣件彈條的上部為曲折狀,下部為圓弧狀;而反向行車時,則正好相反。

由于線路中扣件類型多樣,且區分正反向,因此基于深度學習的方法定位扣件時需綜合考慮扣件類型的多樣性。

(2)扣件定位的速度

如圖2 所示,不同檢測車采集的軌道圖像大小不同。檢測算法應在不同分辨率的圖像上取得近似的時間耗費。若一幀圖像空間采樣為2 m,要滿足350 km/h速度下的扣件實時定位。則檢測速度要求能夠達到49 frame/s,即每幀20 ms的檢測耗時。

(3)扣件定位的精度

以100 km 的軌道巡檢數據為例,總共存在約600 000 個扣件。綜合當前巡檢系統扣件定位的精度以及用戶人工復核的主觀要求,除去道岔、區段、聯絡線區段,無砟正線錯誤定位的扣件不應超過每100 km100 個,即定位的準確率要求大于99.98%。

現有的深度學習檢測模型都是為了解決自然場景中的多類目標定位問題提出的,軌道場景結構相對比較固定,局部變化較小,針對復雜自然場景的深度網絡模型在訓練過程中容易過擬合;檢測過程中沒有充分利用場景的固定結構化空間信息,抗干擾能力差。

Fig.1 Rail fastener type圖1 扣件類型

Fig.2 Track image size圖2 軌道圖像大小

針對以上存在的問題,本文結合軌道扣件的結構化分布特征,提出了一種改進的區域全卷積深度神經網絡,并根據檢測任務的特性對卷積網絡、候選區域生成網絡、區域敏感得分圖等進行了相應的優化調整,在保證檢測精度的同時,極大地提升了目標檢測的速度,可滿足高速動態檢測的需求。

4 方法與論證

如圖3 所示,基于深度學習的檢測過程分為兩個階段,即“離線訓練”和“在線檢測”。首先從大量的軌道圖像中利用模板匹配的方法進行樣本自動標注,構建用于學習的大數據樣本集,輸入到深度網絡中進行離線訓練和調試得到網絡模型參數;利用訓練得到的模型參數初始化深度網絡的模型參數,賦予網絡目標檢測的能力,將單幅待檢測的軌道圖像輸入到參數初始化的深度網絡中實現目標的在線實時檢測。

Fig.3 Basic process of target detection based on deep learning圖3 基于深度學習的目標檢測基本流程

本文旨在解決高速行車下的鋼軌扣件實時動態檢測問題,結合檢測目標的空間分布特征,對深度學習檢測模型中的各個環節進行了改進和優化,主要包括以下幾個方面:

(1)軌道圖像中鋼軌、扣件、軌道板等設施相對固定的位置分布構成了軌道場景特有的結構化特征,本文將一幅圖像中多個扣件小目標的檢測轉化為一整塊具有固定結構的大目標區域檢測,可加快網絡的訓練收斂速度,減少候選區域的生成個數,從而提高檢測的速度。

(2)針對具有相似結構的大目標檢測區域,檢測目標形狀相似,僅在空間位置上存在一定的變化,為了防止訓練過擬合,本文使用ResNet-18 作為卷積層的網絡結構。

(3)本文構造了軌道場景各設施部件對應的位置敏感得分圖,將目前最快的R-FCN 深度網絡與軌道場景的結構化信息有機結合,提出結構化區域深度全卷積網絡(structured region fully convolutional neural network,SR-FCN),可有效解決高速實時檢測任務中的速度瓶頸,并提高目標檢測的精度以及抗干擾能力。

(4)本文針對軌道場景的固定結構對候選區域生成網絡(RPN)進行了改進,通過約束錨點的遍歷范圍,并限定候選窗口尺度變化比例,減少生成候選區域的個數,進一步加快目標檢測的速度。

(5)本文根據檢測目標的位置分布特征(如軌道圖像中扣件呈“田”字形分布),對深度網絡的損失函數進行空間分布正則化,進一步保證了扣件目標檢測的精度和容錯能力。

4.1 軌道場景結構解析

無論是Faster-RCNN 還是R-FCN 深度模型,在圖像中進行目標定位都是基于窗口滑動搜索的方法生成檢測候選區域,而目前軌道巡檢系統采集的軌道圖像最小尺寸為800×1 230,扣件區域尺寸為80×128,直接使用滑動窗口法進行窮舉搜索將會嚴重影響系統效率。事實上,鐵路軌道圖像中至少包含了7 個固定結構的先驗知識:(1)每幀軌道圖像中只包含一條鋼軌;(2)鋼軌總是與圖像的x軸垂直,并且鋼軌的兩條邊界是平行的;(3)每幅圖像高度方向的空間采樣距離為2 m 且誤差小于2 mm;(4)鋼軌的寬度是固定的像素值;(5)扣件區域總是在鋼軌邊界的兩側對稱分布,并且扣件區域的尺寸是固定的;(6)相鄰扣件承軌臺或軌枕沿豎直方向的間距相對固定;(7)每幅圖中包含6 個完整的扣件,且呈“田”字形分布。

圖4 展示了軌道圖像中的位置先驗信息,鋼軌的寬度為60 像素,扣件區域的寬度為80 像素,扣件橫向間隔約為55~65像素,縱向間隔約為275~315像素。

Fig.4 Structured prior information of track scene圖4 軌道場景結構化先驗信息

本文充分利用場景中已知的先驗信息,將其融合到深度網絡中的樣本構造、候選區域生成、網絡構造以及損失函數約束等各個過程,大幅減小了扣件候選區域的范圍,提高了檢測效率并保證了檢測精度。

4.2 訓練樣本構造

如圖5 所示,為了使用深度學習網絡檢測鋼軌的扣件位置,首先需要在軌道圖像上對檢測的目標進行大量的人工標注工作。以往的標注方法如圖5(a)所示,直接對軌道圖像中的6 個扣件檢測目標進行標注作為訓練樣本,利用深度學習網絡進行模型訓練。實際檢測環境中,扣件的形態易受道砟覆蓋、光照環境變化、扣件狀態異常等多種不確定因素的影響,對扣件樣本的多樣性有很高的要求。此外,標注的扣件樣本作為典型的小目標樣本,候選區域生成的數量更多,檢測較為耗時,且由于卷積層的多次池化操作使得網絡對小目標的檢測不敏感。

Fig.5 Deep learning sample labeling method圖5 深度學習樣本標注方法

本文提出了一種大目標結構化區域自動標注方法,根據上一節中場景結構解析的結果,將扣件、道砟、鋼軌等多個子區域構成整體的大目標結構化檢測區域。這一改進首先將多個小目標檢測任務轉化為單一的大目標檢測,提高了檢測速度;其次,對該大目標的檢測可充分利用各個子區域之間相對固定的位置和形狀約束關系,可有效提高檢測的抗干擾能力。

如圖5(b)所示為標注的大目標結構化區域,可劃分為15個子區域。其中,R11、R13、R31、R33、R51、R53為扣件子區域;R21、R23、R41、R43為道砟子區域;R12、R22、R32、R42、R52為鋼軌子區域。這里需要注意的是,R-FCN 網絡將檢測目標等間隔地劃分為K×K(默認為3×3)個子區域,不同于R-FCN 的劃分方式,本文提出的SR-FCN 網絡將標記的大目標檢測區域劃分為5×3 個子區域,且各子區域的大小和間距按照軌道場景的結構化先驗進行初始化。

為了提高樣本標注的效率,本文提出了基于模板匹配的樣本自動標注方法,具體流程如下:

Fig.6 Sample automatic labeling template圖6 樣本自動標注模板

(1)手工標記目標檢測區域以及非目標檢測區域(如圖6 所示),分別作為正、負樣本模板添加到對應的正、負模板庫中。為了增加樣本的多樣性,定義與檢測目標區域重合度(即像素交并比intersection over union,IOU)大于80%的區域可作為正樣本,而重合度低于50%的作為負樣本。

(2)對每一幀軌道圖像,利用滑動窗口法從軌道圖像中提取子窗口,提取子窗口的HoG(histogram of oriented gradient)特征與正、負模板庫中每個模板計算二者之間的相似度,按照相似度從高向低選擇K個模板,利用K-NN(K-nearest neighbor)分類器對子窗口所屬類別進行投票,在正模板庫中得分較高的子窗口被自動標注為正樣本;而負模板庫中得分較高的子窗口被自動標注為負樣本。

(3)對自動標注的結果進行人工復核,去除錯誤的生成樣本,完成樣本的清洗。

4.3 網絡模型構建

深度學習的基本工作原理可概括如下:

這里,f表示輸入圖像;g表示檢測結果;A為一變換矩陣,表征輸入與輸出之間的對應關系。

對于網絡訓練而言,其本質是基于大量的輸入數據f以及事先標記的輸出結果即樣本g,通過迭代逼近的方法估算二者之間的變換矩陣A,當滿足迭代次數條件或者網絡誤差達到預測的閾值以下,則認為求得了近似于A的變換矩陣也稱作通過訓練得到的網絡模型參數。

即對于一幅待檢測的圖像f0,利用訓練得到的模型參數與其變換運算,即可得到目標檢測的結果g0。

如圖7 所示為SR-FCN 網絡的組織結構。

網絡的訓練過程如下:

(1)按照4.2 節中的方法構造訓練樣本,即構造用于訓練的訓練圖像f并預標記對應的檢測結果g,用于學習模型參數。為了保證網絡的訓練效果,需要對不同分辨率的軌道圖像進行相應的尺度調整,統一成像的空間分辨率大小,即不同圖像中的單個像素應對應相同的空間采樣間隔。

(2)網絡的訓練過程和參數調節過程和R-FCN類似,需要訓練的模型參數由三部分組成,即用于生成特征映射圖的多組卷積核C,RPN 網絡總用于生成候選區域的多組卷積核R,以及用于生成位置敏感圖得分的多組卷積核P,這三部分參數共同作用構成了訓練模型參數,訓練的本質就是根據標記的樣本數據來求得網絡中各部分的模型參數。

(3)選擇模型調整優化策略如隨機梯度下降法(stochastic gradient descent,SGD)對模型參數進行不斷的迭代逼近,直到迭代次數達到預設的次數或網絡的訓練誤差小于預設閾值。

在學習得到網絡模型參數后,各部分的卷積核參數C、R、P已知,則網絡的檢測過程可描述如下:

(1)選擇一張待檢測的軌道圖像,并對該圖像進行相應的尺度調整、灰度歸一化等預處理操作。

Fig.7 SR-FCN network structure圖7 SR-FCN 網絡結構

(2)將預處理后的圖片送入一個預訓練好的分類網絡中,經過特征卷積層C生成特征映射圖。由于檢測目標具有固定的結構化信息,且檢測類型單一,為了防止網絡過擬合并提高檢測速度,網絡層數不宜過深,這里使用VGG16、ResNet-18[11-12]等網絡結構作為特征學習的卷積模型。

(3)利用訓練好的RPN 網絡模型參數P生成目標檢測的候選區域,并在候選區域上利用訓練好的網絡模型參數P生成目標檢測的位置敏感得分圖。需要說明的是,與R-FCN 類似,改進的SR-FCN 網絡在預訓練網絡的最后一個卷積層獲得的特征圖上也存在3 個分支,第1 個分支就是在該特征圖上面利用區域候選網絡(RPN)生成候選區域,獲得相應的感興趣檢測區域(ROI);第2 個分支就是在該特征圖上獲得一個5×3×(c+1)維的位置敏感得分映射(positionsensitive score map)用來進行分類,這里c表示檢測目標的類別數目,即訓練過程中將大目標結構化區域標記為幾類;第3 個分支就是在該特征圖上獲得一個5×3×4 維的位置敏感得分映射(每個子區域的位置可記為一個四元組(x,y,w,h),15 個子區域一共5×3×4 個位置得分映射),用來回歸調整每個子區域的位置。

(4)基于R-FCN 網絡的ROI 池化方法以及投票分類規則,在5×3×(c+1)維的位置敏感得分映射和5×3×4 維的位置敏感得分映射上面分別執行位置敏感的ROI 池化操作(position-sensitive ROI pooling,這里使用的是平均池化操作),并經區域投票和局部回歸獲得對應的類別和位置信息。

4.4 候選區域生成網絡改進

原始的錨點生成規則在特征圖的每個像素點上都生成9 個不同尺度和不同長寬比的候選區域,如圖8(a)所示。本文針對結構化檢測區域尺度和高寬比相對比較固定的特性,對錨點生成規則進行了改進如圖8(b)所示,每個像素點上僅生成3 個高寬比固定且尺度輕微縮放的候選區域,大幅減少了生成候選區域的個數,進一步提高了目標檢測的速度。

4.5 結構正則化損失函數定義

基于軌道場景中目標分布的結構化信息,可以引入結構保持正則化項λ2[c*>0]Lsr(h,h*)來加快網絡收斂,避免訓練迭代陷入局部最小解。提出的損失函數定義如下:

Fig.8 Anchor generation rules圖8 錨點生成規則

上式為本文定義的結構正則化損失函數,包括一個目標分類損失計算Lcls,一個位置回歸損失計算Lreg,以及一個結構保持損失計算Lsr。λ1和λ2用來平衡三者的重要度;sc*、t*、h*分別為用于訓練的樣本標簽;c*>0 表示檢測的目標非背景;s,tx,y,w,h,hlt,rt,lm,rm,lb,rb表示訓練的輸入數據。

5 實驗與分析

5.1 實驗環境與數據

本文的實驗環境和系統配置如下:

(1)硬件配置:Intel Xeon@2.40 GHz×28+NVIDIA Geforce Titan X×4+256 GB 內存。

(2)操作系統:Ubuntu 16.04 LTS。

(3)深度學習框架:CUDA 8.0+Anaconda Python 2.7+Caffe。

實驗數據來自檢測車在全國各有砟、高鐵線路采集的軌道巡檢圖像,用于深度學習網絡訓練、測試以及SR-FCN 檢測效果的驗證,樣本圖像組成結構如表1 所示。

Table 1 Inspection sample image表1 巡檢樣本圖像

5.2 網絡訓練參數

考慮到網絡中主要采用了ReLU 作為激活函數,因此采用Kaiming 初始化方法對網絡進行初始化。使用隨機梯度下降(SGD)模型優化方法,初始學習率(learning rate)設為0.01,動量參數(momentum)設為0.9,權值衰減(weight decay)設為0.000 5。每當圖片在Validation 數據集的目標函數值相比前一次迭代沒有下降的時候,將學習率減小為原來的10%,即學習率設為0.001;批處理大?。╞atch size)設為256,訓練集迭代次數(epochs)設為100。

5.3 實驗室靜態實驗結果

基于SR-FCN 的扣件目標檢測的部分結果如圖9所示,針對不同軌道場景的不同扣件類型,扣件區域的置信度得分都接近1,檢測精度高,場景適應能力強。

利用不同的深度學習網絡對表1 中的6 000 幅圖像進行測試,對結果進行統計,對比各方法的檢測的準確率和檢測速度,如表2 所示。定義檢測成功率(Pd)來評價方法的準確率,成功率定義為:

式中,Rt表示檢測結果的邊緣矩形框,Rg表示手工標注的目標真實位置矩形框,如果Pd>0.8,則認為該圖像的檢測結果是正確的。最后統計所有的N幀測試圖像中追蹤成功的圖像總數,記為T,則追蹤準確率記為T/N。

本文提出的SR-FCN 網絡不僅可以適應多種場景下的目標定位檢測,而且仍然能夠保持很高的檢測速度。如表3 所示,提出的網絡模型在單幅軌道圖像上執行目標定位耗時為38 ms,對應于可以滿足360 km/h 速度下的實時檢測。這里需要說明的是,對于鋼軌扣件而言,100 km 范圍內大約分布有60 萬個扣件,扣件定位算法對檢測成功率的要求很高,如100 km 線路僅1%的誤報將產生6 000 個錯誤定位的結果,將嚴重影響后續的識別分析。因此,對于扣件定位算法而言,0.1%的檢測精度提升也具有很強的實際意義。

Table 2 Comparison of rail fastener detection results of different deep learning models表2 不同深度學習模型的扣件檢測結果對比

Table 3 Online dynamic test comparison results表3 線上動態實驗對比結果

Fig.9 Test results of different types of rail fasteners圖9 不同類型扣件的檢測結果

Fig.10 Example map of location results of track rail fastener area圖10 各線路軌道扣件區域定位結果示例圖

5.4 線上動態實驗結果

將本文提出的模型部署在綜合巡檢車上,并在4條實際運營線路上進行動態實驗論證。

本實驗采用檢出率(detection rate,DR)、誤檢率(detection error rate,DER)兩個評價指標來評價軌道扣件區域定位方法的有效性和可靠性。檢出率用于評價軌道扣件區域定位方法的有效性,即定位出的有效扣件區域的數量與真實扣件區域的數量的比例,檢出率越高,表示方法的有效性越強。誤檢率用于評價軌道扣件區域定位方法的可靠性,即定位出的所有扣件區域中無效的比例,誤檢率越低,表示方法的可靠性越強。檢出率和誤檢率的計算公式如下:

式中,NValid表示定位出的扣件區域中有效的數量;NInvalid表示定位出的扣件區域中無效的數量;NGT表示真實扣件區域的數量。

如表3 所示,本實驗中,4 條鐵路線路的平均檢出率達到99.84%,平均誤檢率低至0.62%,實驗結果表明,雖然相對于靜態實驗結果,檢出率有所下降,但對于訓練樣本集之外的新線路軌道圖像,本文提出的方法具有令人滿意的檢出率和泛化能力,可以滿足現場應用需求,各線路軌道扣件區域定位結果如圖10 所示。

6 結論

本文提出了一種結構化區域全卷積神經網絡結構(SR-FCN),實現了結構化軌道場景中多模態扣件目標的快速、準確、魯棒的檢測。首先,構建了一種結構化場景下基于區域推理的學習訓練樣本構造和標記方法,將場景中的多個離散小目標轉化為固定幾何結構約束的大目標,大幅提高網絡訓練的效率和目標檢測的速度。在此基礎上,提出了一種基于幾何位置先驗的候選區域生成網絡,進一步減少了目標定位候選區域的數量,有利于提高目標檢測的速度。最后,定義了一種結構正則化損失函數,根據檢測目標的位置分布特征,對深度網絡的損失函數進行空間分布正則化,進一步保證了扣件目標檢測的精度和容錯能力。

猜你喜歡
深度區域檢測
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
深度理解一元一次方程
深度觀察
深度觀察
深度觀察
小波變換在PCB缺陷檢測中的應用
關于四色猜想
分區域
主站蜘蛛池模板: 人人爽人人爽人人片| 91麻豆国产视频| 女人18毛片水真多国产| 五月婷婷综合色| 国产肉感大码AV无码| 久草网视频在线| 久久国产拍爱| 中日无码在线观看| 国产精品极品美女自在线网站| 久久久精品国产SM调教网站| 亚国产欧美在线人成| 欧美激情视频一区二区三区免费| 久久永久精品免费视频| 欧美在线免费| 国产精品无码久久久久久| 成人一级免费视频| 国产日韩精品一区在线不卡| 青青草原国产av福利网站| 伊人久久婷婷| 久久成人免费| 精品三级网站| 日本精品影院| 国产精品三级av及在线观看| 亚洲中文字幕无码爆乳| 久久99精品久久久久久不卡| 国产91色| 国产免费人成视频网| 亚洲午夜久久久精品电影院| 亚洲AⅤ永久无码精品毛片| 亚洲国产一区在线观看| 青青网在线国产| 婷婷亚洲综合五月天在线| 91精品国产一区| 国产麻豆福利av在线播放| A级毛片无码久久精品免费| 国产一区二区三区在线观看视频 | 无码内射在线| 91高清在线视频| 日韩一区二区三免费高清| 免费国产不卡午夜福在线观看| 不卡国产视频第一页| 五月激激激综合网色播免费| 国产特级毛片| 四虎综合网| 老司机久久精品视频| 91色在线视频| 老色鬼欧美精品| 99re在线观看视频| 青青操国产视频| 亚洲欧美日韩动漫| 亚洲无码A视频在线| 丰满人妻久久中文字幕| 在线国产毛片| 经典三级久久| 亚洲第一黄色网| 中文字幕第1页在线播| 国产美女叼嘿视频免费看| 精品自窥自偷在线看| 欧美激情综合| 日韩福利视频导航| 亚洲国产欧美国产综合久久| 91福利免费| 最新国产精品鲁鲁免费视频| 波多野结衣一区二区三区四区视频| 国产精品嫩草影院av| 色婷婷成人| 日韩无码真实干出血视频| 一级毛片免费的| 成人午夜视频免费看欧美| 亚洲综合二区| 欧美另类第一页| 亚洲成AV人手机在线观看网站| 欧美精品H在线播放| 一区二区在线视频免费观看| 亚洲自偷自拍另类小说| 久草视频中文| 国产精品99r8在线观看| 456亚洲人成高清在线| 香蕉久久国产精品免| 91精品伊人久久大香线蕉| 亚洲一区免费看| 67194亚洲无码|