999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

戰(zhàn)場環(huán)境因素對機器視覺目標(biāo)檢測的影響

2021-10-26 07:19:36吳曉強曾朝陽
關(guān)鍵詞:檢測模型

吳曉強, 曾朝陽

(陸軍工程大學(xué) 野戰(zhàn)工程學(xué)院, 江蘇 南京 210007)

0 引言

近年來,隨著基于深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)技術(shù)的引入,機器視覺目標(biāo)檢測的效率和準(zhǔn)確率得到大幅度提升,已經(jīng)越過了應(yīng)用的技術(shù)門檻, 正在廣泛領(lǐng)域得到普及和應(yīng)用。在這樣的背景下,基于機器視覺的軍事目標(biāo)檢測也日益受到研究者的重視。多年來,軍事目標(biāo)的自動檢測技術(shù)一直是國防技術(shù)領(lǐng)域的研究重點, 但礙于準(zhǔn)確性和效果沒有達到滿意的效果, 很長時間沒有得到大范圍廣泛應(yīng)用?,F(xiàn)在,隨著深度學(xué)習(xí)技術(shù)的引入,這些問題不復(fù)存在,因此, 基于機器視覺的目標(biāo)檢測技術(shù)在軍事上的推廣越來越受到重視。 Zheng 等[1]構(gòu)建密集反卷積網(wǎng)絡(luò)提取目標(biāo)深層次的語義信息對偽裝人員進行檢測;Fang 等[2]構(gòu)建強語義膨脹網(wǎng)絡(luò)檢測架構(gòu), 進一步提高偽裝人員的檢測效果;鄧小桐等[3]通過改進RetinaNet 檢測網(wǎng)絡(luò),對偽裝人員進行檢測。

不過,與普通的目標(biāo)檢測相比,軍事目標(biāo)探測有其自身的特殊性,比如戰(zhàn)場環(huán)境的復(fù)雜多變,敵對雙方的欺騙和攻擊等,都使得軍事目標(biāo)探測面臨更加復(fù)雜的情況。 而最根本的區(qū)別在于, 軍事目標(biāo)的探測方和所有方總是敵對的雙方, 因此探測方所需要用來訓(xùn)練檢測模型的數(shù)據(jù)不易獲得。 而基于神經(jīng)網(wǎng)絡(luò)的機器視覺系統(tǒng)的能力從根本上依賴所訓(xùn)練的數(shù)據(jù),當(dāng)數(shù)據(jù)不完備時,檢測系統(tǒng)的能力就會受到影響。 當(dāng)然,目標(biāo)的探測方可以為檢測系統(tǒng)建設(shè)必要的數(shù)據(jù)集, 以反映假想的戰(zhàn)場環(huán)境和敵方目標(biāo)的特性。 盡管如此,真實的戰(zhàn)場仍會出現(xiàn)難以預(yù)測的情況,比如敵方采取的臨時偽裝措施, 敵方對探測平臺的攻擊等。 這些不曾預(yù)想的情況究竟會對目標(biāo)檢測系統(tǒng)造成多大的影響? 為回答這個問題,本文設(shè)想了敵方攻擊導(dǎo)致探測距離變遠(導(dǎo)致圖像分辨率降低)和敵方設(shè)置了偽裝措施(導(dǎo)致目標(biāo)顯著性降低)兩種情形,通過對比分析這兩種情況出現(xiàn)和不出現(xiàn)的檢測結(jié)果, 試圖說明戰(zhàn)場環(huán)境中不可知因素對機器視覺目標(biāo)探測的影響。 毫無疑問,這種影響對目標(biāo)檢測技術(shù)和隱身偽裝技術(shù)都非常重要。

根據(jù)當(dāng)前目標(biāo)檢測算法的發(fā)展現(xiàn)狀, 可將其分為三大類。 一類是基于候選區(qū)域的目標(biāo)檢測算法, 如R-CNN[4]、SPP-Net[5]、Fast R-CNN[6]、Faster R-CNN[7]、Mask R-CNN[8]和R-FCN[9]等。 此類算法先對輸入圖像提取若干個候選區(qū)域,然后對候選區(qū)域進行分類和預(yù)測,最后利用非極大值抑制((Non-Maximum Suppression,NMS)消除多余的目標(biāo)框。 二類是基于回歸的目標(biāo)檢測算法, 如YOLO[10]、YOLOv2[11]、YOLOv3[12]、YOLOv4[13]、SSD[14]、DSSD[15]和RetinaNet[16]等。 此類算法對輸入圖像直接進行分類和回歸預(yù)測。第三類是基于anchor-free 的目標(biāo)檢測算法。此類檢測模型包含基于關(guān)鍵點的檢測和基于分類和回歸進行改進的檢測這兩種,如CornerNet[17]、CenterNet[18]和FCOS[19]等。

本文以Faster R-CNN、YOLOv4 和CenterNet 三種類型的目標(biāo)檢測算法為基礎(chǔ), 將該三種模型在單個目標(biāo)場景下進行多輪迭代訓(xùn)練, 將迭代損失最小的權(quán)重值作為預(yù)測權(quán)重, 分別對分辨率降低前后和偽裝措施施加前后的測試集目標(biāo)進行檢測。 本文所用的數(shù)據(jù)集是在野外現(xiàn)地采集,并對該數(shù)據(jù)集進行了數(shù)據(jù)擴展。

1 數(shù)據(jù)集建立

1.1 偽裝軍事車輛數(shù)據(jù)集擴展試驗方法

由于當(dāng)前沒有公開的偽裝后的軍事車輛數(shù)據(jù)集,因此針對當(dāng)前實驗任務(wù),為貼近實際的戰(zhàn)場偵察環(huán)境,在野外條件下,采集了348 張偽裝后的軍事目標(biāo)圖片數(shù)據(jù),圖像大小為5472×3048,此圖片數(shù)據(jù)滿足以下兩個特點:

(1)圖片數(shù)據(jù)包含不同明暗程度,不同俯仰,不同遮擋程度的目標(biāo)。

(2)圖片數(shù)據(jù)包含不同尺度的目標(biāo),即從不同高度,不同距離對圖像數(shù)據(jù)進行采集。

(3)通過翻轉(zhuǎn),旋轉(zhuǎn),裁剪,變形,縮放,顏色增強等數(shù)據(jù)增強的方式,將原圖片數(shù)據(jù)庫擴展至1740 張,并采用PASCAL VOC 數(shù)據(jù)集標(biāo)注方式, 對擴展后的圖片數(shù)據(jù)進行標(biāo)注。 擴展數(shù)據(jù)集統(tǒng)一標(biāo)注為Car, 擴充的圖像及其標(biāo)注如圖1 所示,其 中 圖(a)和 圖(b) 為選取的訓(xùn)練集中的兩張圖片,圖(c)和圖(d)分別為其對應(yīng)的標(biāo)注圖片。

圖1 數(shù)據(jù)集標(biāo)注Fig.1 Dataset annotation

1.2 不同分辨率的偽裝軍事車輛數(shù)據(jù)集擴展試驗方法

對擴展后的軍事目標(biāo)數(shù)據(jù)集中的測試集圖像數(shù)據(jù),進行不同分辨率的圖像處理,得到當(dāng)前的不同分辨率的測試集。 圖像分辨率按照原圖大小進行等比例縮小之后,再擴大至原圖大小, 圖像寬度分別設(shè)置為600、500、400、300、200 和100, 經(jīng)過縮小后的圖像,再擴張成原圖尺寸大小,不同分辨率圖像如圖2 所示,其中圖(a)、圖(b)、圖(c)、圖(d)、圖(e)和圖(f)分別為寬度設(shè)置分別是100、200、300、400、500和600 下的不同分辨率測試集下的標(biāo)注圖片。

圖2 不同分辨率數(shù)據(jù)集標(biāo)注Fig.2 Different resolution dataset annotation

1.3 遮擋偽裝軍事車輛數(shù)據(jù)集的擴展試驗方法

對擴展后的軍事目標(biāo)數(shù)據(jù)集中的測試集圖像數(shù)據(jù),施加偽裝措施。 通過對圖像目標(biāo)周圍的背景特征進行提取,將提取的背景特征對圖像進行不同程度的遮擋。本文選擇測試集1 進行遮擋,形成遮擋測試集。 遮擋數(shù)據(jù)集標(biāo)注如圖3 所示。 其中圖(a)和圖(b)分別為選取的遮擋數(shù)據(jù)集下的兩張標(biāo)注圖片。

圖3 遮擋數(shù)據(jù)集標(biāo)注Fig.3 Occlusion dataset annotation

2 結(jié)果分析與討論

2.1 實驗的基礎(chǔ)條件設(shè)置

本實驗所使用的Faster R-CNN、YOLOv4 和Center-Net 三種目標(biāo)檢測模型, 均是以Tensorflow 作為基礎(chǔ)框架,使用的電腦配置內(nèi)存128GB,CPU 為i9-10980XE,并使用NVIDIA TITAN V 進行模型訓(xùn)練的加速并行運算。使得模型迭代運行速度大大提升,模型訓(xùn)練誤差能夠較快的收斂。 對擴展后的偽裝目標(biāo)數(shù)據(jù)集, 按照8:1:1 的比例,將其分為訓(xùn)練集、驗證集和測試集。

2.2 目標(biāo)網(wǎng)絡(luò)模型的訓(xùn)練

三個目標(biāo)檢測模型的訓(xùn)練, 為保證模型在不同背景下預(yù)測時,具有較好的識別準(zhǔn)確率。 選擇模型多輪迭代訓(xùn)練后的最低損失權(quán)重作為該檢測模型的預(yù)測權(quán)重。Faster R-CNN 目標(biāo)檢測網(wǎng)絡(luò)模型經(jīng)過多輪迭代訓(xùn)練后,損失最低值在0.507 左右, 損失收斂曲線見圖4。YOLOv4 檢測模型經(jīng)過多輪迭代訓(xùn)練后, 損失最低值在3.955 左右,損失收斂曲線見圖5。 CenterNet 檢測模型經(jīng)過多輪迭代訓(xùn)練后,損失最低值在0.615 左右,損失收斂曲線如圖6 所示。

圖4 Faster R-CNN 訓(xùn)練損失Fig.4 Faster R-CNN Training loss

圖5 YOLOv4 訓(xùn)練損失Fig.5 YOLOv4 Training loss

圖6 CenterNet 訓(xùn)練損失Fig.6 CenterNet Training loss

2.3 目標(biāo)網(wǎng)絡(luò)模型的測試

2.3.1 實驗一

將三個訓(xùn)練好的目標(biāo)網(wǎng)絡(luò)模型,在驗證集上進行測試,由于該數(shù)據(jù)集統(tǒng)一標(biāo)注為Car 這一類,因而,只需通過計算模型在驗證集上的平均準(zhǔn)確率(Mean Average Precision,MAP)來衡量模型訓(xùn)練的好壞,平均準(zhǔn)確率(MAP)越高,即該檢測模型的性能越好。 平均準(zhǔn)確率(MAP)從精確率(Precision)和召回率(Recall)兩個方面進行衡量。

擴展后的偽裝目標(biāo)數(shù)據(jù)集1740 張, 測試集為即174張。 由于在設(shè)置時,測試集為隨機選取數(shù)據(jù)集的10%,因而將在Faster R-CNN、YOLOv4 和CenterNet 三個模型上的測試集分別命名為測試集1、測試集2 和測試集3。

三個目標(biāo)檢測模型在各自的測試集上的檢測結(jié)果如表1 所示。 從表1 各檢測模型在各自測試集上的檢測結(jié)果可以看出,三個目標(biāo)檢測模型檢測效果較好。

表1 不同模型檢測結(jié)果對比圖表Tab.1 Comparison of test results of different models

2.3.2 實驗二

分別對測試集1、測試集2 和測試集3 這三個數(shù)據(jù)集按照原圖寬高比,進行圖像分辨率的調(diào)整。為了體現(xiàn)圖像不同分辨率之間的差異, 將其原圖像寬高調(diào)整為100×56、200×112、300×168、400×225、500×281 和600×337。 然后再將圖像擴展至原圖比例尺寸。

利用Faster R-CNN、YOLOv4 和CenterNet 三個目標(biāo)檢測模型在擴展后的分辨率數(shù)據(jù)集上對Car 這一類目標(biāo)進行測試,并計算該模型在不同分辨率的圖像數(shù)據(jù)集上的MAP。

從表2、表3 和表4 的檢測結(jié)果可知,F(xiàn)aster R-CNN、YOLOv4 和CenterNet 三個目標(biāo)檢測模型在各自不同分辨率測試集上的檢測結(jié)果, 隨著測試集圖像分辨率的不斷下降,檢測精度也在不斷下降。 從此檢測數(shù)據(jù)可以看出,檢測模型在充分訓(xùn)練的情況下, 在敵方攻擊導(dǎo)致探測距離變遠(導(dǎo)致圖像分辨率降低)時,對目標(biāo)檢測模型檢測結(jié)果具有一定的影響。

表2 Faster R- CNN 的檢測結(jié)果Tab.2 Test results of Faster R- CNN

表3 YOLOv4 的檢測結(jié)果Tab.3 Test results of YOLOv4

表4 CenterNet 的檢測結(jié)果Tab.4 Test results of CenterNet

2.3.3 實驗三

對測試集1 中的圖像目標(biāo)顯著性進行調(diào)整, 即降低目標(biāo)與周圍背景之間的差異。目標(biāo)與背景差異越大,即顯著性越高。 反之。 具體操作:通過對圖像目標(biāo)周圍的背景特征進行提取, 將提取的背景特征對圖像進行不同程度的遮擋。 本文選擇測試集1 進行遮擋,形成遮擋數(shù)據(jù)集。利用Faster R-CNN、YOLOv4 和CenterNet 三個目標(biāo)檢測模型在遮擋數(shù)據(jù)集上對Car 這一類目標(biāo)進行檢測。

各模型的檢測圖如圖7 所示,其中圖(a)、圖(b)和圖(c)分別為Faster R-CNN、YOLOv4 和CenterNet 在遮擋數(shù)據(jù)集上的識別圖片。 模型在遮擋測試集上的檢測結(jié)果如表5 所示,從表中數(shù)據(jù)可以看出,通過對目標(biāo)圖像設(shè)置偽裝措施(導(dǎo)致目標(biāo)與背景的顯著性差異降低),模型檢測的MAP 值明顯降低。

圖7 模型識別Fig.7 Model recognition

表5 不同模型檢測結(jié)果對比Tab.5 Comparison of test results of different models

3 結(jié)束語

為考察戰(zhàn)場環(huán)境因素對機器視覺目標(biāo)檢測的影響, 本文基于三種目標(biāo)檢測模型, 對比分析了分辨率降低和偽裝措施增加前后檢測結(jié)果的變化。 根據(jù)實驗二、實驗三的檢測結(jié)果,分別從分辨率和顯著性兩個方面, 對基于機器視覺下的目標(biāo)檢測模型的影響進行了分析。

從實驗二的模型檢測結(jié)果中可以看出, 通過對測試集圖像進行的分辨率調(diào)整, 檢測模型對軍事車輛偽裝目標(biāo)的MAP 也在變化。

從實驗三的模型檢測結(jié)果中可以看出, 通過對測試集圖像施加偽裝措施。 導(dǎo)致測試集圖像與背景的顯著性差異變小,模型檢測的MAP 也在降低。

結(jié)果表明,對經(jīng)過多次迭代、訓(xùn)練效果良好的檢測模型,隨著分辨率的逐漸降低和偽裝目標(biāo)顯著性的改變,模型探測結(jié)果也受到極大影響。 這樣的結(jié)果對目標(biāo)檢測和軍事偽裝都有很好的參考意義。

猜你喜歡
檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
3D打印中的模型分割與打包
小波變換在PCB缺陷檢測中的應(yīng)用
主站蜘蛛池模板: 日本草草视频在线观看| 久草视频中文| 国产精品亚洲精品爽爽| 久久精品人人做人人综合试看| 看av免费毛片手机播放| 九色在线观看视频| 福利一区三区| 亚洲国产精品日韩av专区| 亚洲欧美综合在线观看| 国产丝袜无码精品| 久久久噜噜噜久久中文字幕色伊伊 | 久久福利网| 日本草草视频在线观看| 国产福利在线免费观看| 国产亚洲视频播放9000| 在线不卡免费视频| 国产丝袜一区二区三区视频免下载| 白浆视频在线观看| 日本道中文字幕久久一区| 成人字幕网视频在线观看| 98精品全国免费观看视频| 亚洲精品自拍区在线观看| 亚洲免费毛片| 漂亮人妻被中出中文字幕久久| 2020国产精品视频| 2020国产在线视精品在| 三级国产在线观看| 好吊日免费视频| 久久夜色精品国产嚕嚕亚洲av| 亚洲六月丁香六月婷婷蜜芽| 欧美乱妇高清无乱码免费| 国产白丝av| 国产青榴视频| 国产成人无码AV在线播放动漫| 免费网站成人亚洲| 日本不卡在线视频| 91福利免费| 99久久精品国产麻豆婷婷| 亚洲伊人电影| 中国国产A一级毛片| 57pao国产成视频免费播放| 日韩免费毛片| 国产一级特黄aa级特黄裸毛片 | 99爱视频精品免视看| 岛国精品一区免费视频在线观看| 国产精品尤物铁牛tv| 国产欧美综合在线观看第七页| 99热这里只有免费国产精品| 国产精品亚洲天堂| 国产精品亚洲αv天堂无码| 欧美日韩中文国产va另类| 中国毛片网| 久久频这里精品99香蕉久网址| 亚洲欧美在线综合图区| 国产激爽大片高清在线观看| 伊伊人成亚洲综合人网7777| 久久女人网| 这里只有精品国产| 国产精品九九视频| 成人亚洲国产| 992Tv视频国产精品| 亚洲天堂777| 国产精品福利一区二区久久| 国产成人91精品| 亚洲综合片| 精品自窥自偷在线看| 国产色网站| 成人精品视频一区二区在线| 亚洲国产91人成在线| 午夜国产在线观看| 国产va在线观看| 国产精品美女免费视频大全| 8090成人午夜精品| 国产视频入口| 久久精品视频亚洲| 无码网站免费观看| 在线观看热码亚洲av每日更新| 国产精品污污在线观看网站| 免费国产在线精品一区| 97成人在线视频| 国产拍揄自揄精品视频网站| 国产精品亚洲天堂|