999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

面向合成孔徑雷達圖像任意方向艦船檢測的YOLOv3模型的改進

2022-12-21 07:41:36趙紫稷
無線互聯(lián)科技 2022年19期
關(guān)鍵詞:檢測模型

趙紫稷

(中船重工第八研究院,江蘇 南京 211106)

0 引言

目前,在分析艦船檢測算法時,單階段算法內(nèi)的YOLOv3算法檢測精確度較高,識別速度較快,是以YOLOv2算法為基礎(chǔ)綜合考慮ResNet與SSD網(wǎng)絡(luò)結(jié)構(gòu)的改進算法,比以上算法更優(yōu)。但與R-CNN算法相比,YOLOv3算法問題識別的精確度以及召回率都較低。此次分析可以以YOLOv3算法為基礎(chǔ)進行改進和優(yōu)化,在控制參數(shù)應(yīng)用情況的基礎(chǔ)上,提高YOLOv3算法的檢測精度,發(fā)揮其在船舶檢測中的積極作用。

1 面向合成孔徑雷達圖像技術(shù)的發(fā)展現(xiàn)狀

為了確保我國的海洋權(quán)益、促進海洋資源的有效開發(fā),加強海面艦船目標(biāo)檢測工作至關(guān)重要。現(xiàn)階段,艦船目標(biāo)檢測主要以雷達一維距離像、合成孔徑雷達圖像以及無人機和衛(wèi)星拍攝的遙感圖像作為數(shù)據(jù)來源。此外,為了保證數(shù)據(jù)分析的可靠性,還要深入分析海面艦船搭載的光電平臺拍攝的視頻圖像。合成孔徑雷達作為主動式微波成像傳感器可以全天候工作,并且受外在環(huán)境的影響較小,即使在云霧、植被比較豐富的環(huán)境中仍然可以保證較強的穿透性。因此,合成孔徑雷達技術(shù)在軍事領(lǐng)域以及民用領(lǐng)域都有至關(guān)重要的作用[1]。

目前,在開展合成孔徑雷達圖像技術(shù)分析和研究的過程中,國內(nèi)外研究人員對正常目標(biāo)檢測以及物象識別方面的研究較多,經(jīng)過多年研究已經(jīng)形成相對完善的SAR圖像艦船目標(biāo)監(jiān)測系統(tǒng)。恒虛警算法(Constant False-Alarm,CFAR)是目前應(yīng)用比較普遍的SAR圖像目標(biāo)檢測算法。該算法在應(yīng)用中需要通過待檢測的像素領(lǐng)域信息完成背景分布估計工作,同時需要以恒虛警率為核心計算分割閾值。此外,在研究時可以基于貝葉斯理論開展目標(biāo)背景像素分類。在實際分類時,以雜波類型為基礎(chǔ)應(yīng)用背景像素分布模型,可以完成對數(shù)正態(tài)分布、微波爾分布以及K分布計算作業(yè)。以背景區(qū)域劃分策略為基礎(chǔ)的研究需要了解劃分策略存在的實際差異。一般情況下,單元CFAR、單元平均選大CFAR、可變窗口CFAR等都屬于其差異類型。恒虛警算法屬于比較完善的理論和實踐方法,但是因為計算量比較大,所以還要優(yōu)化處理,且背景模型的選擇具有較強的主觀性,在一些復(fù)雜背景下可能會導(dǎo)致虛警率比較高。

現(xiàn)階段,深度學(xué)習(xí)理論以及優(yōu)化技術(shù)越來越成熟,以卷積神經(jīng)網(wǎng)絡(luò)為基礎(chǔ)構(gòu)建目標(biāo)檢測識別模型,可以大大提高目標(biāo)檢測識別效率。目標(biāo)檢測深度模型的構(gòu)建分為一階段檢測模型和兩階段檢測模型。其中,一階段檢測模型需要將多框檢測模型以及和YOLOv3模型作為核心,按照輸出的特征圖完成回歸分析后,可以獲取目標(biāo)位置信息、置信度以及不同類別等綜合信息。兩階段檢測模型在應(yīng)用過程中需要利用FasterR-CNN進行分析,主要部分是以某一個區(qū)域建議網(wǎng)絡(luò)和以區(qū)域為基礎(chǔ)的識別網(wǎng)絡(luò)。RPN網(wǎng)絡(luò)可以有效篩選候選目標(biāo)區(qū)域。R-CNN開展目標(biāo)類別分類以及位置精調(diào)時具有突出作用。在實際應(yīng)用中一階段算法具有較強的實時性,但是檢測精度較低,需要根據(jù)具體情況進行科學(xué)選擇。

現(xiàn)階段,有研究人員已經(jīng)將深度CNN模型應(yīng)用在SAR艦船目標(biāo)檢測過程中。對深度模型的有效應(yīng)用可以解決在SAR圖像艦船目標(biāo)檢測過程中的數(shù)據(jù)問題。在這一方面,我國相關(guān)研究人員已經(jīng)完成了大量的基礎(chǔ)性研究,例如有研究人員構(gòu)建了新的SAR圖像艦船檢測數(shù)據(jù)集,在開展圖像分析的過程中,需要從分辨率、極化、海況等不同條件出發(fā)獲取圖像。此次研究共獲取1 160幅SAR圖像,通過構(gòu)建的OpenSAR分類數(shù)據(jù)進行公開展示,主要包含10幅大范圍海域SAR艦船檢測數(shù)據(jù)集。為了保證數(shù)據(jù)分析的全面性,還有一些已經(jīng)發(fā)布的圖像艦船目標(biāo)檢測數(shù)據(jù)集中有高分3號衛(wèi)星和哨兵1號衛(wèi)星SAR圖像。經(jīng)過統(tǒng)計可以確定,研究過程中的艦船切片共有43 819個[2]。

目前,在深入分析高分辨率、大尺寸場景SAR圖像艦船檢測數(shù)據(jù)集時,包含的數(shù)據(jù)圖像信息較多,有31幅高分3號SAR圖像,圖像內(nèi)容包含港口、島礁以及級別不同的海況信息。大多數(shù)數(shù)據(jù)集的格式以視覺目標(biāo)分類挑戰(zhàn)賽標(biāo)注格式為主,在實際分類中需要通過目標(biāo)包圍盒左上角和右下角像素坐標(biāo)描述目標(biāo)垂直框信息,將SSDD作為核心完成SSDD+8參數(shù)傾斜框標(biāo)注格式構(gòu)建工作,可以描述任意方向的艦船目標(biāo)。通過8個參數(shù)的描述目標(biāo)以4個頂點像素坐標(biāo)為主。高分辨率SAR圖像數(shù)據(jù)集中比較常見的標(biāo)注格式為上下文常見目標(biāo)(MSCOCO),其與SSDD+相同傾斜框方式包含5 604張高分辨率SAR圖像,可以在艦船目標(biāo)檢測以及實例分割驗證中充分發(fā)揮作用。

此次研究以YOLOv3模型為框架,可以確保垂直框和旋轉(zhuǎn)框圖像SAR艦船目標(biāo)檢測模型同時輸出,這樣在模型檢測設(shè)計過程中才能準(zhǔn)確定義模型參數(shù)訓(xùn)練目標(biāo)方位角區(qū)間,同時能提高網(wǎng)絡(luò)檢測的有效性,保證輸出垂直框和旋轉(zhuǎn)框預(yù)測結(jié)果的可靠度。以垂直框和旋轉(zhuǎn)框預(yù)測結(jié)果為基礎(chǔ)描述不同的損失函數(shù),是提高該模型設(shè)計效果的重要基礎(chǔ)。此外,相關(guān)人員還需要根據(jù)可能存在的目標(biāo)方位角估計偏差,利用RNMS剔除重疊目標(biāo)。以垂直框和旋轉(zhuǎn)框為主,對方位角估計的準(zhǔn)確度進行預(yù)測和判定,在校正工作完成后,需要通過Tensorflow深度學(xué)習(xí)框架以及SSDD+與HRSIDSAR目標(biāo)檢測數(shù)據(jù)集、艦船目標(biāo)識別數(shù)據(jù)集對模型的遷移性和適用性進行全面測試[3]。

2 YOLOv3模型算法分析

2.1 YOLOv3模型網(wǎng)絡(luò)結(jié)構(gòu)

深度學(xué)習(xí)方法是YOLOv3模型的主要方法,該模型的使用需要利用新的深度網(wǎng)絡(luò)完成特征提取。這一網(wǎng)絡(luò)主要為1×1,3×3卷積層,在網(wǎng)絡(luò)中包含53個卷積層。這一結(jié)構(gòu)圖的殘差塊可以利用ResNet網(wǎng)絡(luò)殘差結(jié)構(gòu)進行研究。在不同層之間需要設(shè)計快捷鏈路以解決深度網(wǎng)絡(luò)的退化問題,并對網(wǎng)絡(luò)結(jié)構(gòu)進行深化處理。此外,在YOLOv3模型的應(yīng)用過程中,需要借鑒FPN特征融合金字塔理念,完成采樣以及特征融合作業(yè),輸出不同尺度的特征圖。特征圖主要包含13×13,26×26,52×52 3種尺寸,在開展小目標(biāo)檢測作業(yè)時,大尺度特征圖可以有效提供分辨率信息。小尺度特征圖的主要功能是提供語義信息。在開展大目標(biāo)檢測作業(yè)時,可以利用小尺度特征圖獲取分辨率信息和語義信息。利用不同尺度特征檢測有利于提高特征信息提取的豐富度,確保大尺度大目標(biāo)和小目標(biāo)綜合檢測的效果。

2.2 YOLOv3模型算法

2.2.1 損失函數(shù)

損失函數(shù)會影響網(wǎng)絡(luò)效果,在開展模型訓(xùn)練時,必須有效調(diào)整網(wǎng)絡(luò)參數(shù),同時要優(yōu)化損失函數(shù)值,確保損失函數(shù)值處于最小狀態(tài),提高模型訓(xùn)練效果。損失函數(shù)主要為以邊界框中心點的預(yù)測誤差和寬高預(yù)測誤差。此外,置信度存在誤差或者分類預(yù)測誤差也可能會導(dǎo)致?lián)p失函數(shù)值出現(xiàn)變化[4]。

2.2.2 構(gòu)建數(shù)據(jù)集

在深度學(xué)習(xí)過程中,科學(xué)構(gòu)建數(shù)據(jù)集是保證最終檢測效果的重要因素。數(shù)據(jù)集的分析質(zhì)量會直接影響檢測效果。因此,必須保證樣本數(shù)量充足,提取有效的數(shù)據(jù)特征,確保網(wǎng)絡(luò)能學(xué)習(xí)待檢測目標(biāo)的具體特征。在研究過程中,相關(guān)人員還要構(gòu)建艦船目標(biāo)檢測數(shù)據(jù)集,主要的訓(xùn)練集、測試集、訓(xùn)練驗證集、驗證集分別為2 800,840,1 200,360。在利用PASCALVOCps數(shù)據(jù)集格式進行數(shù)據(jù)處理的過程中,相關(guān)人員可以通過谷歌圖片、百度圖片、數(shù)據(jù)集等途徑獲取艦船圖像共4 000張。在處理圖像尺寸時,可以將其縮放成416×C16的圖像,并通過手工標(biāo)記、批量修改等確保圖像中包含邊界框坐標(biāo)和類別信息,最終形成xml文件,然后按照對應(yīng)比例完成樣本隨機分配作業(yè),可以獲取訓(xùn)練集以及驗證集,最終構(gòu)建數(shù)據(jù)集。

3 改進YOLOv3模型核心思路

3.1 K-means聚類先驗框改進

在改進YOLOv3模型算法的過程中,完成K-means聚類先驗框改進作業(yè)后,需要利用YOLOv3模型算法,確保邊界框能夠準(zhǔn)確預(yù)測目標(biāo)物體在圖像中的具體位置。一般要先確定9組先驗框,在開展深度網(wǎng)絡(luò)訓(xùn)練過程中,必須調(diào)整邊界框的尺寸,保證目標(biāo)檢測框的準(zhǔn)確性。因此,在開始選擇先驗框時,必須保證其具有代表性。這是提高預(yù)測結(jié)果準(zhǔn)確度、保障預(yù)測效率的重要手段。YOLOv3算法本身的先驗框是以COCO數(shù)據(jù)集中的類別數(shù)據(jù)為基礎(chǔ)獲取的,在艦船目標(biāo)檢測過程中并不能完全發(fā)揮作用,這就需要根據(jù)已經(jīng)完成構(gòu)建的艦船目標(biāo)檢測數(shù)據(jù)集通過K-means聚類算法獲取先驗框,并利用最優(yōu)先驗框?qū)⑵浞峙湓诓煌某叽缣卣鲌D中。

經(jīng)過標(biāo)準(zhǔn)處理后的K-means方法使用的為歐式距離,這種方法會導(dǎo)致邊界框的誤差增加。因此,在目標(biāo)艦船檢測算法的應(yīng)用過程中,比較常用的性能指標(biāo)交并比可以代替歐式距離,聚類算法使用的公式為:

式中,IOU數(shù)值越大,說明檢測框和目標(biāo)的相似度以及相對性越高,判定距離也越近。在計算工作中,假定K值為9,聚類9種尺寸先驗框,并按照不同的顏色對先驗框進行分類,不同的類別表示聚類中心,坐標(biāo)為新先驗框的寬高維度。

將獲取的先驗框分配給不同尺度的特征圖,在最小的13×13式特征圖上,需要使用的先驗框為大尺寸:(302,109)(347,219)(380,364);而在26×26特征圖上,需要利用中尺寸先驗框(158,77)(187,285)(278,330)進行對象檢測工作;在52×52特征圖上,利用的是較小先驗框(36,44)(62,144)(117,231)對較小對象進行檢測。

此外,相關(guān)人員需要完成數(shù)據(jù)增強處理。此次研究適用mixup,每次隨機抽取2個樣本點,生成新的虛擬樣本點。mixup是鄰域風(fēng)險較小的形式,可以與先驗知識有效結(jié)合,生成的特征向量線性插值可以完成擴展訓(xùn)練分布。因此,只需要利用少量幾行代碼就能實施,幾乎不存在計算開銷。該增強方法可以以最先進的模型ImageNet、語音與表格數(shù)據(jù)集的泛化誤差為基礎(chǔ)進行改進。

3.2 標(biāo)簽平滑化

在開展多類別訓(xùn)練任務(wù)時,必須確定數(shù)據(jù)集的標(biāo)簽類別,假定正樣本為1,負(fù)樣本為0,可以獲取一個one-hot向量:

式中,y代表目標(biāo)真實類別;i表示不同類別中的一類。

上述過程可能會導(dǎo)致模型對預(yù)測類別的依賴性增強,如果數(shù)據(jù)出現(xiàn)噪聲問題,會影響訓(xùn)練結(jié)果的精確度。如果數(shù)據(jù)量分布不均衡,對某一類數(shù)量多的標(biāo)簽依賴性較強,可能會出現(xiàn)擬合現(xiàn)象。

在Inception v2提出了標(biāo)簽平滑化,將其作為正則化策略,在軟化one-hot類型標(biāo)簽的過程中,需要計算損失值,并且要對過擬合現(xiàn)象進行有效抑制。

對標(biāo)簽進行更新處理后,其分布與在真實分布中加入噪聲有一定的類似性,主要是為了方便計算。一般情況下,利用均勻分布能大大減少標(biāo)簽真實類別在計算過程中損失的權(quán)重,還可以增加其他類別在損失函數(shù)中的權(quán)重。在訓(xùn)練網(wǎng)絡(luò)時,可以利用最小化預(yù)測概率以及真實概率的交叉熵,獲取最優(yōu)預(yù)測概率。在YOLOv3網(wǎng)絡(luò)模型訓(xùn)練中必須加入抑制擬合現(xiàn)象,才能增強網(wǎng)絡(luò)的泛化能力,對保證檢測結(jié)果的精確度有積極作用[5]。

4 結(jié)語

總而言之,此次研究在YOLOv3目標(biāo)檢測模型改進的過程中,必須對損失函數(shù)進行深入分析,可以利用多任務(wù)損失函數(shù),通過垂直框和旋轉(zhuǎn)框預(yù)測結(jié)果對目標(biāo)方位角的估計偏差進行預(yù)測,提高SAR圖像目標(biāo)檢測和方位角度估計精度。此外,完成模型改進后,需要保持較快的推理速度。通過驗證實驗可以確定,該改進模型在純海洋背景下的目標(biāo)檢測工作中具有應(yīng)用價值,并且目標(biāo)方位角估計的準(zhǔn)確度較高,對靠岸情況正常目標(biāo)檢測精度并不高,在之后的研究中需要從這一角度出發(fā)深入分析。

猜你喜歡
檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
3D打印中的模型分割與打包
小波變換在PCB缺陷檢測中的應(yīng)用
主站蜘蛛池模板: 啊嗯不日本网站| 亚洲中文字幕无码爆乳| 国产成人精品一区二区不卡| 在线免费亚洲无码视频| 国产理论最新国产精品视频| 国产拍在线| 日本道综合一本久久久88| 亚洲欧州色色免费AV| 亚洲资源在线视频| 视频一本大道香蕉久在线播放 | 亚洲无码精彩视频在线观看| 久久熟女AV| 色天堂无毒不卡| 99久久性生片| 四虎免费视频网站| 国产精品综合久久久| 天堂va亚洲va欧美va国产| 黑色丝袜高跟国产在线91| 国产无吗一区二区三区在线欢| 超碰aⅴ人人做人人爽欧美| 香蕉在线视频网站| 久久久久青草大香线综合精品 | 一本色道久久88综合日韩精品| 91精品福利自产拍在线观看| 日韩 欧美 小说 综合网 另类 | 国产成人精品免费av| 国产av一码二码三码无码| 成人无码区免费视频网站蜜臀| 亚洲男人在线| 视频二区亚洲精品| 91福利一区二区三区| 人妻一区二区三区无码精品一区| 99精品在线视频观看| 亚洲综合久久一本伊一区| 免费国产好深啊好涨好硬视频| 2020最新国产精品视频| 日韩不卡高清视频| 中文国产成人精品久久| 欧美成人午夜视频| 国产性猛交XXXX免费看| 成人亚洲国产| 亚洲精品免费网站| 日本国产在线| 久久夜色精品国产嚕嚕亚洲av| 成人国内精品久久久久影院| 9久久伊人精品综合| 亚洲国产91人成在线| 国产伦精品一区二区三区视频优播 | 无码日韩人妻精品久久蜜桃| 精品国产99久久| 高清无码不卡视频| 91视频青青草| 国产成人精品在线| 婷婷六月激情综合一区| 国产在线啪| 国产成人a在线观看视频| 国产精品区网红主播在线观看| 国产拍揄自揄精品视频网站| 69精品在线观看| 91欧美亚洲国产五月天| 国产电话自拍伊人| 一区二区三区成人| 奇米影视狠狠精品7777| 精品国产Av电影无码久久久| 综合亚洲色图| 亚洲综合激情另类专区| 色老二精品视频在线观看| 91人妻在线视频| 国产精品欧美日本韩免费一区二区三区不卡 | 国产福利一区在线| 色偷偷综合网| 国产精品19p| 91探花在线观看国产最新| www.亚洲一区二区三区| 国产免费人成视频网| a级毛片在线免费观看| 黄色成年视频| 成人一级黄色毛片| www.av男人.com| 久热中文字幕在线观看| 国产精品夜夜嗨视频免费视频| 性喷潮久久久久久久久|