999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于YOLOv5算法的滿文不定長字元數(shù)據(jù)集制作方法研究

2023-04-29 00:00:00李昭儀于淼于曉鵬
計(jì)算機(jī)時(shí)代 2023年12期

摘" 要: 在進(jìn)行滿文識別時(shí)需要用到大量的滿文數(shù)據(jù),但目前還沒有滿文不定長字元數(shù)據(jù)集。本文提出一種基于YOLOv5的滿文不定長字元數(shù)據(jù)集制作方法,用于后續(xù)的訓(xùn)練和研究。與傳統(tǒng)切割方法相比,只需提供待檢測圖片即可。通過對基于YOLOv5的數(shù)據(jù)集制作流程的改進(jìn),去除原YOLOv5實(shí)驗(yàn)中對圖像進(jìn)行翻轉(zhuǎn)和隨機(jī)裁剪部分,并且將原YOLOv5的損失函數(shù)替換為EIoU,添加了注意力機(jī)制SE模塊。實(shí)驗(yàn)結(jié)果表明:與原始的 YOLOv5網(wǎng)絡(luò)相比,其精度和召回率分別提高到98.95%和98.83%,證明了算法的實(shí)用性和高效性。

關(guān)鍵詞: YOLOv5; EIoU; SE模塊; 數(shù)據(jù)集制作; 目標(biāo)檢測; 滿文

中圖分類號:TP391.4" " " " " 文獻(xiàn)標(biāo)識碼:A" " "文章編號:1006-8228(2023)12-34-06

Research on the method of making Manchu indeterminate length

character dataset based on YOLOv5

Li Zhaoyi, Yu Miao, Yu Xiaopeng

(College of Mathematics and Computer Science, Jilin Normal University, Siping, Jilin 136000, China)

Abstract: A large amount of Manchu data is needed in Manchu recognition, but there is currently no Manchu indeterminate length character dataset available. To solve this problem, a method of making Manchu indeterminate length character dataset based on YOLOv5 is proposed for subsequent training and research. Compared with traditional cutting methods, only the image to be detected is required. By improving the dataset making process based on YOLOv5, the parts of image flipping and random cropping in the original YOLOv5 experiment are removed. The loss function of the original YOLOv5 is replaced with EIoU, and the attention mechanism SE module is added. The experimental results show that compared with the original YOLOv5 network, its accuracy and recall rate are improved to 98.95% and 98.83%, respectively, which proves the practicability and high efficiency of the algorithm.

Key words: YOLOv5; EIoU; SE module; dataset making; target detection; Manchu

0 引言

在我國悠久歷史中,留下了不少珍貴的滿文文獻(xiàn)檔案,這些資料得不到妥善保管和充分利用,由于年久日深已經(jīng)遭到了損壞。因此迫切需要研究對滿文的檢測與識別技術(shù)。現(xiàn)有的網(wǎng)絡(luò)針對滿文的檢測與識別技術(shù)的研究少之又少,目前還沒有關(guān)于滿文不定長字元的公共數(shù)據(jù)集,因此實(shí)驗(yàn)需要根據(jù)自己所掌握的滿文知識進(jìn)行數(shù)據(jù)集制作。

1 相關(guān)研究

1.1 滿文基礎(chǔ)知識

滿文是一種拼音文字,從書寫規(guī)則來看,是由上而下,由左而右,豎排書寫。滿文共有12字頭,每組字頭約有100余字。滿文字母出現(xiàn)在詞匯中不同位置有不同書寫形式,分別是獨(dú)立體、詞首型、詞中型、詞尾型,以字母a為例,如圖1所示。

1.2 YOLOv5

YOLOv5實(shí)現(xiàn)在圖像中定位并識別目標(biāo)物體,由輸入端(Input)、主干網(wǎng)絡(luò)(Backbone)、頸部網(wǎng)絡(luò)(Neck)以及輸出端[1]四部分組成。由于網(wǎng)絡(luò)的深度和維度的不同,YOLOv5模型包括多個(gè)版本,本研究實(shí)驗(yàn)選擇了YOLOv5m模型。

1.3 OpenCV

OpenCV是計(jì)算機(jī)視覺中經(jīng)典的專用庫,其支持多語言,跨平臺,功能強(qiáng)大[2],實(shí)現(xiàn)了大量的圖像處理通用方法。該庫的應(yīng)用領(lǐng)域廣泛,如邊緣檢測、圖像分類、圖像分割等。

2 方法設(shè)計(jì)

手動(dòng)切割圖像來制作不定長字元數(shù)據(jù)集將會(huì)是一項(xiàng)工程量十分浩大的工作,想得到一個(gè)高質(zhì)量的數(shù)據(jù)集是達(dá)不到的,其次傳統(tǒng)的切割方法在對字元進(jìn)行切割時(shí)不夠靈活,還會(huì)損失圖像的像素,對識別的結(jié)果有一定影響。所以本實(shí)驗(yàn)設(shè)計(jì)了將YOLOv5和OpenCV結(jié)合應(yīng)用到滿文字元切割的方法,來實(shí)現(xiàn)更好地切割字元制作數(shù)據(jù)集。本實(shí)驗(yàn)方法流程圖如圖2所示。

訓(xùn)練YOLOv5時(shí)同樣需要自己制作數(shù)據(jù)集,在制作數(shù)據(jù)集時(shí),需要對包含各個(gè)字元的滿文單詞圖像手動(dòng)標(biāo)記,本實(shí)驗(yàn)使用Make Sense進(jìn)行標(biāo)記,導(dǎo)出的格式為YOLO,將制作好的YOLO格式數(shù)據(jù)集進(jìn)行訓(xùn)練,得到檢測準(zhǔn)確率最好的模型,再整理出一份可以包含所有字元不同情況下的所有寫法的圖像集,用訓(xùn)練好的模型對該圖像集進(jìn)行字元定位,根據(jù)得到的位置進(jìn)行區(qū)域提取,最后獲得覆蓋各個(gè)字元所有書寫情況的不定長字元數(shù)據(jù)集。

2.1 傳統(tǒng)的滿文字元切割方法

滿文單詞的拼寫是十分復(fù)雜的,不同的字元在不同的位置有不同的表現(xiàn)形式,同一字體型號的不同滿文單詞尺寸也有可能相差很多,因此要將滿文單詞切分成滿文字元進(jìn)行識別[3]。傳統(tǒng)的切分滿文字元的方法有投影法[4]、皮爾遜相關(guān)系數(shù)[5]、骨骼法等,但是使用傳統(tǒng)切割方法并不適用于所有情況下的圖片,會(huì)出現(xiàn)切分不正確、像素缺失等情況。

2.2 基于YOLOv5的滿文字元切割方法

由于滿文單詞中每個(gè)字元所包含的像素較少、圖像的尺寸較小,為了保證每個(gè)字元沒有像素的損失,減小對識別準(zhǔn)確率的影響,因此本實(shí)驗(yàn)將目標(biāo)檢測方法YOLOv5與滿文字元切割相結(jié)合,來制作不定長滿文字元數(shù)據(jù)集。首先由于YOLOv5是一種端到端的深度學(xué)習(xí)原理,可以直接在原始圖像中開始,不需要預(yù)處理。其次YOLOv5使用的是卷積神經(jīng)網(wǎng)絡(luò)來提取圖像特征[6],在圖像質(zhì)量不好的情況下也可以很好的工作。最后YOLOv5提出了自適應(yīng)圖片縮放方法,可以避免過多信息冗余,提高運(yùn)算速率。

2.3 訓(xùn)練模型

YOLOv5發(fā)行了多個(gè)版本,本實(shí)驗(yàn)采用的版本為5.0版本[7],其結(jié)構(gòu)圖如圖3所示。

⑴ 輸入端:YOLOv5的輸入端沿用了之前的Mosaic數(shù)據(jù)增強(qiáng)操作,在網(wǎng)絡(luò)進(jìn)行標(biāo)準(zhǔn)化BN計(jì)算時(shí),計(jì)算一張照片相當(dāng)于計(jì)算多張照片,這樣可以極大程度上減少GPU計(jì)算。

⑵ Backbone:YOLOv5中C3模塊為CSP架構(gòu)[8]有兩種設(shè)計(jì),分別為應(yīng)用在Backbone的CSP1_X結(jié)構(gòu)和應(yīng)用在Neck的CSP2_X結(jié)構(gòu)。網(wǎng)絡(luò)結(jié)構(gòu)圖如圖4、圖5所示。

其中CBS的結(jié)構(gòu)為Conv、BN、SiLU結(jié)合,主要應(yīng)用于卷積操作。SPPF結(jié)構(gòu)如圖6所示,其采用多個(gè)小尺寸池化核來代替單個(gè)大尺寸池化核,提高了運(yùn)行速率。

⑶ Neck:頸部網(wǎng)絡(luò)采用特征金字塔網(wǎng)絡(luò)FPN加路徑聚合網(wǎng)絡(luò)PAN的結(jié)構(gòu),更充分提取到特征,利用到高層的語義信息和底層的細(xì)節(jié)信息,有利于分類和定位。

通常情況下目標(biāo)檢測算法的損失函數(shù)由兩部分組成,分別是 Classification Loss(分類損失函數(shù))和Bounding Box Regression Loss(回歸損失函數(shù))。假設(shè)預(yù)測框和真實(shí)框的交集為A,并集為B,IOU定義為交集A除以并集B,IoU的Loss為:

[IoU_Loss = 1-IoU = 1-AB]

⑷ 輸出端:YOLOv5中采用CIoU_Loss做損失函數(shù)。通過nms非極大值抑制進(jìn)一步篩選掉多余的檢測框[9],得到最終的檢測框。

2.4 改進(jìn)策略

為了保證滿文字元的完整性,避免混淆同字型不同方向的不同字元,本文將去除圖像翻轉(zhuǎn)和隨機(jī)裁剪。為了提高檢測識別的準(zhǔn)確率,本文將損失函數(shù)改為EIoU[10]。由于一些字元之間存在的差別微乎其微,因此本文引入注意力機(jī)制SE模塊進(jìn)行改進(jìn),提高最終效果。

2.4.1 去除圖像翻轉(zhuǎn)和隨機(jī)裁剪

原始的YOLOv5網(wǎng)絡(luò)在圖像訓(xùn)練過程中通常會(huì)進(jìn)行一些數(shù)據(jù)增強(qiáng)操作,例如翻轉(zhuǎn)、旋轉(zhuǎn)等,增加訓(xùn)練數(shù)據(jù)的多樣性和泛化能力。由于滿文字元中存在書寫形式相同,方向不同的字母,例如字元L和字元M在詞中位置時(shí),如圖7、圖8所示,黑色框內(nèi)分別是字元L和字元M在詞中位置的寫法。針對此情況,本文將YOLOv5中圖像翻轉(zhuǎn)部分去除,避免了由于同體不同方向不同字導(dǎo)致的檢測識別錯(cuò)誤。

通過觀察滿文字元書寫情況,可以看到有些字元存在非常相似、字元表現(xiàn)形式相差微乎其微的。例如字元BA和字元B在詞頭位置時(shí),如圖9、圖10所示,黑色框內(nèi)是字元BA和字元B在詞頭位置的寫法。針對此情況,本文將yolov5中圖像隨機(jī)裁剪部分去除,避免由于字元圖像像素相差極少導(dǎo)致的檢測識別錯(cuò)誤。

2.4.2 損失函數(shù)EIoU

CIoU定義公式為:[LCIoU" = 1-IoU+ρ2(b,bgt)c2+α]v,[α]是權(quán)重函數(shù),v用來度量長寬比的相似性,定義為:[v=4π2(arctanwgthgt-arctanwh)2],它關(guān)于邊長 w和 h的梯度公式為:

[?v?w=8π2(arctanwgthgt-arctanwh)*hw2+h2]

[?v?h=-8π2(arctanwgthgt-arctanwh)*hw2+h2]

首先,如果預(yù)測框和標(biāo)注的真實(shí)框的長寬比是相同的,那么長寬比恒為0,這是不合理的;其次,觀察梯度公式可以看出,w和h不能同時(shí)增大或減小,這顯然是不夠合理的。因此用EIoU_Loss來進(jìn)行改進(jìn),2021年中國科學(xué)院大學(xué)張易凡等人[11]提出了損失函數(shù)EIoU,公式為:

[LEIoU=LIoU +Ldis+Lasp]

[=1-IoU+ρ2(b,bgt)c2+ρ2(w,wgt)C2w+ρ2(h,hgt)C2h]

其中,[Cw]和[Ch]分別是覆蓋真實(shí)框和預(yù)測框的寬和高,EIoU將損失函數(shù)分成了損失 [LIoU]、距離損失[Ldis]、邊長損失[Lasp]三個(gè)部分。損失函數(shù)EIoU與損失函數(shù)CIoU不同的地方在于損失函數(shù)EIoU_Loss是在CIoU_Loss基礎(chǔ)上提出的,加入了Focal聚焦優(yōu)質(zhì)的錨框,將原始的寬高比例改為寬高值回歸。EIoU_Loss損失函數(shù)提高了衡量相交尺度的方式,減少了單純IoU_Loss時(shí)的不足,提高檢測目標(biāo)檢測框的準(zhǔn)確度。

2.4.3 添加注意力機(jī)制SE模塊

在滿文字元檢測任務(wù)中,某些字元在做詞頭時(shí)之間細(xì)微差別的特征信息容易在深層網(wǎng)絡(luò)中丟失,同時(shí),在圖像質(zhì)量低、光照不均勻等情況下,給字元特征提取帶來了極大的干擾,需要更加注重字體特征的提取。SE注意力機(jī)制[12-13]可以讓模型學(xué)習(xí)滿文字元信息量最大的特征并抑制不重要的特征,從而提高檢測效果。為此,本實(shí)驗(yàn)將SE注意力機(jī)制添加在主干網(wǎng)絡(luò)backbone的SPPF的前一層,增強(qiáng)滿文字元特征信息的提取。

SE模塊結(jié)構(gòu)如圖11所示,主要包含壓縮(squeeze)和激勵(lì)(excitation)兩部分。

⑴ 壓縮(squeeze)

壓縮操作過程如圖12所示,由于卷積沒有全局感受野,很難獲得足夠的信息來提取通道之間的關(guān)系特征,為了解決利用通道依賴性的問題,采用全局平局池化來實(shí)現(xiàn),將包含全局信息的特征圖W*H*C輸出維度變?yōu)?*1*C。算子公式為:[zc=Fsq(uc)=1H*Wi=1Hj=1Wuci,j]

⑵ 激勵(lì)(excitation)

激勵(lì)操作過程如圖13所示,由兩個(gè)全連接層組成,得到squeeze的1*1*C全局特征后,通過FC(Fully Connected)全連接層對每個(gè)通道的重要性進(jìn)行預(yù)測。為了減少通道個(gè)數(shù)從而降低計(jì)算量,設(shè)置了縮放參數(shù)SERatio。激勵(lì)操作計(jì)算公式為:

[s=Fex(z,W)=σ(g(z,W))=σ(W2δ(W1z))]

[s=Fex(z,W)=σ(g(z,W))=σ(W2max(0,W1z))]

2.5 生成數(shù)據(jù)集

在處理圖像時(shí),經(jīng)常會(huì)發(fā)生僅僅需要圖片中特定位置的信息的情況,為了降低GPU利用率,對該圖片特定區(qū)域進(jìn)行提取,然后對該區(qū)域再進(jìn)行處理、分析等操作,這樣的區(qū)域稱為ROI區(qū)域[14]。

實(shí)驗(yàn)中通過YOLOv5檢測之后得到的結(jié)果分析圖如圖14所示,檢測所得數(shù)據(jù)結(jié)果存放在文本文檔中,數(shù)據(jù)顯示如圖15所示,每一行從左到右數(shù)據(jù)分別代表:檢測到目標(biāo)類別、目標(biāo)中心點(diǎn)坐標(biāo)的x值(x_center)y值(y_center)、目標(biāo)的寬度(width)高度(height)。但是由于YOLOv5的文本文檔中存儲的x_center、y_center、width、height都是經(jīng)過歸一化處理的所以,上述公式中所計(jì)算得到的x1、x2、y1、y2值都是經(jīng)過歸一化處理之后的值,實(shí)驗(yàn)要的是原值,因此得到以下公式:

x1=(x_center-width/2)*整張圖片的寬度

x2=(x_center+width/2)*整張圖片的寬度

y1=(y_center-height/2)*整張圖片的高度

y2=(y_center+height/2)*整張圖片的高度

該公式中整張圖片的高度和寬度是指該圖片的像素寬度、像素高度,在水平方向上裁剪x1、x2,在垂直方向上裁剪y1、y2,即可得到目標(biāo)字元圖像從而構(gòu)成數(shù)據(jù)集。

3 實(shí)驗(yàn)與結(jié)果分析

3.1 實(shí)驗(yàn)方法

由于本文的最終數(shù)據(jù)集是由單個(gè)滿文字元圖像組成的,因此將使用傳統(tǒng)方法制作的字元數(shù)據(jù)集與基于YOLOv5方法制成的字元數(shù)據(jù)集進(jìn)行比較,來觀察比較生成的數(shù)據(jù)集的性能表現(xiàn)。

本文從兩個(gè)方面來進(jìn)行數(shù)據(jù)集之間的比較:一是通過觀察不同方法生成的字元圖像的表現(xiàn)形式來比較數(shù)據(jù)集的性能;二是通過比較不同方法生成的字元數(shù)據(jù)集的準(zhǔn)確率等指標(biāo)來評判各數(shù)據(jù)集性能。

3.2 模型

迄今為止,在目標(biāo)檢測領(lǐng)域,深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)發(fā)展良好,取得了非常可觀的成績,其中有兩種類型具有代表性,分別是雙階段模型和單階段模型,YOLO[15]系列就是單階段類型,將目標(biāo)檢測任務(wù)看做一個(gè)regression問題來處理,在網(wǎng)絡(luò)的輸入端輸入整張待檢測圖像,直接在輸出層輸出邊界框的位置及其所屬類別。在YOLOv5系列中,YOLOv5m以速度快、準(zhǔn)確率高、模型小、易于使用的優(yōu)點(diǎn)而著名.

選擇使用YOLOv5m進(jìn)行文字目標(biāo)檢測,是因?yàn)樗哂懈咝阅堋⒍喑叨葯z測能力,簡單易用,可以滿足文字目標(biāo)檢測的需求。

3.3 評估指標(biāo)

本文將從以下幾個(gè)方面作為評估指標(biāo)進(jìn)行評估,第一個(gè)方面是在對滿文單詞圖像進(jìn)行切割之前對圖像進(jìn)行的操作的繁簡程度;第二個(gè)方面是通過不同方法得到的字元圖像的質(zhì)量;第三個(gè)方面是通過Precision(精度)、Recall(召回率)、mAP@0.50和mAP@0.50/0.95[16]。

Precision:衡量準(zhǔn)確性,表現(xiàn)為找到的正例比例/實(shí)際的正例比例。

Recall:衡量的是一個(gè)分類能把所有的正類都找出來的能力,表現(xiàn)為找到的正例比例/所有本應(yīng)該被找對的正例比例。

mAP@0.50:表示將IoU閾值設(shè)為0.50時(shí),用Precision和Recall作為兩軸作圖后圍成的面積的平均值。

mAP@0.50/0.95:表示在0.50到0.95的取值范圍內(nèi),從0.50開始以每步0.05的距離逐步遞增的閾值上mAP的平均值。

3.4 實(shí)驗(yàn)結(jié)果

如表1所示,在進(jìn)行實(shí)驗(yàn)之前的準(zhǔn)備工作中,如果采用傳統(tǒng)的投影法就需要對圖像進(jìn)行預(yù)處理操作,但是采用本實(shí)驗(yàn)方法不需要對圖像進(jìn)行任何預(yù)處理。用深度學(xué)習(xí)人工神經(jīng)網(wǎng)絡(luò)來對圖片進(jìn)行目標(biāo)檢測分類,代替人力對圖片進(jìn)行篩選操作,節(jié)省了大量的人力資源。

如圖16、圖17所示,分別是傳統(tǒng)方法得到的字元BO做字頭時(shí)的字元圖片和通過本實(shí)驗(yàn)方法得到的BO做字頭時(shí)的字元圖片,觀察圖片可知,圖16是二值化之后的圖片,而圖17是灰度圖片,包含更多圖片像素信息,在使用本實(shí)驗(yàn)方法得到的數(shù)據(jù)集時(shí)會(huì)將大大提高準(zhǔn)確率;觀察圖16可以看到字元是有缺失的,在字元BO最下一行的字體像素已經(jīng)被背景像素替代,但是圖17的字元是完整的,因此采用基于YOLOv5深度學(xué)習(xí)的方法進(jìn)行數(shù)據(jù)集制作會(huì)保證字元的完整性,保持原圖像質(zhì)量不受損壞,所得字元的正確性可以得到保證。

本實(shí)驗(yàn)分別用YOLOv5s、YOLOv5m、損失函數(shù)改為EIoU、在使用損失函數(shù)EIoU基礎(chǔ)上添加注意力機(jī)制SE模塊,具體訓(xùn)練結(jié)果如圖18所示,其中圖18(a)、圖18(b)、圖18(c)、圖18(d)分別表示不同訓(xùn)練方法在相同訓(xùn)練輪數(shù)下檢測精度、召回率、mAP@0.50、mAP@0.50/0.95的表現(xiàn)情況,檢測結(jié)果如表2所示。實(shí)驗(yàn)結(jié)果表明,對YOLOv5的每一項(xiàng)改進(jìn)都取得了一定的效果。

4 總結(jié)與展望

本文提出基于YOLOv5深度學(xué)習(xí)的方法制作滿文不定長字元數(shù)據(jù)集。此方法相較于傳統(tǒng)的滿文字元切割方法節(jié)省了大量的人力資源,不需要對待處理圖像進(jìn)行預(yù)處理操作。本文的實(shí)驗(yàn)方法更具有靈活性,對檢測到的字元可以靈活的改變切割尺寸大小,包容性更強(qiáng),對待處理圖像的質(zhì)量要求低。通過本文的實(shí)驗(yàn)方法可以保證最后得到字元圖像中字元的完整性,提高使用該數(shù)據(jù)集進(jìn)行識別時(shí)的準(zhǔn)確率。

本文選擇在速度和準(zhǔn)確度之間提供了較好的平衡的YOLOv5m模型上進(jìn)行改進(jìn)實(shí)驗(yàn),進(jìn)一步提高了字元檢測的精度,本文方法可以為滿文字元識別、滿文整詞識別等領(lǐng)域的研究人員提供新的數(shù)據(jù)集制作思路,進(jìn)而可以考慮將該方法延伸到少數(shù)民族文字?jǐn)?shù)據(jù)集的制作上。接下來的研究,將考慮增加隱馬爾科夫模型來提高字元的識別能力,從而實(shí)驗(yàn)更好的實(shí)驗(yàn)效果。

參考文獻(xiàn)(References):

[1] 楊航,何皓明,李滕科,等.基于改進(jìn)YOLOv5的鴿子蛋殼破損

檢測[J].西南師范大學(xué)學(xué)報(bào)(自然科學(xué)版),2023,48(8):92-102.

[2] Bradski G, Daebler A.Learning OpenCV. Computer vision

with OpenCV library[J].University of Arizona Usa Since,2008.

[3] 許爽,李敏,朱滿瓊,等.滿文識別技術(shù)研究與分析[J].大連

民族學(xué)院學(xué)報(bào),2014,16(5):546-551.

[4] 白文榮.手寫體蒙古文字識別——切分技術(shù)的研究[J].科技

經(jīng)濟(jì)市場,2009(6):30-31.

[5] Gooch J W .Pearson Correlation Coefficient[M].2011.

[6] Hubel D H, Wiesel T N.Receptive fields, binocular

interaction and functional architecture in the cat's visual cortex[J].Journal of Physiology,1962,160(1):106-154.

[7] 王彥生,朱佳佳,王紫儀,等.基于改進(jìn)YOLOv5的電廠人員絕

緣手套佩戴檢測[J/OL].計(jì)算機(jī)測量與控制:1-9[2023-08-06].http://kns.cnki.net/kcms/detail/11.4762.TP.

20230713.1122.028.html.

[8] Wang C Y, Liao H Y M, Yeh I H ,et al.CSPNet: A New

Backbone that can Enhance Learning Capability of CNN.2019[2023-08-06].

[9] 周飛燕,金林鵬,董軍.卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J].計(jì)算機(jī)

學(xué)報(bào),2017,40(6):1229-1251.

[10] 呂禾豐,陸華才.基于YOLOv5算法的交通標(biāo)志識別技術(shù)

研究[J].電子測量與儀器學(xué)報(bào),2021,35(10):137-144.

[11] Zhang Y F , Ren W , Zhang Z ,et al.Focal and Efficient

IOU Loss for Accurate Bounding Box Regression[J]." 2021.

[12] 游越,伊力哈木·亞爾買買提.基于改進(jìn)YOLOv5在電力巡

檢中的目標(biāo)檢測算法研究[J].高壓電器,2023,59(2):89-96.

[13] Hu J , Shen L , Albanie S ,et al.Squeeze-and-Excitation

Networks.[J].IEEE transactions on pattern analysis and machine intelligence,2020,42(8):2011-2023.

[14] 毛科技,汪敏豪,陳立建,等.結(jié)合目標(biāo)檢測與匹配修正的

手腕骨興趣區(qū)域提取[J].中國圖象圖形學(xué)報(bào),2022(3):27.

[15] Redmon J , Divvala S , Girshick R ,et al.You Only Look

Once: Unified, Real-Time Object Detection[C]//Computer Vision amp; Pattern Recognition.IEEE, 2016.

[16] 李宇瓊.基于改進(jìn)YOLOv5的深度學(xué)習(xí)交通標(biāo)志識別[D].

長沙:中南林業(yè)科技大學(xué),2023.

主站蜘蛛池模板: 毛片网站在线看| 国产成人一区| a级毛片免费看| 青青草一区二区免费精品| 精品国产福利在线| 国产探花在线视频| 久久久久人妻一区精品| 人妻91无码色偷偷色噜噜噜| 色网站免费在线观看| 国产亚洲精品97在线观看| 国产在线视频自拍| 日韩欧美中文字幕在线精品| 2020久久国产综合精品swag| 亚洲成人在线网| 九色综合伊人久久富二代| 5555国产在线观看| 欧洲亚洲一区| 欧美国产日韩在线| 一级看片免费视频| 在线观看免费黄色网址| 伊人久久久久久久久久| 国产精品免费电影| 尤物国产在线| 国产区福利小视频在线观看尤物| 呦女亚洲一区精品| 在线永久免费观看的毛片| 国产日韩欧美在线播放| 色香蕉影院| 亚洲成a人片| 日本影院一区| 日韩精品成人网页视频在线| 99精品免费欧美成人小视频| 欧美日韩一区二区三区四区在线观看| 国产一区成人| 国产一区二区免费播放| 国产91麻豆视频| 国产无码制服丝袜| 亚洲综合专区| 亚洲香蕉久久| 久久激情影院| 精品国产欧美精品v| 欧美视频免费一区二区三区| 2020精品极品国产色在线观看| 麻豆精品视频在线原创| a毛片在线免费观看| 国产精品嫩草影院视频| 精品偷拍一区二区| 色综合成人| 亚洲日本中文字幕乱码中文 | 国模粉嫩小泬视频在线观看| 日韩不卡高清视频| 亚洲区一区| 亚洲欧美在线综合图区| 91成人在线免费视频| 真人免费一级毛片一区二区| 国产精品久久久免费视频| 在线观看国产黄色| 在线99视频| 久久精品这里只有国产中文精品| 欧美日韩综合网| 在线人成精品免费视频| 欧美精品在线免费| 日韩大乳视频中文字幕| 丰满人妻一区二区三区视频| 国产精品大白天新婚身材| 欧美精品在线免费| 国产无码高清视频不卡| 嫩草国产在线| 在线色国产| 综合色亚洲| 久久综合久久鬼| 国产乱人伦AV在线A| 美女毛片在线| 亚洲第一福利视频导航| 天天综合色网| 99精品视频播放| 毛片卡一卡二| 高清久久精品亚洲日韩Av| 久久国产精品麻豆系列| 欧美另类图片视频无弹跳第一页| 91网红精品在线观看| 国产精品2|