999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進(jìn)YOLOv8n的輕量化分心駕駛檢測算法

2024-12-31 00:00:00朱玉華龔曉騰吳寧
汽車工程師 2024年10期
關(guān)鍵詞:嵌入式特征檢測

【摘要】針對駕駛員分心駕駛檢測領(lǐng)域中深度學(xué)習(xí)模型參數(shù)量大,在嵌入式設(shè)備上難以部署的問題,提出一種基于YOLOv8n的輕量化分心駕駛檢測算法YOLOv8n-SGC。首先,構(gòu)建ShuffleNetV2輕量化骨干網(wǎng)絡(luò),引入幻影卷積(GhostConv),減少模型參數(shù)量和計(jì)算量,實(shí)現(xiàn)模型輕量化;其次,在骨干網(wǎng)絡(luò)后加入卷積和注意力融合模塊(CAFM),融合全局和局部特征,提升算法檢測精度。驗(yàn)證結(jié)果表明,相較于基準(zhǔn)模型,改進(jìn)模型的參數(shù)量和計(jì)算量都有所降低,且體積減小了28.67%,推理時(shí)間縮短了41.79%,mAP提高了1.1百分點(diǎn)。

關(guān)鍵詞:YOLOv8n ShuffleNetV2 注意力機(jī)制 輕量化 分心駕駛檢測

中圖分類號:TP391.41" "文獻(xiàn)標(biāo)志碼:A" "DOI: 10.20104/j.cnki.1674-6546.20230194

Lightweight Distracted Driving Detection Algorithm Based on Improved YOLOv8n

Zhu Yuhua, Gong Xiaoteng, Wu Ning

(Shenyang University of Technology, Liaoyang 111000)

【Abstract】The large number of parameters in deep learning models for driver distraction detection makes it difficult to deploy them on embedded devices. To address this issue, this paper proposes a lightweight distracted driving detection algorithm, YOLOv8n-SGC, based on YOLOv8n. First, a lightweight backbone network, ShuffleNetV2, is constructed, and Ghost convolution is introduced to reduce the number of model parameters and computational cost, achieving model lightweighting. Second, a Convolution and Attention Fusion Module (CAFM) is added after the backbone network to fuse global and local features and improve the algorithm’s detection accuracy. The results show that the improved algorithm model has a reduction in parameters and computational cost compared to the benchmark model," a 28.67% reduction in volume, a 41.79% reduction in inference time," and an mAP increase of 1.1 percentage points.

Key words: YOLOv8n, ShuffleNetV2, Attention mechanism, Lightweight, Distracted driving detection

【引用格式】 朱玉華, 龔曉騰, 吳寧. 基于改進(jìn)YOLOv8n的輕量化分心駕駛檢測算法[J]. 汽車工程師, 2024(10): 37-43.

ZHU Y H, GONG X T, WU N. Lightweight Distracted Driving Detection Algorithm Based on Improved YOLOv8n[J]. Automotive Engineer, 2024(10): 37-43.

1 前言

世界衛(wèi)生組織報(bào)告顯示,由駕駛員因素引起的交通事故數(shù)量占總交通事故數(shù)量的比例約為90%[1],而分心駕駛是其中的關(guān)鍵因素之一。分心駕駛檢測技術(shù)可以及時(shí)提醒駕駛員將注意力集中于駕駛,進(jìn)而提高道路交通安全性。

近年來,隨著人工智能和深度學(xué)習(xí)技術(shù)的快速發(fā)展,相關(guān)技術(shù)越來越多地用于預(yù)測和識別駕駛員的分心駕駛行為。歐陽壯[2]等采用卷積神經(jīng)網(wǎng)絡(luò)YOLOv5檢測駕駛員是否存在玩手機(jī)、吸煙、喝水等分心動(dòng)作并能發(fā)出警告。高尚兵[3]等提出一種雙分支并行雙向交互神經(jīng)網(wǎng)絡(luò)(Bidirectional interaction neural Network based on Vision Transformer,BiViTNet)對駕駛員行為進(jìn)行識別,在一定程度上提高了檢測精度。莫紫雯[4]等使用Dlib算法的默認(rèn)人臉檢測器來檢測輸入幀中的人臉,同時(shí)獲取人臉的68個(gè)關(guān)鍵點(diǎn)坐標(biāo),根據(jù)人臉關(guān)鍵點(diǎn)計(jì)算頭部姿態(tài),實(shí)現(xiàn)分心駕駛檢測功能。王浩[5]針對駕駛員使用手機(jī)行為,提出基于YOLOv4的卷積神經(jīng)網(wǎng)絡(luò)改進(jìn)方案,通過增加網(wǎng)絡(luò)的深度和寬度,以及加入特征截取模塊截取不同尺度的特征,并與特征金字塔融合,有效提升了平均精度均值。上述方法雖然適用于駕駛員分心駕駛檢測領(lǐng)域,但對于大部分嵌入式設(shè)備,仍存在模型計(jì)算量大、參數(shù)多、實(shí)時(shí)性差的問題[6]。

因此,本文基于YOLOv8n,通過構(gòu)建輕量級網(wǎng)絡(luò)ShuffleNetV2、引入幻影卷積(GhostConv)模塊,并加入卷積和注意力融合模塊(Convolution and Attention Fusion Module,CAFM),提出一種輕量化分心駕駛檢測算法YOLOv8n-SGC,通過ShuffleNetV2和GhostConv降低模型參數(shù)量和計(jì)算量,實(shí)現(xiàn)模型輕量化,使其能夠部署到嵌入式設(shè)備中,利用CAFM融合全局和局部特征,提升算法檢測精度。最后,開展試驗(yàn)對YOLOv8n-SGC算法進(jìn)行綜合評估。

2 改進(jìn)YOLOv8n目標(biāo)檢測模型

2.1 YOLOv8n模型

YOLO(You Only Look Once)是基于圖像全局信息進(jìn)行預(yù)測的一種端到端的目標(biāo)檢測系統(tǒng),具有速度快、準(zhǔn)確率高、可解釋性強(qiáng)和適用性廣等優(yōu)點(diǎn)。YOLOv8n結(jié)合先前版本的經(jīng)驗(yàn),融入新的特性和改進(jìn),進(jìn)一步提升了模型性能,網(wǎng)絡(luò)結(jié)構(gòu)[7]如圖1所示。

在骨干網(wǎng)絡(luò)部分,YOLOv8n借鑒了跨階段部分連接的深度神經(jīng)網(wǎng)絡(luò)(Cross Stage Partial Dark Net,CSPDarkNet)結(jié)構(gòu),并將YOLOv5骨干(Backbone)部分的C3模塊替換為特征提取(C2f)模塊。C2f模塊中的第一個(gè)卷積(Conv)模塊用于接收輸入特征圖并生成中間特征圖。中間特征圖經(jīng)分割(Split)操作拆分為兩部分,一部分直接傳遞到拼接(Concat)模塊,另一部分傳遞到多個(gè)瓶頸(Bottleneck)中進(jìn)行進(jìn)一步卷積、歸一化和激活操作處理,之后進(jìn)行拼接操作。最后,將拼接后的特征圖通過卷積進(jìn)行壓縮,得到輸出特征圖。C2f模塊結(jié)構(gòu)如圖2所示[8]。

在特征融合部分,YOLOv8n繼續(xù)采用路徑聚合網(wǎng)絡(luò)(Path Aggregation Network,PANet)結(jié)構(gòu),骨干部分經(jīng)過快速空間金字塔池化(Spatial Pyramid Pooling-Fast,SPPF)模塊后,特征圖的高度H和寬度W經(jīng)過32倍下采樣,對應(yīng)的Layer4中C2f層的特征圖經(jīng)過8倍下采樣,Layer6中C2f層的特征圖經(jīng)過16倍下采樣。輸入圖片分辨率為640×640,得到Layer4、Layer6、Layer9的分辨率分別為80×80、40×40和20×20,之后經(jīng)過上采樣(Upsample)、通道融合,將PANet的3個(gè)輸出分支送入檢測頭(Detect Head)中進(jìn)行損失(Loss)計(jì)算。相較于單向、自上而下的特征金字塔網(wǎng)絡(luò)(Feature Pyramid Networks,F(xiàn)PN),PANet為雙向通路網(wǎng)絡(luò),引入了自下向上的路徑,使底層信息更容易傳遞到頂層。

在檢測頭部分,YOLOv8n使用解耦頭,將回歸分支和預(yù)測分支分離,提升了算法性能和收斂速度。

YOLOv8n的骨干網(wǎng)絡(luò)與輕量化網(wǎng)絡(luò)相比,整體模型較大,需要較多的計(jì)算資源和較大的存儲(chǔ)空間,這使其在嵌入式設(shè)備或移動(dòng)設(shè)備上難以應(yīng)用。

2.2 YOLOv8n-SGC模型

本文提出的YOLOv8n-SGC駕駛員分心檢測算法主要包括以下改進(jìn):為減小模型規(guī)模、降低計(jì)算復(fù)雜度,引入輕量級ShuffleNetV2網(wǎng)絡(luò)和GhostConv,實(shí)現(xiàn)模型輕量化;為提升算法檢測精度,在骨干網(wǎng)絡(luò)后加入CAFM,使模型可以融合全局和局部特征。YOLOv8n-SGC網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示,其中,Maxpool為最大池化層,ShuffleNetV2-1為基本模塊,ShuffleNetV2-2為下采樣模塊,CAFMAttention為卷積和注意力融合模塊。

2.2.1 ShuffleNetV2網(wǎng)絡(luò)

ShuffleNetV2是一種為移動(dòng)設(shè)備設(shè)計(jì)的神經(jīng)網(wǎng)絡(luò)架構(gòu)。相比ShuffleNetV1使用逐點(diǎn)分組卷積(Pointwise Group Convolution)和瓶頸結(jié)構(gòu)而需頻繁訪問內(nèi)存,導(dǎo)致系統(tǒng)能耗增加、效率下降,ShuffleNetV2采用通道分割策略、優(yōu)化通道混洗機(jī)制,減輕了計(jì)算負(fù)擔(dān),提高了系統(tǒng)運(yùn)行效率。通道分割策略將輸入特征圖的通道分割為兩部分,一個(gè)分支保持不變,另一個(gè)分支通過多個(gè)卷積層,提取更復(fù)雜的特征。通道混洗機(jī)制將特征圖的通道視為一個(gè)二維數(shù)組,并在其中進(jìn)行通道的重新排列,使分割后通道能夠再次交叉和組合,并使不同通道間的信息充分交換,提高模型表達(dá)能力。ShuffleNetV2模塊結(jié)構(gòu)[9]如圖4所示。

ShuffleNetV2基本模塊首先對輸入的特征圖(Feature Map)進(jìn)行通道拆分(Channel Split),其中,左分支不進(jìn)行任何處理,右分支經(jīng)過3個(gè)卷積(1×1 Conv、3×3 DWConv、1×1 Conv)后,與左分支進(jìn)行拼接和通道混洗(Channel Shuffle),實(shí)現(xiàn)不同通道間的信息交互。

ShuffleNetV2下采樣模塊包括2個(gè)分支,左分支經(jīng)過一個(gè)3×3的深度卷積(Depth-Wise Convolution,DWConv)和一個(gè)1×1的卷積,右分支經(jīng)過1個(gè)3×3的深度卷積和2個(gè)1×1的卷積。將所有特征圖輸入到下采樣模塊的兩個(gè)分支后,在模塊底部對兩條支路的特征圖進(jìn)行拼接,最后進(jìn)行通道混洗。

ShuffleNetV2替換YOLOv8n骨干網(wǎng)絡(luò),可在維持高精度的同時(shí)提升計(jì)算速度、減輕模型體量,使其更適合在邊緣設(shè)備上進(jìn)行實(shí)時(shí)高效的目標(biāo)檢測任務(wù)。

2.2.2 GhostConv

GhostConv是一種用于模型壓縮的輕量化卷積模塊,通過使用更少的參數(shù)和計(jì)算量來提取特征,降低了模型的復(fù)雜性和訓(xùn)練難度[10-11],減少了所需計(jì)算資源且易于實(shí)現(xiàn)。

GhostConv卷積操作分為3個(gè)步驟:首先使用原卷積一半大小的卷積對輸入圖像進(jìn)行特征提取,然后繼續(xù)經(jīng)過一個(gè)5×5的卷積核、步長為1的廉價(jià)計(jì)算(Cheap Operation),生成新的冗余特征圖,最后將兩種特征圖直連拼接成完整的特征圖得到輸出特征。GhostConv結(jié)構(gòu)[12]如圖5所示。

2.2.3 CAFM注意力機(jī)制

卷積運(yùn)算受限于其局部特性和有限的感知領(lǐng)域,不足以建模全局特征,與其互補(bǔ)的注意力機(jī)制(Attention Mechanism)可通過對全局和局部特征進(jìn)行建模,進(jìn)而保留更多有用的圖像信息。CAFM混合卷積注意力網(wǎng)絡(luò)(Hybrid Convolution and Attention Network,HCANet)中的卷積和注意力融合模塊,由全局分支(Global Branch)和局部分支(Local Branch)組成,全局分支采用自注意力機(jī)制以捕獲更廣泛的數(shù)據(jù)信息,局部分支專注于提取局部特征信息。CAFM結(jié)構(gòu)[13]如圖6所示。

在局部分支中,為了加強(qiáng)跨渠道互動(dòng)和促進(jìn)信息整合,首先使用1×1卷積來調(diào)整通道維度,之后執(zhí)行通道混洗操作進(jìn)一步混合和融合通道信息。通道混洗將輸入張量沿通道維度劃分為若干組,在每個(gè)組內(nèi)采用深度可分離卷積來引發(fā)通道混洗。隨后每個(gè)組得到的輸出張量沿著通道維度連接以生成新的輸出張量,最后利用3×3×3卷積來提取特征。局部分支可以表示為:

[Fconv=W3×3×3(CS(W1×1(Y))]) (1)

式中:Fconv為局部分支的輸出,W1×1為1×1卷積,W3×3×3為3×3×3卷積,CS為通道混洗操作,Y為輸入特征。

在全局分支中,首先通過1×1卷積和3×3深度卷積生成查詢(Q)、鍵(K)、值(V),產(chǎn)生3個(gè)形狀為[ B×H×W×C]的張量,其中B、H、W、C分別為樣本數(shù)、特征圖高度、特征圖寬度和通道數(shù)。為了計(jì)算注意力圖(Attention Map),需將Q、K、V的空間維度展平,利用Softmax函數(shù)將其重塑為[ B×N×C]的形狀,其中N=H×W,重塑后的Q、K和V分別為[Q]、[K]、[V],通過[Q]和[K]計(jì)算注意力圖,減少了計(jì)算負(fù)擔(dān)。全局分支可以表示為:

[Fatt=W1×1Attention(Q,K,V)]+Y (2)

[Attention(Q,K,V)=V]Softmax([QK/α]) (3)

式中:Fatt為全局分支的輸出,Attention[(Q,K,V)]為加權(quán)后的輸出特征圖,[V為]加權(quán)值,α為可學(xué)習(xí)的縮放參數(shù)。

CAFM的計(jì)算結(jié)果為:

[Fout=Fatt+Fconv] (4)

3 試驗(yàn)驗(yàn)證

3.1 試驗(yàn)環(huán)境及參數(shù)配置

首先在計(jì)算機(jī)平臺(tái)上對本文所用模型進(jìn)行訓(xùn)練,之后使用RKNN-Toolkit工具將開放神經(jīng)網(wǎng)絡(luò)交換(Open Neural Network Exchange,ONNX)模型轉(zhuǎn)換為可在瑞芯微(Rockchip)嵌入式設(shè)備運(yùn)行的瑞芯微神經(jīng)網(wǎng)絡(luò)(Rockchip Neural Network,RKNN)模型,量化類型選擇asymmetric quantized-u8,并通過rknn.eval_perf接口對模型進(jìn)行性能評估[14]。試驗(yàn)軟、硬件環(huán)境如表1所示,訓(xùn)練參數(shù)設(shè)置如表2所示。

3.2 數(shù)據(jù)集

本文所用數(shù)據(jù)集部分從模擬駕駛現(xiàn)場采集,部分來自網(wǎng)絡(luò)爬蟲。為提高模型泛化能力,先對數(shù)據(jù)集圖片進(jìn)行反轉(zhuǎn)、加入各種噪聲、調(diào)整對比度等操作,得到16 000張圖片。使用LabelImg軟件對每張圖片進(jìn)行數(shù)據(jù)標(biāo)注,將待檢測行為分為吸煙(smoke)、喝水(drink)、玩手機(jī)(playPhone)、打電話(phone)及觸摸頭部(touchHead)5類,訓(xùn)練集、驗(yàn)證集及測試集的比例為8∶1∶1。

3.3 評價(jià)指標(biāo)

選用平均精確度均值(mean Average Precision,mAP)、模型參數(shù)量(Params)、模型體積和浮點(diǎn)運(yùn)算量[15]作為目標(biāo)檢測算法的性能評價(jià)指標(biāo)。mAP為平均精確度(Average Precision,AP)的均值[16-18],計(jì)算公式為:

[m]p-avg[=1m]∑Pavg[(i)] (5)

式中:m為檢測目標(biāo)的類別數(shù)量,Pavg(i)為類別i的平均精度。

3.4 試驗(yàn)結(jié)果與分析

為驗(yàn)證YOLOv8n-SGC算法的有效性,本文使用同一數(shù)據(jù)集進(jìn)行消融實(shí)驗(yàn)對比,結(jié)果如表3所示。

由表3可知,在YOLOv8n的基礎(chǔ)上引入ShuffleNetV2輕量化網(wǎng)絡(luò),mAP雖有所下降,但模型參數(shù)量降低了39.20%,模型體積降低了34.17%,模型計(jì)算量降低了37.04%。在此基礎(chǔ)上進(jìn)一步進(jìn)行模型輕量化,替換頸部網(wǎng)絡(luò)的傳統(tǒng)卷積為GhostConv,模型參數(shù)量、計(jì)算量進(jìn)一步降低,mAP也有所降低。為提高輕量化模型的檢測精度,在骨干網(wǎng)絡(luò)加入CAFM,mAP相比YOLOv8n基準(zhǔn)模型提高了1.12百分點(diǎn),模型參數(shù)量降低了30.56%,模型容量降低了29.14%,計(jì)算量降低了34.56%。由此可見,相較于YOLOv8n,YOLOv8n-SGC既小幅度提高了檢測精度,又降低了模型參數(shù)量、體積和計(jì)算量。數(shù)據(jù)集測試效果如圖7所示。

在計(jì)算機(jī)平臺(tái)和嵌入式設(shè)備上對YOLOv8n-SGC和YOLOv8n的識別效果進(jìn)行對比,結(jié)果如表4所示。

由表4可知:在計(jì)算機(jī)平臺(tái)上,改進(jìn)算法的mAP和各類別AP均有小幅提升,模型參數(shù)量、容量、浮點(diǎn)計(jì)算量有所降低;在嵌入式設(shè)備(瑞芯微RV1126)上,改進(jìn)算法單張圖片所需的推理時(shí)間縮短41.79%,檢測速率提升94.83%,模型體積降低28.67%。

綜上,改進(jìn)后的YOLOv8n-SGC算法更適用于硬件資源受限的嵌入式設(shè)備。

4 結(jié)束語

本文以YOLOv8n算法為模型基礎(chǔ),為滿足移動(dòng)端嵌入式設(shè)備的布置需求,進(jìn)而實(shí)現(xiàn)分心駕駛檢測功能,通過替換基礎(chǔ)模型骨干網(wǎng)絡(luò)、部分卷積及增加CAFM模塊對算法進(jìn)行改進(jìn)。驗(yàn)證結(jié)果表明,相較于YOLOv8n,本文提出的YOLOv8n-SGC算法在保證檢測精度的前提下,有效降低了計(jì)算復(fù)雜度和模型體積,明顯提升了檢測速率。

參 考 文 獻(xiàn)

[1]" "Lü A H. Driver Distracted Behavior Detection Using a Light Weight Model Based on the W-MSA[J]. Journal of Physics: Conference Series, 2023.

[2]" "歐陽壯, 朱天軍, 文浩. 基于深度學(xué)習(xí)的駕駛員分心駕駛行為預(yù)警算法[J]. 機(jī)電工程技術(shù), 2023(12): 27-30.

OUYANG Z, ZHU T J, WEN H. Driver Distracted Driving Behavior Warning Algorithm Based on Deep Learning[J]. Mechanical amp; Electrical Engineering Technology, 2023(12): 27-30.

[3]" "高尚兵, 張瑩瑩, 王騰, 等. 基于BiViTNet的輕量級駕駛員分心行為檢測方法[J]. 重慶交通大學(xué)學(xué)報(bào)(自然科學(xué)版), 2024(2): 57-64.

GAO S B, ZHANG Y Y, WANG T, et al. A Lightweight Driver Distraction Behavior Detection Method Based on BiViTNet[J]. Journal of Chongqing Jiaotong University (Natural Science), 2024(2): 57-64.

[4]" "莫紫雯, 王江濤, 張子翔. 基于樹莓派的駕駛員分心駕駛檢測系統(tǒng)[J]. 電子制作, 2023(21): 61-64+74.

MO Z W, WANG J T, ZHANG Z X. Driver Distracted Driving Detection System Based on Raspberry Pi[J]. Practical Electronics, 2023(21): 61-64+74.

[5]" "王浩. 改進(jìn)Yolov4的駕駛員打手機(jī)行為檢測研究[D]. 鄭州: 中原工學(xué)院, 2022.

WANGH H. Research on Improving the Detection of Driver’s Mobile Phone Behavior in Yolov4[D]. Zhengzhou: Zhongyuan University of Technology, 2022.

[6]" "高如新, 杜亞博, 常嘉浩. 基于改進(jìn)YOLOX-S的輕量化煤矸石檢測方法研究[J]. 河南理工大學(xué)學(xué)報(bào)(自然科學(xué)版), 2024(4): 133-140.

GAO R X, DU Y B, CHANG J H. Study on Lightweight Coal Gangue Detection Method Based on Improved YOLOX-S[J]. Journal of Henan Polytechnic University (Natural Science), 2024(4): 133-140.

[7]" "安俊峰, 劉吉強(qiáng), 盧萌萌, 等. 基于改進(jìn)YOLOv8的地鐵站內(nèi)乘客異常行為感知[J]. 北京交通大學(xué)學(xué)報(bào), 2024(2): 76-89.

AN J F, LIU J Q, LU M M, et al. Perception of Passenger Abnormal Behavior in Metro Stations Based on Improved YOLOv8[J]. Journal of Beijing Jiaotong University, 2024(2): 76-89.

[8]" "王譯崧, 華杭波, 孔明, 等. Rep-YOLOv8車輛行人檢測分割算法[J]. 現(xiàn)代電子技術(shù), 2024(9): 143-149.

WANG Y S, HUA H B, KONG M, et al. Rep-YOLOv8 Vehicle and Pedestrian Detection Segmentation Algorithm[J]. Modern Electronics Technique, 2024(9): 143-149.

[9]" "MA N N, ZHANG X Y, ZHENG H T, et al. ShuffleNet V2: Practical Guidelines for Efficient CNN Architecture Design[C]// Computer Vision - ECCV 2018: 15th European Conference. Munich, Germany: ECCV, 2018: 122-138.

[10] 彭會(huì)齊, 陳敏之. 基于YOLOv8的女西褲板型弊病檢測與修正[J]. 服裝學(xué)報(bào), 2024(1): 27-35.

PENG H Q, CHEN M Z. Detection and Correction of Women’s Pants Pattern Defects Based on YOLOv8[J]. Journal of Clothing Research, 2024(1): 27-35.

[11] 吳合風(fēng), 王國偉, 萬造君, 等. 基于改進(jìn)YOLOv8s的配電設(shè)備紅外目標(biāo)檢測模型[J]. 電氣技術(shù), 2024(3): 18-23.

WU H F, WANG G W, WAN Z J, et al. Infrared Target Detection Model for Distribution Equipment Based on Improved YOLOv8s[J]. Electrical Engineering, 2024(3): 18-23.

[12] 熊恩杰, 張榮芬, 劉宇紅, 等. 面向交通標(biāo)志的Ghost-YOLOv8檢測算法[J]. 計(jì)算機(jī)工程與應(yīng)用, 2023(20): 200-207.

XIONG E J, ZHANG R F, LIU Y H, et al. Ghost-YOLOv8 Detection Algorithm for Traffic Signs[J]. Computer Engineering and Applications, 2023(20): 200-207.

[13] HU S, GAO F, ZHOU X W, et al. Hybrid Convolutional and Attention Network for Hyperspectral Image Denoising[J]. IEEE Geoscience and Remote Sensing Letters, 2024, 21: 1-5.

[14] 劉永鑫, 高成, 吳政, 等. 一種改進(jìn)的YOLOv3嵌入式實(shí)時(shí)車輛檢測算法[J]. 單片機(jī)與嵌入式系統(tǒng)應(yīng)用, 2023(2): 33-37.

LIU Y X, GAO C, WU Z, et al. Improved Algorithm for Embedded Real-Time Vehicle Detection Based on YOLOv3[J]. Microcontrollers amp; Embedded Systems, 2023(2): 33-37.

[15] 陳仁祥, 胡超超, 胡小林, 等. 基于改進(jìn)YOLOv5的駕駛員分心駕駛檢測[J]. 吉林大學(xué)學(xué)報(bào)(工學(xué)版), 2024(4): 959-968.

CHEN R X, HU C C, HU X L, et al. Driver Distracted Driving Detection Based on Improved YOLOv5[J]. Journal of Jilin University (Engineering and Technology Edition), 2024(4): 959-968.

[16] 杜虓龍, 余華平. 基于改進(jìn)MobileNet-SSD網(wǎng)絡(luò)的駕駛員分心行為檢測[J]. 公路交通科技, 2022(3): 160-166.

DU X L, YU H P. Detecting Driver’s Distracted Behavior Based on Improved Mobile Net-SSD Network[J]. Journal of Highway and Transportation Research and Development, 2022(3): 160-166.

[17] 文家燕, 周志文, 辛華健, 等. 基于改進(jìn)YOLOv7-tiny的高空作業(yè)人員安防裝備檢測算法[J]. 現(xiàn)代電子技術(shù), 2024(13): 164-171.

WEN J Y, ZHOU Z W, XIN H J, et al. High-Altitude Operation Personnel Security Equipment Detection Algorithm Based on Improved YOLOv7-tiny[J]. Modern Electronics Technique, 2024(13): 164-171.

[18] 胡瑛, 劉狄昆, 劉拯, 等. 基于改進(jìn)YOLOv5的復(fù)雜場景下交通標(biāo)志識別方法[J]. 湖南工程學(xué)院學(xué)報(bào)(自然科學(xué)版), 2024, 34(2): 31-38.

HU Y, LIU D K, LIU Z, et al. A Traffic Sign Recognition Method Based on Improved YOLOv5 in Complex Scenes[J]. Journal of Hunan Institute of Engineering (Natural Science Edition), 2024, 34(2): 31-38.

(責(zé)任編輯 白 夜)

修改稿收到日期為2024年8月16日。

猜你喜歡
嵌入式特征檢測
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
如何表達(dá)“特征”
不忠誠的四個(gè)特征
搭建基于Qt的嵌入式開發(fā)平臺(tái)
抓住特征巧觀察
嵌入式軟PLC在電鍍生產(chǎn)流程控制系統(tǒng)中的應(yīng)用
小波變換在PCB缺陷檢測中的應(yīng)用
Altera加入嵌入式視覺聯(lián)盟
主站蜘蛛池模板: 日本精品影院| a毛片在线| 成人福利在线视频免费观看| 在线观看欧美精品二区| 欧美成人国产| 国产精品大白天新婚身材| 香蕉精品在线| 国产jizzjizz视频| 性欧美久久| 中文字幕久久精品波多野结| 色婷婷成人| 亚洲国产精品美女| 国产精品女主播| 亚洲天堂免费在线视频| 日本人又色又爽的视频| 色屁屁一区二区三区视频国产| 久久黄色一级视频| 国产av一码二码三码无码| 免费午夜无码18禁无码影院| 日本人妻丰满熟妇区| 在线观看精品国产入口| 国产精品无码久久久久AV| 性视频一区| 五月婷婷亚洲综合| 九九热精品免费视频| 又猛又黄又爽无遮挡的视频网站| 亚洲色精品国产一区二区三区| 欧美a级在线| 91小视频在线观看免费版高清| 久久综合九色综合97婷婷| 亚洲综合一区国产精品| 高h视频在线| 亚洲资源站av无码网址| 国产 日韩 欧美 第二页| 久久精品国产精品一区二区| 伊人蕉久影院| 亚洲AⅤ无码国产精品| 亚洲精品免费网站| 久久综合婷婷| 国产在线精彩视频论坛| 99在线小视频| 天堂网亚洲综合在线| 欧美激情第一区| 国产成人福利在线| 中文字幕欧美日韩高清| 国产精品亚洲一区二区三区z| 伊人色天堂| 欧美精品啪啪一区二区三区| 91免费片| 日韩在线欧美在线| 97在线观看视频免费| 欧美视频免费一区二区三区| 国产迷奸在线看| 久久天天躁狠狠躁夜夜躁| 九九这里只有精品视频| 日日摸夜夜爽无码| 亚洲国产精品无码AV| 国产黄在线免费观看| 91系列在线观看| 久久午夜影院| 免费A∨中文乱码专区| 99精品国产自在现线观看| 国产v精品成人免费视频71pao| 天堂成人av| av大片在线无码免费| 亚洲精品国产成人7777| 亚洲欧美人成电影在线观看| 19国产精品麻豆免费观看| 亚洲 成人国产| 久久综合丝袜日本网| 欧美亚洲中文精品三区| 国产91高清视频| 久久91精品牛牛| 国产精品一区在线观看你懂的| 亚洲AV无码不卡无码| 手机成人午夜在线视频| 亚洲日韩精品伊甸| 欧美天堂在线| 91国内视频在线观看| 亚洲精品在线影院| 99这里只有精品在线| 欧美狠狠干|