關(guān)鍵詞:改進(jìn)youonly lookonce(YOLO)
;精子檢測(cè);輕量化中圖分類號(hào):TP183 文獻(xiàn)標(biāo)志碼:A 文章編號(hào):1000-5137(2025)02-0160-06
Abstract:For theembedded deployment requirementsof home sperm testing devices forpatients witholigospermia and asthenospermia,alightweight sperm detectionalgorithm was proposed basedon an improved youonly look once(YOLO) v8n.Fisrtly,byoptimizing thestructureofthe YOLOv8n model,theeficient multi-branchamp;scale featurepyramid network (EMBSFPN)was introducedinthe Neck layer,which improvedaccuracywhileensuringthe model'slightweight.Secondly, thelightweight shared deformableconvolutional detection(LSDECD)head was usedtoreplace theoriginal detectionhead inthe detection headpart,which significantlyreduced thenumberof parametersandcomputational complexity of he model.Experimentalresultsshowed thatthe improvedalgorithmachieved excelent performance inthespermdetection task,with an average accuracy improvement of 2.3% and a model computational load reduction of 26.8% ,providing an effective solution for sperm detectionapplication on embedded system.
Keywords:improvedyouonlylookonce(YOLO) v8 ;spermdetection;lightweight
0 引言
為滿足廣大少精、弱精患者的自我檢測(cè)需求,精子檢測(cè)儀的算法研發(fā)不僅要確保較高的精度,還需實(shí)現(xiàn)輕量化部署,以便于用戶操作,并有效控制檢測(cè)成本.因此,開展家用精子檢測(cè)嵌人式系統(tǒng)的研究,為加強(qiáng)精子質(zhì)量的監(jiān)測(cè)、提高評(píng)估能力、應(yīng)對(duì)男性精子質(zhì)量普遍下降,以及不育癥等難題提供了解決方案,具有深遠(yuǎn)的研究意義與實(shí)際應(yīng)用價(jià)值.
深度學(xué)習(xí)以其強(qiáng)大的數(shù)據(jù)處理能力和模式識(shí)別能力,正逐步改變著傳統(tǒng)醫(yī)療診斷的面貌.特別是在男性生殖健康領(lǐng)域,精子檢測(cè)作為評(píng)估男性生育能力的重要指標(biāo),其準(zhǔn)確性和效率直接關(guān)系到不育癥的診斷和治療方案的制定.JATI等基于卡爾曼濾波算法檢測(cè)精子的位置,并使用匈牙利法推斷每個(gè)精子的運(yùn)動(dòng)軌跡.LAVIN等2提出了GoogleNet網(wǎng)絡(luò),引人Inception模塊,替代了傳統(tǒng)的卷積和池化操作,在相同條件下能夠提取更多特征,從而提高了網(wǎng)絡(luò)效率并優(yōu)化了模型結(jié)構(gòu).李林3提出一種基于改進(jìn)you only look once(YOLO) ΔV5 的精子檢測(cè)技術(shù),使用DeepSort算法實(shí)現(xiàn)了多目標(biāo)匹配,并通過(guò)卡爾曼濾波對(duì)精子目標(biāo)位置進(jìn)行估算.LYU等4建立了一個(gè)新的數(shù)據(jù)集,該數(shù)據(jù)庫(kù)由來(lái)自20多名男性不育癥患者的1207張精子細(xì)胞圖像組成,并提出了一種高效的深度學(xué)習(xí)算法,將擴(kuò)展卷積集成到U-Net網(wǎng)絡(luò)結(jié)構(gòu)中,用于人類精子頭部的自動(dòng)分割.
隨著卷積神經(jīng)網(wǎng)絡(luò)(CNN)技術(shù)的不斷發(fā)展,圖像處理領(lǐng)域迎來(lái)了前所未有的變革.其中,R-CNN[5]作為早期基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法之一,通過(guò)引人區(qū)域候選框(Region Proposals)和CNN相結(jié)合的方式,實(shí)現(xiàn)了對(duì)圖像中目標(biāo)的準(zhǔn)確檢測(cè).Single Shot MultiBox Detector(SSD)算法的提出,進(jìn)一步簡(jiǎn)化了目標(biāo)檢測(cè)的過(guò)程,實(shí)現(xiàn)了單次前向傳播即可完成目標(biāo)檢測(cè)和定位的任務(wù),大大提高了檢測(cè)速度.而YOLO算法將目標(biāo)檢測(cè)問(wèn)題轉(zhuǎn)化為一個(gè)單一的回歸問(wèn)題,通過(guò)一次前向傳播即可同時(shí)得到目標(biāo)的類別、位置和置信度等信息,極大地簡(jiǎn)化了檢測(cè)流程,提高了檢測(cè)效率.
本研究提出一種高效、準(zhǔn)確的精子檢測(cè)算法,支持精子檢測(cè)技術(shù)在便攜式醫(yī)療和輔助生殖領(lǐng)域的廣泛應(yīng)用,為男性不育癥診斷和精子評(píng)估提供便捷、準(zhǔn)確的解決方案,推動(dòng)醫(yī)療診斷技術(shù)的智能化、便攜化發(fā)展.
1 YOLOv8n模型改進(jìn)
1.1 YOLOv8模型
YOLOv8模型主要由輸入模塊、主干網(wǎng)絡(luò)(backbone)和頭部(head)三部分構(gòu)成.
主干網(wǎng)絡(luò)是YOLOv8模型的核心之一,由Conv(卷積層)、改進(jìn)的空間金字塔池化模塊(SPPF)和參考ELAN模塊設(shè)計(jì)而成的新模塊(C2f)等組件構(gòu)成.其中,C2f模塊為網(wǎng)絡(luò)提供了更高效的特征處理能力.SPPF模塊則是對(duì)傳統(tǒng)空間金字塔池化的一種創(chuàng)新改進(jìn),通過(guò)串聯(lián)模式大幅降低了計(jì)算量,同時(shí)保留了捕捉多尺度特征信息的能力.
在頭部結(jié)構(gòu)中,YOLOv8模型采用了基于特征金字塔網(wǎng)絡(luò)(FPN)的路徑聚合網(wǎng)絡(luò)(PAN)結(jié)構(gòu),將上層特征有效地融入淺層網(wǎng)絡(luò)特征中.檢測(cè)頭則采用了當(dāng)前主流的解耦頭結(jié)構(gòu)(decoupled-head),分離分類任務(wù)和檢測(cè)任務(wù),使它們各自獨(dú)立計(jì)算損失.這種設(shè)計(jì)使得模型能夠更加專注于關(guān)鍵任務(wù),從而提高了運(yùn)算效率和檢測(cè)性能.
1.2基于YOLOv8n的算法改進(jìn)
YOLOv8細(xì)分為5個(gè)版本模型,將批次大小設(shè)置為16,對(duì)各版本模型進(jìn)行測(cè)試.考慮到后續(xù)需要在嵌入式系統(tǒng)上進(jìn)行部署,采用模型較為輕量的YOLOv8n作為基準(zhǔn)模型進(jìn)行改進(jìn).
1.2.1 特征金字塔網(wǎng)絡(luò)
采用高效多分支尺度特征金字塔網(wǎng)絡(luò)(EMBSFPN)作為檢測(cè)模型中的關(guān)鍵特征融合模塊,這個(gè)模塊借鑒了雙向特征金字塔網(wǎng)絡(luò)(BiFPN)的多尺度特征加權(quán)融合策略,將Concat替換成了Add操作,減少了模型的參數(shù)量和計(jì)算量.采用了高效上采樣卷積模塊(EUCB),便于目標(biāo)特征的檢測(cè),提高了模型的性能.
1.2.2 改進(jìn)檢測(cè)頭
由于基準(zhǔn)模型的檢測(cè)頭占據(jù)模型總參數(shù)量的 25% 左右,影響了運(yùn)算的效率,通過(guò)引入一種更加輕量級(jí)的檢測(cè)頭(LSDECD)[8,改進(jìn)后的檢測(cè)頭僅占用基線模型1/3左右的參數(shù)量.該檢測(cè)頭實(shí)現(xiàn)了組歸一化(GN),同時(shí),采用共享卷積能夠降低模型的運(yùn)算量(DEConv模塊),減少了模型對(duì)批量大小的依賴,提高了在小批量數(shù)據(jù)上的訓(xùn)練穩(wěn)定性,也使得模型更加輕量化.
1.2.3 引入EIoU損失函數(shù)
交并比(IoU)常用于衡量預(yù)測(cè)框與真實(shí)框之間的重疊程度.YOLOv8模型原本采用DFLLoss結(jié)合CIoULoss作為回歸損失函數(shù),CIoULoss主要依賴于縱橫IoU這一相對(duì)值,可能導(dǎo)致在某些復(fù)雜場(chǎng)景下,對(duì)邊界框之間關(guān)系的描述不夠精確.本文采用EIoU作為預(yù)測(cè)框的損失函數(shù),引入了嵌入空間的概念,將每個(gè)邊界框映射為一個(gè)高維向量,并在該空間中計(jì)算邊界框之間的距離,從而能夠更精確地捕捉不同尺寸和長(zhǎng)寬比的邊界框之間的關(guān)系.EIoU的公式計(jì)算如下:

式中: IoU 表示交并比; ρ 表示兩點(diǎn)之間的歐氏距離; wc 和 hc 分別是最小外接矩形的寬度和高度; b 和 bgt 分別表示預(yù)測(cè)框和真實(shí)框的中心點(diǎn); w,h 分別表示預(yù)測(cè)框的寬和高; wgt,hgt 分別表示真實(shí)框的寬和高.
改進(jìn)后的算法結(jié)構(gòu)如圖1所示.本研究使用 ΥOLOv8n 作為基線模型進(jìn)行改進(jìn),首先,采用了EMBSFPN替換了模型的Neck層,優(yōu)化特征提取和融合過(guò)程,增強(qiáng)了模型的特征表征能力.其次,采用了一種較新的LSDECD檢測(cè)頭,通過(guò)引入對(duì)損失較為敏感的上下文信息捕捉機(jī)制,有效提高了模型對(duì)目標(biāo)物體的敏感度和檢測(cè)準(zhǔn)確性,同時(shí)提高了模型的輕量化程度.
2 實(shí)驗(yàn)分析
2.1 實(shí)驗(yàn)設(shè)備
本研究采用GPU服務(wù)器作為實(shí)驗(yàn)平臺(tái),服務(wù)器的參數(shù)如表1所示.
2.2 數(shù)據(jù)集介紹
采用expert visual cell annotation(EVISAN)數(shù)據(jù)集作為實(shí)驗(yàn)數(shù)據(jù)集,在數(shù)據(jù)集劃分方面,將6000張已標(biāo)注的圖片劃分為數(shù)據(jù)集、驗(yàn)證集和測(cè)試機(jī),其中4200張圖片作為訓(xùn)練集,用于訓(xùn)練模型;900張圖片則作為驗(yàn)證集,防止出現(xiàn)過(guò)擬合等問(wèn)題;900張圖片作為測(cè)試集,用于評(píng)估模型性能.
2.3 評(píng)估指標(biāo)
本文采用精確度 P 、召回率 R 、平均精度均值 mAP 指標(biāo)來(lái)衡量模型的性能,




Ap=∈t01P(R)dR,

式中: Tp 是真陽(yáng)性; Fp 是假陽(yáng)性, Fv 是假陰性; AP 是平均精度.
2.4 消融實(shí)驗(yàn)
為驗(yàn)證算法改進(jìn)的有效性,進(jìn)行消融實(shí)驗(yàn).圖片的統(tǒng)一輸入格式為640 pixelx640 pixel,使用隨機(jī)梯度下降(SGD)優(yōu)化器進(jìn)行梯度優(yōu)化,初始學(xué)習(xí)率設(shè)置為0.01,批次大小為32,訓(xùn)練迭代輪次為300輪,以NVIDIA的CUDA11.3版本作為訓(xùn)練過(guò)程中的加速器.實(shí)驗(yàn)結(jié)果如表2所示,其中,
和 mAP50-90 分別表示IoU閾值為 50% 和 50%~95% 范圍內(nèi)模型的 mAP 值;FLOPS為每秒浮點(diǎn)運(yùn)算量.改進(jìn)后的模型與基線模型相比, P 值有所下降,但 mAP50 提高了 2.3%,mAP50-95 提高了近 1% ,整體精度有所提升,參數(shù)量和浮點(diǎn)數(shù)運(yùn)算量分別下降了 40.0% 和 26.8%

2.5 對(duì)比實(shí)驗(yàn)
為了進(jìn)一步驗(yàn)證本模型的有效性,對(duì)比了近兩年YOLO系列的各模型性能,結(jié)果如表3所示.本模型盡管在準(zhǔn)確率上有所降低,但整體性能上相較于其他模型仍舊具有一定的優(yōu)勢(shì),召回率和平均精度在4個(gè)模型中最高,其中 mAP50 到達(dá)了 91.6% ,較最新版本的YOLOv1ln模型提高了 0.3% ,參數(shù)量降低了30.8% ,浮點(diǎn)運(yùn)算量降低了 4.8%

2.6嵌入式應(yīng)用部署
YOLO系列的模型通常的保存格式為.pt,這種格式適用于
架構(gòu)的權(quán)重文件,而高級(jí)精簡(jiǎn)指令集機(jī)器(ARM)設(shè)備通常無(wú)法直接運(yùn)行PyTorch模型.考慮后續(xù)將展開嵌人式應(yīng)用研究,本文作者通
過(guò)將.pt權(quán)重文件轉(zhuǎn)換為openneural networkexchange(ONNX)格式,再將其 轉(zhuǎn)換為rockchipneuralnetwork(RKNN) 格式,最終在ARM板卡中實(shí)現(xiàn)高效推 理,如圖2所示.
3結(jié)語(yǔ)
本文提出一種基于YOLOv8n的改進(jìn)模型,實(shí)現(xiàn)精子目標(biāo)檢測(cè),通過(guò)優(yōu)化模型結(jié)構(gòu)和特征提取方法,提高了精子檢測(cè)的準(zhǔn)確率和穩(wěn)定性.同時(shí),本文對(duì)模型進(jìn)行了輕量化處理,F(xiàn)LOPS降低了 26.8% ,減少了模型參數(shù)量,為嵌入式平臺(tái)上的部署提供了一種可行的解決方案,具有一定的實(shí)際應(yīng)用價(jià)值.未來(lái),將根據(jù)從醫(yī)院采集的精子檢測(cè)數(shù)據(jù)自制數(shù)據(jù)集,并將算法進(jìn)一步改進(jìn),開展目標(biāo)追蹤工作,同時(shí)將其部署到嵌入式系統(tǒng)中,開發(fā)一套完整的家用精子活力檢測(cè)系統(tǒng).

參考文獻(xiàn):
[1]JATI G,GUNAWANA A S,LESTARI SW,et al. Multi-sperm tracking using Hungarian Kalman Filteron low frame
ratevideo[C]//International Conference onAdvanced Computer Science and Information Systems.Malang:IEEE, 2016:530-535.
[2]LAVINA,GRAY S.Fast algorithms for convolutional neural networks[C]// Computer Visionamp;Pattern Recognition. Las Vegas:IEEE,2016:1-9.
[3]李林.基于深度學(xué)習(xí)的醫(yī)學(xué)精子圖像分類算法研究[D].長(zhǎng)春:吉林大學(xué),2020. LI L.Research on medical sperm image clasification algorithm based on deep learning[D]. Changchun:Jilin University,2020.
[4] LYU QX,YUAN XR,QIAN JZ,et al.An improved U-Net for human sperm head segmentation[J].Neural ProcessingLetters,2022,24:537-557.
[5]任青陽(yáng),王彥丁,施儉.卷積神經(jīng)網(wǎng)絡(luò)目標(biāo)檢測(cè)算法研究進(jìn)展[J].科學(xué)技術(shù)與工程,2024,24(32):13665-13677. RENQY,WANG YD,SHIJ.Research progresson target detectionalgorithms based onconvolutional neural networks[J]. Science,Technology and Engineering,2024,24(32):13665-13677.
[6] 謝譽(yù),包梓群,張娜,等.基于特征優(yōu)化與深層次融合的目標(biāo)檢測(cè)算法[J].浙江大學(xué)學(xué)報(bào)(工學(xué)版),2022, 56(12):2403-2415. XIE Y,BAO Z Q,ZHANG N,et al. Object detectionalgorithmbased on feature optimizationand deep-levelfusion[J]. Journalof Zhejiang University (Engineering Science),2022,56(12):2403-2415.
[7]湯偉博,方強(qiáng),李沛根,等.基于RSD-YOLO的無(wú)人機(jī)航拍圖像的小目標(biāo)檢測(cè)[J/OL].計(jì)算機(jī)工程[2024-12- 19].https://doi.org/10.19678/j.issn.1000-3428.0070151. TANG WB,F(xiàn)ANG Q,LIPG,et al.Smallobject detection inuav aerial images based on RSD-YOLO[J/OL].Computer Engineering[2024-12-19]. https://doi.org/10.19678/j.issn.1000-3428.0070151.
[8]LI X,LIG,ZHANG Z,etal.Research onimproved algorithms for cone bucket detection in formula unmanned competition[J].Sensors 2024,24(18):5945-5962.
(責(zé)任編輯:包震宇,顧浩然)