999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度可分離的多尺度Lw-YOLO輕量化人臉檢測(cè)網(wǎng)絡(luò)

2023-01-31 08:55:54陳偉民于津強(qiáng)
關(guān)鍵詞:深度特征檢測(cè)

陳偉民 段 錦 于津強(qiáng) 吳 杰 陳 宇

(長(zhǎng)春理工大學(xué)電子信息工程學(xué)院 吉林 長(zhǎng)春 130022)

0 引 言

近些年來(lái),隨著深度學(xué)習(xí)的飛速發(fā)展,越來(lái)越多的卷積神經(jīng)網(wǎng)絡(luò)相繼誕生,與此同時(shí),相關(guān)的改進(jìn)網(wǎng)絡(luò)也是層出不窮。但是絕大多數(shù)網(wǎng)絡(luò)都是適用于帶有GPU的PC機(jī)。目前所謂的“實(shí)時(shí)”性,驗(yàn)證的模型都是建立在TitanX[1]或者Tesla這類(lèi)強(qiáng)大獨(dú)立顯卡的基礎(chǔ)上,而在實(shí)際的應(yīng)用場(chǎng)景中,例如超市的人臉識(shí)別、自動(dòng)售貨機(jī)的人臉識(shí)別等,并不能配備這些裝備。所以這類(lèi)模型一旦移植到計(jì)算和內(nèi)存相對(duì)不足的嵌入式平臺(tái)時(shí),檢測(cè)的速度就非常不理想,達(dá)不到實(shí)時(shí)的要求。

因此,實(shí)時(shí)性高的檢測(cè)網(wǎng)絡(luò)進(jìn)入到了人們的視野。例如,Redmon等[2]提出的YOLO和Liu等[3]提出的SSD等網(wǎng)絡(luò)都是旨在提高目標(biāo)檢測(cè)的速度。其中,YOLO-LITE[4]是致力于CPU和嵌入式檢測(cè)的網(wǎng)絡(luò)模型,其有效地加快了檢測(cè)速度,但是帶來(lái)了檢測(cè)精度的損失。本文設(shè)計(jì)一種計(jì)算參數(shù)量小、人臉檢測(cè)精度高的輕量化網(wǎng)絡(luò)Lw-YOLO。該網(wǎng)絡(luò)以YOLO-LITE為基礎(chǔ),由深度可分離卷積(depthwise separable convolution)[5]替代傳統(tǒng)卷積,以減少參數(shù)量;同時(shí)利用多個(gè)1×1的點(diǎn)卷積提升網(wǎng)絡(luò)深度,獲得更多的特征;采用改進(jìn)的多尺度預(yù)測(cè)方法,將淺層的特征充分地提取與深層的特征結(jié)合[6],提高了人臉檢測(cè)的精度。將該網(wǎng)絡(luò)應(yīng)用到本文的樹(shù)莓派人臉檢測(cè)系統(tǒng)中,可以達(dá)到較高的檢測(cè)精度和速度,基本滿足實(shí)際應(yīng)用場(chǎng)景,具有較好的市場(chǎng)前景。

本文從Lw-YOLO人臉檢測(cè)網(wǎng)絡(luò)原理出發(fā),通過(guò)深度可分離卷積的方法減少網(wǎng)絡(luò)的參數(shù)量及改進(jìn)的多尺度預(yù)測(cè)方法提高網(wǎng)絡(luò)的精度,達(dá)到速度和精度的雙平衡。最后,在WiderFace和Extended Yale B數(shù)據(jù)集上通過(guò)多組的實(shí)驗(yàn)比較,驗(yàn)證Lw-YOLO網(wǎng)絡(luò)的實(shí)用性、合理性,為無(wú)GPU嵌入式平臺(tái)的輕量化網(wǎng)絡(luò)設(shè)計(jì)提供一條新的思路。

1 基于Lw-YOLO的目標(biāo)檢測(cè)原理

本文提出的Lw-YOLO輕量化網(wǎng)絡(luò)是基于無(wú)GPU嵌入式平臺(tái)設(shè)計(jì)的網(wǎng)絡(luò)架構(gòu),對(duì)輸入圖像提取特征,通過(guò)邏輯回歸預(yù)測(cè)每個(gè)邊界框分?jǐn)?shù),篩選得到每個(gè)類(lèi)別的預(yù)測(cè)結(jié)果,實(shí)現(xiàn)端到端[7]的快速目標(biāo)檢測(cè)。

圖1為整個(gè)網(wǎng)絡(luò)的原理圖,網(wǎng)絡(luò)首先將一幅未知分辨率圖片的輸入分辨率重置為224×224,并等分成S×S個(gè)柵格,如果目標(biāo)中心落在某個(gè)柵格內(nèi),就由該柵格負(fù)責(zé)此目標(biāo)的檢測(cè)任務(wù)。然后網(wǎng)絡(luò)通過(guò)目標(biāo)中心、柵格寬高和預(yù)設(shè)邊界框(anchor box)進(jìn)行目標(biāo)邊界框的預(yù)測(cè)。每個(gè)人臉得出三個(gè)預(yù)測(cè)的邊界框,每個(gè)邊界框輸出5個(gè)參數(shù),分別是預(yù)測(cè)邊界框的中心坐標(biāo)(Bx,By)、預(yù)測(cè)邊界框的寬高(Bw,Bh)和最終的預(yù)測(cè)置信值C,最后篩選出置信值最高的邊界框,加上標(biāo)簽。

邊界框預(yù)測(cè)過(guò)程如圖1中間的大圖所示,虛線矩形框?yàn)轭A(yù)設(shè)邊界框,實(shí)線邊界框?yàn)橥ㄟ^(guò)網(wǎng)絡(luò)預(yù)測(cè)的偏移量計(jì)算得到的預(yù)測(cè)邊界框。其中:(Cx,Cy)表示柵格的邊距;(Pw,Ph)為預(yù)設(shè)邊界框的寬和高;(Tx,Ty)和(Tw,Th)分別為網(wǎng)絡(luò)預(yù)測(cè)的邊界框中心偏移量以及寬高縮放比。從預(yù)設(shè)邊界框到預(yù)測(cè)邊界框的轉(zhuǎn)換公式為:

Bx=σ(Tx)+Cx

(1)

By=σ(Ty)+Cy

(2)

Bw=PweTw

(3)

Bh=PheTh

(4)

Pr(obj)×IOU(box,obj)=σ(To)

(5)

C=max(σ(To))

(6)

式中:(Tx,Ty)用Sigmoid函數(shù)歸一化處理,使取值在0~1之間;σ函數(shù)表示歸一化值轉(zhuǎn)化為真實(shí)值;Pr(obj)為目標(biāo)屬于某一類(lèi)的概率;IOU(Intersection over Union)是預(yù)測(cè)的邊界框和真實(shí)標(biāo)定框之間的交并比[8];σ(To)表示預(yù)測(cè)邊界框的置信值。

網(wǎng)絡(luò)根據(jù)維度聚類(lèi)(dimension clusters)[9]的方法對(duì)人臉數(shù)據(jù)集聚集6組預(yù)設(shè)邊界框的寬高(即anchors值),一次預(yù)測(cè)選定三個(gè)預(yù)設(shè)邊界框,依照不同大小的人臉尺寸,分別進(jìn)行兩次不同尺度的獨(dú)立預(yù)測(cè)。維度聚類(lèi)方法可以自適應(yīng)地找到更好的邊界框?qū)捀叱叽纾欣谔嵘俾屎途W(wǎng)絡(luò)收斂程度。而傳統(tǒng)網(wǎng)絡(luò)的距離指標(biāo)使用的是歐氏距離函數(shù),這意味著較大的邊框會(huì)比較小的邊框產(chǎn)生更多的錯(cuò)誤,聚類(lèi)結(jié)果可能會(huì)偏移。為此,網(wǎng)絡(luò)采用IOU得分的評(píng)判標(biāo)準(zhǔn),削減了邊框產(chǎn)生錯(cuò)誤的概率,最終的距離函數(shù)表達(dá)式為:

d(box,obj)=1-IOU(box,obj)

(7)

在訓(xùn)練過(guò)程中,網(wǎng)絡(luò)用二元交叉熵?fù)p失來(lái)預(yù)測(cè)類(lèi)別。二元交叉熵?fù)p失公式為:

(8)

(9)

當(dāng)且僅當(dāng)yi和yj相等時(shí),Loss為0;否則,Loss為一個(gè)正數(shù)。

2 Lw-YOLO輕量化網(wǎng)絡(luò)模型

2.1 Lw-YOLO網(wǎng)絡(luò)架構(gòu)

針對(duì)YOLO-LITE在嵌入式設(shè)備檢測(cè)精度較低的問(wèn)題,本文設(shè)計(jì)一種計(jì)算參數(shù)量小、人臉檢測(cè)精度高的輕量化網(wǎng)絡(luò)Lw-YOLO,通過(guò)深度可分離卷積的方法減少網(wǎng)絡(luò)的參數(shù)量及改進(jìn)的多尺度預(yù)測(cè)方法,添加多個(gè)1×1卷積提高網(wǎng)絡(luò)的精度,達(dá)到速度和精度的雙平衡。

Lw-YOLO輕量化網(wǎng)絡(luò)相比較于圖2 YOLO-LITE網(wǎng)絡(luò),具有網(wǎng)絡(luò)更深、精度更高的優(yōu)勢(shì)。如圖3所示,首先,網(wǎng)絡(luò)以YOLO-LITE為基礎(chǔ)架構(gòu),選取224×224的圖片輸入,增加網(wǎng)絡(luò)層數(shù)至20層,將除第一層卷積外的所有是3×3卷積核的傳統(tǒng)卷積都替換成更高效的深度可分離卷積,減少計(jì)算量,提升網(wǎng)絡(luò)深度。增加濾波器個(gè)數(shù)至512個(gè),以獲得更多的特征。其次,改進(jìn)多尺度預(yù)測(cè),同時(shí)利用低層特征和高層特征,將7×7×128特征圖(feature-maps)[10]經(jīng)過(guò)上采樣2倍后得到14×14×128特征圖,再與之前14×14×256特征圖疊加融合,形成14×14×384的特征圖,最后分別在YOLO1(7×7×18)和YOLO2(14×14×18)兩個(gè)尺度做獨(dú)立檢測(cè)。

圖2 YOLO-LITE網(wǎng)絡(luò)架構(gòu)

圖3 Lw-YOLO網(wǎng)絡(luò)架構(gòu)

YOLO-LITE為每個(gè)特征圖的每個(gè)柵格設(shè)置5個(gè)預(yù)設(shè)邊界框,所以每個(gè)柵格的張量(tensor)為5×(4+1+1)=30,其中:4表示(Tx,Ty,Tw,Th)4個(gè)坐標(biāo)偏移;前一個(gè)1表示包含目標(biāo)得分;后一個(gè)1表示1個(gè)類(lèi)別,因此得到總輸出張量為7×7×30=420。而Lw-YOLO網(wǎng)絡(luò)為每個(gè)柵格設(shè)置3個(gè)預(yù)設(shè)邊界框,每個(gè)柵格的張量為3×(4+1+1)=18,總輸出張量為7×7×18+14×14×18=4 410。

2.2 深度可分離卷積

Lw-YOLO輕量化網(wǎng)絡(luò)模型將傳統(tǒng)卷積替換成深度可分離卷積提高網(wǎng)絡(luò)的計(jì)算效率,大大減少了計(jì)算的參數(shù)量。多個(gè)1×1點(diǎn)卷積的引入增加網(wǎng)絡(luò)模型的深度,保證網(wǎng)絡(luò)的精度。

如圖4所示,若原始圖像是二維的,大小是CI×CI,有M個(gè)通道,相當(dāng)于是一個(gè)三維的圖片。其輸入圖片格式是CI×CI×M。卷積核大小是Dk×Dk。輸入圖片被M個(gè)不同Dk×Dk大小的卷積核遍歷N次,產(chǎn)生M×N個(gè)特征圖譜,進(jìn)而通過(guò)疊加M個(gè)輸入通道對(duì)應(yīng)的特征圖譜融合得到1個(gè)特征圖譜,最后產(chǎn)生的輸出圖像大小是CI×CI×N。則傳統(tǒng)卷積計(jì)算的參數(shù)量為:

C=Dk×Dk×M×N×CI×CI

(10)

圖4 傳統(tǒng)卷積

如圖5所示,深度可分離卷積是通過(guò)兩次卷積實(shí)現(xiàn)的,即將傳統(tǒng)的卷積分解為一個(gè)深度卷積(depthwise convolution)和一個(gè)1×1的點(diǎn)卷積(pointwise convolution)[5,11]。第一步,用M個(gè)Dk×Dk的卷積分別對(duì)輸入圖片的M個(gè)通道做一次卷積,生成M個(gè)特征圖譜。第二步,M個(gè)特征圖譜中分別通過(guò)N個(gè)1×1的卷積核,生成M×N個(gè)特征圖譜。最終疊加M個(gè)輸入通道對(duì)應(yīng)的特征圖譜后融合得到1個(gè)特征圖譜。深度可分離卷積計(jì)算的參數(shù)量為深度卷積和1×1點(diǎn)卷積的參數(shù)量[12]之和為:

D=Dk×Dk×M×CI×CI+M×N×CI×CI

(11)

忽略N,當(dāng)Dk=3時(shí),深度可分離卷積和傳統(tǒng)卷積分別計(jì)算的參數(shù)量之比為:

(12)

由式(12)可見(jiàn),深度可分離卷積的參數(shù)量縮減為傳統(tǒng)卷積的1/9左右。

(a) 深度卷積

(b) 點(diǎn)卷積圖5 深度可分離卷積

2.3 改進(jìn)的多尺度預(yù)測(cè)

由于一幅圖片中可能具有多個(gè)不同大小的目標(biāo),對(duì)于簡(jiǎn)單的目標(biāo)僅僅需要淺層的特征就可以檢測(cè)到它;而對(duì)于復(fù)雜的目標(biāo),就需要利用復(fù)雜的特征來(lái)檢測(cè)它。因此,區(qū)分不同大小的目標(biāo)需要不同尺度的特征。本文借鑒FPN[13]網(wǎng)絡(luò)的思想,采用改進(jìn)的多尺度預(yù)測(cè)方法預(yù)測(cè)目標(biāo),7×7尺度特征圖采用(10,24)、(11,15)、(41,54)三個(gè)預(yù)設(shè)邊界框預(yù)測(cè)較大簡(jiǎn)單的目標(biāo)。14×14尺度特征圖同時(shí)利用低層特征和高層特征,采用(4,5)、(6,7)、(8,10)三個(gè)預(yù)設(shè)邊界框預(yù)測(cè)較小復(fù)雜的目標(biāo),所以能在較小的計(jì)算開(kāi)銷(xiāo)下產(chǎn)生不同尺度的獨(dú)立預(yù)測(cè)。它的優(yōu)點(diǎn)是在不同尺度的層上負(fù)責(zé)輸出不同大小的目標(biāo),在有不同大小的目標(biāo)時(shí),較大的目標(biāo)直接由7×7預(yù)測(cè)層輸出,不需要進(jìn)行下面的卷積操作,而14×14預(yù)測(cè)層不需要再一次經(jīng)過(guò)第三層卷積就能輸出對(duì)應(yīng)的小目標(biāo)(即對(duì)于有些目標(biāo)來(lái)說(shuō),不需要進(jìn)行多余的前向卷積操作),這樣可以在一定程度上對(duì)網(wǎng)絡(luò)進(jìn)行加速操作,同時(shí)可以提高算法的檢測(cè)性能。

整個(gè)過(guò)程如圖6(b)所示,首先網(wǎng)絡(luò)對(duì)輸入的圖片進(jìn)行深度卷積,在基礎(chǔ)網(wǎng)絡(luò)之后對(duì)第二個(gè)卷積層上的特征進(jìn)行降維操作(即添加一層1×1的卷積層),在第四個(gè)卷積層輸出第一個(gè)尺度7×7的特征圖;對(duì)第四個(gè)卷積層上的特征進(jìn)行上采樣操作(×2),使得它的尺寸擴(kuò)大兩倍,即與第二個(gè)卷積層的尺寸相同,然后對(duì)經(jīng)過(guò)深度卷積處理后的第二個(gè)卷積層和處理后的第四個(gè)卷積層執(zhí)行加法操作(即對(duì)應(yīng)元素相加),將獲得的結(jié)果輸入到第五個(gè)卷積層中去,這樣做能找到早期特征映射的上采樣特征和細(xì)粒度特征[14],并獲得更有意義的語(yǔ)義信息。之后,網(wǎng)絡(luò)添加多個(gè)卷積層來(lái)處理這個(gè)特征映射組合,得到相比第一個(gè)尺度變大兩倍的第二個(gè)尺度14×14特征圖。

(a) FPN的多尺度金字塔 (b) 輕量化的多尺度金字塔圖6 多尺度金字塔結(jié)構(gòu)

本文從兩種不同尺度的特征圖譜上進(jìn)行預(yù)測(cè)任務(wù),網(wǎng)絡(luò)用相似的概念提取這些尺度的特征,以形成特征金字塔網(wǎng)絡(luò)。這次本文使用了輕量化的深度可分離卷積層來(lái)構(gòu)造特征金字塔,提高網(wǎng)絡(luò)的計(jì)算效率;相比較圖6(a),網(wǎng)絡(luò)只進(jìn)行兩次預(yù)測(cè),即將處理過(guò)的低層特征和處理過(guò)的高層特征進(jìn)行累加,這樣做的目的是因?yàn)榈蛯犹卣骺梢蕴峁└訙?zhǔn)確的位置信息,而多次的降采樣和上采樣操作使得深層網(wǎng)絡(luò)的定位信息存在誤差;因此,我們將其結(jié)合起來(lái)使用,這樣就構(gòu)建了一個(gè)更淺更輕量化的多尺度特征金字塔,融合了兩層特征信息,并在不同的尺度進(jìn)行獨(dú)立預(yù)測(cè)輸出。

3 實(shí)驗(yàn)結(jié)果分析

3.1 實(shí)驗(yàn)環(huán)境與數(shù)據(jù)集

模型訓(xùn)練環(huán)節(jié)的實(shí)驗(yàn)是在較高配置的PC端進(jìn)行的,具體硬件環(huán)境為:處理器:Intel Core i7- 6700 3.4 GHz處理器;顯卡:GeForce GTX 1060顯卡,顯存為6 GB。實(shí)驗(yàn)的軟件平臺(tái)環(huán)境為:訓(xùn)練框架:DarkNet;開(kāi)源庫(kù):OpenCV;界面設(shè)計(jì):PyQt4。

測(cè)試使用樹(shù)莓派3B+作為嵌入式平臺(tái),樹(shù)莓派軟件配置樹(shù)莓派Respbian系統(tǒng)、OpenCV3.4.4、Python3.5編程語(yǔ)言。

本文使用WiderFace和Extended Yale B人臉數(shù)據(jù)集作為人臉檢測(cè)的訓(xùn)練數(shù)據(jù)集和測(cè)試數(shù)據(jù)集。WiderFace包含32 203幅圖像和393 703幅人臉圖像,在尺度、姿勢(shì)、閉塞、表達(dá)、裝扮、關(guān)照等方面表現(xiàn)出了大的變化。Wider Face是基于61個(gè)事件類(lèi)別組織的,本文對(duì)于每一個(gè)事件類(lèi)別,選取其中的50%作為訓(xùn)練集,10%作為驗(yàn)證集,40%作為測(cè)試集。

擴(kuò)展Yale人臉數(shù)據(jù)庫(kù)B中包含28個(gè)人16 128幅圖像,包括9種姿態(tài)、64種光照條件下的圖像。本文將它用作模型對(duì)不同光照、角度人臉檢測(cè)的測(cè)試集。

根據(jù)維度聚類(lèi)方法對(duì)WiderFace人臉數(shù)據(jù)集進(jìn)行聚類(lèi),得出6組anchor值。anchor box為特征圖上的點(diǎn)預(yù)測(cè)的寬高比例不同的預(yù)設(shè)邊界框,anchor值表示預(yù)設(shè)邊界框的寬高尺寸,用相對(duì)于原圖的大小來(lái)定義,大小范圍為(0×0,224×224)。網(wǎng)絡(luò)對(duì)于輸入圖像考慮6個(gè)預(yù)設(shè)邊界框,結(jié)果如表1所示。

表1 WiderFace人臉數(shù)據(jù)集6組anchor值

3.2 Lw-YOLO網(wǎng)絡(luò)訓(xùn)練結(jié)果分析

網(wǎng)絡(luò)在3.1節(jié)實(shí)驗(yàn)環(huán)境中,初始學(xué)習(xí)率learning-rate為0.001,衰減系數(shù)decay為0.000 5,動(dòng)量參數(shù)momentum為0.9,每10 000次迭代保存一次此時(shí)的網(wǎng)絡(luò)權(quán)重,在訓(xùn)練迭代次數(shù)為40 000和60 000時(shí),分別將學(xué)習(xí)率降低至0.000 1,總訓(xùn)練迭代次數(shù)為100 000。為了證明所設(shè)計(jì)的網(wǎng)絡(luò)可以完成對(duì)數(shù)據(jù)集的學(xué)習(xí),將訓(xùn)練中的Loss數(shù)據(jù)收集起來(lái),并利用matlabplot庫(kù)將數(shù)據(jù)可視化,最終得到如圖7所示的Loss變化曲線。

圖7 Lw-YOLO網(wǎng)絡(luò)訓(xùn)練中Loss變化曲線

可以看出,Lw-YOLO網(wǎng)絡(luò)在訓(xùn)練過(guò)程中可以快速收斂,在40 000次后曲線趨于平穩(wěn),Loss曲線變化趨勢(shì)正常,最后的Loss值下降到0.4左右。這說(shuō)明優(yōu)化得到的Lw-YOLO網(wǎng)絡(luò)可以學(xué)習(xí)到數(shù)據(jù)集中的內(nèi)容,訓(xùn)練結(jié)果比較理想。接下來(lái)要對(duì)訓(xùn)練過(guò)程中產(chǎn)生的多個(gè)權(quán)重進(jìn)行選擇,選出其中最好的權(quán)重文件完成下文的網(wǎng)絡(luò)對(duì)比,因此本文選擇的權(quán)重為迭代40 000次的權(quán)重。

3.3 Lw-YOLO網(wǎng)絡(luò)測(cè)試結(jié)果分析

實(shí)驗(yàn)一:選取WiderFace的測(cè)試集對(duì)三種人臉檢測(cè)模型進(jìn)行測(cè)試,測(cè)試結(jié)果如表2、表3所示。

表2 三種人臉檢測(cè)模型在WiderFace精度測(cè)試結(jié)果(%)

表3 三種人臉檢測(cè)模型在WiderFace速度測(cè)試結(jié)果

由表2知,Lw-YOLO人臉檢測(cè)模型的平均精度與YOLOv3-tiny基本持平,比YOLO-LITE模型高23.22百分點(diǎn),平均IOU是三者中最高的,同樣平均Recall是三者之中最優(yōu),說(shuō)明Lw-YOLO模型檢測(cè)結(jié)果與預(yù)設(shè)邊界框最接近,漏檢的概率最小。

在表3中,Lw-YOLO模型較小,只比YOLO-LITE模型大0.8 MB,在GPU和樹(shù)莓派3B+上的檢測(cè)速度也與YOLO-LITE模型相近,YOLOv3-tiny模型大小最大,檢測(cè)速度也最慢。雖然在GPU上三個(gè)模型耗時(shí)差距并不明顯,但是在計(jì)算能力有限且無(wú)GPU的樹(shù)莓派3B+上測(cè)試時(shí),可以發(fā)現(xiàn)Lw-YOLO檢測(cè)速度幾乎是YOLOv3-tiny的1/7。

根據(jù)表2、表3可知,改進(jìn)后的Lw-YOLO人臉檢測(cè)模型在樹(shù)莓派3B+上保持檢測(cè)速度與YOLO-LITE模型相近,而檢測(cè)精度有較大提高,網(wǎng)絡(luò)更深,計(jì)算參數(shù)量卻較少,輕量化成效顯著,綜合性能最佳,更適合嵌入式平臺(tái)應(yīng)用。

實(shí)驗(yàn)二:在Extended YaleB人臉數(shù)據(jù)集中選擇9種不同角度共252幅人臉圖像作為測(cè)試圖像,衡量三種不同人臉檢測(cè)模型的性能。

表4 三種人臉檢測(cè)模型在不同角度下的性能指標(biāo)(%)

可以看出,三種人臉檢測(cè)模型在人臉角度一致的前提下,基于Lw-YOLO模型檢測(cè)準(zhǔn)確率最佳比YOLO-LITE模型高4.59百分點(diǎn),漏檢率最低。其次是基于YOLOV3-tiny模型,誤檢率與Lw-YOLO模型相同,準(zhǔn)確率略低于改進(jìn)的模型。最后是YOLO-LITE模型,漏檢個(gè)數(shù)最多,準(zhǔn)確率最低。實(shí)驗(yàn)結(jié)果表明,基于Lw-YOLO人臉檢測(cè)模型相較于原始模型,檢測(cè)性能有明顯的提升,對(duì)不同角度魯棒性最強(qiáng)。三種模型對(duì)不同角度檢測(cè)效果如圖8-圖10所示。

(a) 仰視30度人臉(b) 俯視30度人臉(c) 側(cè)面45度人臉圖8 基于不同角度的YOLO-LITE人臉檢測(cè)方法效果示例

(a) 仰視30度人臉(b) 俯視30度人臉(c) 側(cè)面45度人臉圖9 基于不同角度的YOLOv3-tiny人臉檢測(cè)方法效果示例

(a) 仰視30度人臉(b) 俯視30度人臉(c) 側(cè)面45度人臉圖10 基于不同角度的Lw-YOLO人臉檢測(cè)方法效果示例

實(shí)驗(yàn)三:在Extended YaleB人臉數(shù)據(jù)集選擇64種共1 792幅不同角度光照環(huán)境下的正面人臉圖像作為測(cè)試圖像,衡量三種不同人臉檢測(cè)模型的性能。

如表5所示,三種人臉檢測(cè)模型在不同角度光照條件下有較好的檢測(cè)效果,其中基于YOLO-LITE的人臉檢測(cè)模型在64種光照條件下出現(xiàn)較多的漏檢,漏檢率比改進(jìn)的模型高11.94百分點(diǎn),準(zhǔn)確率最低。而改進(jìn)的Lw-YOLO模型在三者中準(zhǔn)確率最高,漏檢率和誤檢率都是最低,表明改進(jìn)的模型魯棒性較好,在光照條件不均勻的情況下,檢測(cè)精度更高。三種模型對(duì)不同光照檢測(cè)效果如圖11-圖13所示。

表5 三種人臉檢測(cè)模型在不同光照角度下的性能指標(biāo)(%)

(a) 上方45度光照(b) 下方30度光照(c) 側(cè)面95度光照?qǐng)D11 基于不同光照的YOLO-LITE人臉檢測(cè)方法效果示例

(a) 上方45度光照(b) 下方30度光照(c) 側(cè)面95度光照?qǐng)D12 基于不同光照的YOLOv3-tiny人臉檢測(cè)方法效果示例

(a) 上方45度光照(b) 下方30度光照(c) 側(cè)面95度光照?qǐng)D13 基于不同光照的Lw-YOLO人臉檢測(cè)方法效果示例

從上述3組實(shí)驗(yàn)結(jié)果可知,Lw-YOLO人臉檢測(cè)方法相較于原始方法,性能有了較大的提升,并且在多角度、不同光照條件下人臉數(shù)據(jù)集的評(píng)測(cè)中,基于Lw-YOLO人臉檢測(cè)模型的魯棒性、準(zhǔn)確性等性能表現(xiàn)綜合最優(yōu),更適合實(shí)際應(yīng)用場(chǎng)景下的人臉檢測(cè)。

4 結(jié) 語(yǔ)

本文設(shè)計(jì)一個(gè)基于深度可分離的輕量化人臉檢測(cè)網(wǎng)絡(luò),采用深度學(xué)習(xí)的方法,針對(duì)現(xiàn)有神經(jīng)網(wǎng)絡(luò)復(fù)雜、計(jì)算量大的缺點(diǎn),提出一種解決無(wú)GPU嵌入式平臺(tái)計(jì)算能力和內(nèi)存空間不足的人臉檢測(cè)網(wǎng)絡(luò)Lw-YOLO。該網(wǎng)絡(luò)將傳統(tǒng)卷積換成深度可分離卷積,顯著降低了網(wǎng)絡(luò)參數(shù)量,提高了嵌入式平臺(tái)的檢測(cè)效率。同時(shí)利用多個(gè)1×1的點(diǎn)卷積提升網(wǎng)絡(luò)深度,獲得更多的特征,最后使用多尺度預(yù)測(cè)方法提高網(wǎng)絡(luò)的檢測(cè)精度。網(wǎng)絡(luò)在WiderFace數(shù)據(jù)集的多次迭代訓(xùn)練,選擇最優(yōu)的權(quán)重,得到輕量化的人臉檢測(cè)網(wǎng)絡(luò),實(shí)驗(yàn)結(jié)果表明該網(wǎng)絡(luò)在樹(shù)莓派3B+嵌入式平臺(tái)上進(jìn)行人臉檢測(cè),具有良好的檢測(cè)效果,在檢測(cè)速度和精度上大大提升,對(duì)實(shí)際場(chǎng)景下的人臉檢測(cè)有較好的應(yīng)用價(jià)值。

猜你喜歡
深度特征檢測(cè)
“不等式”檢測(cè)題
“一元一次不等式”檢測(cè)題
“一元一次不等式組”檢測(cè)題
深度理解一元一次方程
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
深度觀察
深度觀察
深度觀察
抓住特征巧觀察
主站蜘蛛池模板: 依依成人精品无v国产| 91亚洲免费| 最新国产高清在线| 国产嫖妓91东北老熟女久久一| 2022国产无码在线| 爽爽影院十八禁在线观看| 国产香蕉97碰碰视频VA碰碰看| 日韩高清一区 | 香蕉eeww99国产在线观看| 丁香五月亚洲综合在线| 亚洲精品片911| 亚洲国产日韩在线成人蜜芽| 国产性精品| 久久大香伊蕉在人线观看热2| 国产剧情一区二区| 青青青国产视频手机| 亚洲国产在一区二区三区| 国产美女91呻吟求| 久久天天躁夜夜躁狠狠| 国产毛片高清一级国语 | 日韩在线成年视频人网站观看| 亚洲乱码在线视频| 国产精品无码在线看| 粗大猛烈进出高潮视频无码| 一级片免费网站| julia中文字幕久久亚洲| 国产人成午夜免费看| 波多野一区| 波多野结衣中文字幕一区| 国产综合精品一区二区| 亚洲中文字幕97久久精品少妇| 国产一级毛片在线| 伊人久久大香线蕉成人综合网| 性欧美在线| 亚洲另类国产欧美一区二区| 国产欧美高清| 成人国产一区二区三区| 爽爽影院十八禁在线观看| 国产成人在线无码免费视频| YW尤物AV无码国产在线观看| 久久黄色小视频| 中文字幕va| 三级视频中文字幕| 午夜福利亚洲精品| 国产波多野结衣中文在线播放| 国产又粗又爽视频| 欧美一级黄色影院| 91成人在线观看| 伊人精品成人久久综合| h视频在线观看网站| 国产男人天堂| 在线免费a视频| 在线观看亚洲人成网站| 亚洲天堂日韩av电影| 午夜精品久久久久久久无码软件| 在线免费a视频| www.亚洲一区| 91一级片| 亚洲日韩精品无码专区97| 色偷偷一区| 日本不卡在线视频| 东京热一区二区三区无码视频| 波多野结衣第一页| 亚洲成人在线免费观看| 亚洲无线视频| 美女一级毛片无遮挡内谢| 欧美.成人.综合在线| 丁香婷婷久久| 亚洲国产成人精品青青草原| a级毛片免费播放| 五月激情婷婷综合| 日本三级欧美三级| 高清无码手机在线观看| 中文字幕亚洲综久久2021| 久草网视频在线| 美女高潮全身流白浆福利区| 国产精品极品美女自在线网站| 丰满人妻被猛烈进入无码| 久久久久久午夜精品| 国产成人亚洲欧美激情| 国产精品第一区| 国产成人精品2021欧美日韩|