999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種非合作的人臉智能識(shí)別系統(tǒng)

2021-08-27 06:19:37鄒新雷王云
中國(guó)新通信 2021年12期
關(guān)鍵詞:機(jī)器學(xué)習(xí)人臉識(shí)別

鄒新雷 王云

【摘要】? ? 隨著人臉識(shí)別技術(shù)的普及與應(yīng)用,用戶對(duì)于人臉識(shí)別的技術(shù)細(xì)節(jié)以及人臉識(shí)別的速度有了技術(shù)需求。對(duì)于實(shí)時(shí)非合作性質(zhì)的人臉識(shí)別,其精確度與速度經(jīng)常難以滿足用戶需求。本文設(shè)計(jì)并實(shí)現(xiàn)了一種能夠自動(dòng)識(shí)別人臉的系統(tǒng),能篩除掉質(zhì)量不足以進(jìn)行人臉識(shí)別的人臉圖像,加快識(shí)別速度,實(shí)現(xiàn)對(duì)實(shí)時(shí)視頻的高速人臉識(shí)別。

【關(guān)鍵詞】? ? 人臉檢測(cè)? ? 機(jī)器學(xué)習(xí)? ? 人臉識(shí)別

引言:

在算法飛速發(fā)展的今天,人臉識(shí)別越來越多的普及到了我們的生活與工作中,火車站、機(jī)場(chǎng)的安檢,遍布城市的天眼監(jiān)控系統(tǒng),都有人臉識(shí)別活躍的地方。在我們平日生活生產(chǎn)應(yīng)用的領(lǐng)域中,很多圖像中的人員并不會(huì)仔細(xì)正臉面對(duì)攝像頭,這就導(dǎo)致了人臉識(shí)別所需信息的不足。除此以外,光照、遮擋等環(huán)境因素也會(huì)導(dǎo)致無法采集到人臉識(shí)別所需要的信息。如果能通過機(jī)器學(xué)習(xí)的方法,篩除掉信息不足的人員,便能夠提升系統(tǒng)識(shí)別率,節(jié)省系統(tǒng)運(yùn)算空間。本文基于此目的進(jìn)行了對(duì)人臉識(shí)別系統(tǒng)的一系列設(shè)計(jì)。

一、系統(tǒng)總體設(shè)計(jì)方案

由于本系統(tǒng)的運(yùn)作路線明確,由檢測(cè)→質(zhì)量判斷→人臉識(shí)別構(gòu)成,所以初期設(shè)定了如上圖1所示的系統(tǒng)框架。但是在實(shí)際應(yīng)用中,人臉識(shí)別的耗時(shí)大概要占到80到100毫秒,也就是幀率10左右,完全不能實(shí)現(xiàn)實(shí)時(shí)識(shí)別的要求。除此之外,對(duì)同一目標(biāo)的多次檢測(cè)識(shí)別也浪費(fèi)了許多系統(tǒng)資源。

因此,考慮到檢測(cè)與質(zhì)量判斷的速度只有幾毫秒,不會(huì)影響視頻的流暢性,我們?cè)谙到y(tǒng)內(nèi)加入了跟蹤的算法,重新設(shè)計(jì)了一種多線程的運(yùn)行方式,具體框架如圖2所示。

在這個(gè)方案的具體運(yùn)行路線如下:

1.對(duì)攝像頭傳輸?shù)膱D像進(jìn)行檢測(cè),框出視頻中人員的位置;

2.根據(jù)人員框的跟蹤ID判斷,如果該ID已經(jīng)在上一幀識(shí)別過了,則顯示識(shí)別結(jié)果回到步驟1,未識(shí)別則進(jìn)入人臉質(zhì)量判斷模塊;

3.對(duì)人臉進(jìn)行質(zhì)量判斷,考察陰陽(yáng)臉,光照,遮擋,正臉與攝像頭的傾斜角等因素給出質(zhì)量評(píng)分,評(píng)分低于標(biāo)準(zhǔn)則篩除該人員,回到步驟1,評(píng)分足夠則將圖像傳入人臉識(shí)別模塊;

4.人臉識(shí)別的算法模塊在另一個(gè)線程運(yùn)行(耗時(shí)為80-100ms),展示識(shí)別結(jié)果的主線程從人臉識(shí)別線程取出其標(biāo)志位,代表識(shí)別完成與否,識(shí)別未完成則在人臉顯示“識(shí)別中”,回到步驟1,識(shí)別完成則取出其識(shí)別結(jié)果展示在人臉上,回到步驟1。

二、系統(tǒng)算法技術(shù)介紹

2.1人臉檢測(cè)算法MTCNN

MTCNN,Multi-task convolutional neural network(多任務(wù)卷積神經(jīng)網(wǎng)絡(luò))是2016年中國(guó)科學(xué)院深圳研究院提出的用于人臉檢測(cè)任務(wù)的多任務(wù)神經(jīng)網(wǎng)絡(luò)模型,MTCNN總體可分為P-Net、R-Net、和O-Net三層網(wǎng)絡(luò)結(jié)構(gòu)。本系統(tǒng)通過編寫model.py定義了P-Net、R-Net、和O-Net的網(wǎng)絡(luò)結(jié)構(gòu)。P-Net為全卷積的網(wǎng)絡(luò),主要包含3*3的卷積層、2*2的池化層,該網(wǎng)絡(luò)用于人臉目標(biāo)的初步檢測(cè),將特征輸入經(jīng)過三個(gè)卷積層之后,通過一個(gè)人臉分類器判斷該區(qū)域是否是人臉。R-Net網(wǎng)絡(luò)接收P-Net的結(jié)果作為輸入,主要包含3*3、2*2的卷積層、3*3的池化層,并增加了全連接層。O-Net和R-Net的結(jié)構(gòu)類似,只是輸入尺寸為48*48,同時(shí)增加一層卷積層,以及全連接層的維度增加為256維,因此可以保留更多的圖像特征,再進(jìn)行人臉判別、人臉區(qū)域邊框回歸和人臉特征定位。所以O(shè)-Net的輸出作為最終的網(wǎng)絡(luò)模型輸出。其算法流程圖如圖3所示。

2.2人臉質(zhì)量判斷算法

人臉質(zhì)量的判斷因素眾多,本系統(tǒng)考慮的因素有:人臉姿態(tài),人眼閉合,人臉模糊度以及人臉光照。所應(yīng)用的算法有:基于關(guān)鍵點(diǎn)的人臉姿態(tài)估計(jì)算法,基于關(guān)鍵點(diǎn)的人眼閉合檢測(cè)算法,二次模糊算法,基于深度學(xué)習(xí)的人臉遮擋檢測(cè)算法。

基于深度學(xué)習(xí)的方法通常訓(xùn)練一個(gè)深度CNN分類網(wǎng)絡(luò)或檢測(cè)網(wǎng)絡(luò),這種方法首先通過人臉檢測(cè)定位人臉的區(qū)域,然后將人臉區(qū)域送入CNN網(wǎng)絡(luò),輸出無遮擋或遮擋人臉的結(jié)果。本項(xiàng)目采用Yolov3進(jìn)行訓(xùn)練。

2.3人臉識(shí)別算法SeetaFace

SeetaFace,是中科院計(jì)算機(jī)所山世光老師所帶領(lǐng)的團(tuán)隊(duì)開發(fā)出來的人臉識(shí)別庫(kù),包括人臉檢測(cè),人臉識(shí)別以及人臉對(duì)齊三個(gè)模塊。

其中,人臉識(shí)別模塊的特征提取算法是基于卷積神經(jīng)網(wǎng)絡(luò)的,使用的是深度卷積神經(jīng)網(wǎng)絡(luò)VIPLFaceNet,這是一個(gè)包含兩個(gè)全連接層與七個(gè)卷積層的DCNN,是由2012年設(shè)計(jì)的AlexNet修改而來。與原網(wǎng)絡(luò)相比,有三處改進(jìn):

①VIPLFaceNet將5x5的卷積核拆分為兩層3x3的卷積核,在不改變計(jì)算量的情況下加深了網(wǎng)絡(luò)的深度;

②VIPLFaceNet中每個(gè)卷積層的kernel數(shù)目和FC2層節(jié)點(diǎn)都有所減少;

③引入了FNL(Fast Normalization Layer),使得網(wǎng)絡(luò)收斂速度加快,也更具有泛化性。

以LFW數(shù)據(jù)集測(cè)試為例,VIPLFaceNet錯(cuò)誤率較原網(wǎng)絡(luò)降低了40%,訓(xùn)練時(shí)間僅為原網(wǎng)絡(luò)的20%,測(cè)試時(shí)間為60%。

其流程圖如圖4所示。

三、室內(nèi)測(cè)試結(jié)果

本系統(tǒng)在實(shí)驗(yàn)室內(nèi)進(jìn)行測(cè)試。在光照充足以及正臉面對(duì)情況下,都能準(zhǔn)確實(shí)時(shí)的識(shí)別到目標(biāo)結(jié)果,實(shí)地測(cè)試檢測(cè)結(jié)果如圖5所示。能夠準(zhǔn)確的檢測(cè)到人臉的位置,首先(1)在側(cè)臉情況下由于判斷人臉質(zhì)量不足以進(jìn)行人臉識(shí)別展示結(jié)果“ignored”,在(2)的正臉情況下準(zhǔn)確識(shí)別到我們二人的ID“wangyun”、“zouxinlei”。

四、結(jié)束語(yǔ)

本文設(shè)計(jì)一種非合作的人臉智能識(shí)別系統(tǒng),該系統(tǒng)基于人臉檢測(cè)、機(jī)器學(xué)習(xí)、人臉識(shí)別等技術(shù),利用多線程的設(shè)計(jì)思想,完成了一種準(zhǔn)確、實(shí)時(shí)的人臉識(shí)別程序,目前已在與酒仙網(wǎng)合作的智能門店項(xiàng)目中成功應(yīng)用,在門店監(jiān)控領(lǐng)域有很大的市場(chǎng)應(yīng)用價(jià)值。

參? 考? 文? 獻(xiàn)

[1]Chunming Wu,Ying Zhang. MTCNN and FACENET Based Access Control System for Face Detection and Recognition[J]. Automatic Control and Computer Sciences,2021,55(1).

[2]陳飛玥,朱玉蓮,陳曉紅.多層特征融合的PCANet及其在人臉識(shí)別中的應(yīng)用[J/OL].南京師大學(xué)報(bào)(自然科學(xué)版):1-7[2021-04-30].http://kns.cnki.net/kcms/detail/32.1239.N.20210426.2145.006.html.

[3]胡超,李春國(guó),楊綠溪.稀疏特征重用的人臉特征提取網(wǎng)絡(luò)[J/OL].信號(hào)處理:1-14[2021-04-30].http://kns.cnki.net/kcms/detail/11.2406.TN.20210422.1828.029.html.

猜你喜歡
機(jī)器學(xué)習(xí)人臉識(shí)別
人臉識(shí)別 等
揭開人臉識(shí)別的神秘面紗
基于(2D)2PCA-LBP 的人臉識(shí)別方法的研究
電子制作(2017年17期)2017-12-18 06:40:55
人臉識(shí)別在高校安全防范中的應(yīng)用
電子制作(2017年1期)2017-05-17 03:54:46
基于詞典與機(jī)器學(xué)習(xí)的中文微博情感分析
基于網(wǎng)絡(luò)搜索數(shù)據(jù)的平遙旅游客流量預(yù)測(cè)分析
前綴字母為特征在維吾爾語(yǔ)文本情感分類中的研究
基于支持向量機(jī)的金融數(shù)據(jù)分析研究
機(jī)器學(xué)習(xí)理論在高中自主學(xué)習(xí)中的應(yīng)用
基于類獨(dú)立核稀疏表示的魯棒人臉識(shí)別
主站蜘蛛池模板: 免费xxxxx在线观看网站| 亚洲视频色图| 麻豆精品在线视频| 成人一级黄色毛片| 国产一区二区免费播放| 国产精品视频猛进猛出| 日韩无码视频播放| 亚洲无码视频喷水| 亚洲欧美综合在线观看| 亚洲视频四区| 亚洲码在线中文在线观看| 国产尤物在线播放| 久久精品视频一| 国产人人乐人人爱| 欧美α片免费观看| 久久综合久久鬼| 国产视频一区二区在线观看| 又爽又黄又无遮挡网站| 中文字幕自拍偷拍| 秋霞午夜国产精品成人片| 香蕉国产精品视频| 国产情侣一区二区三区| 又黄又湿又爽的视频| 国产原创第一页在线观看| 午夜免费小视频| 亚洲精品桃花岛av在线| 国产毛片高清一级国语| 91色在线视频| 久久超级碰| 午夜国产精品视频| 国产欧美日韩专区发布| 精品国产成人高清在线| 精品视频福利| 99国产精品免费观看视频| 中文字幕天无码久久精品视频免费| 丁香综合在线| 干中文字幕| 无码不卡的中文字幕视频| 久久久久青草大香线综合精品| 一区二区三区毛片无码| 久草视频一区| 精品国产成人三级在线观看| 全部免费特黄特色大片视频| 欧美成人午夜在线全部免费| 国产一级裸网站| 国产一级视频久久| 久久国产亚洲偷自| 无遮挡一级毛片呦女视频| 伊人久久福利中文字幕| 亚洲区视频在线观看| 亚洲一区二区日韩欧美gif| 亚洲国产综合精品中文第一| 亚洲国产AV无码综合原创| 久久香蕉国产线看观| 国产精品亚洲欧美日韩久久| 亚洲综合九九| 色悠久久综合| 亚洲自偷自拍另类小说| 亚洲熟女偷拍| 国产成人在线无码免费视频| 99久久人妻精品免费二区| 日韩二区三区| 久操中文在线| 欧美亚洲第一页| 欧美一级黄色影院| 亚洲看片网| 精品久久久久久久久久久| 99激情网| 国产SUV精品一区二区| 亚洲一区二区三区麻豆| 中文字幕av无码不卡免费| 婷婷伊人久久| 国产自无码视频在线观看| 91视频精品| 亚洲h视频在线| 熟女成人国产精品视频| 欧美国产日本高清不卡| 在线观看国产精品一区| 国产在线自揄拍揄视频网站| 免费Aⅴ片在线观看蜜芽Tⅴ| 中文字幕调教一区二区视频| 亚洲一区二区视频在线观看|