999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

超分辨率重建的微小人臉識別算法

2020-12-10 10:05:34曾凡智
小型微型計算機系統 2020年11期
關鍵詞:人臉識別特征檢測

周 燕,項 楊,曾凡智,鄒 磊

(佛山科學技術學院 計算機系,廣東 佛山 528000)

1 引 言

近年來大數據、人工智能與傳統行業緊密結合,已經成為推動工業、醫療、教育、金融、通信等各個領域發展的重要力量.而基于圖像的人臉識別技術經過多年的研究已日趨成熟,并且廣泛應用于門禁、安全檢測等諸多領域[1]當中,基于高分辨(High-Resolution,HR)圖像的傳統人臉識別技術已相對成熟.

但對限制環境下小尺寸的人臉進行識別的技術還不夠成熟,特別是人群密集環境下的低分辨率人臉沒有足夠的細節特征,還可能存在模糊的情況,對這種環境下的人臉進行識別來判斷人物身份依然存在待突破的技術瓶頸.特別是由于監控環境下人數眾多,通過攝像機捕捉到的人臉分辨率較低,適用于較高分辨率環境下的普通人臉識別技術,無法滿足限制環境下人臉識別所需的精度要求.因此,能夠在密集環境下對微小人臉進行檢測和識別,有效認證限制場景下的人物身份是當前的研究熱點之一.本文通過對密集環境下的微小人臉進行檢測,重建微小人臉,對重建后的人臉進行識別,該算法主要涉及到人臉檢測、超分辨率重建和人臉識別三個方面.

人臉檢測算法.人臉檢測技術是人臉識別算法的第一步,也是非常重要的一步,人臉識別需要檢測出人臉位置才能對檢測出的人臉進行識別,如果不能高效的定位人臉位置,則不能進行后續的人臉識別.人臉檢測技術主要分為兩類:第一類是采用傳統特征檢測人臉位置,第二類是利用神經網絡對人臉和非人臉進行分類,達到檢測人臉位置的效果.基于傳統特征的人臉檢測方法[2]通常利用一個固定大小的滑動檢測器在圖像上滑動,用分類器來判斷滑動窗口部分是否為人臉.Viola[3]提出了一種訓練多個弱分類器組成一個強分類器的算法.該算法使用Haar-like傳統特征提取滑動窗口特征,隨后使用AdaBoost級聯分類器進行人臉檢測.采用傳統算法,例如Haar特征來描述人臉,其根據區域亮度變化來描述人臉,對于背景的計算較少,因此往往分類速度很快.但是這類特征由于沒有考慮角度、遮擋、環境和光照等情況,因此在復雜場景下的人臉檢測效果比較一般.同時由于人臉大小不同,因此需要不同大小的人臉檢測框來進行訓練和檢測,所以目前的傳統人臉檢測方法在多尺度人臉的檢測上效果一般.基于神經網絡進行人臉檢測方法,利用神經網絡的魯棒性,彌補了傳統特征在角度、遮擋和廣州等非線性環境下檢測人臉的不足.同時,利用多尺度特征圖的方法利用滑動模塊在神經網絡的不同特征圖(Feature Map)上進行分類,并通過訓練學習人臉特征可以提高人臉檢測的能力.該方法能夠克服人臉的復雜性、姿態變化和環境光照等影響,但對于微小人臉檢測效果有限,本文提出一種利用多特征圖和圖像金字塔結合的方法提升微小人臉檢測效果的算法.

超分辨重建技術已被廣泛應用于醫學圖像處理[4],安防監控[5]和衛星圖像[6]等領域.圖像超分辨率重建方法主要分為兩類:基于重建的方法[7,8]和基于學習的方法[9,10].深度學習技術對超分辨率方法帶來了性能的提升,受到科研人員的青睞.基于深度學習的超分辨率重建方法通過學習低分辨率圖像與高分辨率間的對應關系,將低分辨率圖像直接重建成高分辨率圖像.SRCNN[11]是首次用于解決圖像超分辨率重建問題的深度學習模型.但是由于該網絡結構的感受野較小,在低分辨率圖像上采樣成高分辨率圖片時增加了時間成本,同時限制了重建效率.ESPCN[12]和FSRCNN[13]對SRCNN進行了改進.和SRCNN需要將低分辨率圖像上采樣到高分辨率圖像不同,ESPCN可以直接在低分辨率圖像上利用亞像素卷積層重建,該方案大大提升了重建效率;FSRCNN超分辨率重建算法則是在SRCNN和ESPCN的基礎上,利用漏斗結構的卷積網絡,映射低維空間,使用反卷積層進行放大,該算法大大提升了圖像重建算法的效率和速度.Hu[14]等人提出了一種Meta-SR重建方法,只需使用一個模型,利用縮放因子將低分辨圖像重建成任意倍數的高分辨率圖像,簡單實用.在人臉的超分辨率重建方面,由于人臉的復雜性,上述的重建方法不能針對人臉的共性進行重建,本文探索一種基于先驗信息的人臉超分辨率重建方法,提高人臉圖片的重建效果.

人臉識別[15,16]是根據人的面部特征來進行身份認證的技術,從深度卷積神經網絡(Deep Convolutional Neural Networks,DCNNs)被運用到人臉識別算法后,人臉識別的準確性能被不斷刷新.Yaniv Taigman[17]等人設計了一個九層的神經網絡,神經網絡最后一層得到的向量作為人臉面部特征,使用三維模型進行對齊和無約束環境下的人臉表示,該方法有效地克服了人臉對齊方法局限性,提高了人臉識別準確率.Deng[18]等人提出了一個附加的角邊緣損失來獲得人臉識別的高分辨特征,其具有清晰的幾何解釋,并且可以很容易地實現.對于高分辨率的人臉識別技術相對成熟,盧濤[19]等人提出一種基于圖像超分辨率極限學習機的低分辨人臉識別,利用圖像稀疏表達字典重建高分辨率圖像,通過構建ELM模型預測輸入極低人臉圖像的類別屬性.薛杉[20]等人針對監控中的目標人臉,通過聚類算法將單目標識別問題轉換為多目標識別問題,利用迭代標簽傳播算法不斷優化待識別樣本的歸屬類型,按照置信概率估計每個類別的人臉確認閾值.綜合來說,基于圖像對高分辨率的人臉識別方法非常多且精度較高,而對于低分辨率人臉識別的研究還不太成熟,沒有考慮到采用超分辨率重建的方法將低分辨率人臉識別的問題轉換為高分辨率人臉識別的問題,增加低分辨率的人臉細節特征,可以有效提高密集環境下低分辨率人臉識別的精度.

本文提出了一種基于超分辨率的人臉識別算法,本算法包括三個主要階段:首先,研究圖像金字塔和殘差網絡融合的微小人臉檢測算法,利用人臉檢測模板尺寸對人臉檢測準確率的影響,對不同圖像金字塔層采用合適的尺寸模板檢測解決模板冗余的問題.其次,構建一種基于面部先驗信息的超分辨率重建網絡,通過超分辨率重建中引入人臉先驗知識,提升人臉重建的效果,恢復小尺寸人臉的面部細節特征.最后,提取重建后的人臉圖像的512維面部特征向量,計算提取的人臉特征和預存人臉特征的相似度完成人臉識別過程.通過實驗證明本文提出的算法對小尺寸人臉的識別準確率有一定的提升,能解決密集環境下微小人臉檢測和識別準確率低的問題.

2 微小人臉檢測

隨著基于深度神經網絡的人臉檢測算法的發展和深入,開始逐步取代基于傳統特征的人臉檢測算法.近年來,越來越多的基于神經網絡的人臉檢測技術被提出并在實際應用中取得了不錯的效果,例如MTCNN[21]和Faceness[22],但是這些人臉檢測技術在密集環境下對離相機較遠的微小人臉檢測效果有待提高,為改善微小人臉的檢測效果,本文提出了一種結合圖像金字塔和殘差網絡(ResNet)的微小人臉檢測算法,并設計一種合理利用不同大小模板的模板選擇方法,提高圖像金字塔和多特征圖結合進行人臉檢測的效率.

圖1 微小人臉檢測算法Fig.1 Tiny face detection algorithm

本文設計的微小人臉檢測流程如圖1所示,將圖片輸入網絡后,首先創建一個圖像金字塔;然后,將縮放后的圖片通過Resnet101網絡得到不同感受野下的幾個特征圖;其次,針對圖像金字塔得到不同分辨率的圖像,在其對應的ResNet101網絡特征圖上采用不同大小的模板集合進行檢測,模板區域進行分類會產生候選框(Candidate Bound)的集合;最后,將得到的候選框用非極大值抑制(Non-Maximum Suppression,NMS)的方法去掉冗余的框,獲得最終的人臉檢測結果.

2.1 圖像金字塔

基于深度學習的人臉檢測方法通過將圖片通過卷積網絡,得到待檢測圖片不同卷積層輸出的特征圖,再利用人臉檢測模板在特征圖上進行檢測.例如上文中提到的MTCNN和Faceness都是利用神經網絡進行人臉檢測,該方法具有良好的檢測效率和性能,得到了廣泛應用.但是由于小尺寸的人臉面部特征信息較少,所以該類網絡在微小的人臉檢測方面效果一般.因此本文利用圖像金字塔得到不同尺寸的人臉,再結合深度神經網絡進行人臉檢測,解決小尺寸人臉檢測精度不高的問題.

圖像金字塔是通過上下采樣將圖片用金字塔層級排列的概念結構,主要用于各種圖像處理技術的預處理.本文通過上采樣和降采樣分別得到待檢測圖片的高分辨率和低分辨率圖片,采樣達到某個終止條件停止,最后得到待檢測圖片的圖像金字塔.

2.2 ResNet殘差網絡

構建圖像金字塔之后,需要將不同分辨率的圖片通過神經網絡得到不同的特征圖,在特征圖上使用人臉檢測模板獲得人臉候選框,本文的網絡結構采用ResNet[23]殘差網絡.

理論上卷積網絡隨著網絡層數的增多,特征提取能力也會隨之增強.然而實驗中發現隨著網絡層數的深入,網絡層數的增加可能會帶來梯度消失和梯度下降等問題,導致網絡性能的降低.2015年殘差網絡的出現解決了這一問題,殘差網絡提出了殘差塊(Residual Block)的思想,殘差塊通過跳躍連接的方式讓高層特征圖同時也包含了底層的特征信息,通過1×1的卷積讓殘差塊返回主路徑的值和下一個殘差塊的尺寸相同.殘差塊結構如公式(1)所示:

F(x)=W2σ(W1x)

(1)

其中x表示輸入,F(x)表示殘差塊在第二層激活函數之前的輸出,W1和W2表示第一層和第二層的權重,σ表示ReLU激活函數,最后的輸出H(x)的公式(2)所示:

H(x)=F(x)+x

(2)

通過這種跳躍連接的方式,可以有效解決深層網絡訓練中產生的梯度消失和梯度下降的問題,從而使得通過增加網絡深度來提升神經網絡性能的方法得以實現.ResNet網絡包括五種深度,分別是18層、34層、50層、101層和152層,其中50層和101層使用最廣泛,一般被稱為ResNet50和ResNet101,本文使用ResNet101網絡,包括6個部分,分別是Conv_1,Conv2_x,Conv3_x,Conv4_x,Conv5_x和平均池化層.其中Conv_1主要用來調整圖片到固定的尺寸;平均池化層主要用來做分類或者提取需要的圖片特征;Conv5_x輸出的特征圖大小為7×7,該部分丟失較多淺層信息,不利于用來進行人臉檢測.因此本文的人臉檢測模板在Conv2_x,Conv3_x和Conv4_x的特征圖上進行檢測.

2.3 模板尺寸選擇

由于人臉尺寸大小不固定,采用單一模板在特征圖上進行檢測會導致漏檢問題,因此目前基于深度神經網絡的檢測方法大多采用多尺度模板進行檢測,但采用圖像金字塔和多特征圖檢測的方法雖然能提高人臉檢測的效果但是會導致檢測時間較長.假設本文圖片構建了5層特征金字塔,每層圖片在Conv2_x,Conv3_x,Conv4_x這3個特征圖上檢測,如果使用25個人臉檢測模板,則每個模板需要在15個特征圖上進行檢測,一共檢測375次,造成大量冗余的計算.因此本文針對圖像金字塔的不同層,選取合適的模板進行檢測.人臉檢測模板通常采用ImageNet[24]數據集進行訓練,我們首先將ImageNet數據集圖片縮放到224×224大小,對人臉像素統計發現人臉分辨率主要集中在40~140之間,因為人臉檢測訓練集主要訓練這個像素的人臉,因此模板對于像素高度在40~140的人臉更易于檢測.

本文通過人臉檢測預訓練集的特點,找到最容易檢測到人臉的模板尺寸區間,在圖像金字塔的不同層上根據縮放大小選擇最適合檢測的模板尺寸,減少每層圖像金字塔的模板數量,減少冗余計算,對模板數量的合理分配.用t(h,w,σ)來描述一個模板,其中h和w表示模板的高和寬,σ表示圖片縮放的倍數.該模板用來檢測t(h/σ,w/σ)大小的人臉.如果檢測一個31×25的小尺度人臉,那么在兩倍分辨率的金字塔圖像上采用(62,50,2)的模板比在原圖像上采用(31,25,1)的模板效果更優;同理,若檢測一個250×200的人臉則在0.5倍分辨率圖像上采用(125,100,0.5)的模板檢測效果更優.因此,本文在上采樣圖片上主要檢測高度大于140的人臉;在原圖中主要檢測高度在40~140的人臉;在下采樣的圖片中主要檢測高度小于40的人臉.因此,本文針對不同縮放尺度圖片的模板選擇由公式(3)表示:

(3)

該公式中,h表示模板的高度,σ表示圖片的縮放尺寸.通過給圖像金字塔不同層的圖片分配不同大小模板的方法,在一定程度上解決了圖像金字塔檢測方法和神經網絡檢測方法融合所帶來的計算量過大的問題.

2.4 非極大值抑制

人臉檢測模板在特征圖上進行人臉檢測時,模板框會通過分類器得到該區域的得分,得分越大越接近人臉,保留其中得分較高的區域,會形成一個人臉候選框(Candidate Bound)的集合.這些候選框有很多冗余,所以需要通過非極大值抑制(Non-Maximum Suppresion,NMS)的方法來去掉多余的框.首先選取分類得分最高的人臉候選框,然后計算該候選框和其它候選框的交并比(Intersection-Over-Union,IOU),計算公式如公式(4)所示:

(4)

其中A為得分最高的候選框,B為其余的候選框.當A和某個候選框的IOU大于某個閾值時,將B從候選框集合中刪除.非極大值抑制偽代碼如算法1所示.

算法1.非極大值抑制算法

輸入:候選框集合B={b1,b2…,bN}、候選框得分集合S={S1,S2,…,SN}、閾值Nt.

1.創建一個存放最優框的集合H,將候選框集合B按得分從高往低排序.

2.在候選框集合B找到得分最高的候選框h,將h移到集合H.

3.遍歷集合B中的框,與框h計算交并比,如果交并比大于閾值Nt,將此框從集合H中移除.

4.重復步驟2和步驟3,直到集合B為空集.

輸出:最優框集合H.

非極大值抑制通過多模板對每層圖像金字塔進行人臉檢測,會得到多個候選框,通過非極大值抑制的方法將多余的候選框去除,得到人臉識別的最終結果.

心之所向,素履以往。生如逆旅,一葦以航。陳老師是平凡的追夢者,也是不凡的造夢者。他總是用充滿期待的愛,滋潤“路途勞累”的莘莘學子。正如德國哲學家雅斯貝爾斯說過:教育意味著一棵樹搖動另一棵樹,一朵云推動另一朵云,一個靈魂喚醒另一個靈魂。

3 基于超分辨率的微小人臉識別

本小節的人臉識別算法包括超分辨率重建和人臉識別兩部分.本文的人臉識別算法采用超分辨率重建來增加小尺度人臉的面部細節特征,再將重建后的高分辨率人臉送入特征提取網絡提取面部特征向量,最后進行人臉比對確定人臉身份.其算法結構圖如圖2所示.

圖2 人臉識別算法結構圖Fig.2 Structure diagram of face recognition algorithm

3.1 基于人臉先驗信息的超分辨率重建算法

本文通過將面部先驗信息融合到超分辨率重建網絡,通過面部先驗知識可以更好地重建人臉圖像,該超分辨率重建網絡由4個部分組成:粗糙的SR網絡、編碼網絡、人臉先驗信息和解碼器網絡.

我們首先使用一個粗糙的SR網絡將低分辨率圖片恢復成一個128×128的高分辨率圖片.先將低分辨率圖片上采樣至128×128的高分辨率圖片,再通過3×3,步長為1的卷積核將圖片卷積成64個特征圖,再通過三個殘差塊,最后再用3×3,步長為1的的卷積核重建出一個粗糙的高分辨率圖片.

我們利用面部先驗信息來提升重建的人臉圖片的質量,本文的面部先驗信息采用面部特征點,Dlib機器學習工具箱為我們提供了練好的模型“shape_predictor_68 _face_landm-arks.dat”,該面部關鍵點提取網絡可以提取68個面部特征點.超分辨率編碼器則利用12個殘差塊進行特征提取,為了減少計算,我們將先驗特征圖和粗糙的SR網絡重建的高分辨率圖片降采樣到64×64.超分辨率編碼器先用步長為2的3×3卷積核將特征圖降采樣到64×64,特征圖數量為64,然后經過12個殘差塊,最后用一個3×3,步長為1的卷積核提取編碼特征圖.

超分辨率解碼器將面部先驗特征圖和編碼特征圖串聯起來作為解碼器的輸入.然后使用3×3步長為1的卷積核將特征圖的數量由128減少到64個,再利用3 ×3的反卷積層將特征圖上采樣到128×128.隨后用3個殘差塊對特征圖進行解碼.最后使用一個3×3步長為1的卷積核將特征圖恢復成128×128的高分辨率圖片.

超分辨率重建網絡的損失函數如公式(5)所示.

(5)

3.2 面部特征提取

(6)

其中s表示規模參數,分類分類正確的標簽值為es(cos(θyi+m)),m表示平移距離,一般小于1,又因為余弦函數在輸入范圍內是遞減函數,因此該損失函數充分考慮了角度距離比余弦距離對角度的影響更直接.

3.3 特征比對

面部特征提取網絡提取到的512維面部特征和預存的人臉特征進行歐氏距離計算,根據距離判斷該人臉的身份,歐式距離計算公式如(7)所示:

(7)

其中,xik和xjk分別表示i向量和j向量的第k個數.計算待識別人臉特征和預存的所有人臉id對應特征的距離,找到其中最近的人臉id,再通過設置閾值的方式,如果和最近的人臉特征的距離小于閾值,則識別為此人臉id的身份;如果最小距離大于閾值,則無法識別.根據我們實際研發工程項目的經驗,我們將閾值設置為1.05,在此閾值下能確保準確識別的同時也不會有太高的拒識率.

4 實驗與結果分析

本實驗在Windows 10操作系統下采用Python開發語言,采用OpenCV進行圖像處理,使用TensorFlow、MXNet等深度學習框架實現深度學習算法,顯卡為NVIDIA 2080,顯存8G,CPU為Intel(R)Core(TM)i7-8750H,內存32G.

4.1 實驗數據庫以及性能指標

本文采用WIDER FACE[26]數據集作為人臉檢測訓練集,此訓練集包含了不同大小、姿態、遮擋、表情和光照環境下的人臉,是目前開放數據集上使用最為廣泛的數據集,它包含62種環境下的12880張訓練圖片.

人臉檢測數據集采用FDDB[27]進行測試.FDDB數據集有2845張圖像,共包含5171張人臉,是目前最常用的人臉測試數據集.

超分辨率重建訓練集采用Helen[28]人臉數據集,該數據庫訓練集包括了2000張人臉圖片,測試集包括100張人臉圖片,所有人臉都被標注了68個特征點.

本文人臉識別測試集采用自建的課堂人臉識別數據集ClassRecognition,其中包括40名同學的正面照片,如圖3(a)所示;以及采用4k攝像頭從不同角度拍攝的班級視頻,提取其中20幀圖片進行人臉識別測試,共包含759張人臉,如圖3(b)所示.

本文人臉檢測的評價指標是采用受試者工作特征曲線來表示,在人臉檢測任務中,根據樣本的正負和模型給出的判斷

圖3 人臉識別測試集Fig.3 Face recognition test set

結果,可以進一步定義真正率(True Positive Rate,TPR)和假正類率(False Positive Rate,FPR),分別見公式(8)和公式(9).

(8)

(9)

其中TP為真正類,FN為假負類,FP為假正類.

超分辨重建采用峰值信噪比(Peak Signal to Noise Ratio,PSNR)評價方法進行評價,公式如(10)所示:

(10)

公式中X表示重建圖像,Y表示原高分辨率圖像,MSE表示均方誤差.

4.2 實驗1.微小人臉檢測算法實驗

本文算法在公共數據集FDDB上進行測試,首先采用本文的微小人臉檢測算法對FDDB數據集包含5171個人臉的2845張圖片進行檢測,部分檢測結果如圖4所示.

圖4 FDDB部分檢測結果Fig.4 FDDB part test results

本文根據微小人臉檢測算法檢測到的人臉框位置,和FDDB數據集標注的人臉框位置計算交并比(Intersection-over-Union,IOU),閾值設置為0.5,當檢測到的人臉框和數據集標注人臉框的IOU大于0.5時,判定檢測結果為真正類,即正確檢測到人臉目標;當檢測到的人臉框和數據集標注人臉框的IOU小于0.5時,判定檢測結果為假正類,即將非人臉檢測為人臉.統計假正類數量并計算真正類率繪制受試者工作特征曲線(ROC,Receiver Operating Characteristic Curve)如圖5所示.

本文算法采用ROC曲線與MTCNN[21]、Faceness[22]、Joint Cascade[30]、CCF[31]人臉檢測算法進行比對.圖5的ROC曲線橫坐標FP即假正類,是將負樣本判定為正樣本的數量,縱坐標TPR表示真正類率,即召回率,表示正樣本中正確判定的比例.本文節設計的微小人臉檢測算法的真正類率達到97.78%,優于MTCNN的95.04%,Faceness的90.99%,Joint Cascade的展示出較好的人臉檢測性能.

圖5 FDDB測試集上的受試者工作特征曲線Fig.5 FDDB test set receiver operating characteristic curve

4.3 實驗2.超分辨率重建算法實驗

我們將本文的超分辨率重建方法與雙三次插值和SRResNet[29]方法進行比較.先將原圖降采樣到16×16大小,然后分別通過上述3種方法重建到128×128大小,采用主觀評價和客觀評價兩種方式評價超分辨率重建算法的效果.主觀評價即根據人眼的視覺感受評價算法的效果,重建效果對比如圖6所示.

圖6 重建效果對比圖Fig.6 Reconstruction effect contrast diagram

從主觀評價來看,采用雙三次插值的方法對輸入的低分辨率圖片重建的效果很差,不能反映人臉信息,而現在的人臉識別方法多采用該方法將輸入人臉調整到人臉識別網絡設定的輸入大小;SRResNet方法恢復得到的人臉效果較優于雙三次插值的方法,但是仍然不能很好的恢復面部細節特征;從重建效率對比圖可以看出本文結合人臉先驗信息進行人臉重建的方法能恢復更多的面部細節,優于前兩種方法.

客觀評價采用峰值信噪比評價方法進行評價.峰值信噪比反映了圖像的退化或受噪音影響的程度.該方法在圖像壓縮、重建領域經常使用,是在重建領域中一個非常重要的評價指標,值越大表示圖像的重建效果越好.表1展示了Helen數據集重建圖像的PSNR對比效果,從表中可以看出本文方法的客觀評價指標結果優于雙三次插值和SRResNet重建算法.

表1 Helen測試集實驗結果Table 1 Helen test set experimental results

4.4 實驗3.基于超分辨率的微小人臉識別算法實驗

本文通過融合人臉先驗信息的超分辨率重建方法與雙三次插值和SRResNet方法在自建課堂人臉識別數據集ClassRecognition上進行識別比對.

首先采集班級40名同學的人臉特征,用來和教室圖片中采集到人臉進行比對.特征采集首先對ClassRecognition數據集的每名同學的照片先進行人臉檢測,然后提取特征,將提取的512維特征向量和對應的學生id存入數據庫的人臉特征表.

對ClassRecognition數據集的20張4K分辨率照片進行人臉識別測試.首先進行人臉檢測,之后將圖片中的人臉用超分辨率重建的方法進行人臉重建,接著提取人臉面部特征和預存的學生特征計算歐氏距離,找到距離最近的特征,如果和歐氏距離最近的特征之間的距離小于閾值1.05,則返回該人臉特征對應的學生id,根據標注了學生id的圖片,人工統計識別的準確性,并和現有未使用超分辨率重建的人臉識別算法進行比對,識別準確率(%)如表2所示.

表2 ClassRecognition測試集人臉識別實驗結果Table 2 ClassRecognition test set face recognition experiment results

通過和雙三次插值、SRResNet超分辨率重建算法結合本文人臉識別算法進行識別準確率比對,分別統計三種超分辨率重建算法和本文的人臉識別算法結合的識別準確率(%),如表3所示.

表3 ClassRecognition測試集超分辨率重建人臉識別實驗結果Table 3 ClassRecognition test set super-resolution reconstruction face recognition experiment results

通過實驗的數據比對可以看出采用本文的超分辨率重建和人臉識別結合的方法可以提高密集環境下人臉識別的準確率.盡管采用4k攝像頭來拍攝,班級環境下后排的同學人臉仍然會丟失很多細節信息,導致人臉識別準確率的降低.人臉識別算法通常采用雙三次插值將圖片重建成深度人臉識別網絡需要的高分辨率圖片,該方法并不能恢復丟失的人臉細節信息.本文通過基于人臉先驗信息重建課堂低分辨率人臉,可以在一定程度上恢復丟失的人臉細節信息,提高密集環境下人臉識別的準確率.

5 結 論

在本文中,作者提出了一種基于超分辨率的人臉識別算法,本算法包括人臉檢測、超分辨率重建和人臉識別三個階段.首先,研究圖像金字塔和殘差網絡融合的微小人臉檢測算法,利用人臉檢測模板尺寸對人臉檢測準確率的影響,對不同圖像金字塔層采用合適的尺寸模板檢測解決模板冗余的問題.其次,構建一種基于面部先驗信息的超分辨率重建網絡,通過超分辨率重建中引入人臉先驗知識,提升人臉重建的效果,恢復小尺寸人臉的面部細節特征.最后,提取重建后的人臉圖像的512維面部特征向量,計算提取的人臉特征和預存人臉特征的相似度完成人臉識別過程.通過實驗證明本文提出的基于超分辨率的微小人臉識別算法能夠提升小尺寸人臉識別的準確率,能解決密集環境下微小人臉檢測和識別準確率低的問題.

猜你喜歡
人臉識別特征檢測
人臉識別 等
作文中學版(2022年1期)2022-04-14 08:00:34
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
揭開人臉識別的神秘面紗
學生天地(2020年31期)2020-06-01 02:32:06
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
小波變換在PCB缺陷檢測中的應用
基于類獨立核稀疏表示的魯棒人臉識別
計算機工程(2015年8期)2015-07-03 12:19:07
主站蜘蛛池模板: 69综合网| 日韩久草视频| 亚洲色婷婷一区二区| 欧美伊人色综合久久天天| 亚洲高清无码精品| 亚洲第一页在线观看| 伊人婷婷色香五月综合缴缴情| 国产美女一级毛片| 老司机午夜精品网站在线观看| 国产天天色| 黄色网站不卡无码| 无码高清专区| 97在线视频免费观看| 成人一区专区在线观看| 五月天久久婷婷| 久久亚洲国产最新网站| 成人午夜天| 国产九九精品视频| 欧美人与动牲交a欧美精品| 国产AV无码专区亚洲精品网站| 精品少妇三级亚洲| 日韩精品一区二区三区免费| 免费一极毛片| 国产真实乱子伦精品视手机观看| 精品天海翼一区二区| 少妇精品网站| 午夜激情婷婷| 欧美激情综合| 国产精品久久久久婷婷五月| 97在线观看视频免费| 国产精品自在在线午夜| 黄色污网站在线观看| 久久这里只有精品2| 日韩a级毛片| 99re视频在线| 日韩在线影院| 真实国产乱子伦视频| 亚洲伊人天堂| 久久精品国产999大香线焦| 91精品人妻互换| 亚洲精品大秀视频| 国产小视频在线高清播放| 亚洲精品成人福利在线电影| 伊人蕉久影院| 99ri国产在线| 国产福利拍拍拍| 亚卅精品无码久久毛片乌克兰| 香蕉久人久人青草青草| h视频在线播放| 亚洲最猛黑人xxxx黑人猛交| 中文字幕 日韩 欧美| 国产99在线观看| 国产白丝av| 国产成人亚洲精品色欲AV| 亚洲第一视频免费在线| 91人人妻人人做人人爽男同| 欧美特黄一级大黄录像| 露脸真实国语乱在线观看| 91久久夜色精品国产网站| 精品综合久久久久久97| 无码啪啪精品天堂浪潮av| 91网址在线播放| 欧美日韩中文国产va另类| 91视频首页| 亚洲首页在线观看| 久久久精品国产亚洲AV日韩| 免费黄色国产视频| 国产视频 第一页| 精品国产自在在线在线观看| 日韩小视频在线播放| 国产精品观看视频免费完整版| 亚洲永久精品ww47国产| 亚洲乱强伦| 午夜国产精品视频| 中文字幕日韩丝袜一区| 污污网站在线观看| 国产69精品久久久久孕妇大杂乱 | 国产激情无码一区二区三区免费| 又大又硬又爽免费视频| 日韩AV无码免费一二三区| 一级毛片免费观看不卡视频| 国产一级毛片网站|