999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于優化多任務級聯卷積神經網絡的多人目標偵測*

2022-07-15 13:15:14李志勇
傳感器與微系統 2022年7期
關鍵詞:人臉識別分類特征

陳 英, 李志勇

(南昌航空大學 軟件學院,江西 南昌 330063)

0 引 言

目標偵測識別在日常生活中很普遍,車站和機場的人臉識別閘門都是采用單目標偵測識別。多目標偵測到海量人臉之后再進行識別的方案可以有效地解決這類問題。對于多目標偵測,當前已有的研究包括:文獻[1]提出了循環卷積神經網絡(RCNN)的處理方案,通過卷積神經網絡(CNN)和支持向量機(SVM)機器學習的方法解決多目標偵測問題;文獻[2]對 RCNN進行改進,提出了Fast RCNN的方法,通過CNN提取特征,然后在特征圖上找到有物體的框,輸入到分類網絡進行分類;文獻[3]對Fast RCNN進行改進,提出了Faster RCNN,將Fast RCNN得到特征圖上的框,輸出到區域選取網絡(region proposal network,RPN)篩選框,再進行分類,加速了網絡的運行速度;文獻[4]提出了SSD方法,在多尺度特征圖上進行偵測,提高了偵測的精度;文獻[5~7]提出了Yolo的方法,尤其是YoloV3在SSD的基礎上,增加了上采樣操作,進一步增加了偵測的精度和速度;文獻[8]提出了多任務級聯卷積神經網絡(multi-task cascaded CNN,MTCCNN),采用圖像金字塔的方法,并采用多任務級聯的方式進行多目標偵測。對于人臉識別,文獻[9]提出了一個損失Triplet Loss,通過加入隔離帶并采用困難樣本訓練的方式進行特征分離;文獻[10]又提出了一個新的損失Center Loss,通過為每一個特征加入中心點的方式,分開特征;文獻[11]提出了一種對SoftMax的改進方法—Arc-SoftMax,即在SoftMax中加入隔離帶,分開特征。

綜上所述,多目標偵測識別的方案很多,但是要將偵測和識別方案很好地結合,是一個很難的問題。本文在多目標偵測中采用了MTCCNN作為主要的方案,并對其網絡模型進行改進,一定程度上加速了網絡偵測速度。對于人臉識別,采用Arc-SoftMax的分特征的方法,將兩種方案很好結合,完成海量人臉的偵測識別。

1 相關基本理論

1.1 交并比與非極大值抑制

通過交并比(intersection over union,IoU)對建議框和預測框進行重疊度計算,并作為置信度的計算方法,通過6種情況下的IoU計算,找出一個通用的計算方法。然后采用非極大值抑制(non maximum suppression,NMS)對預測框進行篩選,得到最終目標框。

NMS篩選預測框的步驟如下:

1)首先根據IoU計算出的置信度,對所有的預測框由大到小進行排序,保存每次排序置信度最大框;

2) 用第一個框與剩下所有的框進行IoU計算,如果計算后的IoU的值小于某個閾值,則保留當前框;

3)重復步驟(1)操作,直至沒有框可以比較,最終保留下來的框即為所有的目標框。

1.2 圖像金字塔

圖像金字塔縮放過程如下:

1)通過多次試驗確定一個較好的縮放比例;

2)每次通過縮放比例對原始圖片進行縮放,將縮放后的圖片傳入神經網絡進行特征提取,得到特征圖;

3)直到縮放到圖片的長或寬為提前設定的最小的尺寸,停止縮放。

1.3 SoftMax,Center Loss與Arc-SoftMax

1)SoftMax原理:在處理多分類問題時,通常會使用SoftMax激活函數作為網絡最后一層分類的激活函數。SoftMax的原理如式(1)所示

(1)

式中Si為激活后的值,ei為第i個值,j為所有向量的個數。

在眾多的分類問題中,常常會使用交叉熵作為損失函數(cross entropy loss),如式(2)所示

(2)

對SoftMax進行改進,計算過程

(3)

對SoftMax進行求導,計算過程

(4)

2)歐氏距離與余弦相似度原理

歐氏距離

(5)

式中X和Y為一個向量,dis(X,Y)為X與Y之間的距離,i為點的個數。

余弦相似度如式(6)、式(7)所示

(6)

(7)

3)Arc-SoftMax原理

本文中以對SoftMax層改進為核心思想進行設計,如式(8)所示為SoftMax的公式,如式(9)所示為對SoftMax的改進,n為個數,s為神經元x和權重w的向量積,θyi為yi的角度,m為隔離帶大小

(8)

(9)

(10)

余距相似度和余弦距離有等價公式

(11)

最終可得

(12)

最終可以得出結論余弦相似度等價于在二范數歸一化后的歐氏距離。通過對原始的SoftMax改進之后,通過加入了一個隔離帶,使得SoftMax的分類效果得到了更好地提升。

2 偵測算法改進、人臉識別遷移學習

本文采用在原始偵測網絡上進行改動,去除對于人臉關鍵點的回歸,并結合遷移學習對人臉進行分類,提取人臉特征。

2.1 數據集處理

在偵測數據集中進行使用平移中心點的方式進行增樣處理,具體步驟如下:

1)處理掉異常的人臉框的數據,如人臉框寬高小于12 pix、寬高小于0和框坐標小于0;

2)計算標簽框的中心點坐標,對中心點偏移0.074左右,得到偏移后的人臉框坐標;

3)計算偏移后人臉框與標簽框的IoU值,作為置信度,分別篩選出正樣本、負樣本和部分樣本;

4)對負樣本進行增樣處理,在圖片中人臉框四周提取背景信息作為負樣本,擴充5倍負樣本;

5)將制作好的標簽框坐標保存到.txt文本文件中,共9個.txt文本文件,分別代表3種尺寸,每個尺寸3種樣本標簽。

2.2 偵測網絡改進

改進的OMTCCNN的網絡模型如圖1所示。

圖1 OMTCCNN網絡模型

該網絡中總共有3個網絡分別為Proposal Network(P Net)、Refine Network(R Net)和Output Network(O Net)。P Net主要用于對人臉框的初步篩選,篩選出所有框到人臉的框;R Net主要篩選P Net輸出的框,對P Net的框進行篩選,得到更加精確人臉框;最后將R Network得到的框輸入到O Net中進行最終精準的人臉框的回歸,通過這種多任務級聯的方法,通過不斷篩選得到最終的結果,但這個方法下需要多次處理一個問題,因為整個網絡的速度比較慢,可以進行優化。

本文改進如下:

1)P Net、R Net和O Net去除5個特征點的回歸,加速網絡偵測速度;

2)P Net、R Net和O Net中將置信度的激活函數由SoftMax改為Sigmoid;

3)O Net中淺層加入BatchNormal,同時加入Dropout抑制部分神經元,訓練時減緩網絡收斂速度,偵測時增加網絡的推理速度。

3 實驗結果分析

3.1 數據集屬性

本文的偵測數據集來源于香港中文大學多媒體實驗室的CelebA數據集(1)數據集包含202 599張人臉圖片(2)數據集解壓后9.77 GB,壓縮文件大小為700 MB,進行增樣后數據集中包含750萬張圖片。具體數據集屬性如表1。

表1 偵測數據集屬性

3.2 偵測效果

如圖1所示為在CelebA數據集下標簽框與OMTCCNN網絡輸出框的對比,圖2(a)所示為CelebA標簽框的效果,可以看到CelebA原始標簽框并不準確;圖2(b)所示為Fast MTCNN網絡輸出的人臉框,比原始標簽框更加貼合人臉,所留的空白也相對減少,可以看出偵測Fast MTCNN基于CelebA數據集的效果已經明顯高于原始標簽效果。

圖2 CelebA數據集下標簽框與網絡輸出框對比

從原始網絡模型OMTCCNN和改進后的網絡模型OMTCCNN進行分析,分別比較偵測網絡中P Net、R Net和O Net的精確率、召回率和網絡運行時間,其結果分別如表2,表3所示。通過對MTCNN與E-MTCNN的精確率和召回率的比較,發現兩個模型的精確率和召回率相差不大,但在偵測時間上卻有區別,優化后的OMTCCNN時間上有一定的提升。

表2 MTCNN下的精確率和召回率

表3 E-MTCNN下的精度和召回率

3.3 識別效果

如圖3和圖4所示分別為SoftMax和Arc-SoftMax下的分類效果。本文將多分類的特征變為二維數據,并將每兩個特征值作為一個點(x,y),顯示在二維直角坐標系中。

圖3 SoftMax十分類效果

圖4 Arc-SoftMax十分類效果

圖3為SoftMax在20,40輪次的分類效果圖,很明顯,SoftMax還沒有把分類分開,是個類的特征還冗雜在一起,分類效果很差。圖4為對SoftMax加入隔離帶的改進方法Arc-SoftMax的效果圖,可以看出:在10,40輪次已經將十分類的特征大致分開,只有中心位置還沒有分離的很明顯;在訓練到213輪次之后,可以看到十分類的中心位置的特征也比較好地分離開。當235,256輪次時,整個特征已經清晰可見。這只是在二維坐標系中的分類效果,而人臉的特征向量有512維度,如果將這些特征放在更高維的坐標系中,特征分離效果將會更好。

FAR表示在不同類之間的錯誤接受的比率,TAR表示在類之間正確接受的比率,FRR表示在類之間的錯誤接受的比率。不同閾值下的FAR與TAR值的對比結果如表4所示,從表中可以看出,隨著閾值的不斷變大,FAR的比率不斷下降,表明將兩個人判別為同一個人的幾率增大;TAR的比率也在不斷的減小,表明同一個人被判別為同一個人的比率也在下降;與TAR相對應的FRR的拒識率就會有所升高。最終可以得出,在FAR為0.042 01時,TAR最高為0.986 3。

表4 相似度閾值下的評測指標

綜上所述,OMTCCNN對多目標偵測時,時間上有所提升,比原模型快了9 %;人臉識別通過對SoftMax的改進Arc-SoftMax的使用,在小范圍人臉識別中可以達到TAR=0.986 3@FAR=0.042 01。

4 結 論

針對多目標偵測識別,對MTCNN偵測網絡進行優化,一定程度上加速了網絡的偵測速度,對人臉識別進行遷移學習,利用CASIA-FaceV5部分人臉數據進行測試結果顯示,對于小范圍人臉有比較好的效果。

猜你喜歡
人臉識別分類特征
人臉識別 等
作文中學版(2022年1期)2022-04-14 08:00:34
分類算一算
揭開人臉識別的神秘面紗
學生天地(2020年31期)2020-06-01 02:32:06
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
抓住特征巧觀察
基于類獨立核稀疏表示的魯棒人臉識別
計算機工程(2015年8期)2015-07-03 12:19:07
主站蜘蛛池模板: 免费看美女毛片| 亚洲欧美激情另类| 男人天堂亚洲天堂| 亚洲国语自产一区第二页| 国产日产欧美精品| 亚洲色婷婷一区二区| 一个色综合久久| 国产精品手机在线观看你懂的 | 又黄又爽视频好爽视频| 国产精品无码AV中文| 国产精品亚欧美一区二区三区| 最新国产高清在线| 亚洲日韩在线满18点击进入| 无码人妻热线精品视频| 无码av免费不卡在线观看| 亚洲精品无码日韩国产不卡| 91 九色视频丝袜| 亚洲国产成人久久精品软件 | 3D动漫精品啪啪一区二区下载| 91精品专区| 伊人久久大香线蕉综合影视| 国产精品亚洲一区二区在线观看| 91在线精品麻豆欧美在线| 大陆精大陆国产国语精品1024 | 久久永久精品免费视频| 一级香蕉视频在线观看| 无码AV高清毛片中国一级毛片| 曰AV在线无码| 谁有在线观看日韩亚洲最新视频| 久久人体视频| m男亚洲一区中文字幕| 好吊日免费视频| 九色国产在线| 色综合天天娱乐综合网| 伊人五月丁香综合AⅤ| 欧美高清三区| 亚洲日韩日本中文在线| 国产精品冒白浆免费视频| 99偷拍视频精品一区二区| 国产美女人喷水在线观看| 国产导航在线| 91精品福利自产拍在线观看| 国产午夜一级毛片| 人人91人人澡人人妻人人爽| 91青青视频| 国产精品无码AV中文| 国产精品三区四区| 99re视频在线| 日本道综合一本久久久88| 99久久无色码中文字幕| 91久久青青草原精品国产| 欧美精品xx| 欧美一级在线播放| 91精品网站| 欧美国产综合色视频| 久久久久青草线综合超碰| 亚洲系列中文字幕一区二区| 亚洲综合中文字幕国产精品欧美 | av天堂最新版在线| 99国产精品免费观看视频| 国产成人精品亚洲日本对白优播| 久久香蕉国产线看观看亚洲片| 波多野结衣一区二区三区四区| 91国内视频在线观看| 欧美第二区| 国产浮力第一页永久地址 | 日韩精品亚洲一区中文字幕| 国产超薄肉色丝袜网站| 麻豆国产在线观看一区二区| 久热精品免费| 日韩区欧美区| 18禁不卡免费网站| 日韩一区二区在线电影| 亚洲国产精品不卡在线| 扒开粉嫩的小缝隙喷白浆视频| 欧美在线一二区| 国产日韩精品欧美一区喷| 国产性生大片免费观看性欧美| 婷婷五月在线视频| 久久精品嫩草研究院| 日本人妻丰满熟妇区| 青青热久麻豆精品视频在线观看|