999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于面部視頻的低運(yùn)算量心跳檢測(cè)

2024-06-24 00:00:00丁國(guó)棟鞠明于坤燦向新
燕山大學(xué)學(xué)報(bào) 2024年3期
關(guān)鍵詞:人臉識(shí)別

摘要:基于面部視頻的心跳檢測(cè)能夠提升面部識(shí)別技術(shù)的可信度,在軍事領(lǐng)域中具有對(duì)抗面部偽裝、判斷真假人目標(biāo)、鑒定偽造視頻等應(yīng)用潛力。然而,現(xiàn)有基于視頻的心跳檢測(cè)算法存在運(yùn)算量較大的問(wèn)題,限制了其在低運(yùn)算能力條件下的實(shí)時(shí)應(yīng)用。本文分析了算法原理和關(guān)鍵步驟的時(shí)延,并提出了兩種低運(yùn)算量的基于插值運(yùn)算的算法,分別是RGB-FFT算法和RGB-ICA-FFT算法。經(jīng)過(guò)測(cè)試,在幀速率為5 fps的情況下,插值RGB-FFT算法的運(yùn)算量最小;插值RGB-ICA-FFT算法在精度上與幀速率為15 fps的RGB-ICA-FFT算法相當(dāng),但運(yùn)算量低61%。

關(guān)鍵詞:心跳檢測(cè);人臉識(shí)別;獨(dú)立成分分析

中圖分類號(hào):TP391.41文獻(xiàn)標(biāo)識(shí)碼: ADOI:10.3969/j.issn.1007-791X.2024.03.0060引言

隨著社會(huì)的發(fā)展,面部識(shí)別技術(shù)在各個(gè)領(lǐng)域得到了廣泛的應(yīng)用[1],例如安保工作中的人臉識(shí)別功能以及無(wú)人機(jī)通過(guò)面部識(shí)別實(shí)現(xiàn)精確狙殺等。據(jù)報(bào)道,在俄烏沖突中,烏克蘭軍隊(duì)已經(jīng)應(yīng)用無(wú)人機(jī)面部識(shí)別技術(shù)對(duì)俄羅斯軍隊(duì)的高級(jí)指揮員進(jìn)行精準(zhǔn)狙殺。由此可見(jiàn),為了提升面部識(shí)別技術(shù)的可信度,加入特定的生理特征識(shí)別是一種非常有效的方法。美國(guó)軍方已經(jīng)開發(fā)了基于心跳特征的遠(yuǎn)程身份識(shí)別系統(tǒng)[2],該系統(tǒng)能夠有效克服面部偽裝帶來(lái)的干擾。因此,基于面部視頻獲取心跳數(shù)據(jù)成為了增強(qiáng)面部識(shí)別技術(shù)的一個(gè)重要研究方向。

在偵查領(lǐng)域,利用攝像頭和基于面部的心跳檢測(cè)算法,通過(guò)心跳信息是否存在,可以判定目標(biāo)是否為假人模型。另外,基于面部視頻獲取心跳信息,可以對(duì)Deepfake技術(shù)制作的偽造視頻進(jìn)行鑒別[3]。

G. Balakrishnan通過(guò)觀察垂直頭部運(yùn)動(dòng)來(lái)檢測(cè)心率[4],但是需要被測(cè)量者保持靜止。,限制了實(shí)際應(yīng)用場(chǎng)景。H. Y. Wu通過(guò)放大幀之間的微小變化來(lái)顯示脈搏引起的面部顏色變化[5],但該方法無(wú)法進(jìn)行準(zhǔn)確的數(shù)值測(cè)量。W. Verkruysse等發(fā)現(xiàn)在彩色視頻中可以檢測(cè)到光電體積描記信號(hào)(Photo Plethysmo Graphy, PPG)[6]。該信號(hào)可以在面部和額頭皮膚的彩色視頻的紅、綠、藍(lán)通道中檢測(cè)到,其中綠色通道中信號(hào)最強(qiáng)。然而,這種光信號(hào)容易受到環(huán)境光和運(yùn)動(dòng)引起的干擾,導(dǎo)致結(jié)果不夠準(zhǔn)確。M. Z. Poh等人發(fā)現(xiàn),通過(guò)在RGB三通道上應(yīng)用盲源分離算法,如獨(dú)立分量分析(Independent Component Analysis, ICA),可以將獨(dú)立的源信號(hào)從混合顏色信號(hào)中分離出來(lái),從而更好地提取心跳信號(hào)[7]。王一丁等人引入了多特征區(qū)域,并利用ICA算法在多個(gè)區(qū)域進(jìn)行計(jì)算,以降低光照不均勻的影響,但這也增加了計(jì)算量[8]。楊雯在心跳檢測(cè)中引入卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN),提高了心跳測(cè)量的精度,但是CNN網(wǎng)絡(luò)不適合在嵌入式系統(tǒng)實(shí)現(xiàn)[9]。現(xiàn)有的視頻心跳算法主要致力于提高精度,但這往往導(dǎo)致算法的運(yùn)算量增大,限制了其在實(shí)際應(yīng)用場(chǎng)景中的使用。

在利用面部視頻獲取心跳前,需要確定面部范圍,文獻(xiàn)[10]提出融合紋理特征、顏色特征、形狀特征三類特征的AdaBoost算法,該算法與深度學(xué)習(xí)模型相識(shí)別效果相似。文獻(xiàn)[11-13]提出在AdaBoost算法的基礎(chǔ)上,使用Haar-like小波特征和積分圖方法進(jìn)行人臉檢測(cè),并對(duì)AdaBoost訓(xùn)練出的強(qiáng)分類器進(jìn)行級(jí)聯(lián),最終形成了OpenCV的Haar分類器算法。

根據(jù)市場(chǎng)上30倍光學(xué)變焦鏡頭的焦距范圍為0.98~300 mm的情況,以距離人臉100 m處為例,假設(shè)焦距為45 mm(水平視角為6°),則攝像頭可以用4 000個(gè)像素覆蓋寬度為10.4 m的區(qū)域。假設(shè)人臉寬度為0.21 m,因此整張人臉約由4 800個(gè)像素組成,在這樣條件下,本文提出了適合低運(yùn)算能力條件的低運(yùn)算量的RGB-FFT算法和RGB-ICA-FFT算法。

1低運(yùn)算量的面部心跳檢測(cè)算法

1.1基本原理

皮膚內(nèi)的血液容積會(huì)在心臟的作用下呈搏動(dòng)性變化。當(dāng)心臟收縮時(shí)外周血容量最多,綠色光吸收量也最大,反射的綠光強(qiáng)度就最小;而在心臟舒張時(shí),反射到綠光強(qiáng)度最大。除了綠光變化外,紅色變化不如綠光強(qiáng)烈,但也會(huì)有變化,心臟收縮時(shí),反射的紅光強(qiáng)度大;心臟舒張時(shí),反射的紅光強(qiáng)度小。心跳會(huì)造成人臉?lè)秶募t色、綠色的變化。通過(guò)分析面部的紅綠色的變化,就能得到心跳信號(hào)。

1.1.1人臉檢測(cè)及序列生成

本算法使用OpenCV的cv2.CascadeClassifier加載haarcascade_frontalface_default.xml進(jìn)行人臉?lè)秶拇_定。OpenCV的Haar分類器算法的要點(diǎn):Haar-like特征;利用積分圖(Integral Image)對(duì)Haar-like特征求值;AdaBoost算法訓(xùn)練強(qiáng)分類器;使用篩選式級(jí)聯(lián)把強(qiáng)分類器級(jí)聯(lián)。

在使用分類器前,將抓取的幀,轉(zhuǎn)變?yōu)榛叶刃盘?hào),用來(lái)降低處理量。

分類器反饋了人臉?lè)秶8鶕?jù)分類器反饋的人臉?lè)秶^續(xù)對(duì)人臉?lè)秶M(jìn)行一定比例的縮小,用來(lái)降低人臉附近像素的影響。

攝像頭以幀速率頻率生成圖像幀。對(duì)于每一個(gè)圖像幀,確定面部范圍,對(duì)面部范圍的所有像素點(diǎn)求出空間均值,得到3個(gè)值,分別代表紅綠藍(lán)的3種顏色的強(qiáng)度,強(qiáng)度范圍在0~255之間。

如果幀速率F=15 fps,在時(shí)間周期T=30 s內(nèi),就會(huì)得到T·F=450組紅綠藍(lán)數(shù)據(jù),這些數(shù)據(jù)形成RGB序列,為了便于人眼區(qū)分,圖1顯示了RGB序列中的3 s時(shí)長(zhǎng)部分。

對(duì)RGB序列進(jìn)行預(yù)處理:分別利用3個(gè)時(shí)間序列的各自的均值,將RGB值的時(shí)間序列轉(zhuǎn)變?yōu)?均值序列。例如紅色序列的轉(zhuǎn)換公式為R′t=Rt-μR,(1)其中,R′t代表紅色0均值序列,Rt代表原始紅色序列,μR代表紅色序列在時(shí)間周期內(nèi)的平均值。RGB序列去均值后的R′G′B′,為了便于人眼區(qū)分,圖2顯示了R′G′B′序列中的3 s時(shí)長(zhǎng)部分。

1.1.2RGB-FFT算法

對(duì)R′G′B′直接進(jìn)行FFT,得到3個(gè)FFT結(jié)果。在0.8~4 Hz范圍內(nèi),某一個(gè)信號(hào)的最大能量的頻點(diǎn),認(rèn)為是心跳頻率,本文后面簡(jiǎn)稱心率。以X軸為頻率,Y軸為對(duì)數(shù)坐標(biāo)的頻率能量,做出圖3,為了便于人眼區(qū)分,圖3顯示了0.8~2 Hz部分。在圖中得到的心跳頻率為1.2 Hz,也就是心跳72次/min。面部的顏色除了包括心跳信息外,還有光源信號(hào)、環(huán)境信號(hào)造成的影響,因此效果較差。

1.1.3RGB-ICA-FFT算法

為了消除光源信號(hào)、環(huán)境信號(hào)的影響,采用ICA算法,對(duì)算法處理后的信號(hào),進(jìn)行FFT獲取心跳頻率,效果較好,但是運(yùn)算量大。

ICA算法描述:攝像頭存在色彩校正處理,使得攝像頭的光譜響應(yīng),類似人眼的光譜響應(yīng),根據(jù)文獻(xiàn)[12],一般使用的攝像頭,光譜響應(yīng)如圖4所示。

由于攝像頭RGB光譜響應(yīng)有重疊,因此心跳造成的人臉?lè)秶牡木G色、紅色變化,按照?qǐng)D4的響應(yīng)曲線,被攝像頭按不同的權(quán)重記錄在RGB的3個(gè)信道中。RGB的3個(gè)信道,還記錄了心跳外因素,例如光源、環(huán)境反射造成的變化。

心跳、光源、環(huán)境反射是統(tǒng)計(jì)獨(dú)立的,可以假定為非高斯信號(hào)。這些因素造成了人臉區(qū)域的顏色變化。顏色變化被RGB傳感器得到,生成這些因素混合作用后的RGB信號(hào),根據(jù)大數(shù)定理,RGB信號(hào)在統(tǒng)計(jì)上具有高斯性。因此可以利用ICA算法,獲得3個(gè)獨(dú)立成分信號(hào)。

在進(jìn)行ICA算法前,需要對(duì)R′G′B′去相關(guān)性處理。以窗口時(shí)長(zhǎng)30 s,F(xiàn)=15 fps為例:

計(jì)算協(xié)方差矩陣

為了從X中恢復(fù)出獨(dú)立的非高斯信號(hào),首先定義非高斯性評(píng)估函數(shù)f(u)、評(píng)估函數(shù)的一階導(dǎo)數(shù)g(u)、評(píng)估函數(shù)的二階導(dǎo)數(shù)g′(u):

為了恢復(fù)出3個(gè)獨(dú)立成分信號(hào)S,設(shè)W為3×3矩陣:W=[w1 w2 w3],w1,w2,w3為3維列向量,則S=WTX,其中,w1,w2,w3的偽代碼解法如下(1450表示全1的450維列向量):

其中,p=1,2,3,Wp初始化為隨機(jī)值,Wp未收斂,恢復(fù)出來(lái)的3個(gè)獨(dú)立成分信號(hào)S的時(shí)間序列如圖6,注意到ICA算法的特性,并不知道哪一個(gè)信號(hào)是心跳信號(hào)。為了便于人眼區(qū)分,圖6顯示了序列中的3 s時(shí)長(zhǎng)部分。

對(duì)經(jīng)過(guò)ICA算法得到3個(gè)獨(dú)立成分信號(hào)的時(shí)間序列進(jìn)行FFT計(jì)算,得到3個(gè)FFT結(jié)果。由于心跳范圍在40~240次/min之間,因此將在0.8~4 Hz范圍內(nèi),某一個(gè)信號(hào)的最大能量的頻點(diǎn),認(rèn)為是心跳頻率。以X軸為頻率,Y軸為對(duì)數(shù)坐標(biāo)的頻率能量,做出圖7,為了便于人眼區(qū)分,圖7顯示了0.8~2 Hz部分,得到的心跳頻率為1.2 Hz,也就是心跳72次/min。從圖中可以看出3個(gè)信號(hào)的頻譜強(qiáng)度相對(duì)于圖3有了明顯區(qū)分。

1.2運(yùn)算量分析

在i5-8265U@1.60GHz,8G內(nèi)存下,關(guān)鍵算法步驟的耗時(shí)統(tǒng)計(jì)如表1所示。

人臉檢測(cè)需要每幀進(jìn)行一次,而ICA、FFT算法每秒調(diào)用一次,就可以滿足心跳檢測(cè)的實(shí)時(shí)需求。基于此,以表1的算法耗時(shí)的最大值進(jìn)行分析,不同算法的耗時(shí)如表2所示。

從1.1基本原理描述中,可以預(yù)估在F=15 fps、RGB-ICA-FFT算法效果最好,但運(yùn)算量最大;F=5 fps的RGB-FFT效果最差,但運(yùn)算量最小。根據(jù)表2,降低運(yùn)算量的關(guān)鍵在于降低幀速率。

1.3算法流程

基于1.2節(jié)的算法耗時(shí)分析,采用F=5 fps可以降低算法耗時(shí),因此低運(yùn)算量算法使用F=5 fps,算法由2個(gè)線程組成。

第1個(gè)線程完成人臉?lè)秶鷥?nèi)像素均值的計(jì)算,執(zhí)行周期為每幀執(zhí)行一次,具體流程如算法線程1所示:

算法線程1:人臉?lè)秶鷥?nèi)均值計(jì)算(每幀一次)

1) 從攝像機(jī)中取得一幀圖像;

2) 確定人臉?lè)秶?/p>

3) 對(duì)人臉?lè)秶鷥?nèi)像素進(jìn)行計(jì)算,取得人臉?lè)秶鷥?nèi)的RGB均值;

4) 返回第1)步。

第2個(gè)線程完成心跳的提取,執(zhí)行周期為每秒執(zhí)行一次。對(duì)R′G′B′序列進(jìn)行2倍插值后,采用RGB-ICA-FFT或RGB-FFT算法進(jìn)行分析,分別用5a)和5b)表示,具體流程如算法線程2所示:

算法線程2:心跳提取(每秒一次)

1) 判斷是否獲得窗口時(shí)間(例如30 s)內(nèi)各個(gè)幀的RGB均值;

2) 如果窗口時(shí)間長(zhǎng)度不夠,返回第1)步;

3) 如果窗口時(shí)間滿足,對(duì)一段時(shí)間的RGB序列去均值,轉(zhuǎn)變?yōu)榫禐?的R′G′B′序列;

4) 對(duì)R′G′B′序列進(jìn)行2倍插值;

5a) RGB-ICA-FFT算法:對(duì)R′G′B′利用ICA算法獲得3個(gè)獨(dú)立成分信號(hào);對(duì)3個(gè)獨(dú)立成分信號(hào)進(jìn)行FFT;或

5b) RGB-FFT算法:對(duì)R′G′B′序列進(jìn)行FFT;

6) 在心跳頻率范圍內(nèi),找到某1個(gè)信號(hào)的最大能量所在的頻點(diǎn),認(rèn)為這個(gè)頻點(diǎn)就是心跳;

7) 返回第1)步。

2低運(yùn)算量算法的測(cè)試

對(duì)1.3節(jié)描述的低運(yùn)算量算法,采用同一個(gè)錄像進(jìn)行測(cè)試。錄像采用F=15 fps進(jìn)行錄制,時(shí)長(zhǎng)為67 s,心跳實(shí)際范圍在70~75之間。為了模擬F=5 fps的情況,對(duì)錄像幀每3幀提取1幀進(jìn)行分析。

2.1插值RGB-FFT和插值RGB-ICA-FFT對(duì)比在F=5 fps情況下,進(jìn)行2倍線性插值后,采用RGB-FFT、RGB-ICA-FFT算法的效果如圖8和圖9所示。

根據(jù)表3可知,在F=5 fps的情況下,采用RGB-ICA-FFT算法,運(yùn)算量比RGB-FFT提高26.9%,但是心跳結(jié)果的標(biāo)準(zhǔn)差表明,插值RGB-ICA-FFT算法效果更好。需要注意的是,如果運(yùn)算量非常緊張,采用插值RGB-FFT算法得到的心跳均值也有一定的參考價(jià)值。

2.2RGB-ICA-FFT不同插值算法的比較

在算法線程2的步驟4中,對(duì)抽樣得到F=5 fps的錄像幀,采用不同的插值算法,進(jìn)行2倍的插值其均值、標(biāo)準(zhǔn)差如表4所示。

1) 采用線性插值,分析的心跳結(jié)果如圖10所示。

2) 采用二階插值,使得時(shí)間序列的一次導(dǎo)數(shù)連續(xù),分析的心跳結(jié)果如圖11所示。

3) 采用三階插值,使得時(shí)間序列的一次、二次導(dǎo)數(shù)連續(xù),分析的心跳結(jié)果如圖12所示。

4) 作為比較,采用F=15 fps,進(jìn)行RGB-ICA算法的結(jié)果如圖13所示。

5) 作為比較,采用F=5 fps,不進(jìn)行插值,RGB-ICA算法的結(jié)果如圖14所示。

表4表明,在F=5 fps插值RGB-ICA-FFT情況下,對(duì)RGB序列進(jìn)行線性插值、二次插值、三次插值比不進(jìn)行插值有明顯改善,其中二次插值效果最好,甚至比F=15 fps的不插值RGB-ICA-FFT算法效果還要好,原因在于插值就相當(dāng)于進(jìn)行了低通濾波,消除了一些噪聲。根據(jù)表2,不插值F=15 fps的運(yùn)算量比插值F=5 fps的運(yùn)算量大156.9%左右。

3結(jié)論與展望

本文針對(duì)現(xiàn)有心跳檢測(cè)算法運(yùn)算量大的缺點(diǎn),提出了運(yùn)算量低的實(shí)時(shí)檢測(cè)心跳算法:插值RGB-FFT算法和插值RGB-ICA-FFT算法。

經(jīng)過(guò)測(cè)試對(duì)比,得到結(jié)論如下:

1) F=5 fps的插值RGB-FFT算法,可以得到心跳的均值,此時(shí)運(yùn)算量最低,心跳標(biāo)準(zhǔn)差較大;

2) F=5 fps的插值RGB-ICA-FFT算法,效果比插值RGB-FFT明顯改善,獲得與F=15 fps的RGB-ICA-FFT算法類似的精度,可以用來(lái)準(zhǔn)確計(jì)算心跳頻率;

3) 優(yōu)選F=5 fps的二階插值RGB-ICA-FFT算法,在準(zhǔn)確性和運(yùn)算量達(dá)到平衡。

由于運(yùn)算量的降低,對(duì)視頻流中出現(xiàn)的多張人臉可以實(shí)時(shí)進(jìn)行分析,利用心跳結(jié)果,能夠分辨出真假人目標(biāo)、發(fā)現(xiàn)心跳異常人員;同時(shí)降低運(yùn)算量也意味降低功耗,延長(zhǎng)了無(wú)人機(jī)等遠(yuǎn)端偵查設(shè)備的工作時(shí)間。

本文的算法不足之處在于,需要基于30 s的窗口數(shù)據(jù)才能分析心跳,這樣降低了算法反應(yīng)速度,后續(xù)建議優(yōu)化算法來(lái)降低窗口的長(zhǎng)度。在利用心跳特征進(jìn)行身份識(shí)別方面,需要進(jìn)一步分析和收集心跳的特征。

參考文獻(xiàn)

[1] 劉豐, 于洋, 郭璇, 等. 無(wú)人機(jī)自主著艦技術(shù)研究 [J]. 燕山大學(xué)學(xué)報(bào), 2022, 46(4): 353-361.

LIU F, YU Y, GUO X, et al. Research on autonomous landing technology of UAV [J]. Journal of Yanshan University, 2022, 46(4): 353-361.

[2] MIT Technology Review.The Pentagon has a laser that can identify people from a distance—by their heartbeat[EB/OL].(2019-06-27)[2023-11-24].https://www.technologyreview.com/2019/06/27/238884/the-pentagon-has-a-laser-that-can-identify-people-from-a-distanceby-their-heartbeat/.

[3] CIFTCI U A, DEMIR I, YIN L. Fakecatcher: detection of synthetic portrait videos using biological signals[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021,31(5):574-577.

[4] BALAKRISHNAN G, DURAND F, GUTTAG J. Detecting pulse from head motions in video[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition," Portland,USA, 2013: 3430-3437.

[5] WU H Y, RUBINSTEIN M, SHIH E, et al. Eulerian video magnification for revealing subtle changes in the world[J]. ACM Transactions on Graphics, 2012, 31(4):1-8.

[6] WIM V, VERKRUYSSE L, NELSON J, et al. Remote plethysmographic imaging using ambient light [J]. Optics Express, 2008,16 (26): 21434-45.

[7] POH M Z, MCDUFF D J, PICARD R W. Non-contact, automated cardiac pulse measurements using video imaging and blind source separation[J]. Optics Express, 2010, 18(10): 10762-10774.

[8] 王一丁, 李飛虎. 多特征區(qū)域FastICA的非接觸式心率檢測(cè)[J]. 計(jì)算機(jī)系統(tǒng)應(yīng)用, 2020, 30(1): 154-161.

WANG Y D, LI F H. Non-contact heart rate detection of multi-feature area FastICA [J]. Computer Systems amp; Applications, 2020, 30(1): 154-161.

[9] 楊雯. 基于人臉視頻的非接觸式心測(cè)量算法的研究與實(shí)現(xiàn) [D]. 北京:北京郵電大學(xué), 2019.

YANG W. Research and implementation of non-contact heart rate measurement algorithm based on face video [D]. Beijing:Beijing University of Posts and Telecommunications, 2019.

[10] 趙穎, 李玉雙, 武小榮. 基于舌圖像多特征融合與機(jī)器學(xué)習(xí)的裂紋舌識(shí)別算法 [J]. 燕山大學(xué)學(xué)報(bào), 2022, 46(6): 522-528.

ZHAO Y, LI Y S, WU X R. Crack tongue recognition algorithm based on tongue image multi-features fusion and machine learning [J]. Journal of Yanshan University, 2022, 46(6): 522-528.

[11] ALI S, RAHIM M S M, ANISI Y, et al. A general review of human face detection including a study of neural networks and haar feature-based cascade classifier in face detection[C]//2014 International Symposium on Biometrics and Security Technologies, Kuala Lumpur, Malaysia, 2014: 73-78.

[12] VIOLA P A, JONES M J. Rapid object detection using a boosted cascade of simple features[C]//Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition,Kauai,USA,2001:511-518.

[13] LIENHART R, KURANOV A, PISAREVSKY V. Empirical analysis of detection cascades of boosted classifiers for rapid object detection[C]//Pattern Recognition: 25th DAGM Symposium,Magdeburg, Germany, 2003: 297-304.

[14] PAGNUTTI M, RYAN R E, CAZENAVETTE G, et al. Laying the foundation to use Raspberry Pi 3 V2 camera module imagery for scientific and engineering purposes [J]. Journal of Electronic Imaging, 2017, 26(1):013014.

Low-Computation heartbeat detection based on facial video

Abstract: Heartbeat detection based on facial videos can enhance the credibility of facial recognition technology, enabling applications in military domains such as countering facial disguises, distinguishing between real and fake targets, and identifying forged videos. However, existing video-based heartbeat detection algorithms suffer from high computational complexity, limiting their real-time applicability under low computational capabilities. In this paper, the algorithm principles and the time delay of key steps are analyzed, and two low-complexity algorithms based on interpolation are proposed:the RGB-FFT algorithm and the RGB-ICA-FFT algorithm. Through testing, it is found that the interpolated RGB-FFT algorithm has the lowest computational complexity at a frame rate of 5 fps. The interpolated RGB-ICA-FFT algorithm achieves comparable accuracy to the RGB-ICA-FFT algorithm at a frame rate of 15 fps, but with a 61% reduction in computational complexity.

Keywords: heartbeat detection; face recognition;independent component analysis

猜你喜歡
人臉識(shí)別
人臉識(shí)別 等
揭開人臉識(shí)別的神秘面紗
人臉識(shí)別技術(shù)的基本原理與應(yīng)用
電子制作(2019年14期)2019-08-20 05:43:34
人臉識(shí)別技術(shù)在高速公路打逃中的應(yīng)用探討
基于(2D)2PCA-LBP 的人臉識(shí)別方法的研究
電子制作(2017年17期)2017-12-18 06:40:55
淺談人臉識(shí)別技術(shù)
人臉識(shí)別在高校安全防范中的應(yīng)用
電子制作(2017年1期)2017-05-17 03:54:46
巡演完美收官 英飛拓引領(lǐng)人臉識(shí)別新潮流
人臉識(shí)別在Android平臺(tái)下的研究與實(shí)現(xiàn)
基于Metaface字典學(xué)習(xí)與核稀疏表示的人臉識(shí)別方法
主站蜘蛛池模板: 97青草最新免费精品视频| 色天堂无毒不卡| 毛片视频网| 乱人伦中文视频在线观看免费| 欧美丝袜高跟鞋一区二区| 精品三级在线| 久久国产精品影院| 91丨九色丨首页在线播放| 亚洲91精品视频| 成人一级免费视频| 欧美日本中文| 久久精品人人做人人综合试看| 亚洲va欧美va国产综合下载| 精品亚洲麻豆1区2区3区| 制服丝袜国产精品| 狠狠色香婷婷久久亚洲精品| 亚洲欧美不卡| 久久伊人色| 国产午夜无码专区喷水| 国产麻豆精品手机在线观看| 国产精品原创不卡在线| 人人澡人人爽欧美一区| 国产女人18毛片水真多1| 午夜欧美在线| 依依成人精品无v国产| 国产精品无码AV中文| 91久久夜色精品国产网站| 亚洲精品人成网线在线| 欧美人人干| 国产成人区在线观看视频| 免费激情网址| a级免费视频| www中文字幕在线观看| 国产一级α片| 国产屁屁影院| 青青草91视频| 九九热精品免费视频| 日韩不卡高清视频| 日韩人妻少妇一区二区| 国产亚洲精品资源在线26u| 国产精品一区在线观看你懂的| 欧美在线导航| 国产91高跟丝袜| 嫩草影院在线观看精品视频| 伊人久久久大香线蕉综合直播| 国产99在线| 成人福利免费在线观看| 国产视频自拍一区| 青青久在线视频免费观看| 4虎影视国产在线观看精品| 久久免费看片| 九九久久精品免费观看| 伊人色天堂| 亚洲天堂网视频| 日韩亚洲综合在线| 亚洲天堂视频网| 香蕉久久永久视频| 99偷拍视频精品一区二区| 99久久精彩视频| 亚洲欧美综合另类图片小说区| 久久精品一卡日本电影| 亚洲免费黄色网| 玩两个丰满老熟女久久网| 少妇露出福利视频| 无码 在线 在线| 国产精品嫩草影院av| 中文字幕在线欧美| 亚欧成人无码AV在线播放| 国产精品尤物在线| 欧亚日韩Av| 日韩久久精品无码aV| 免费国产不卡午夜福在线观看| 午夜一区二区三区| 国产成人精品男人的天堂下载 | 亚洲AV无码久久天堂| 2020国产精品视频| 亚洲精品自拍区在线观看| 国产极品美女在线观看| 亚洲国产成人精品无码区性色| 国产女人水多毛片18| 亚洲国产天堂久久综合226114| 国产18页|