999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于CNN-GRU 和注意力機(jī)制的人體行為識別算法

2025-03-02 00:00:00周巧扣
電腦知識與技術(shù) 2025年1期
關(guān)鍵詞:深度學(xué)習(xí)

摘要:針對傳感器體積小、計(jì)算能力有限以及收集數(shù)據(jù)通常表現(xiàn)為連續(xù)信號的特征,文章提出了一種基于CNN-GRUAttention的人體行為識別算法。該算法結(jié)合了卷積神經(jīng)網(wǎng)絡(luò)的空間特征提取能力和循環(huán)神經(jīng)網(wǎng)絡(luò)的時(shí)序特征提取能力,并采用結(jié)構(gòu)相對簡單的GRU,在解決時(shí)序數(shù)據(jù)長期依賴問題的同時(shí)減少了參數(shù),從而降低了算法對硬件計(jì)算能力的依賴。此外,算法還引入了注意力機(jī)制模塊,使其更加關(guān)注重要信息。在WISDM數(shù)據(jù)集上進(jìn)行的對比實(shí)驗(yàn)表明,該算法在人體行為識別方面表現(xiàn)優(yōu)異,準(zhǔn)確率達(dá)到98.46%,并在精準(zhǔn)率、召回率和F1-Score等性能指標(biāo)上均取得了顯著成果。

關(guān)鍵詞:人體行為識別;CNN;GRU;注意力機(jī)制;傳感器數(shù)據(jù);深度學(xué)習(xí)

中圖分類號:TP181 文獻(xiàn)標(biāo)識碼:A

文章編號:1009-3044(2025)01-0041-04 開放科學(xué)(資源服務(wù)) 標(biāo)識碼(OSID) :

0 引言

人體行為識別(Human Activity Recognition, HAR) 是一種通過機(jī)器學(xué)習(xí)和模式識別技術(shù)來自動(dòng)識別和分析人類行為的方法。其應(yīng)用領(lǐng)域廣泛,涵蓋公共安全、智能手機(jī)與移動(dòng)支付、交通管理、醫(yī)療健康等[1]。HAR 通過從人體相關(guān)數(shù)據(jù)中提取特征,將特征輸入機(jī)器學(xué)習(xí)模型中進(jìn)行分類,從而實(shí)現(xiàn)對人體行為的識別。

目前,人體行為識別的數(shù)據(jù)來源主要包括視頻圖像、傳感器和Wi-Fi數(shù)據(jù)。與視頻圖像數(shù)據(jù)和Wi-Fi 數(shù)據(jù)相比,基于傳感器數(shù)據(jù)的人體行為識別研究更受關(guān)注,因?yàn)樗灰资墉h(huán)境因素的影響,且能夠更好地保護(hù)個(gè)人隱私。近年來,國內(nèi)外學(xué)者在基于傳感器數(shù)據(jù)的人體行為識別領(lǐng)域取得了一系列成果,例如基于PCA和SVM-HMM的混合模型[2]、基于深度學(xué)習(xí)的多特征融合方法[3]、基于LSTM的多傳感器數(shù)據(jù)融合方法[4]、基于CNN-LSTM的混合模型[5]等。

然而,現(xiàn)有研究方法仍面臨一些挑戰(zhàn),例如提取特征尺度單一、深度學(xué)習(xí)模型計(jì)算復(fù)雜度較高、與傳感器計(jì)算能力不匹配等。為了解決這些問題,本文提出了一種基于CNN-GRU和注意力機(jī)制的人體行為識別算法。該算法結(jié)合了CNN的空間特征提取能力、GRU的時(shí)序特征提取能力以及注意力機(jī)制關(guān)注重要信息的能力,能夠更加高效、準(zhǔn)確地識別復(fù)雜的人體行為。

1 關(guān)鍵技術(shù)

1.1 GRU

門控循環(huán)單元(Gated Recurrent Unit, GRU) 是循環(huán)神經(jīng)網(wǎng)絡(luò)的一種實(shí)現(xiàn)[6]。與LSTM類似,GRU也旨在解決傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)中的梯度消失和梯度爆炸問題,從而使網(wǎng)絡(luò)能夠更好地處理長期依賴關(guān)系。在LSTM中包含三個(gè)控制門:輸入門、遺忘門以及輸出門,每個(gè)門都有獨(dú)立的記憶單元,用于控制信息的流動(dòng)。而在GRU中只包含2個(gè)門:更新門和重置門,使用更新門代替LSTM 中的輸入門和遺忘門。因此,GRU結(jié)構(gòu)更加簡單、參數(shù)較少,訓(xùn)練速度較快,更加適合計(jì)算資源有限的場景。

GRU 的結(jié)構(gòu)如圖1 所示,其主要包括輸入變量Xt、門控隱狀態(tài)Ht、重置門Rt、更新門Zt、候選隱狀態(tài)H?t以激活函數(shù)和運(yùn)算符。圖1中σ 表示Sigmoid函數(shù),⊕ 表示相加,?表示按元素乘積。

對于當(dāng)前時(shí)間步t,重置門Rt 用于控制在加工輸入信息時(shí)上一步隱狀態(tài)所占的比例。當(dāng)Rt 接近0時(shí),新輸入的信息Xt 占主導(dǎo)地位,表示當(dāng)前的輸入包含的信息與前面的信息關(guān)聯(lián)性很小;當(dāng)Rt 接近1時(shí),新輸入的信息和前面的長期信息具有較大的關(guān)聯(lián)性。更新門Zt 決定了如何將前面信息與當(dāng)前的信息進(jìn)行結(jié)合,控制前面信息的保留程度。Zt 值為0表示完全忽略之前的信息,值為1表示完全保留之前的信息。重置門Rt和更新門Zt的計(jì)算公式如下所示:

Rt = σ(XtWxr + Ht - 1Whr + br ) (1)

Zt = σ(XtWxz + Ht - 1Whz + bz ) (2)

式中:Wxr,Wxz 分別為計(jì)算Rt 和Zt 時(shí)輸入變量對應(yīng)的權(quán)重參數(shù),Whr,Whz 分別為計(jì)算Rt 和Zt 時(shí)隱藏單元對應(yīng)的權(quán)重參數(shù),br,bz 是偏置參數(shù),使用Sigmoid函數(shù)將輸入值轉(zhuǎn)換到區(qū)間(0,1)。隱狀態(tài)H?t 的計(jì)算公式如下所示:

H?t = tanh (XtWxh + (R ) t ? Ht - 1 Whh + bh ) (3)

式中:Wxh,Whh 為權(quán)重參數(shù),bh 為偏置項(xiàng)。使用tanh激活函數(shù)確保候選隱狀態(tài)中的值保持在區(qū)間(-1,1)中。最后輸出Ht的計(jì)算公式如下:

Ht = Zt ? Ht - 1 + (1 - Zt ) ? H?t (4)

當(dāng)更新門Zt 接近1時(shí),模型傾向于保留舊狀態(tài)。此時(shí)來自本步輸入Xt 的信息基本上被忽略,從而有效地跳過了依賴鏈條中的時(shí)間步t。相反,當(dāng)Zt接近0時(shí),新的隱狀態(tài)Ht 將接近候選隱狀態(tài)H?t。GRU的這種結(jié)構(gòu)可以很好地處理循環(huán)神經(jīng)網(wǎng)絡(luò)中的梯度消失問題,并更好地捕獲時(shí)間步距離較長的序列的依賴關(guān)系。

1.2 注意力機(jī)制

注意力機(jī)制(Attention Mechanism) 是深度學(xué)習(xí)領(lǐng)域中的一個(gè)重要概念,最早應(yīng)用于自然語言處理領(lǐng)域,用于改進(jìn)序列到序列模型的性能。該機(jī)制允許模型在處理輸入序列的不同部分時(shí),能夠更加關(guān)注重要部分,而不是平等對待所有輸入元素。其核心計(jì)算公式如下所示:

式中:Q、K、V分別表示查詢向量、鍵向量和值向量,由輸入序列中的元素經(jīng)過線性變換獲得。如果沒有給定鍵向量,則默認(rèn)為鍵向量等于值向量。對于序列中的每個(gè)元素,計(jì)算查詢向量與所有其他元素的鍵向量之間的相似度。根據(jù)相似度的結(jié)果,為每個(gè)元素分配一個(gè)權(quán)重,該權(quán)重通過 SoftMax 函數(shù)計(jì)算得到。對于序列中的每個(gè)元素,將其值向量與對應(yīng)的權(quán)重相乘,然后將所有元素的加權(quán)求和結(jié)果進(jìn)行拼接,得到最終的輸出向量。注意力機(jī)制能夠更加專注于關(guān)鍵信息,從而提升模型的精度和效率。

2 CNN-GRU-Attention 算法

算法中的神經(jīng)網(wǎng)絡(luò)模型主要包含1層輸入層、2 層 1維卷積層、1層最大池化層、1層批量標(biāo)準(zhǔn)化層、2 層GRU層、1層Attention 層和1層全連接層。具體的結(jié)構(gòu)以及各層輸入輸出數(shù)據(jù)的形狀如圖2所示。

算法的詳細(xì)設(shè)計(jì)思路如下:

1) 將輸入層的數(shù)據(jù)傳給第 1 個(gè) 1 維卷積層,該層的卷積核大小設(shè)置為 5、卷積核數(shù)量設(shè)置為 64,用于提取數(shù)據(jù)中的空間特征,輸出數(shù)據(jù)的形狀為 (None,90, 64);

2) 將第 1 個(gè)卷積層的數(shù)據(jù)傳給最大池化層,該層的池化窗口設(shè)置為 5、步長設(shè)置為 2,對數(shù)據(jù)進(jìn)行降維,輸出數(shù)據(jù)的形狀為(None, 45, 64);

3) 將池化后的數(shù)據(jù)傳給第2個(gè)1維卷積層,該層的卷積核數(shù)量設(shè)置為32,再次提取數(shù)據(jù)的空間特征,輸出數(shù)據(jù)的形狀為(None, 45, 32);

4) 將第2次卷積后的數(shù)據(jù)傳給批量標(biāo)準(zhǔn)化層,其作用是提高模型的穩(wěn)定性,同時(shí)減少過擬合的風(fēng)險(xiǎn);

5) 將批量標(biāo)準(zhǔn)化層的數(shù)據(jù)傳給第1個(gè) GRU 層,該層的輸出維度設(shè)置為16,用于提取數(shù)據(jù)的時(shí)序特征,輸出數(shù)據(jù)的形狀為(None, 45, 16),輸出數(shù)據(jù)分別作為 Attention 層中的查詢向量和值向量;

6) 將上層輸出的查詢向量和值向量輸入 Atten?tion 層,提取數(shù)據(jù)中的重要信息;

7) 將 Attention 層的數(shù)據(jù)傳給第 2 個(gè) GRU 層,再次提取數(shù)據(jù)的時(shí)序特征;

8) 最后將數(shù)據(jù)傳給全連接層,該層的激活函數(shù)為SoftMax,輸出各種行為的概率。

3 實(shí)驗(yàn)及結(jié)果分析

3.1 數(shù)據(jù)集

實(shí)驗(yàn)中采用的是WISDM(Wireless Sensor DataMining) 數(shù)據(jù)集,該數(shù)據(jù)集由美國福特漢姆大學(xué)的無線傳感器數(shù)據(jù)挖掘?qū)嶒?yàn)室創(chuàng)建,可通過該大學(xué)提供的URL 下載。數(shù)據(jù)集中總共包含 1 098 207 個(gè)樣本,收集了36個(gè)用戶的6種行為數(shù)據(jù),包括:走路(Walking) 、慢跑(Jogging) 、上樓(Upstairs) 、下樓(Downstairs) 、坐(Sitting) 和站立(Standing) 。數(shù)據(jù)采樣頻率為 20Hz,傳感器類型為加速度傳感器,測試場景為智能手機(jī)放置在衣兜中,用戶在完成各種行為時(shí)收集數(shù)據(jù)。

各類行為的比例分布為:Walking(38.6%) 、Jogging(31.2%) 、Upstairs(11.2%) 、Downstairs(9.1%) 、Sitting(5.5%) 、Standing(4.4%) 。每條數(shù)據(jù)樣本包含以下字段:用戶編號、行為動(dòng)作、時(shí)間戳、x 軸加速度值、y 軸加速度值和 z 軸加速度值。

3.2 數(shù)據(jù)預(yù)處理

3.2.1 數(shù)據(jù)標(biāo)準(zhǔn)化

不同的特征通常具有不同的尺度,具有更大尺度的特征可能會(huì)主導(dǎo)模型的訓(xùn)練,導(dǎo)致模型對其他特征的敏感度降低。為了使模型能夠更好地學(xué)習(xí)數(shù)據(jù),通常需要對數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化。文中采用 Z-Score 標(biāo)準(zhǔn)化方法,其計(jì)算公式如下所示:

Z = (X - μ )/s (6)

式中:X 為輸入樣本,μ 為樣本均值,s 為樣本標(biāo)準(zhǔn)差。通過這個(gè)公式,可以將不同量級的數(shù)據(jù)轉(zhuǎn)化為統(tǒng)一度量的Z-Score分值進(jìn)行比較,提高數(shù)據(jù)的可比性。

3.2.2 數(shù)據(jù)分割

傳感器數(shù)據(jù)是隨時(shí)間不間斷的連續(xù)信號,一段時(shí)間的數(shù)據(jù)序列代表一個(gè)行為動(dòng)作。為了識別不同的行為,需要對連續(xù)的信號進(jìn)行分割,通常采用固定長度的滑動(dòng)窗口法進(jìn)行分割。其原理為:設(shè)置一個(gè)固定長度的窗口,按窗口的長度提取不同時(shí)間段的時(shí)序數(shù)據(jù),然后沿著時(shí)間軸滑動(dòng)窗口,重復(fù)提取數(shù)據(jù)。連續(xù)兩次提取數(shù)據(jù)的窗口的重疊部分與窗口長度的比率稱為重疊率。實(shí)驗(yàn)中,滑動(dòng)窗口的大小設(shè)置為 90,重疊率設(shè)置為 20%。經(jīng)過分割處理后的數(shù)據(jù)形狀為:(54 906, 90, 3) ,其中 54 906 表示數(shù)據(jù)樣本數(shù),90 表示固定窗口長度,3 表示加速度傳感器的3個(gè)數(shù)值(x、y 和 z 軸加速度) 。

3.3 性能指標(biāo)

實(shí)驗(yàn)中采用了評估分類算法時(shí)常用的性能指標(biāo):準(zhǔn)確率、精準(zhǔn)率、召回率以及 F1-Score。

準(zhǔn)確率(Accuracy) 表示正確分類的樣本數(shù)與總樣本數(shù)的比例,其計(jì)算公式如下:

Accuracy = TP + TN/TP + TN + FP + FN (7)

式中:TP 為真正例:樣本為正例被正確預(yù)測為正例;TN 為真反例:預(yù)測為負(fù)樣本,真實(shí)也為負(fù)樣本;FP為假正例:樣本反例被錯(cuò)誤預(yù)測為正例;FN 為假反例:樣本正例被錯(cuò)誤預(yù)測為反例。

精準(zhǔn)率(Precision) 表示預(yù)測為正例的樣本中真正例的比例,其計(jì)算公式如下:

Precision = TP/TP + FP (8)

召回率(Recall) 表示正確識別的正例占所有實(shí)際正例的比例,其計(jì)算公式如下:

Recall = TP/TP + FN (9)

F1-Score表示精準(zhǔn)率和召回率的調(diào)和平均數(shù),用于衡量模型的平衡性能,其計(jì)算公式如下:

F1 = 2 × Precision × Recall/Precision + Recall (10)

3.4 對比實(shí)驗(yàn)

將 CNN-GRU-Attention 算法與 CNN、GRU 以及CNN-GRU 進(jìn)行對比實(shí)驗(yàn)。實(shí)驗(yàn)中,將總數(shù)據(jù)樣本的20% 作為測試集,剩余部分作為訓(xùn)練集。學(xué)習(xí)率設(shè)置為 0.002 5,遍歷次數(shù)(epoch) 設(shè)置為 10,批次大?。╞atch_size) 設(shè)置為 64。

不同算法訓(xùn)練時(shí)的損失率和準(zhǔn)確率的變化如圖3 和圖 4 所示。經(jīng)過 10 個(gè) epoch 的訓(xùn)練,幾種算法的準(zhǔn)確率分別為:CNN-GRU-Attention:98.46%;CNNGRU:97.43%;CNN:96.95%;GRU:94.16%。

可以發(fā)現(xiàn),包含 CNN 的算法比單純的 GRU 算法性能更優(yōu)。這可能是因?yàn)樵跀?shù)據(jù)預(yù)處理時(shí)損失了一些時(shí)序性,使得 GRU 的時(shí)序特征提取能力未能得到充分利用,而 CNN 和 GRU 的組合能夠更有效地提取數(shù)據(jù)特征。此外,Attention 機(jī)制的加入對改善模型性能起到了顯著作用。

使用 CNN-GRU-Attention 算法對測試集中的數(shù)據(jù)進(jìn)行分析,各種行為分類的性能比較如表 1 所示。算法對絕大多數(shù)行為能夠很好地識別,在精準(zhǔn)率、召回率以及 F1-Score 等性能指標(biāo)上表現(xiàn)出較好的效果。只是對于上樓和下樓行為的識別性能稍低,這可能是因?yàn)檫@兩種行為在傳感器數(shù)據(jù)上的特征較為相似。

4 結(jié)束語

本文對基于傳感器數(shù)據(jù)的人體行為識別算法進(jìn)行了研究,分析了人體行為識別技術(shù)的巨大應(yīng)用價(jià)值以及相關(guān)的研究方法。提出了一種結(jié)合 CNN、GRU 和 Attention 的算法,詳細(xì)介紹了算法中的關(guān)鍵技術(shù)以及神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。在神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中,使用 GRU 替代 LSTM 降低了算法的復(fù)雜度,加入批量標(biāo)準(zhǔn)化層提升了算法的穩(wěn)定性,引入注意力機(jī)制進(jìn)一步提升了算法的行為識別性能。

實(shí)驗(yàn)記錄了算法訓(xùn)練過程中的損失率和準(zhǔn)確率變化情況,結(jié)果表明該算法在模型的訓(xùn)練速度和準(zhǔn)確率上具有較好的性能,同時(shí)在其他性能指標(biāo)上也表現(xiàn)出優(yōu)異的效果。

下一步工作將從以下兩個(gè)方面展開:

1) 改進(jìn)傳感器數(shù)據(jù)的分割方法,減少對數(shù)據(jù)中時(shí)序特征的破壞,從而充分發(fā)揮 GRU 的性能。

2) 優(yōu)化神經(jīng)網(wǎng)絡(luò)模型,減少模型中的參數(shù),進(jìn)一步降低算法的復(fù)雜度,使算法更好地適應(yīng)基于傳感器數(shù)據(jù)的人體行為識別場景。

參考文獻(xiàn):

[1] 楊觀賜,李楊,趙樂,等.基于傳感器數(shù)據(jù)的用戶行為識別方法綜述[J].包裝工程,2021,42(18):94-102,133.

[2] ABIDINE M B,F(xiàn)ERGANI B,MENHOUR I.Activity recognitionfrom smartphones using hybrid classifier PCA-SVM-HMM[C]//2019 International Conference on Wireless Networks and Mo?bile Communications (WINCOM). October 29 - November 1,2019,F(xiàn)ez,Morocco.IEEE,2019:1-5.

[3] 郭毅博,孟文化,范一鳴,等.基于可穿戴傳感器數(shù)據(jù)的人體行為識別數(shù)據(jù)特征提取方法[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2021,33(8):1246-1253.

[4] 張俊,李昌.基于LSTM多傳感器數(shù)據(jù)融合人體行為識別方法[J].蕪湖職業(yè)技術(shù)學(xué)院學(xué)報(bào),2021,23(2):32-35.

[5] ORDó?EZ F J,ROGGEN D.Deep convolutional and LSTM re?current neural networks for multimodal wearable activity recog?nition[J].Sensors,2016,16(1):115.

[6] CHUNG J,GULCEHRE C,CHO K,et al.Empirical evaluation ofgated recurrent neural networks on sequence modeling[EB/OL].[2024-06-23].arXiv preprint arXiv:1412.3555, 2014.

【通聯(lián)編輯:唐一東】

基金項(xiàng)目:2022 年高校哲學(xué)社會(huì)科學(xué)研究一般項(xiàng)目(2022SJYB2365) ;2022 年江蘇省高校“高質(zhì)量公共課教學(xué)改革研究”專項(xiàng)課題(2022JDKT080)

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
基于自動(dòng)智能分類器的圖書館亂架圖書檢測
搭建深度學(xué)習(xí)的三級階梯
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
主站蜘蛛池模板: 怡红院美国分院一区二区| 在线观看热码亚洲av每日更新| 国产人成乱码视频免费观看 | a国产精品| 精品国产电影久久九九| 伊人狠狠丁香婷婷综合色 | 中文字幕有乳无码| 成人91在线| 91国内外精品自在线播放| 久久美女精品国产精品亚洲| 亚洲热线99精品视频| 国产精品漂亮美女在线观看| 无码精品国产dvd在线观看9久 | 国产青榴视频| 91免费片| 另类欧美日韩| 特级毛片免费视频| 成人午夜久久| 91丝袜乱伦| 亚洲高清在线天堂精品| V一区无码内射国产| 久草视频中文| 亚洲中文字幕无码mv| 亚洲天堂免费| 亚洲一区二区三区中文字幕5566| 浮力影院国产第一页| 国产午夜精品一区二区三区软件| 久久女人网| 国产色伊人| 青青青国产在线播放| 少妇精品网站| 久无码久无码av无码| 久久a级片| 久久青草免费91观看| 尤物亚洲最大AV无码网站| 国产成在线观看免费视频| 黄色在线网| 怡春院欧美一区二区三区免费| 91毛片网| 无码精品福利一区二区三区| 凹凸国产熟女精品视频| 国产高颜值露脸在线观看| 狠狠亚洲婷婷综合色香| 国产精品午夜福利麻豆| 国产95在线 | 国产欧美日韩18| 高清久久精品亚洲日韩Av| 福利姬国产精品一区在线| 中文成人在线| 国产亚洲精品91| 国产日韩欧美视频| 久青草国产高清在线视频| 热思思久久免费视频| 亚洲欧美极品| 欧美在线天堂| 丝袜国产一区| 国产高清无码麻豆精品| 久久精品中文字幕少妇| 区国产精品搜索视频| 欧洲精品视频在线观看| 国产成人免费高清AⅤ| 国产精品手机在线观看你懂的 | 国产香蕉国产精品偷在线观看| 国产一级在线播放| 久久福利片| 免费A级毛片无码免费视频| a毛片在线免费观看| 一本久道热中字伊人| 日韩中文精品亚洲第三区| 永久免费AⅤ无码网站在线观看| 亚洲视频欧美不卡| 91口爆吞精国产对白第三集| 国产精品亚洲αv天堂无码| 日韩av电影一区二区三区四区| 日本手机在线视频| 一边摸一边做爽的视频17国产| 99久久国产综合精品2023| 超薄丝袜足j国产在线视频| 国产成人精品亚洲77美色| 欧美一级在线看| 国产不卡网| 波多野结衣在线se|