中圖分類號:TP391.4 文獻標志碼:A 文章編號:2095-2945(2025)18-0009-08
Abstract:Humanactionrecognition(HAR)basedonChannel State Information(CSI)hassignificantappicationprospectsin feldssuchashuman-computerinteraction,healthcare,andintrusiondetection.Althoughcurentresearchhasmadesubstantial progressinrecognizingvarioustypesofactivitesandimprovingrecognitionaccracy,challengesremainintheneedforalarge numberofactivitysamplestotrainmodels,andinimprovingthereal-timeperformaneoftherecognitionprocessToaddress theseissues,areal-time humanactionrecognition(HAR)system,CSI-FHAR,isdesignedbasedondataaugmentation.By augmentingasmallnumberofreal samples to generatesyntheticsamples,thesystemreduces thedemandforreal samples during modeltraning.Aditioallbysegmentingcompleteactivitysamples,therecogitionspeedisincreased,ehancingal-ie performance.Toincreasetheinter-classfeaturediferences,CSI-FHARaddstemporalencodingtotheactivitysamples,tereby improvingthemodelsrecognitionacuracy.Theconvolutionalblockatentionmodule(CBAM)isembeddedintheconvolutional neuralnetwork(CNN)tofurtherenhancethenetwork'sabilitytoextractefectivefeaturesfromactivitysamples.Experimental resultsemonstratetheefectivenessofCSI-FHAR:withonlyfivesamplesperactivityclassfor1typesofactites,the proposed model achieved recognition accuracies of 95.1% for gestures and 92.5% for full-body activities.
Keywords:humanactionrecognition(HAR);channelstateinformation;dataenhancement;temporalcoding;aention mechanism
人體動作識別(Human Activity Recognition,HAR)技術在人機交互、醫療健康、智能家居和日常行為檢測等領域獲得了廣闊的應用。與基于計算機視覺、專用傳感器以及紅外感知的人體動作識別技術等相比,基于Wi-Fi信號的人體動作識別技術具有不侵犯隱私、不受光線影響、部署廣泛等優勢。此技術所使用的信號主要包括接收信號強度指示(ReceivedSignalStrengthInformation,RSSI)和信道狀態信息(Channel
StateInformation,CSI)3-4。RSSI信號屬于無線連接層,它是來自不同信道子載波的總和。將所有子載波簡單疊加在一起的操作破壞了不同子載波各自攜帶的信息,導致RSSI信號無法提供細粒度的表示。相比于RSSI信號,CSI信號具有更細的粒度和敏感度,能夠感知到信道更微小的變化,因此它在呼吸-手勢[8-幅度較小的動作識別領域有更好的識別準確率,使用CSI信號進行人體動作識別逐漸成為學者們的研究熱點。
在早期的研究工作中,研究人員依靠機器學習方法人工提取信號中的特征,可使用的特征包括時域特征、頻域特征、統計特征和多普勒頻移特征等,以此訓練識別模型。隨著深度學習技術的快速發展,越來越多的神經網絡被用于自動提取動作樣本蘊含的顯式與隱式特征,大大解放了繁雜的人工提取特征過程。CLAR[應用奇異譜分析(SSA)提取動作樣本的趨勢成分,并結合雙向長短期記憶網絡建立基于集成學習的模型,實現了房間尺度下無設備跨位置的活動識別。Sheng等使用2個卷積神經網絡分別提取CSI信號振幅的時間和空間特征,實現了彎腰、拍手等6種動作的分類。雖然這些基于機器學習的方法在人體動作識別上取得了良好的效果,但是由于多徑效應的影響,場景的變化可能會導致同一動作的CSI信號呈現較大的差異,在發生變化的場景或新場景中進行動作識別,已有模型的識別精度可能會明顯下降甚至導致模型不能正常使用,需要重新采集CSI動作樣本來訓練新模型。新場景下可提供的動作樣本數量無法得到保證,如何降低訓練新模型所需的樣本數量是目前急需解決的問題,一些研究者使用遷移學習和少樣本學習方法在一定程度上提高了對已有動作樣本或模型的利用率。
遷移學習方法通常將已識別的場景稱為源域,未識別的場景稱為目標域。Fang等12使用全卷積神經網絡設計了可以跨場景的HAR系統WiTransfer,通過來自目標域的CSI動作樣本微調源域訓練的模型參數,新模型對目標域中動作的識別準確率可以達到 90% 以上。TransferSense[13通過將CSI的幅度和相位信息相結合來增加特征數量,并融合從預訓練卷積神經網絡中提取的低級和高級語義特征,在目標域中應用少量標記樣本的遷移學習方法進行跨域感知,可以降低目標域的數據收集成本。Khan等4提出的一種基于遷移學習的活動識別模型,使用源域中的標注樣本訓練深度自動編碼器,通過使用未標注的樣本進行微調來減少域間差異,并采用結構模式映射技術通過最大均值差異最小化過程優化類內-類間距離。該方法在目標域中僅依賴有限的標注樣本,并在3個真實數據集上驗證了該方法的有效性和適用性。
小樣本學習方法也可以緩解訓練模型對新動作樣本數量的需求。Shi等15提出了增強信道狀態信息匹配網絡(MatNet-eCSI)來促進HAR的few-shot學習,他們的訓練數據包括已有環境下一個動作數據集和新環境下7類動作、每類動作5個樣本,在辦公室和實驗室環境中的識別準確率分別達到 88.1% 和92.3% 。ML-DFGR是一種基于度量元學習的手勢識別系統,它使用少量的樣本就能夠識別新場景中的新手勢。ML-DFGR使用已有的手勢數據集來預訓練模型。當每個新手勢只提供1個樣本時,對于10類和50類新手勢的識別準確率分別達到 97.6% 和 89.5% 。上述研究顯示了采用小樣本學習方法的HAR模型對于識別新動作的有效性,同時對新類別動作樣本需求量較少。但是新動作的種類數量增多導致識別率明顯降低,例如在ML-DFGR中,當測試集的新動作種類從10類增加到50類,模型的識別準確率從 97.6% 降低到 89.5% 。當學習的動作種類從11類增加到20類,Zhang等的模型識別準確率從 86.5% 下降到 72.2% 。
在人體動作識別技術的實際應用中,除了需要應對新場景中可提供的動作樣本數量不足的難題之外,還需要提高識別動作的實時性。在AR游戲,遠程醫療等領域中,實時性能是評價動作識別系統的重要指標之一。
為了解決上述問題,本文提出了一個基于數據增強且實時性較高的人體動作識別系統。通過設計的樣本增強方法,利用已有的真實樣本合成偽樣本以擴大訓練集的規模、減少對新樣本數量的需求。將完整的動作樣本劃分為幾個等長的片樣本,使用片樣本訓練模型,在測試階段不需要識別整個動作樣本,每識別一個片樣本即可輸出結果,以此提高動作識別的實時性。通過人為給動作樣本添加時間編碼可以增加各動作之間的特征差異,從而提高模型的識別精度。不同動作存在相似的特征,對動作樣本進行分片可能會導致系統誤分類的情況,添加時間編碼有助于減少這種情況的發生。此外,本文還給神經網絡添加卷積注意力模塊CBAM,進一步提升網絡的特征提取能力。為了驗證所提模型的有效性,在手勢數據集SignFi和自制的身體動作數據集上進行了實驗。在學習10類動作,每類動作只提供5個樣本的條件下,所提模型對手勢和身體動作的識別精度分別達到了 95.1% 和 92.5% 。
1預備知識
1.1 CSI概述
IEEE 802.11ln 標準定義了在接收端和發送端之間傳遞信號的機制。CSI代表了信號在傳輸過程中所
產生的時延、幅度衰減以及相位偏移等變化。假設發送端信號為 x ,接收端信號為 y ,那么有
y=H.x+n
式中: n 為噪聲向量, ??H 為信道矩陣。信道狀態信息CSI就是對 H 的估計。對于單個子載波,CSI的形式如下
h=|h|ejsinβ
式中: |h| 和 β 分別代表了CSI信號的幅度和相位。
CSI的幅度和相位都包含了豐富的人體動作特征信息,它們各自都可以被用于人體動作識別。本文使用的是CSI的振幅信息。本文部署了1個發射天線和3個接收天線,因此可以采集3個信道上的CSI信號。此外,每個信道有30個子載波,所以CSI矩陣如下所示

式中: hi,j 表示第 i 個接收天線的第 j 個子載波。
1.2 卷積神經網絡
第一個卷積神經網絡(CNN)誕生于1987年,由AlexanderWaibel等提出。隨著深度學習理論的不斷深入和硬件設備的迭代更新,CNN獲得了快速發展,并廣泛應用在圖像處理和自然語言處理等領域。它和循環神經網絡(RNN)常用于深度學習領域中,二者擁有各自的優點,所以適用的領域也不相同。
CNN適合處理具有類似網格結構的數據,它通常至少在網絡的一層中使用卷積運算來替代一般的矩陣乘法運算。CNN的基本結構一般包括以下幾個部分:卷積層、池化層、激活函數層和全連接層等。RNN適合處理時間序列數據,它的輸出需要參考以前的信息。RNN網絡的輸出不僅取決于當前時刻輸入的特征信息,而且還受到前一時刻隱藏層輸出的影響1,這種輸出模式雖然帶來了處理時序數據的優勢,但是也導致當前時刻的輸出必須在前一時刻運算完畢后才能進行。比如處理翻譯任務,RNN嚴格按照順序進行翻譯工作,每次只處理一個單詞,這種嚴格按照時序的工作模式無法充分發揮GPU的并行處理能力,導致運行速度比CNN慢很多。雖然CSI是時間序列數據,但是處理時間是人體動作識別任務中的一個重要評價指標,而且CNN通過權值共享運行時不需要大量的存儲資源,所以本文使用能充分利用計算資源進行高速運算的CNN。
2 系統設計
2.1 系統結構
圖1展示了本文設計的人體動作識別模型CSI-FHAR的系統結構圖,其中包括采集樣本、數據增強和訓練模型。首先,無線路由器和電腦分別作為發送(AP)和接收設備(RP)實現CSI動作樣本的采集任務。接著經過濾波和采樣等預處理后樣本被送人數據增強模塊,通過設計的樣本增強方法合成偽樣本。為已有動作樣本添加時間編碼,以此提高不同動作之間的特征差異,同時也有利于降低樣本分片造成的相似片段的干擾。然后對當前樣本進行分片處理,每個完整的動作樣本被等分成若干個動作片段,這樣做不僅擴大了訓練集的樣本規模而且可以提高模型識別動作的實時性。最后將卷積注意力模塊CBAM嵌人CNN中,進一步提升神經網絡的特征提取能力。通過訓練集中的動作片段和CNN進行模型訓練,實現對測試集中動作片段的分類。

2.2 數據增強
2.2.1 樣本增強
為了模型降低對真實樣本數量的需求,我們需要通過采集的真實樣本生成偽樣本來擴充訓練所需的樣本集。常規的樣本增強方法會對動作樣本進行翻轉或者縮放等操作,但是翻轉或縮放CSI樣本在一定程度上會破壞樣本內在的時空特征,進而導致站立坐下和前進后退這些在時序上相反的動作更難區分,因此這類樣本增強方法不適用于基于CSI的人體動作識別領域。也有研究使用圖像處理領域中常用的生成對抗網絡來合成偽樣本,但是這種網絡合成的偽樣本質量非常依賴輸入的真實樣本數量,相比于圖像領域中每個類別可以提供成百上千張圖片,在基于CSI的人體動作識別領域中每類動作的樣本數量通常不超過20個,因此無法保證生成對抗網絡可以生成高質量的偽樣本來訓練模型。基于上述原因,本文設計了一種適用于CSI樣本的增強方法。假設某一類新動作可以提供 k 個真實樣本,任意選取其中2個樣本 A 和 B 并為它們各自附加隨機權重,最后添加高斯噪聲得到一個偽樣本 c 。如式(4)所示
C=αA+(1-α)B+nG,
式中:權重 α 和權重 n 的取值范圍分別為0到1和0到0.1,它們分別用于調整真實樣本和高斯噪聲的權重。添加高斯噪聲 G 可以提高模型的魯棒性。通過樣本增強方法,可以為每類動作生成 Ck2 個偽樣本。由于同類動作的真實樣本之間特征相似度較高,通過此方法獲得的偽樣本可以較好保留真實樣本的特征,生成過程如圖2所示。

2.2.2 時間編碼
為了充分利用CSI動作樣本中包含的時序特征,增加相似動作的類間特征差異,提高模型對動作識別準確率,CSI-FHAR為CSI動作樣本設計了時間編碼。考慮到時間編碼需要隨時間在一定范圍內上下波動,而不是隨時間線性增長。因此,CSI-FHAR設計的時間編碼采用了周期性的正弦函數和余弦函數,具體方法如式(5)所示

式中: Ψt,w,c 分別為時間序數、子載波和信道序數。式(5)中正弦和余弦函數相加也是一種周期函數,取值范圍從
到
,這樣可以避免時間編碼的數值過大。此外, c*w 變化會影響時間編碼的取值,以此提高網絡對于不同信道上子載波的區分度。
將動作樣本和相應的時間編碼直接相加,作為新的動作樣本用于訓練和測試識別模型。在被添加了時間編碼 P 后,CSI動作樣本的時域波形會發生一些細微的變化,然后引起局部時間特征的變化,進而導致不同動作的類間特征差異增大,便于區分站立和坐下、前進和后退這些在時間順序上相反的動作。此外,將時間編碼作為網絡的輸人可以使得神經網絡在經歷多次卷積后仍然能夠學習到初始的時間特征。
2.2.3 樣本切片
圖3展示了樣本切片的過程,使用滑動窗口將1
個完整的動作樣本分割成 k 個等長的樣本片段,然后這些樣本片段都被標注同一個類別標簽用于訓練或測試。

式中: l1 為滑動步長, l2 為窗口長度。將 l1 設置的比 l2 小一些,相比于 l1=l2 ,這樣可以使得每個動作片段多出一段長為 l2-l1 的樣本部分,它和相鄰片段共有這部分。在不改變片段長度的條件下,這么做有利于增加每個動作片段所包含的特征信息,進而優化模型的識別性能。

2.2.4 注意力模塊
注意力模塊CBAM由Woo等8提出,它包括一個通道注意模塊和一個空間注意模塊。將CBAM嵌入CNN中,它可以根據通道和空間維度推斷注意力權重,并將注意力權重與輸入特征矩陣相乘進行自適應特征優化,從而提高CNN的特征表達能力。圖4展示了注意力模塊CBAM的具體結構。

動作樣本的CSI數據 F 經過多個卷積塊的處理后,生成通道注意力塊的輸入 F? 。分別通過平均池化和最大池化操作得到2個通道的特征向量,它們都被輸人到多層感知器(MLP)中。給對應位置的特征向量添加MLP的輸出特征,并通過sigmoid函數激活它們以生成最終的通道注意力特征。對通道注意特征進行以下處理以得到空間注意模塊所需的輸入特征,如式(7)如示
F′=MC(F)?F,
式中: MC(F) 表示在通道注意力模塊中的處理過程,式(8)展示了它的詳細過程。

式中 :σ.AvgPool.MaxPool 分別表示激活函數、平均池化和最大值池化。
空間注意力模塊通過平均池化和最大池化對輸人特征 F′ 沿著通道維度進行壓縮,得到2個特征向量并進行合并。對合并后的特征進行卷積運算生成空間注意力特征,該模塊的輸出 F′′ 可以表示為
F′′=Ms(F′)?F′
式中: Ms(F′) 為空間注意力層的操作,它可以被表示為式(10)

式中: conν 代表卷積層。經過CBAM處理后的樣本特征矩陣 F 將會通過平均池化層與全連接層。
2.2.5 卷積神經網絡
本文在卷積神經網絡CNN中嵌人了注意力模塊CBAM,圖5展示了CNN的具體結構。其中,我們將卷積層、激活層、批處理歸一化層和平均池化層作為一個卷積塊。本文的CNN由4個這樣的卷積塊和1個全連接層構成。

式中:
為ReLu函數的輸出,經過公式(12)的變換,它服從標準正態分布。


為了保證批處理歸一化過程的非線性,通過公式(13)中的2個參數 γ 和 β 對
進行平移和縮放得到yi° 在平均池化層,CNN選用 k×k 區域內的均值作為輸出,池化處理可以壓縮特征,減少模型的參數規模,在一定程度上可以減少發生過擬合的概率。
CSI-FHAR的4個卷積塊的卷積層中分別包含4、8、16、32個大小為 3×3 的卷積核,這樣可以提高模型的特征提取能力。激活函數通過將網絡的輸出特征映射到一個新的特征空間,增加非線性因素,提高模型的表達能力。本文使用ReLu函數作為激活函數,因為它相比于Sigmoid函數具有運算量更小且解釋性良好的優勢。
CSI數據經過4個卷積塊后映射到特征空間。在網絡的最后,添加1個全連接層,用來輸出分類結果
ReLu(x)=Max(0,x),
式中: x 是激活層的輸入。由式(11)可知ReLu函數會將某些神經元的輸出為0,這有利于緩解過擬合問題。批處理歸一化層的作用在于它可以提高網絡的泛化能力,起到正則化的作用,同時可以打亂訓練集中的數據。其計算過程如下
3 實驗評估
3.1 實驗設置
為了評估CSI-FHAR的性能,我們在SignFi手勢數據集和自制身體動作數據集上進行了實驗,實驗使用型號為TL-WDR6500的路由器作為發送端(AP),一臺裝有Intel5300網卡的計算機作為接收端(RP),計算機配置是Inteli7-10800型號CPU和NVIDIAGeForce RTX 2060 型號GPU。
圖6和圖7展示了自制數據集的實驗場景圖和平面圖,包括實驗室和大廳,面積分別為( 9×16 ) m2 和中 (10×10)m2 。在這2個場景中采集來自2個志愿者的前進、坐下、擁抱等16類常見的動作(圖8),每類動作包含20個樣本。自制數據集中的動作樣本尺寸和SignFi手勢數據集一樣,都是 3×30×200 。


3.2 和其他識別模型的對比
為了驗證所提的人體動作識別模型CSI-FHAR的有效性,本文設計了以下對比實驗:使用SignFi手勢數據集和自制數據集中各10類動作,每類樣本分別提供5個和10個樣本以進行對照實驗。選擇Mat-Net-eCSI[15]、AFSL-HAR和WiTransfer[]作為CSI-FHAR的對照組。4個人體動作識別模型所使用的預訓練模型、訓練和測試樣本等實驗條件保持一致,圖9展示了對比實驗的結果。

由圖9可知,在SignFi手勢數據集和自制數據集中所有模型都獲得了較好的識別表現,CSI-FHAR獲得了最高的精度,這樣的結果證明了所采用方法的有效性。時間編碼增大了不同動作之間的特征差異,樣本增強方法提供了更多高質量的偽動作樣本用于訓練模型,CBAM模塊提高了網絡的特征提取能力,這些都有助于CSI-FHAR獲得更好的識別精度。此外,從實驗結果中還可以發現以下現象:以SignFi手勢數據集為例,當每類動作使用5個樣本時CSI-FHAR的識別精度比第二名高 2.7% ,當每類動作使用10個樣本時CSI-FHAR的識別精度比第二名高 1.2% 。這種現象表明當每類動作可提供的樣本數量較少時,CSI-FHAR的優勢更加明顯,本文使用的樣本增強方法可以一定程度降低對真實樣本的需求。
此外,為了進一步驗證CSI-FHAR的有效性,我們在使用SignFi手勢數據集每類動作提供5個樣本的實驗條件下,計算了以下參考標準:精度、召回率和F1分數。具體的參數見表1。
通過表1中各項指標可知,CSI-FHAR可以較好地識別不同的動作。

3.3選擇預訓練模型
使用相似分布的數據預訓練模型可以提前初始化參數,并加速網絡的收斂,同時還可以降低訓練階段需要的樣本數量。預訓練模型所使用的動作種類數會影響其性能,為了得到合適的預訓練模型來提高CSI-FHAR的識別表現,我們設計了以下實驗。使用SignFi手勢數據集中的10、30、50和70類動作分別訓練得到4個預訓練模型,在這些模型基礎上訓練4個新識別模型,測試結果取模型對測試集中所有動作的平均識別準確率,見表2。

觀察表2中的數據可以發現,相比于沒有動作樣本預訓練的模型,使用了預訓練模型的識別模型準確率都最少提高了 4% 。以上結果表明預訓練模型有利于提升模型性能,其中使用30類動作預訓練模型的識別性能最好,對所有動作的平均識別準確率達到 95.3% 。可解釋的原因:用于預訓練的數據量應該和模型參數規模相適配,僅僅增大數據量或者采用更大規模的模型對識別模型的性能并沒有顯著提升,甚至起到負面作用[]。隨著預訓練數據量的增大,規模較大的模型精度將會提升,然而較小的模型精度會下降。綜上所述,CSI-FHAR使用30類動作來預訓練識別模型。
3.4 時間編碼的影響
為了驗證時間編碼的作用以及頻率對時間編碼的影響,本文在SignFi手勢數據集和自制數據集上設計了以下實驗。CSI-FHAR學習8類動作(每類包含7個樣本),實驗一共分為6組,其中5個實驗組頻率分別為 1000.2000.3000.5000 和 10000Hz ,第6組是不添加時間編碼的對照組。實驗結果取對8類動作的平均準確率,如圖10所示。

由圖10可知,當時間編碼的頻率為 3000Hz 時模型的識別性能最佳。相比不添加時間編碼,模型在手勢數據集和身體動作數據集上的識別精度分別增加 6% 和 5% 左右。綜上所述,CSI-FHAR為動作樣本添加頻率為 3000Hz 的時間編碼。
3.5樣本切片數量的影響
樣本切片過程會將一個完整的動作樣本切分成等長的幾個片段,為了探究每個樣本切片數量對模型識別性能的影響,設計了以下實驗。一共設置了4個實驗組,各組分別將一個動作樣本切分成3、4、5和7個片段。還有一個對照組,采用沒有進行樣本切片的完整樣本。用于訓練和測試的動作樣本來自SignFi手勢數據集和自制數據集,在所有實驗組中所使用的滑動窗口長度 l2 比分片步長 l1 多20個數據包。實驗結果取對所有動作的平均識別精度,具體的精度和識別時間展示在表3中。

由表3中數據可知,隨著樣本切片數量的增加,模型的識別精度下降得越來越明顯,模型的識別速度在持續提升。因此對一個完整樣本設置切片的數量不宜過多。其中,當把樣本分割成4個樣本片段時,雖然模型的識別精度下降了 1.5% 左右,但是模型的識別速度提升了接近 69% 。綜上所述,樣本切片方法在降低少量模型識別精度的條件下可以極大地優化模型的識別實時性,本文將樣本的切片數量設置為4個。
4結束語
本文設計了一種基于數據增強和CSI的的實時人體動作識別系統CSI-FHAR。采用樣本切片方法提高了HAR的實時性,樣本增強方法減少了對真實動作樣本的需求。我們在SignFi手勢數據集和自制身體動作數據集上進行了實驗,實驗結果表明,在真實樣本較少的情況下,該方法具有較高的準確率和實時性。本文下一步的研究工作是進一步優化樣本增強方法,以減少對真實樣本的需求。此外還需要加強模型的抗干擾能力。
參考文獻:
[1]SINGH R,KUSHWAHA A K S,SRIVASTAVA R.Recent trends in human activity recognition-A comparative study[J]. Cognitive Systems Research,2023(77):30-44.
[2] ZHANG Y,WANG X,WANG Y,et al. Human activity recognitionacross scenes and categories based on csi[C]// IEEE Transactions on Mobile Computing,2020.
[3] ZHANG Y,HE F,WANG Y,et al.CSI-based crossscene human activity recognition with incremental learning [J].Neural Computing and Applications,2023,35(17): 12415-12432.
[4] BUQ,YANG G,MING X,et al.Deep transfer learning forgesture recognition with WiFi signals [J]. Personal and Ubiquitous Computing,2020:1-12.
[5] FEI H,XIAO F,HAN J,et al.Multi-Variations Activity Based Gaits Recognition Using Com modity WiFi[J].IEEE Transactionson Vehicular Tech nology,2020,69(2):2263- 2273.
[6]ARMENTA-GARCIA J A,GONZALEZ-NAVARRO FF, CARO-GUTIERREZ J,et al. Mining Wi-Fi Channel State Information for breathing and heart rate classification[J]. Pervasive and Mobile Computing,2023,91:101768.
[7]代婉婉.基于WiFi-CSI的非接觸式人體呼吸檢測方法研究 [D].徐州:中國礦業大學,2023.
[8]熊小樵,馮秀芳,丁一.基于CSI的手勢識別方法研究[J].計算 機應用與軟件,2022,39(1):181-187.
[9]WANG Y,YAO L,WANG Y,et al. Robust CSI-Based Human Activity Recognition With Augment Few Shot Learming[J].IEEE Sensors Journal,2021,21(21):24297-24308.
[10] ZHOU R,GONG Z,TANG K,et al. Device-free cross locationactivityrecognitionvia semi -superviseddeep learning [J].Neural Computing and Applications,2022,34 (12):10189-10203.
[11] SHENG B,FANG Y,XIAO F,et al. An accurate device-free action recognition system using two-stream network[J].IEEE TransVeh Technol,2020,69(7):7930-7939.
[12] FANG Y,SHENG B,WANG H,et al. Witransfer:A cross-scene transfer activity recognition system using wifi [C]//Proceedings of the ACM Turing Celebration Conference-China,2020:59-63.