999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于目標均衡度量的核增量學習跌倒檢測方法

2018-06-20 09:30:10忽麗莎王素貞陳益強胡春雨蔣鑫龍陳振宇高興宇
計算機應用 2018年4期
關鍵詞:檢測模型

忽麗莎,王素貞,陳益強,胡春雨,蔣鑫龍,陳振宇,高興宇

(1.河北經貿大學 信息技術學院,石家莊 050061; 2.中國科學院計算技術研究所,北京 100190;3.中國電力科學研究院,北京 100192; 4.中國科學院微電子研究所,北京 100029)(*通信作者電子郵箱yqchen@ict.ac.cn)

0 引言

隨著醫療技術的發展與人民生活水平的提高,人類社會日益步入老齡化階段。如何實現健康老齡化,提高老年人的生活質量是全社會亟待解決的難題。老年人在日常生活中由于平衡能力差、身體素質弱等因素,極其容易發生跌倒[1],跌倒后如不能得到及時救治,將會給老人帶來嚴重的傷害,甚至危及生命,因此跌倒檢測是面向老年人監護的一項重要研究內容[2-3]。

已有的跌倒檢測方法主要分為三大類[4]:1)基于視頻分析的方法。利用一個[5]或多個[6]相機和專用服務器實時跟蹤目標,視頻資源上傳至服務器并進行個體圖像分割,通過判定目標姿勢的變化來檢測是否發生了跌倒。該方法可在不影響用戶的正常生活的同時實現對多位用戶的跌倒檢測監控;但因相機運行范圍受限、設備布置代價昂貴、隱私問題、相機盲點和對動態環境的閉塞等問題,該方法仍存在許多不足。2)基于聲音與環境傳感器的方法。利用紅外線[7]和麥克風[8]等獲取環境中的數據,基于跌倒時產生的振動波頻率等檢測跌倒。與基于視頻分析的方法相比,該方法所需的硬件較為簡單、低廉,也可實現多人檢測,一定程度地緩和了隱私問題;但是由于使用場景的限制,以及真實環境中的噪聲干擾等問題,嚴重影響了跌倒檢測的精度。3)基于可穿戴設備的方法。基于嵌入在用戶衣物[9]、手表[10]、眼鏡[11]中的運動傳感器采集數據,經過分析處理后檢測是否發生了跌倒。與前面兩種方法相比,基于可穿戴設備的跌倒檢測方法具有價格低廉、配置簡單、易攜帶等優點。本文重點研究基于可穿戴設備的跌倒檢測方法。

常規的跌倒檢測模型一般是基于大量用戶的跌倒與非跌倒數據經過離線訓練生成的[12-13]。訓練過程一結束,模型將被直接嵌入可穿戴設備中,從而為用戶提供跌倒檢測服務。一般情況下,這種靜態式的通用模型不能很好地擬合用戶的穿戴方式、行為等個性化特點。用戶佩戴上設備以后,設備中的跌倒檢測模型需要針對用戶大量的個性化數據相應地進行自我調整,使之逐漸擬合該目標用戶的個性化特點。為了達到這一目的,一些研究工作構建了基于可穿戴設備的增量學習跌倒檢測模型[14];此外,可穿戴設備的資源受限性使得模型的訓練與測試過程均不能涉及大量的計算工作[15]。

在眾多的機器學習方法中,超限學習機(Extreme Learning Machine, ELM)模型因其訓練速度快和泛化能力高等優點得到了廣泛應用[16-17]。以ELM為基礎提出的正則化超限學習機(Regularized ELM, RELM)模型則成為解決兩類分類、多類分類和回歸問題的統一模型框架[18]。當隱含層的映射函數未知或難以選擇最優的映射函數時,可將RELM與核函數進行有效結合,從而構建一種核正則化超限學習機(Kernelized RELM)模型[19]。以ELM、RELM或Kernelized RELM模型為基礎的多種增量學習模型詳見文獻[20-33]。

本文重點研究以批量模型Kernelized RELM為基礎構建的增量學習模型KB-IELM (Kernel Based Incremental ELM)[22]和OKRELM(Online Kernelized RELM)[34]。本文的主要工作如下:

1)提出了一種核化的經驗風險均值最小化超限學習機模型ALELM(Average-Lossed ELM),用于解決RELM模型推廣至增量學習時出現的性能退化問題。

2)以ALELM模型為基礎,提出了一種性能魯棒的增量學習模型Passive OALELM(Passive Online ALELM)和計算輕量的增量學習模型Active OALELM,后者可大幅減少模型更新和預測的時間消耗。

3)在跌倒檢測專用的公開數據集上的實驗驗證了本文的兩種增量學習模型的識別精度和計算速度。

1 基礎知識

1.1 Kernelized RELM

RELM[16-17]是一個單隱含層前饋式神經網絡,可用于解決兩類分類、多類分類以及回歸問題[18]。結合使用核函數的Kernelized RELM模型則可以有效應用于那些隱含層的映射函數未知或難以選擇的場景。本文重點關注利用Kernelized RELM模型解決分類問題。

Kernelized RELM只能用于離線訓練的場景,是一種批量的學習模型。一個通用的行為識別模型可以基于大量用戶的日常行為數據以離線的方式進行訓練。通用模型到個性化模型的轉變,則需要根據持續采集的目標用戶的個性化樣本進行不斷的更新操作,且更新過程是在線進行的。

1.2 KB-IELM

KB-IELM[22]是一種將批量模型Kernelized RELM推廣至增量式訓練場景的增量學習模型,用于解決訓練樣本依次到達時的模型構建問題。KB-IELM模型的訓練過程包含兩個階段:1)初始構建階段,基于初始數據集完成輸出函數的初始化操作;2)模型更新階段,針對源源不斷的新到數據完成輸出函數的更新,最終實現分類模型的增量更新訓練場景。

1.3 OKRELM

在KB-IELM模型的更新階段,持續到達的新數據逐漸擴大了訓練集的規模,同時也帶來了模型更新階段計算與存儲需求的不斷增長。此外,新數據中的一些冗余數據對模型的更新效果并不十分明顯,然而這些數據在參與模型更新過程時帶來了大量不必要的計算與存儲消耗。針對KB-IELM模型的這一問題,增量學習模型OKRELM[34]的核心思想是每次從新的數據塊中挑選一些十分有價值的數據,僅基于挑選出的數據執行模型更新過程的計算。

2 基于目標均衡度量的核增量學習模型

2.1 ALELM

給定由N個訓練樣本組成的訓練集合{(xi,ti)|xi∈Rd,ti∈Rm,i=1,2,…,N},其中:樣本xi表示d維的特征向量;向量ti表示樣本xi的類標,且向量ti=(ti1,ti2,…,tim)T中存在唯一的一個分量tik取值為1,表示樣本屬于第k類;ti其余的分量tij(j≠k)取值均為-1;N和m分別表示訓練樣本個數和樣本所屬的類別個數。

為使更新后模型的性能不隨訓練樣例個數的增加而出現不穩定的情況,本文首先提出一種新的批量學習模型ALELM。ALELM模型的優化問題如下:

(1)

s.t.βTh(xi)=ti-ξ:,i;i=1,2,…,N

其中:β表示需要求解的L×m維輸出變量;ξ表示m×N維的松弛變量,矩陣ξ的第i列ξ:,i表示樣本xi的訓練誤差;h(x)表示將d維樣本x映射到某個未知的高維Hibert空間的核函數k(·,·)的映射函數,兩者之間的關系為k(x,y)=h(x)Th(y);C是懲罰參數。

根據KKT(Karush-Kuhn-Tucker)定理,求解優化問題(1)等價于求解對應的對偶問題。其對偶問題的目標函數為:

(2)

令D關于各自變量的偏導數為0,可以獲得式(3)~(5):

(3)

(4)

?i,j?Hβ-T+ξT=0

(5)

將式(3)和(4)代入式(5),α可按式(6)進行求解:

α=A-1T

(6)

將式(6)代入式(3),β的求解方式如下:

β=HTα

(7)

最后,ALELM模型輸出函數的計算方式為:

f(x)=βTh(x)=

TTA-1[k(x1,x),k(x2,x),…,k(xN,x)]T

(8)

ALELM模型的訓練過程見算法1,其中步驟3需要計算N×N維矩陣A的逆矩陣A-1,復雜度為O(N3),是算法1中最為耗時的一個步驟。

在測試階段,針對任意測試樣例x,f(x)表示m×1維的向量。ALELM模型關于測試樣例x的預測結果見式(9):

(9)

其中:fk(x)表示向量f(x)的第k個分量。

算法1 ALELM模型的訓練過程。

輸入 包含N個訓練樣本的數據(X,T),核函數k(·,·),懲罰參數C。

輸出 輸出函數f(x)。

1)計算Gram矩陣Ω。

3)計算矩陣A的逆矩陣A-1。

4)計算輸出f(x)=TTA-1[k(x1,x),k(x2,x),…,k(xN,x)]T。

2.2 Passive OALELM

以批量模型ALELM為基礎,本文提出了經驗風險均值最小化增量學習模型(Passive OALELM),用于解決當訓練數據先后到達時模型的訓練問題。與其他的增量學習模型類似,Passive OALELM模型的訓練過程也包含初始構建和模型更新兩個階段。下面對Passive OALELM的這兩個階段分別進行介紹:

1)初始構建階段。給定包含N0個訓練樣本的初始數據塊(X0,T0),則Lagrange矩陣α0和輸出函數f0(x)的求解方式如下:

(10)

f0(x)=(α0)T[k(x1,x),k(x2,x),…,k(xN0,x)]T

(11)

2)模型更新階段。假定新到達的數據塊(X1,T1)包含N1個樣本,此時Lagrange矩陣α1表示為:

(12)

(13)

(14)

根據分塊矩陣的求逆公式[35],Lagrange矩陣α1可按如下方式進行求解:

(15)

此時,輸出函數f1(x)表示為:

f1(x)=(α1)T[k(x1,x),k(x2,x),…,k(xN0+N1,x)]T

(16)

當第n個數據塊(Xn,Tn)到達時,依照算法2中模型更新階段的計算步驟將輸出函數更新為fn(x)。

算法2 Passive OALELM模型的訓練過程。

初始構建階段:s=0,包含Ns個訓練樣本的初始數據塊(Xs,Ts),核函數k(·,·),懲罰參數C。

1)計算Gram矩陣Ωs。

模型更新階段:新到達包含Ns+1-Ns個訓練樣本的數據塊(Xs+1,Ts+1)。

1)計算Gram矩陣Ωs+1與混合Gram矩陣Us+1。

3)計算矩陣

5)計算矩陣As+1的逆矩陣

6)更新輸出函數

fs+1(x)=

7)s=s+1

2.3 Active OALELM

為了盡可能地降低模型更新階段的計算復雜度,借鑒OKRELM模型的核心思想,本文提出在Passive OALELM模型的更新階段僅利用錯分的數據參與更新,并將此模型稱之為Active OALELM,訓練過程見算法3。對應地,將2.2節中所有數據參與更新的模型稱之為Passive OALELM。

算法3 Active OALELM模型的訓練過程。

初始構建階段:s=0,包含Ns個訓練樣本的初始數據塊(Xs,Ts),核函數k(·,·),懲罰參數C。

模型更新階段:新到達包含Ns+1-Ns個訓練樣本的數據塊(Xs+1,Ts+1)。

1)計算Gram矩陣Ωs+1與混合Gram矩陣Us+1。

3)計算類別預測結果:

4)生成由所有被錯分的數據組成的指標集

5)更新矩陣Ωs+1與Us+1只與指標集中的數據有關,即(Ωs+1)ij=k(xi,xj),i,j∈Δ;(Us+1)ij=k(xi,xj),i∈{1,2,…,Ns},j∈Δ。

6)執行算法2中模型更新階段的步驟2)~6)。

3 實驗及結果分析

3.1 數據集

為驗證本文方法的性能,在跌倒檢測專用的公開數據集[37]上開展了實驗。該數據集包含32位用戶(28男,4女)4種朝向(前、后、左、右)的跌倒行為、1種疑似跌倒行為(失衡)和7種非跌倒日常行為(站立、平躺、走路、蹲伏、爬樓梯、坐床、坐椅子)。數據采集設備穿戴于用戶的胸部和腿部,每個部位分別包含一個3軸加速度計和一個3軸陀螺儀,采樣率均為100 Hz。數據集的規模介紹見表1中“特征提取前”這一階段的內容。

表1 特征提取前后跌倒檢測數據集的規模

3.2 數據預處理與特征提取

圖1展示了跌倒行為通常包含的三個階段,其中縱軸表示三軸加速度計的合成加速度(用均方根(Root Mean Square, RMS)表示),g為重力加速度(1 g=9.8 m/s2)。針對上述跌倒檢測原始數據集的預處理操作包含三個步驟:1)將加速度計和陀螺儀的三軸數據通過計算均方根(RMS)的方式分別合并為一個軸,構成合成加速度和合成角速度,消除設備穿戴朝向對傳感器讀數的影響;2)針對跌倒這種特殊的異常行為本身的特點(見圖1),根據合成加速度數據識別跌倒過程中的撞擊前、撞擊和撞擊后三個階段[38];3)基于每個階段的加速度計和陀螺儀數據分別提取最小值、最大值、均值、方差和平方根五種簡單的時域特征,共計60維(5種特征×3個階段×2種傳感器×2個穿戴位置)特征,特征提取后生成的樣例集合見表1中“特征提取后”這一階段的內容。

圖1 一次跌倒行為的三個階段

3.3 參數選擇

為了驗證本文方法的有效性,核函數統一選取Gaussian核k(xi,xj)=exp(-σ‖xi-xj‖2)。這樣,四種增量學習模型KB-IELM、OKRELM、Passive OALELM和Active OALELM均包含懲罰參數C、核參數σ、初始數據塊大小N0和新增塊大小Block四個參數。參數C和σ的取值范圍均設置為{2-24, 2-23, …, 224, 225};N0的取值范圍為{100, 200, …, 900, 1 000};Block的取值范圍為{50, 100, …,N0}。利用RRSS(Repeated Random Sub-Sampling)[39]方式對數據集進行劃分,選出的最優取值情況見表2。

表2 四種增量學習模型的最優參數取值

3.4 跌倒檢測精度對比

為了對比KB-IELM、OKRELM、Passive OALELM和Active OALELM四種增量學習模型跌倒檢測的精度,本文在每次模型更新之后記錄上述四種模型關于跌倒行為的查準率(Precision)和查全率(Recall)。訓練集和測試集的劃分方式見3.3節,每種模型的參數取值見表2。圖2顯示了四種增量學習模型10次實驗結果后Precision和Recall的平均值。需要強調的是,這里的Precision和Recall指標僅用于衡量跌倒這一類行為的識別精度。

從圖2可以看出:隨著后續新增數據塊的陸續到達,KB-IELM模型Precision和Recall的取值均下滑至60%以下,并出現上下波動的情況;OKRELM模型的Precision和Recall分別下滑至30.8%和50.23%,也出現了性能退化和不穩定的現象。

與KB-IELM和OKRELM模型不同,Passive OALELM和Active OALELM模型在整個模型更新階段的Precision和Recall始終保持在95%以上,均展示了精準魯棒的識別結果,從而顯示了ALELM模型優化問題中經驗風險均值最小化策略的優越性。

進一步,Passive OALELM模型在Precision和Recall上均優于Active OALELM模型,但在時間消耗方面Passive OALELM模型遠比Active OALELM模型的代價高(見圖4),因此可以根據需求的不同分別選擇合適的模型。

圖2 四種增量學習模型關于跌倒行為的Precision與Recall結果對比

3.5 行為識別精度對比

為了評估模型關于跌倒與非跌倒二類分類問題的分類精度,本文統計了KB-IELM、OKRELM、Passive OALELM和Active OALELM四種增量學習模型在每次更新計算后的F1-Score和Accuracy。實驗設置與3.3節一致,實驗結果見圖3。

圖3 四種增量學習模型關于跌倒行為的F1-Score與Accuracy結果對比

根據圖3的實驗結果可以看出,在第7個新增數據塊更新結束后OKRELM模型的Accuracy為61.47%,但F1-Score僅為2.98%。結合圖2中的結果,這就意味著OKRELM模型在第7次更新結束后幾乎將所有的跌倒樣例分錯,從另外一個角度驗證了OKRELM模型會出現性能不穩定的情況。

另一方面,Passive OALELM模型的性能在整個模型更新階段均超越了KB-IELM模型,從而顯示了Passive OALELM模型在解決二類分類問題時的魯棒性和有效性,而這正是得益于以之為基礎的批量學習模型ALELM的優化問題中引入了經驗風險均值最小化這一原則。總體而言,Passive OALELM模型在F1-Score和Accuracy兩方面的性能均優于Active OALELM模型,因此Passive OALELM模型更適合于那些對魯棒性和識別能力要求非常高的應用場景。

Passive OALELM和Active OALELM兩個模型的識別能力對比情況在圖3中并不十分明顯。3.6節將詳細介紹Passive OALELM和Active OALELM模型在時間有效性方面的對比。

3.6 時間有效性對比

在訓練時間消耗方面,KB-IELM和OKRELM模型的初始構建階段都是以RELM模型為基礎,兩者的初始訓練時間相同,均為0.04 s(見圖4(a))。隨著模型更新階段新增數據塊的不斷到達,KB-IELM模型的更新時間消耗不斷增加,并最終上升至2.47 s;而OKRELM模型的更新時間消耗最終只增加至0.11 s。與KB-IELM模型相比,Passive OALELM模型由于在模型更新階段需要額外計算一個逆矩陣(見2.2節),因此在時間有效性方面不如KB-IELM模型。而Active OALELM模型由于只利用少量被錯分的樣例參與模型的更新過程,因此繼承了OKRELM模型更新速度快這一優勢。事實上,Active OALELM關于模型更新階段的最長時間消耗僅為0.09 s,更新速度甚至超過了OKRELM模型。

圖4 四種增量學習模型的時間消耗情況對比

在測試時間消耗方面,經過最后一次更新后的OKRELM與Active OALELM模型的測試時長約為0.003 s,而KB-IELM和Passive OALELM模型約為0.08 s (見圖4(b)),因此Active OALELM模型在測試階段的時間優勢也非常明顯。

4 結語

跌倒作為一種特殊的異常行為,嚴重傷害老年人的身心健康,并給日益嚴重的老齡化社會帶來異常沉重的經濟負擔,因此,跌倒檢測技術的研究工作意義重大且十分關鍵。本文提出了一種基于目標均衡度量的核增量學習模型OALELM,用于面向可穿戴設備的跌倒檢測;并在跌倒檢測公開數據集上驗證了本文方法的有效性。實驗結果顯示了OALELM模型關于模型更新的魯棒性。更進一步,Passive OALELM模型在更新訓練階段顯示了魯棒精準的識別能力;Active OALELM模型在一定程度地保證識別能力的同時有效提高了模型更新訓練階段和測試階段的計算速度。

參考文獻(References)

[1] ROBIE K. Falls in older people: risk factors and strategies for prevention[J]. The Journal of the American Medical Association, 2010, 304(17): 1958-1959.

[2] 沈秉乾,武志勇, 賀前華, 等. 人體姿勢狀態判決的跌倒檢測方法[J]. 計算機應用, 2014, 34(增刊1): 223-227, 264.(SHEN B Q, WU Z Y, HE Q H, et al. Falling detection method based on human body posture judgment[J]. Journal of Computer Applications, 2014, 34(S1): 223-227, 264.)

[3] 羅丹, 羅海勇. 基于隨機森林的跌倒檢測算法[J]. 計算機應用, 2015, 35(11): 3157-3160, 3165.(LUO D, LUO H Y. Fall detection algorithm based on random forest[J]. Journal of Computer Applications, 2015, 35(11): 3157-3160, 3165.)

[4] YU X. Approaches and principles of fall detection for elderly and patient[C]// HealthCom 2008: Proceedings of the 10th International Conference on E-health Networking, Applications and Services. Piscataway, NJ: IEEE, 2008: 42-47.

[5] HU F, HAO Q, SUN Q, et al. Cyber physical system with virtual reality for intelligent motion recognition and training[J]. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 2017, 47(2): 347-363.

[6] AUVINET E, MULTON F, SAINT-ARNAUD A, et al. Fall detection with multiple cameras: an occlusion-resistant method based on 3-D silhouette vertical distribution[J]. IEEE Transactions on Information Technology in Biomedicine, 2011, 15(2): 290-300.

[7] TOREYIN B U, SOYER E B, ONARAN I, et al. Falling person detection using multi-sensor signal processing[J]. EURASIP Journal on Advances in Signal Processing, 2008, 2008: Article No. 29.

[8] ZHUANG X, HUANG J, POTAMIANOS G, et al. Acoustic fall detection using Gaussian mixture models and GMM supervectors[C]// ICASSP 2009: Proceedings of the 2009 IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway, NJ: IEEE, 2009: 69-72.

[9] GJORESKI H, KOZINA S, GAMS M, et al. RAReFall — real-time activity recognition and fall detection system[C]// Proceedings of the 2014 IEEE International Conference on Pervasive Computing and Communications Workshops. Piscataway, NJ: IEEE, 2014: 145-147.

[10] RAKHECHA S, HSU K. Reliable and secure body fall detection algorithm in a wireless mesh network[C]// BodyNets 2013: Proceedings of the 8th International Conference on Body Area Networks. Brussels, Belgium: ICST, 2013: 420-426.

[11] CHEN Z, CHEN Y, HU L, et al. Leveraging two-stage weighted ELM for multimodal wearables based fall detection[C]// Proceedings of ELM-2014. Berlin: Springer, 2015, 2: 161-168.

[12] QU W, LIN F, WANG A, et al. Evaluation of a low-complexity fall detection algorithm on wearable sensor towards falls and fall-alike activities[C]// Proceedings of the 2015 IEEE Signal Processing in Medicine and Biology Symposium. Piscataway, NJ: IEEE, 2015: 1-6.

[13] WANNENBURG J, MALEKIAN R. Physical activity recognition from smartphone accelerometer data for user context awareness sensing[J]. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 2016, 47(12): 3142-3149.

[14] HU L, CHEN Y, WANG S, et al. Less annotation on personalized activity recognition using context data[C]// Proceedings of the 2016 International IEEE Conferences on Ubiquitous Intelligence & Computing, Advanced and Trusted Computing, Scalable Computing and Communications, Cloud and Big Data Computing, Internet of People, and Smart World Congress. Piscataway, NJ: IEEE, 2016: 327-332.

[15] HU L, CHEN Y, WANG S, et al. b-COELM: a fast, lightweight and accurate activity recognition model for mini-wearable devices[J]. Pervasive and Mobile Computing, 2014, 15: 200-214.

[16] HUANG G B, ZHU Q Y, SIEW C K. Extreme learning machine: theory and applications[J]. Neurocomputing, 2006, 70(1): 489-501.

[17] HUANG G B, ZHU Q Y, SIEW C K. Universal approximation using incremental constructive feedforward networks with random hidden nodes[J]. IEEE Transactions on Neural Networks, 2006, 17(4): 879-892.

[18] HUANG G B, ZHOU H, DING X, et al. Extreme learning machine for regression and multiclass classification[J]. IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics), 2012, 42(2): 513-529.

[19] SCARDAPANE S, COMMINIELLO D, SCARPINITI M, et al. Online sequential extreme learning machine with kernels[J]. IEEE Transactions on Neural Networks and Learning Systems, 2015, 26(9): 2214-2220.

[20] LIANG N Y, HUANG G B, SARATCHANDRAN P, et al. A fast and accurate online sequential learning algorithm for feedforward networks[J]. IEEE Transactions on Neural networks, 2006, 17(6): 1411-1423.

[21] GU Y, LIU J, CHEN Y, et al. Constraint online sequential extreme learning machine for lifelong indoor localization system[C]// Proceedings of the 2014 International Joint Conference on Neural Networks. Piscataway, NJ: IEEE, 2014: 732-738.

[22] GUO L, HAO J H, LIU M. An incremental extreme learning machine for online sequential learning problems[J]. Neurocomputing, 2014, 128: 50-58.

[23] GAO X, HOI S, ZHANG Y, et al. Sparse online learning of image similarity[J]. ACM Transactions on Intelligent Systems and Technology, 2017, 8(5): Article No. 64.

[24] GAO X, CHEN Z, TANG S, et al. Adaptive weighted imbalance learning with application to abnormal activity recognition[J]. Neurocomputing, 2016, 173: 1927-1935.

[25] JIANG X, LIU J, CHEN Y, et al. Feature adaptive online sequential extreme learning machine for lifelong indoor localization[J]. Neural Computing and Applications, 2016, 27(1): 215-225.

[26] CHEN Z, CHEN Y, GAO X, et al. Unobtrusive sensing incremental social contexts using fuzzy class incremental learning[C]// Proceedings of the 2015 IEEE International Conference on Data Mining. Piscataway, NJ: IEEE, 2015: 71-80.

[27] XIANG Z, CHEN Z, GAO X, et al. Solving large-scale TSP using a fast wedging insertion partitioning approach[J]. Mathematical Problems in Engineering, 2015, 2015: Article ID 854218.

[28] JIANG X, CHEN Y, LIU J, et al. Real-time and accurate indoor localization with fusion model of Wi-Fi fingerprint and motion particle filter[J]. Mathematical Problems in Engineering, 2015, 2015: Article ID 545792.

[29] CHEN Z, CHEN Y, HU L, et al. ContextSense: unobtrusive discovery of incremental social context using dynamic bluetooth data[C]// UbiComp 2014: Proceedings of the 2014 Adjunct Proceedings of the 2014 ACM International Joint Conference on Pervasive and Ubiquitous Computing: Adjunct Publication. New York: ACM, 2014: 23-26.

[30] ZHANG H, YUAN J, GAO X, et al. Boosting cross-media retrieval via visual-auditory feature analysis and relevance feedback[C]// MM 2014: Proceedings of the 22nd ACM International Conference on Multimedia. New York: ACM, 2014: 953-956.

[31] GAO X, HOI S, ZHANG Y, et al. SOML: sparse online metric learning with application to image retrieval[C]// AAAI 2014: Proceedings of the Twenty-Eighth AAAI Conference on Artificial Intelligence. Menlo Park: AAAI Press, 2014: 1206-1212.

[32] CHEN Z, CHEN Y, WANG S, et al. Inferring social contextual behavior from bluetooth traces[C]// UbiComp 2013: Proceedings of the 2013 ACM Conference on Pervasive and Ubiquitous Computing Adjunct Publication. New York: ACM, 2013: 267-270.

[33] CHEN Z, WANG S, SHEN Z, et al. Online sequential ELM based transfer learning for transportation mode recognition[C]// Proceedings of the 2013 IEEE Conference on Cybernetics and Intelligent Systems. Piscataway, NJ: IEEE, 2013: 78-83.

[34] HU L, CHEN Y, WANG S, et al. OKRELM: online kernelized and regularized extreme learning machine for wearable-based activity recognition[J]. International Journal of Machine Learning and Cybernetics, 2016: 1-14.

[35] HAGER W W. Updating the inverse of a matrix[J]. SIAM Review, 1989, 31(2): 221-239.

[36] WANG W, HOU Z G, CHENG L, et al. Toward patients’ motion intention recognition: dynamics modeling and identification of iLeg — an LLRR under motion constraints[J]. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 2016, 46(7): 980-992.

[37] OJETOLA O, GAURA E, BRUSEY J. Data set for fall events and daily activities from inertial sensors[C]// MMSys 2015: Proceedings of the 6th ACM Multimedia Systems Conference. New York: ACM, 2015: 243-248.

[38] OJETOLA O. Detection of human falls using wearable sensors[D]. Coventry, UK: Coventry University, 2014: 49-66.

[39] ALTUN K, BARSHAN B. Human activity recognition using inertial/magnetic sensor units[C]// HBU 2010: Proceedings of the First International Workshop on Human Behavior Understanding, LNCS 6219. Berlin: Springer, 2010: 38-51.

This work is partially supported by the National Natural Science Foundation of China (61702491), the Research Foundation of Hebei University of Economics and Business (2016KYZ05), the Science and Technology Program of State Grid Corporation of China (5442DZ170019), the Science and Technology Innovation Program of China Electric Power Research Institute (5242001600H5).

猜你喜歡
檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
小波變換在PCB缺陷檢測中的應用
主站蜘蛛池模板: 日本黄色a视频| 国产亚洲欧美在线人成aaaa| 国产精品九九视频| 高清国产在线| 久久精品国产精品一区二区| 国产乱人乱偷精品视频a人人澡 | 精品国产成人国产在线| 草逼视频国产| 亚洲 欧美 偷自乱 图片 | 亚洲欧洲一区二区三区| 日韩精品一区二区三区视频免费看| 欧美成人精品高清在线下载| 青青草原偷拍视频| 国产成人综合日韩精品无码首页 | www中文字幕在线观看| 久久久成年黄色视频| 激情国产精品一区| 91在线视频福利| 一本大道香蕉中文日本不卡高清二区| 成年人国产视频| 亚洲精品成人7777在线观看| 有专无码视频| 久久精品亚洲中文字幕乱码| 亚洲无码免费黄色网址| 97色婷婷成人综合在线观看| 亚洲女同欧美在线| 久久精品人人做人人综合试看| 一级毛片在线直接观看| 亚洲第七页| 亚洲高清无码久久久| 日本精品视频一区二区| 在线观看av永久| 日本中文字幕久久网站| 国产原创自拍不卡第一页| 一本大道无码日韩精品影视| 97国产成人无码精品久久久| 亚洲欧美日韩成人在线| 免费人成视网站在线不卡| 内射人妻无码色AV天堂| 中文字幕佐山爱一区二区免费| 日韩欧美中文字幕在线精品| 狠狠色噜噜狠狠狠狠奇米777 | 久久精品日日躁夜夜躁欧美| 操国产美女| 日韩欧美亚洲国产成人综合| 22sihu国产精品视频影视资讯| аⅴ资源中文在线天堂| 免费一级全黄少妇性色生活片| 亚洲综合九九| 国产原创演绎剧情有字幕的| 欧美综合一区二区三区| 欧美成人影院亚洲综合图| 毛片最新网址| 国产成人精品18| 男女性午夜福利网站| 丁香综合在线| 国产成人91精品免费网址在线| 精品夜恋影院亚洲欧洲| 国产综合另类小说色区色噜噜| 97久久超碰极品视觉盛宴| 亚洲美女一区| 伊人丁香五月天久久综合 | 国产欧美精品午夜在线播放| 亚洲美女一级毛片| 亚洲欧洲日韩久久狠狠爱| 久久久精品无码一区二区三区| 中文字幕在线播放不卡| 亚洲视频在线青青| 久久中文字幕av不卡一区二区| 欧美区日韩区| 日本午夜三级| 精品久久久久成人码免费动漫| 亚洲一区国色天香| 欧美a网站| 操美女免费网站| 欧美亚洲日韩中文| a毛片在线免费观看| 波多野结衣爽到高潮漏水大喷| 亚洲精品第五页| 十八禁美女裸体网站| 国产成人综合网| 亚洲精品国产自在现线最新|