999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于光流法和卷積神經(jīng)網(wǎng)絡(luò)的跌倒行為檢測(cè)方法*

2021-05-10 03:10:12孫博文楊大為
微處理機(jī) 2021年2期
關(guān)鍵詞:實(shí)驗(yàn)檢測(cè)方法

孫博文,祁 燕,楊大為

(沈陽(yáng)理工大學(xué)信息科學(xué)與工程學(xué)院,沈陽(yáng)110159)

1 引 言

隨著室內(nèi)攝像設(shè)備的普及,人們對(duì)智能視頻監(jiān)控的需求越來(lái)越高。跌倒行為識(shí)別作為智能監(jiān)控系統(tǒng)的一部分,可以在人體發(fā)生跌倒行為時(shí)及時(shí)報(bào)警來(lái)保障人身安全。目前室內(nèi)人體跌倒行為檢測(cè)方法可劃分為兩大類:第一類是基于傳感器的跌倒檢測(cè)方法,這類方法一般需要人體穿戴設(shè)備,設(shè)備上通常裝有傳感器,人體發(fā)生跌倒行為時(shí)傳感器會(huì)發(fā)出警報(bào)從而實(shí)現(xiàn)跌倒檢測(cè)。由于前一類方法需要佩戴傳感器設(shè)備,極為不便,于是出現(xiàn)了第二類方法:基于計(jì)算機(jī)視覺(jué)的檢測(cè)方法?;谟?jì)算機(jī)視覺(jué)的檢測(cè)法最大優(yōu)點(diǎn)是不需要穿戴任何傳感器設(shè)備,而是從視頻數(shù)據(jù)中挖掘出有用的信息并進(jìn)行分析。視頻數(shù)據(jù)來(lái)源于安裝在室內(nèi)的監(jiān)控?cái)z像機(jī),采集人在室內(nèi)的各種活動(dòng)信息,然后通過(guò)一系列算法識(shí)別人體的各種行為,進(jìn)而檢測(cè)出跌倒行為[1]。在提取人體運(yùn)動(dòng)特征方面使用的方法可分為兩種:第一種方法選擇提取人體的3D 特征,劉李正提出了基于Kinect 相機(jī)的人體跌倒檢測(cè)算法研究[2]。提取人體3D 特征的方法在人體側(cè)向?qū)χ鴶z像設(shè)備時(shí)會(huì)影響檢測(cè)效果,于是又出現(xiàn)了第二種使用計(jì)算機(jī)視覺(jué)的方法,該方法從監(jiān)控?cái)z像頭拍攝的視頻中提取特征。在呂艷等人提出的采用卷積神經(jīng)網(wǎng)絡(luò)的老年人跌倒檢測(cè)系統(tǒng)設(shè)計(jì)中,提取特征的方式選用了深度神經(jīng)網(wǎng)絡(luò)加分類器的組合[3]。

基于計(jì)算機(jī)視覺(jué)的檢測(cè)算法存在諸多優(yōu)勢(shì),它不需要用戶時(shí)刻攜帶設(shè)備、不受使用環(huán)境的限制,而隨著當(dāng)今社會(huì)的發(fā)展,在很多地方都裝有監(jiān)控?cái)z像頭,因此其應(yīng)用場(chǎng)景也更加廣泛[4]。

結(jié)合上述比較,在此對(duì)基于計(jì)算機(jī)視覺(jué)的檢測(cè)算法提出改進(jìn),使用光流法對(duì)監(jiān)控視頻進(jìn)行預(yù)處理,并且修改卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的第一層,最后通過(guò)實(shí)驗(yàn)驗(yàn)證這一改進(jìn)方法對(duì)提升模型預(yù)測(cè)準(zhǔn)確性的效果。

2 跌倒檢測(cè)方法新設(shè)計(jì)

在新設(shè)計(jì)中,將光流法和卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合來(lái)實(shí)現(xiàn)對(duì)人體跌倒行為的檢測(cè),其整體設(shè)計(jì)如圖1所示。首先監(jiān)控?cái)z像頭拍攝的視頻經(jīng)過(guò)光流圖像生成器生成光流圖像;生成的光流圖像放入卷積神經(jīng)網(wǎng)絡(luò)(CNN)中進(jìn)行特征提取;最后由分類器給出分析結(jié)果(跌倒行為還是非跌倒行為)。

2.1 光流法

光流是描述視頻序列中連續(xù)兩幀之間像素相對(duì)位移的矢量場(chǎng)。估計(jì)該矢量場(chǎng)的方法即稱為光流法,可用來(lái)獲得對(duì)象的運(yùn)動(dòng)特征[5]。

使用光流圖像作為模型的輸入數(shù)據(jù)可以消除背景環(huán)境對(duì)于跌倒行為檢測(cè)的影響。由于光流圖像只反映運(yùn)動(dòng)信息的特性,模型在提取特征時(shí)可以忽略背景環(huán)境的影響,從而加快模型的檢測(cè)速度和提升模型預(yù)測(cè)的準(zhǔn)確率。

圖2 顯示了由攝像頭拍攝到的人體跌倒行為動(dòng)作序列,用光流圖像生成器對(duì)這一動(dòng)作序列圖像進(jìn)行處理,得到的光流圖如圖3 所示。如圖可見(jiàn),光流圖像是通過(guò)灰度值的差異來(lái)反應(yīng)圖像中的瞬時(shí)運(yùn)動(dòng)速度,由此法可以消除背景環(huán)境的影響。

圖2 攝像頭拍攝的人體跌倒行為動(dòng)作序列

圖3 跌倒行為動(dòng)作序列生成的光流圖像

2.2 數(shù)據(jù)集

模型訓(xùn)練過(guò)程使用了三個(gè)數(shù)據(jù)集。其中URFD、UCF-101 為兩個(gè)公共數(shù)據(jù)集,分別針對(duì)人體日常行為與跌倒行為。兩者的數(shù)據(jù)量差異如表1 所示。

表1 不同數(shù)據(jù)集的數(shù)據(jù)量差異

UCF-101 數(shù)據(jù)集涵蓋了13320 個(gè)視頻,包含了101 種人類動(dòng)作行為;URFD 僅包含30 個(gè)跌倒視頻和30 個(gè)日常行為視頻[6]。在訓(xùn)練模型的過(guò)程中由于輸入數(shù)據(jù)的正例與反例數(shù)量差距過(guò)大會(huì)極大影響訓(xùn)練效果。故此采用遷移學(xué)習(xí)的方法,以UCF-101 數(shù)據(jù)集預(yù)訓(xùn)練模型,使模型具有識(shí)別日常行為的能力后再加入U(xiǎn)RFD 數(shù)據(jù)集進(jìn)行跌倒行為的訓(xùn)練。

除了使用兩個(gè)公共數(shù)據(jù)集外,在此制作了一個(gè)用于跌倒行為檢測(cè)的數(shù)據(jù)集。自制數(shù)據(jù)集由三位演員拍攝而成,共包含60 段視頻。其中30 段為跌倒視頻,30 段視頻日常行為視頻。在日常行為視頻中,為增加數(shù)據(jù)集的復(fù)雜性,增加了坐下、彎腰和深蹲等與跌倒行為極易混淆的日常行為,具體拍攝情況如圖4 所示。

圖4 自制數(shù)據(jù)集新增日常行為拍攝

2.3 跌倒行為模型訓(xùn)練

定義連續(xù)十張光流圖片為一個(gè)動(dòng)作序列,如圖5 所示。這是考慮到大部分監(jiān)控?cái)z像頭拍攝視頻的幀率為30 幀/s,設(shè)定光流圖像生成器中步長(zhǎng)為10,即每隔10 幀生成一張光流圖像,連續(xù)十張光流圖像即涵蓋了3 秒的人體運(yùn)動(dòng)時(shí)間,而跌倒行為從發(fā)生到結(jié)束的持續(xù)時(shí)間一般為2~3 秒,這樣定義的運(yùn)動(dòng)序列可以完整地檢測(cè)到跌倒行為的發(fā)生。

圖5 動(dòng)作序列定義

假設(shè)一段視頻被劃分為N 個(gè)光流圖像,那么會(huì)得到N-10+1 個(gè)動(dòng)作序列,作為模型的輸入數(shù)據(jù)。

在損失函數(shù)方面,采用二元交叉熵函數(shù)作為模型的損失函數(shù),該函數(shù)表示預(yù)測(cè)值與真實(shí)值之間的差值,以Lloss表示,定義如下:

新方案在原有二元交叉熵函數(shù)中增加了權(quán)值ωt與 ωp。ωt表示日常行為的權(quán)重,ωp表示跌倒行為的權(quán)重。

由于URFD 數(shù)據(jù)集跌倒行為視頻與日常行為視頻的數(shù)量差距不大,幫此預(yù)設(shè)ωt與ωp均為1。

在模型結(jié)構(gòu)方面,采用VGG-16 作為模型的結(jié)構(gòu),但光流法的引入調(diào)整了VGG-16 的輸入層。傳統(tǒng)的VGG-16 輸入層接受的是 224×224×3 的 RGB圖像,新方案中的輸入層調(diào)整為接受224×224×20的光流圖像序列。其余各卷積層與傳統(tǒng)的VGG-16結(jié)構(gòu)一致。

在分類函數(shù)方面,跌倒檢測(cè)模型輸出結(jié)果為跌倒或非跌倒,使用softmax 函數(shù),公式為:

Softmax 層可以把輸入的數(shù)據(jù)映射到0~1 之間的實(shí)數(shù),并且歸一化保證和為1[7],此處設(shè)置閾值為0.5,模型預(yù)測(cè)值小于閾值分類為跌倒行為,大于閾值分類為非跌倒行為。

3 實(shí)驗(yàn)與結(jié)果分析

3.1 實(shí)驗(yàn)指標(biāo)

為評(píng)價(jià)模型的準(zhǔn)確率,此處定義以下指標(biāo):TP代表真正值,TN為真負(fù)值,F(xiàn)P為假正值,F(xiàn)N為假負(fù)值,其具體定義如表2 所示。

表2 實(shí)驗(yàn)用到的效果指標(biāo)

定義sensitivity 為表示跌倒行為發(fā)生且被模型判定為跌倒行為的指標(biāo),以Ssen表示,公式為:

定義specificity 為沒(méi)有發(fā)生跌倒行為且沒(méi)有被模型判定為跌倒行為的指標(biāo),以Sspe表示,公式為:

定義precision 為準(zhǔn)確率,即檢查出的跌倒行為中有多少是準(zhǔn)確的,以Ppre表示,公式為:

在實(shí)驗(yàn)結(jié)果中這一指標(biāo)的數(shù)值較低,這是由于跌倒模型要對(duì)跌倒行為極其重視(即如果發(fā)生了跌倒行為,一定要檢測(cè)出來(lái)否則會(huì)十分危險(xiǎn)),模型為了達(dá)到較高的Sensitivity 值而犧牲了Precision。

定義accuracy 為模型整體上的分類效果,以Aacc表示,公式為:

3.2 實(shí)驗(yàn)結(jié)果

為了驗(yàn)證基于光流法和卷積神經(jīng)網(wǎng)絡(luò)的跌倒行為檢測(cè)方法是否可準(zhǔn)確檢測(cè)人體跌倒行為,設(shè)計(jì)如下實(shí)驗(yàn):

將URFD 數(shù)據(jù)集與自制數(shù)據(jù)集整合成新URFD數(shù)據(jù)集。為驗(yàn)證更大數(shù)據(jù)集是否可以解決模型過(guò)擬合問(wèn)題,設(shè)置不同數(shù)據(jù)集下的對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表3 所示。

表3 不同數(shù)據(jù)集下各指標(biāo)實(shí)驗(yàn)結(jié)果對(duì)比

在新數(shù)據(jù)集下的實(shí)驗(yàn)中,specificity、precision、accuracy 等實(shí)驗(yàn)指標(biāo)均有所提升,大量數(shù)據(jù)集有助于模型取得更好的訓(xùn)練效果。模型在更大的新數(shù)據(jù)集下訓(xùn)練提升了模型的泛化能力,使得模型準(zhǔn)確率得到提升。

為驗(yàn)證光流法是否可以提升跌倒檢測(cè)模型檢測(cè)的準(zhǔn)確率,做如下實(shí)驗(yàn):在使用相同數(shù)據(jù)集的條件下(均使用新數(shù)據(jù)集),對(duì)輸入數(shù)據(jù)分別使用光流法處理和無(wú)光流法處理。得到的對(duì)比結(jié)果如表4 所示。

表4 有無(wú)光流法實(shí)驗(yàn)結(jié)果對(duì)比表

實(shí)驗(yàn)結(jié)果顯示,使用光流圖像作為卷積神經(jīng)網(wǎng)絡(luò)的輸入數(shù)據(jù)可以提升模型的specificity、precision、accuracy 數(shù)值,提升模型整體的判斷準(zhǔn)確率。

實(shí)驗(yàn)又以新方法與Sven Kreiss 等人的PifPaf 方法[8]在URFD 數(shù)據(jù)集下做了對(duì)比試驗(yàn),實(shí)驗(yàn)結(jié)果如表5 所示。

表5 新方法與PifPaf 法對(duì)比實(shí)驗(yàn)結(jié)果

由表5 可見(jiàn),新方法與Sven Kreiss 等人提出的PifPaf 方法在實(shí)驗(yàn)結(jié)果上產(chǎn)生了較大差異。PifPaf 方法由兩個(gè)部分組成,其中Pif(Part intensity field)方法用來(lái)定位人體軀干位置;Paf(Part association field)方法用來(lái)將身體各部分相互關(guān)聯(lián)以形成完整的人體姿勢(shì),包含17 個(gè)關(guān)節(jié),每個(gè)關(guān)節(jié)由x 和y 坐標(biāo)以及置信度得分表示。Sven Kreiss 等人的方法precision達(dá)到了100%,證明其方法可以保證檢查出的跌倒行為確實(shí)均為跌倒行為。而新方法在sensitivity 數(shù)值上達(dá)到了100%,證明本法可以檢測(cè)出數(shù)據(jù)集中所有的跌倒行為??紤]到現(xiàn)實(shí)生活中的情形,一旦人體發(fā)生跌倒行為而系統(tǒng)沒(méi)有檢測(cè)到,會(huì)導(dǎo)致很嚴(yán)重的后果,故此本方法在實(shí)際應(yīng)用中更加安全和可靠。

4 結(jié) 束 語(yǔ)

新設(shè)計(jì)一種檢測(cè)方法,采用光流和卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合的方式從監(jiān)控?cái)z像頭拍攝的視頻中準(zhǔn)確檢測(cè)人體跌倒行為。用光流法預(yù)算理數(shù)據(jù),消除了人體行為圖像的背景環(huán)境,簡(jiǎn)化了信息的獲?。辉诰矸e神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練策略上采用遷移學(xué)習(xí)方法,加強(qiáng)了訓(xùn)練效果;自制了跌倒行為數(shù)據(jù)集,并將其與URFD 數(shù)據(jù)集結(jié)合為新數(shù)據(jù)集,解決了模型過(guò)擬合的問(wèn)題;設(shè)置三組對(duì)比試驗(yàn),均顯示了本方法可在日常行為中檢測(cè)出跌倒行為并且有較好的準(zhǔn)確率,在實(shí)際使用時(shí)也更加安全。然而由于光流法的使用需要滿足亮度恒定不變的假設(shè),因此在室內(nèi)環(huán)境亮度變化較大時(shí)會(huì)影響檢測(cè)效果,此問(wèn)題在后續(xù)研究工作中有待進(jìn)一步解決。

猜你喜歡
實(shí)驗(yàn)檢測(cè)方法
記一次有趣的實(shí)驗(yàn)
“不等式”檢測(cè)題
“一元一次不等式”檢測(cè)題
“一元一次不等式組”檢測(cè)題
做個(gè)怪怪長(zhǎng)實(shí)驗(yàn)
NO與NO2相互轉(zhuǎn)化實(shí)驗(yàn)的改進(jìn)
實(shí)踐十號(hào)上的19項(xiàng)實(shí)驗(yàn)
太空探索(2016年5期)2016-07-12 15:17:55
小波變換在PCB缺陷檢測(cè)中的應(yīng)用
用對(duì)方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
主站蜘蛛池模板: 这里只有精品在线播放| 欧美成人午夜影院| 中文字幕在线播放不卡| 91久久偷偷做嫩草影院电| 国产成人超碰无码| 四虎永久在线| 手机精品视频在线观看免费| 亚瑟天堂久久一区二区影院| 亚洲欧美在线看片AI| 91久久国产热精品免费| 久久亚洲精少妇毛片午夜无码| 99精品免费在线| 久久人搡人人玩人妻精品一| 自拍欧美亚洲| 爆乳熟妇一区二区三区| 欧美国产综合色视频| 老司国产精品视频| AV天堂资源福利在线观看| 九色综合视频网| 成人午夜天| 婷婷色婷婷| 欧美成人看片一区二区三区| 日韩在线网址| 色偷偷综合网| 成人免费一区二区三区| 日韩黄色精品| 久久久噜噜噜久久中文字幕色伊伊| 国产高清免费午夜在线视频| 小说 亚洲 无码 精品| 国产午夜一级淫片| 中文字幕在线播放不卡| 国产精品视频系列专区| 国产午夜一级毛片| 国产精品亚欧美一区二区三区| 欧美a在线看| 国产成人高清精品免费软件| 狠狠干综合| 88av在线播放| 最新国产午夜精品视频成人| 欧美不卡视频在线观看| 又粗又硬又大又爽免费视频播放| 98精品全国免费观看视频| 午夜福利亚洲精品| 免费观看欧美性一级| 亚洲三级成人| 波多野结衣无码AV在线| 毛片久久久| 色综合久久88| 国产偷倩视频| 一级毛片免费不卡在线| 久久永久视频| 久久一色本道亚洲| 国产一级毛片yw| AV不卡在线永久免费观看| 97影院午夜在线观看视频| 99在线观看国产| 亚洲午夜福利精品无码不卡| 国产黄色片在线看| 尤物亚洲最大AV无码网站| 热99精品视频| 真实国产精品vr专区| 欧美在线伊人| 久久黄色小视频| 久久人妻xunleige无码| 欧美在线视频a| 在线免费看黄的网站| 国产精品无码久久久久久| 日韩小视频网站hq| 日韩 欧美 国产 精品 综合| 精品国产中文一级毛片在线看| 激情综合网址| 精品视频在线一区| 欧美在线视频不卡第一页| 91丨九色丨首页在线播放 | 久久一级电影| 天堂久久久久久中文字幕| 日韩a级片视频| 国产精品久久自在自线观看| 亚洲三级a| 99热这里只有精品2| 伊在人亚洲香蕉精品播放| 欧美色亚洲|