999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于PAF的深度圖人體姿態估計

2020-01-13 07:48:16邵肖偉
智能計算機與應用 2020年1期
關鍵詞:深度檢測信息

劉 濤, 楊 璐, 邵肖偉

(1 天津市先進機電系統設計與智能控制重點實驗室(天津理工大學), 天津 300384; 2 機電工程國家級實驗教學示范中心(天津理工大學), 天津 300384; 3 日本東京大學 空間信息科學中心, 柏市 2778568)

0 引 言

人體姿態估計是計算機視覺領域中一個重要的研究任務。該任務旨在定位人體部位的關節點(例如:頭、肩膀、手腕等),并將關節點正確連接起來形成人體骨架。而對此展開研究、付諸應用則將對包括人體行為的理解[1-2]、人體的重識別[3]、人機交互等在內的諸多領域發展有著積極的意義。

過去,人體姿態識別多采用圖結構模型(pictorial structure models),主要包括三大部分。首先通過圖模型來描述人體的約束關系,其次使用人體部件觀測模型對人體部件外觀建立模型,最后依據約束信息和部件外觀模型進行圖結構的推理,從而估計人體姿態[4-5]。但是這些方法都不能很好地解決人體姿態估計的問題。

得益于深度學習的發展,卷積神經網絡在圖像領域中取得了可觀的研究成果。近些年來,越來越多的人使用CNN來解決人體姿態估計問題。基于CNN的人體姿態估計大致可分為兩大類:自上而下和自下而上。對此可闡釋如下。

自上而下先檢測圖像中人的位置,生成包含人的邊界框,然后對框中的人體進行姿態估計。文獻[6]使用Faster-RCNN[7]檢測圖片中的人并生成邊界框,使用全卷積的ResNet對每一個邊界框中的任務預測關節點的熱圖(heatmap)和坐標進行補償,融合這兩部分信息得到人體關節點的定位。文獻[8]使用對稱的空間轉換網絡和參數化姿態非極大值抑制來解決定位誤差和冗余檢測的問題。文獻[9]采用級聯的金字塔結構增大網絡的感受野來獲得上下文信息,以此來檢測遮擋的關節點。文獻[10]則在網絡中插入反卷積層來替代上采樣和卷積組成的結構,將低分辨率的特征圖擴張為原圖大小。自上而下的方法依賴于人體檢測的準確性,但在人體情況存在遮擋時,無法正確地進行估計。

自下而上則直接檢測人體的關節點,根據關節點的熱圖、點與點之間連接的概率,根據圖論知識將關節點分類到人,并且連接起來。文獻[11-12]將人體部分連接關系轉換為整數線性規劃(integer linear program)來進行人體姿態的估計。文獻[13]使用基于部件模型來處理語義層的推理和對象部分關聯性。文獻[14]采用嵌入式連接(Associative Embedding)將關節點的檢測與分類組合到一個過程,實現端到端的網絡。然而,自下而上需要建立復雜的推理過程。

綜上,雖然人體姿態估計領域有許多的研究,但是大部分都是基于RGB圖像,結合CNN針對深度圖場景下的研究不多,文獻[15]采用點云數據作為輸入來解決深度圖場景,但是點云數據獲取遠沒有深度數據獲取便利。并且深度圖像在一些涉及私密環境下比RGB圖像有更好的隱私保護性。針對深度圖像場景下的人體姿態估計問題,本文使用自下而上,基于PAF[16]的人體姿態估計方法。通過構建卷積神經網絡,進行關節點特征檢測和PAF信息的提取,將這些信息通過圖論匹配方法來構建人體姿態。

1 人體姿態模型

人體姿態估計包括檢測人體的關節點,并正確地將這些關節點連接起來這兩部分任務。一般關節點定義為:鼻、左眼、右眼、左耳、右耳、脖子、左肩、右肩、左肘、右肘、左腕、右腕、左髖、右髖、左膝、右膝、左腳踝、右腳踝。COCO[17]人體姿態模型的定義如圖1所示。kinematic tree定義的人體姿態模型如圖2所示。DensePose[18]所定義的人體姿態模型如圖3所示。ITOP深度場景所定義的人體姿態模型如圖4所示。

圖1 COCO姿態 圖2 kinematic tree姿態

2 算法

2.1 數據集

本文采用ITOP(Invariant-top view dataset)[19]數據集,ITOP數據集由點云數據轉換為240×320的深度圖片,包含2種視角,即:側面圖和俯視圖,訓練集兩種視角分別為39 795張,測試集兩種視角分別為10 501張。ITOP數據集的展示如圖5所示。

圖3 DensePose姿態 圖4 ITOP姿態

圖5 ITOP數據集

2.2 模型結構

圖6展示了模型的結構。首先將圖片輸入到VGG19[20]中,得到特征圖的集合F= (F1,F2,…,Fx),x代表特征圖的個數。網絡分為2個分支。第一個分支通過VGG19輸出的特征圖F產生對人體關節點的置信圖,即L1=h1(F);第二個分支同樣采用F產生關聯域信息,即S1=p1(F)。h1和p1分別為第一階段CNN的映射關系,這樣的一個過程稱為階段1,下一個階段將前一個階段的輸出與F結合作為輸入:

Lt=ht(F,Lt-1,St-1),?t≥2,

(1)

St=pt(F,Lt-1,St-1),?t≥2,

(2)

其中,ht和pt分別表示第t階段CNN的映射關系。

對于每一個階段的每一個分支采用L2損失函數來估計預測位置和真實位置存在的差異。并且對于一些數據中關節點位置沒有標注的情況,t階段的損失函數可以表示為:

(3)

(4)

(5)

2.3 部件檢測

(6)

圖6 模型結構

2.4 部件關聯域

對于檢測到的人體部件(頭、肩等-即關節點),需要對身體部件的關聯性進行置信度的預測(檢測到的關節點是否屬于同一人)。PAF是一個二維的向量場,保存著2個關節點連接間的位置信息和方向信息,研究得到的手肘到手的PAF信息如圖7所示,包含了手肘到手腕的方向信息,得到的連接稱為肢干。每個肢干對應著2個關節點的關聯域。

圖7 PAF信息

v=(xj2,i-xj1,i)/‖xj2,i-xj1,i‖2,

(7)

對于肢干上點的定義如下:

0≤v·(k-xj1,x)≤lc,i,

(8)

v⊥·(p-xj1,i)≤σl,

(9)

其中,肢干寬度σl為像素距離,肢干長度lc,i=‖xj2,i-xj1,i‖2,v⊥為v的垂直向量。

圖8 PAF坐標

在測試過程中,計算沿著候選關節點位置線段上相應PAF的積分,來測量關節點之間的關聯,得到每一段肢干的信息。即對于2個候選關節點dj1和dj2,從預測的關聯域中取點u,通過取到的點來判斷兩關節點的關聯性。計算時需用到的公式為:

(10)

其中,k(u)為關聯域間的點,對應數學公式具體如下:

k(u)=(1-u)dj1+udj2.

(11)

2.5 基于PAF的姿態匹配

n∈{1,...,Nj2}},

(12)

對于肢干上一對關節點的最優匹配問題則可以轉化為最大權值的二分圖匹配(maximum weight bipartite graph matching)[22]問題。在圖匹配問題中,圖的節點為人體關節點的檢測坐標,記為Dj1和Dj2,圖的邊(edges)是檢測關節點之間可能存在的連接。每條邊通過公式(11)進行加權計和運算,通過圖中的2條邊共享一個節點來選擇邊的子集,轉化為找到邊的最大權值。此時,其數學公式可寫作如下運算形式:

(13)

其中,Ec為肢干c匹配的總權重;z為肢干c的子集;Emn為公式(10)中關節點之間的關聯,公式(13)保證兩點共用一個邊。最后使用Hungarian算法[23]獲得最佳匹配結果。

3 實驗及結果分析

實驗環境基于服務器下進行,顯卡配置為4塊12 GB的NVIDIA TITAN V,操作系統為Ubuntu16.04。代碼語言選用Python和深度學習框架Pytorch。

訓練時大小為每批次64,初始學習率為0.001,最大迭代次數為38 000,動量為0.9,權值衰減為10 000步,30 000步,每次衰減為原來的一半,優化方式為Adam,優化器參數為0.9,0.999,10e-8。

本文在ITOP數據上訓練,對數據關節點進行處理,使其與COCO關節點檢測數據格式相同,并采用COCO的人體姿態模型。網絡訓練的損失曲線圖如圖9所示。在網絡迭代到前1 000次左右快速收斂,在后面的步數中緩慢下降,藍色區域選取的為10 K~30 K的損失收斂情況,通過右邊的小圖為圖9中藍色方框框選出的詳細結果圖,損失在10 K時的0.035緩慢下降到30 K時的0.025;綠色區域為30 K~38 K的損失收斂情況,綠色折線圖為區域的詳細結果圖,從30 K時的0.028左右緩慢收斂到0.020以下。

圖9 訓練損失圖

繼而,研究又得到網絡在各個階段關節點熱度圖和PAF信息的損失曲線圖如圖10所示。圖10中顯示了每個階段關節點熱度圖的損失曲線圖收斂情況,分別選取了不同步數,從stage2中的0.003 5到最后stage6的0.002 5。每個階段肢干PAF信息的損失曲線圖收斂情況如圖11所示,同樣選取了不同步數時的結果。結果可知網絡的總損失等于每個階段關節點熱度圖損失值和肢干PAF損失值的總和。模型在測試集上的檢測結果如圖12所示。

圖10 關節點熱度損失圖

圖11 PAF損失圖

圖12 模型預測結果

4 結束語

基于深度圖像的人體姿態估計具有非常大的研究意義,特別針對一些家庭等高度隱私的環境。本文采用PAF和CNN結合的方法,通過連接關節點信息和肢干信息來估計深度圖下的人體姿態。在深度數據集上的實驗表明,算法體現出了良好的性能,模型在測試集上預測的結果表明了算法在深度圖場景下其能夠準確的估計人體姿態。

猜你喜歡
深度檢測信息
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
深度理解一元一次方程
深度觀察
深度觀察
深度觀察
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
小波變換在PCB缺陷檢測中的應用
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
主站蜘蛛池模板: 试看120秒男女啪啪免费| 情侣午夜国产在线一区无码| 99免费在线观看视频| 欧美a级完整在线观看| 91美女在线| 在线中文字幕网| 久久99蜜桃精品久久久久小说| 亚洲AV无码乱码在线观看裸奔| 久久这里只有精品国产99| 国产女人在线视频| 国产永久无码观看在线| 亚洲无码A视频在线| 国产美女无遮挡免费视频| 欧美一区二区自偷自拍视频| 波多野结衣亚洲一区| 无码中文字幕乱码免费2| 国产内射在线观看| 国产精品制服| 日韩美女福利视频| 97无码免费人妻超级碰碰碰| 又爽又大又黄a级毛片在线视频| 国产剧情伊人| 福利在线不卡一区| 国产青青草视频| 亚洲天堂视频网站| 亚洲天堂精品视频| 久久国产精品77777| 2021国产乱人伦在线播放| 久久久久久久久18禁秘| 国产麻豆福利av在线播放 | 亚洲精品第五页| 美女毛片在线| 亚洲自偷自拍另类小说| 五月六月伊人狠狠丁香网| 97国产一区二区精品久久呦| 在线免费观看AV| 亚洲欧美在线综合图区| 国产亚洲第一页| 色综合中文综合网| 夜精品a一区二区三区| 亚洲综合片| 欧美啪啪网| 婷婷色中文网| 在线高清亚洲精品二区| www欧美在线观看| 亚洲丝袜中文字幕| 乱人伦99久久| 毛片基地美国正在播放亚洲| 亚洲二区视频| 狂欢视频在线观看不卡| 国产精品偷伦在线观看| 精品国产91爱| 99久久国产综合精品2020| 无码aaa视频| 欧美在线中文字幕| 亚洲愉拍一区二区精品| 草草影院国产第一页| 日韩欧美成人高清在线观看| 日韩黄色大片免费看| 91国内在线观看| 国产美女91视频| 最新加勒比隔壁人妻| 国产福利影院在线观看| 欧美a级完整在线观看| 中文字幕无码电影| 亚洲色欲色欲www网| 亚洲成人在线免费| 99ri国产在线| 婷婷成人综合| 国产成人免费视频精品一区二区| 91原创视频在线| 亚洲黄色网站视频| 伊人AV天堂| 午夜色综合| 亚洲黄色网站视频| 国产激情在线视频| 亚洲黄色片免费看| 国产69精品久久久久孕妇大杂乱 | 欧美成人二区| 91麻豆国产在线| 91精品aⅴ无码中文字字幕蜜桃| 欧美色图第一页|