999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于SDAE深度學(xué)習(xí)框架的現(xiàn)代學(xué)徒制課程教學(xué)質(zhì)量評價研究

2020-01-13 07:48:20左國才蘇秀芝王海東韓東初
智能計算機(jī)與應(yīng)用 2020年1期
關(guān)鍵詞:人臉識別深度模型

左國才, 張 玨, 蘇秀芝, 王海東, 韓東初

(1 湖南軟件職業(yè)學(xué)院, 湖南 湘潭 411100; 2 湖南大學(xué), 長沙 410082)

0 引 言

《國務(wù)院關(guān)于印發(fā)國家職業(yè)教育改革實施方案的通知(國發(fā)〔2019〕4號)》中指出:“總結(jié)現(xiàn)代學(xué)徒制試點經(jīng)驗,推進(jìn)校企融合、教學(xué)管理等改革與創(chuàng)新,對全國職業(yè)院校的教育管理、教學(xué)質(zhì)量、學(xué)生職業(yè)技能提升等方面進(jìn)行考核評估,促進(jìn)職業(yè)院校深化課程改革,提高師資水平,全面提升教育教學(xué)質(zhì)量。”

堆棧式去噪自編碼器(SDAE)深度學(xué)習(xí)框架已經(jīng)成功應(yīng)用于人臉識別、單目標(biāo)跟蹤、多目標(biāo)跟蹤、生物醫(yī)學(xué)圖像檢索等方面[1],本文設(shè)計基于堆棧式去噪自編碼器(SDAE)深度學(xué)習(xí)框架的課堂行為分析模型,用于研究現(xiàn)代學(xué)徒制班的教師、學(xué)生課堂行為與教學(xué)效果的關(guān)系,為課堂教學(xué)質(zhì)量評價提供依據(jù),實現(xiàn)更有針對性的教學(xué)。并且,研究學(xué)生課堂專注度分布情況,掌握一堂課中學(xué)生的專注度分布情況,有利于教師將重點內(nèi)容放在學(xué)生專注度相對較高的時間段進(jìn)行講解,合理地設(shè)計教學(xué)方案,改進(jìn)教學(xué)效果,切實提高教學(xué)質(zhì)量。

1 堆棧式去噪自編碼器

Bengio等人[2]提出通過增加噪音的方式來獲得更加魯棒特征的去噪自編碼器算法(DAE)。此后研發(fā)的堆棧式去噪自編碼器(SDAE)是基于DAE算法提出的,在網(wǎng)絡(luò)層次逐漸加深和完善。去噪自編碼器可以將一個帶有噪音干擾的圖像恢復(fù)到?jīng)]有噪音的原始圖像,具有較少特征單元的隱藏層特征可以用于表示原始的圖像輸入層,去噪自編碼器可以獲得更少而且更加魯棒的圖像特征表示,成功實現(xiàn)了圖像的降維。去噪自編碼器可以編碼帶有噪音干擾的輸入數(shù)據(jù)X'到隱藏層數(shù)據(jù)Y,再將隱藏層數(shù)據(jù)Y解碼回近似于原始輸入數(shù)據(jù)Y'。為了使解碼后的數(shù)據(jù)Y'和原始輸入數(shù)據(jù)X盡可能相等,去噪自編碼器通過下面的優(yōu)化函數(shù)來調(diào)整編碼層和解碼層的參數(shù),這里用到的數(shù)學(xué)公式可順次表示為:

假設(shè):

Y=f(WX+b),

(1)

Y'=f(W'Y+b'),

(2)

那么:

(3)

相比于堆棧原始的自編碼器所建立的網(wǎng)絡(luò)模型,堆棧式去噪自編碼器將取得更好的表現(xiàn),并能獲得更加魯棒的圖像特征。這種去噪策略和堆棧式多層結(jié)構(gòu)將有助于指導(dǎo)網(wǎng)絡(luò)模型去學(xué)習(xí)更加有用和高級的圖像特征表示,而且采用了無監(jiān)督方式來獲得較為抽象和精致的圖像特征。其網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計和訓(xùn)練過程中使用無監(jiān)督的訓(xùn)練方式均將用來逐層訓(xùn)練參數(shù)權(quán)重,再將上一層的輸出作為下一層的輸入繼續(xù)訓(xùn)練,從而產(chǎn)生越來越高級別的特征表示。堆棧式去噪自編碼器網(wǎng)絡(luò)模型[3]如圖1所示。

基于堆棧式去噪自編碼器(SDAE)的更加魯棒、更加高級的圖像特征表示優(yōu)勢,本文利用堆棧式去噪自編碼器(SDAE)模型實現(xiàn)人臉識別與人的姿態(tài)檢測識別,對現(xiàn)代學(xué)徒制班教師、學(xué)生的課堂行為進(jìn)行客觀量化的分析,為課程教學(xué)質(zhì)量提供客觀評價依據(jù)。

2 教師與學(xué)生課堂行為分析算法

2.1 基于SDAE的人臉識別算法

無監(jiān)督訓(xùn)練的堆棧式去噪自編碼器模型學(xué)習(xí)一般圖像的深度特征表示,使用有監(jiān)督的微調(diào)網(wǎng)絡(luò)模型學(xué)習(xí)和調(diào)整人臉識別任務(wù)中部分微小的且不同于一般化圖像的特征。關(guān)于在線進(jìn)行人臉識別的深度網(wǎng)絡(luò)模型如圖2所示。

算法步驟可分述如下:

(1)利用大規(guī)模圖像數(shù)據(jù)集Tiny[4],離線訓(xùn)練堆棧式去噪自編碼器深度學(xué)習(xí)模型,學(xué)習(xí)圖像的一般化特征。

(2)使用帶標(biāo)簽的人臉數(shù)據(jù)庫進(jìn)行深度特征的微調(diào)和訓(xùn)練新的特征提取網(wǎng)絡(luò)模型,并在頂層輸出層后添加分類層,構(gòu)建深度特征提取模型。

(3)通過分類層和人臉訓(xùn)練數(shù)據(jù),有監(jiān)督在線微調(diào)特征模型,利用新的深度在線人臉識別模型完成判別和識別人臉目標(biāo)的任務(wù)。

圖1 堆棧式去噪自編碼器網(wǎng)絡(luò)模型 圖2 人臉識別的深度網(wǎng)絡(luò)模型

Fig. 1Network model of stack denoising self-encoder Fig. 2 Depth network model for face recognition

2.2 學(xué)生課堂行為分析算法實現(xiàn)

設(shè)計基于SDAE人臉識別技術(shù)的教師與學(xué)生課堂行為分析算法。通過檢測識別教師、學(xué)生在教室中表現(xiàn)出的姿態(tài)、神情、動作等特征[5],判斷教師授課狀態(tài)及學(xué)生上課專注度的高低。研究可得闡釋解析如下。

(1)算法思想。本次研究擬設(shè)計基于SDAE人臉識別技術(shù)的課堂行為分析算法,提取到目標(biāo)人臉,對人臉面部特征進(jìn)行檢測,同時檢測目標(biāo)人物的姿態(tài)。

通過檢測目標(biāo)(教師、學(xué)生)所在教室表現(xiàn)出的姿態(tài)、神情、動作等,判斷教師授課狀態(tài)及學(xué)生聽課專注度的狀況,用于研究現(xiàn)代學(xué)徒制班的課堂專注行為與學(xué)習(xí)效果的關(guān)系,為現(xiàn)代學(xué)徒制班課堂教學(xué)質(zhì)量評價提供客觀依據(jù),實現(xiàn)更真實有效的課程教學(xué)質(zhì)量評價。

(2)專注度判定流程。首先在課堂教學(xué)視頻中間隔5 s隨機(jī)采集一幀圖片,通過SDAE人臉識別模型,判斷其身份(教師或者學(xué)生)并標(biāo)識出來,然后分別根據(jù)教師或者學(xué)生的姿態(tài)、神情、動作檢測識別,判斷被測目標(biāo)是否專注課堂。教師與學(xué)生上課專注度判斷流程如圖3所示。

(3)專注度判定算法實現(xiàn)步驟

① 利用海量圖片集對堆棧式去噪自編碼器深度學(xué)習(xí)模型進(jìn)行離線訓(xùn)練,無監(jiān)督地學(xué)習(xí)圖像的一般化特征。

② 將拍攝的教師、學(xué)生所在教室表現(xiàn)出的姿態(tài)、神情、動作圖片數(shù)據(jù)用于實驗訓(xùn)練和測試。從中隨機(jī)選擇80%的課堂行為圖片作為訓(xùn)練數(shù)據(jù)集,其余的20%圖片作為測試數(shù)據(jù)集。

圖3 課堂行為判斷流程

③ 使用離線訓(xùn)練好的堆棧式去噪自編碼器模型進(jìn)行在線深度學(xué)習(xí),并更新目標(biāo)人臉與目標(biāo)姿態(tài)、神情、動作檢測識別模型,再通過誤差反饋,進(jìn)行權(quán)重參數(shù)微調(diào)。

④ 使用微調(diào)后的權(quán)重參數(shù)和教師或?qū)W生的課堂行為測試數(shù)據(jù)集,來測試目標(biāo)的人臉及姿態(tài)、神情、動作識別算法,利用sigmoid分類層來判別和輸出教師或者學(xué)生課堂專注度識別結(jié)果。

3 測試序列及實驗結(jié)果分析

基于SDAE深度學(xué)習(xí)模型的教師、學(xué)生上課專注度判斷實驗環(huán)境主要包括:視頻采集,采用了分辨率較高的網(wǎng)絡(luò)視頻監(jiān)控攝像機(jī);軟件環(huán)境方面,操作系統(tǒng)為Windows7,64位,CPU為2.6 G,內(nèi)存為4 GB。深度學(xué)習(xí)實驗環(huán)境為:CPU為i7-5830K,內(nèi)存為128 G,GPU為GTX1080,深度學(xué)習(xí)框架使用TensorFlow1.4 ,開發(fā)語言選用Python3.6。

實驗中采用教室任意采集的50組時長為200 s的視頻序列。采集任意一張教師或?qū)W生上課中的課堂圖像,進(jìn)行專注度判斷,檢測結(jié)果如圖4、圖5所示。在課堂上,根據(jù)教師、學(xué)生的姿態(tài)、神情、動作進(jìn)行檢測識別。坐姿端正,雙手?jǐn)[放桌上,眼睛注視講臺或者教師的行為被檢測為課堂專注行為,否則被檢測為不專注行為。

由于課堂行為訓(xùn)練數(shù)據(jù)量不夠大,容易導(dǎo)致過擬合;訓(xùn)練數(shù)據(jù)標(biāo)識不精確、學(xué)生在課堂上表現(xiàn)的姿態(tài)、神情、動作等比較隨意和多樣化,這均會影響最終的識別效果;由于教師與學(xué)生是面對面的情況,教師與學(xué)生同時拍攝到的圖像只能識別一類,不能同時識別教師與學(xué)生,識別一張圖像需要用到2個模型,增加了算法復(fù)雜度,影響識別速度和效率。

圖4 教師與學(xué)生專注行為檢測結(jié)果

圖5 學(xué)生專注行為檢測結(jié)果

4 結(jié)束語

SDAE深度學(xué)習(xí)框架能夠提取更魯棒更高級的深度特征,提高了人臉及學(xué)生的姿態(tài)、神情、動作的識別效率與準(zhǔn)確率。本文設(shè)計研發(fā)了基于SDAE深度學(xué)習(xí)框架的教師與學(xué)生的課堂行為分析算法,對教師、學(xué)生課堂專注行為進(jìn)行研究,實現(xiàn)對人臉及學(xué)生的姿態(tài)、神情、動作的識別,判斷教師授課的狀態(tài)與學(xué)生聽課的專注度情況,為教學(xué)質(zhì)量評價提供客觀量化的分析評測基礎(chǔ)。

猜你喜歡
人臉識別深度模型
一半模型
人臉識別 等
深度理解一元一次方程
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
揭開人臉識別的神秘面紗
深度觀察
深度觀察
深度觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 成人亚洲视频| 热re99久久精品国99热| 性欧美在线| 日日噜噜夜夜狠狠视频| 亚洲国产高清精品线久久| 国产v精品成人免费视频71pao| 亚洲日本www| 国产精品亚洲综合久久小说| 国产精品视频久| 色天堂无毒不卡| 幺女国产一级毛片| vvvv98国产成人综合青青| 精品欧美视频| 亚洲国产成人综合精品2020| 91黄视频在线观看| 中日韩一区二区三区中文免费视频| 色吊丝av中文字幕| 麻豆精品在线播放| 亚卅精品无码久久毛片乌克兰| 香蕉久人久人青草青草| 天天躁日日躁狠狠躁中文字幕| 直接黄91麻豆网站| 美女黄网十八禁免费看| 亚洲一区国色天香| 日本91在线| 91精品国产一区自在线拍| 亚洲无码A视频在线| 九九热视频在线免费观看| 一级爱做片免费观看久久| 人妻无码中文字幕第一区| 青草免费在线观看| 天天色综合4| 澳门av无码| 国产亚洲视频免费播放| 久久精品中文字幕少妇| 黄片在线永久| 国产jizzjizz视频| 亚洲精品无码AV电影在线播放| 国产精品理论片| 亚洲不卡av中文在线| 久久黄色一级片| 亚洲中文精品人人永久免费| 国产麻豆另类AV| 91系列在线观看| 日本91视频| 欧美伦理一区| 日本三区视频| 国产精品主播| 中文字幕无码av专区久久| 在线观看欧美国产| 伦精品一区二区三区视频| 亚洲男人的天堂久久香蕉网| 成人福利一区二区视频在线| 亚洲免费毛片| 精品免费在线视频| 性色一区| 国产成人乱码一区二区三区在线| 国产哺乳奶水91在线播放| 久久亚洲中文字幕精品一区| 狼友视频国产精品首页| 色爽网免费视频| 免费Aⅴ片在线观看蜜芽Tⅴ| 亚洲精品国产日韩无码AV永久免费网 | 成人亚洲视频| 波多野结衣一区二区三区四区视频 | 色婷婷国产精品视频| 在线欧美a| 波多野结衣爽到高潮漏水大喷| 无码视频国产精品一区二区| 亚洲成人黄色在线| 欧美一级高清片久久99| 综合五月天网| 999精品视频在线| 国产熟睡乱子伦视频网站| 国产一级小视频| 人妻精品久久无码区| 国产美女视频黄a视频全免费网站| 视频二区欧美| 91网红精品在线观看| 欧美亚洲中文精品三区| 丁香综合在线| 亚洲欧美在线精品一区二区|