999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于機器人視覺的面部表情識別技術分析

2021-02-28 07:30:09劉業輝宋玉娥朱賀新
現代信息科技 2021年16期

劉業輝 宋玉娥 朱賀新

摘? 要:在信息技術應用逐漸成熟的背景條件下,機器人視覺方案開始走入各行各業。為使機器人視覺面部表情識別達到理想的識別效果,研究了采用機器人視覺方式進行處理,對人類面部表情進行精準識別,進而為相關功能實現提供支撐,如學校課堂管理、安防工作等。該文主要針對基于機器人視覺的面部表情識別技術進行深入研究,以供參考。

關鍵詞:機器人視覺;面部表情;識別技術

中圖分類號:TP391.4? ? ? ? ? ? ? ? ? 文獻標識碼:A文章編號:2096-4706(2021)16-0102-03

Analysis of Facial Expression Recognition Technology Based on Robot Vision

LIU Yehui, SONG Yu’e, ZHU Hexin

(Beijing Polytechnic College, Beijing? 100042, China)

Abstract: Under the background of the gradual maturity of information technology application, robot vision scheme begin to enter all walks of life. In order to achieve the ideal recognition effect of robot visual facial expression recognition, the robot visual processing method is studied to accurately recognize human facial expression, so as to provide the supports for the realization of relevant functions,, such as school classroom management, security work, etc. This paper mainly studies the facial expression recognition technology based on robot vision for reference.

Keywords: robot vision; facial expression; identification technology

0? 引? 言

智能化解決方案正在廣泛應用,對面部表情進行識別的技術需求日益增多。為達到理想識別效果,需要合理采用機器人視覺面部表情識別技術,通過相關技術手段對人類表情進行深入分析,最終以高識別效率輸出高質量結果。通過研究相關技術細節,可以為后續應用機器人視覺方案打下堅實基礎,具有正面影響意義。

1? 表情識別方法分類

在機器人視覺方案應用階段,面部表情自動化識別屬于常用類型之一,其主要針對人類面部狀態進行采集,并對比數據庫內部表情數據,獲得特征加以分析。通過此類方式,可有效識別目標情緒傾向,有利于相關內容的聯想、整合與分析,快速識別特征面部表情。常規情況下,完整識別系統需要包含人臉檢測、定位跟蹤、特征提取、表情識別四個模塊[1]。

在針對人臉進行檢測的過程中,需要首先通過圖像采集模塊獲取數據信息,隨后利用序列處理方法,檢測目標人臉位置,并開展定位與跟蹤活動如圖1所示。

針對人臉進行檢測與定位的措施主要分為兩種,即知識措施與特征措施。知識措施需要對人臉存在的基礎條件進行規則化處理,使后續能夠利用知識數據庫完成粗檢測、精檢測流程,實現定位目標人臉位置的目標。粗檢測與精檢測的主要區別與分辨率、幀率存在關聯,因此需要根據環境條件與硬件條件的差異進行針對化處理。目前,主流應用方案采用灰度圖像積分投影曲線處理方式進行操作,其能夠根據局部區域極值數據,判斷人臉器官所處位置,整體魯棒性較高[2]。除此之外,基于特征的檢測方法也具有理想應用價值,其在處理階段需要借助人臉所具備的相關特征進行操作,如膚色情況、紋理狀態、邊緣位置等。但是,相對于知識檢測方法,特征檢測可能會受到其他條件干擾,因此應當避免在精細化要求較高的場合應用。為達到理想識別效果,應當針對面部表情信息進行分類處理。通常情況下,分類工作主要利用設計機制展開預先定義的類別處理。常用分類措施主要分為兩種,即模板匹配、神經網絡[3]。

2? 人臉圖形獲取與預處理

對針對人臉圖形進行獲取并完成預處理操作時,需要首先補償光照條件,避免信息出現亮度過低、模糊等影響識別的問題。通常情況下,人類面部膚色容易受到光源顏色、采集設備色差等問題影響,出現偏離實質色彩的情況。因此,需要利用參考白算法完成圖像補償措施,使光照條件產生的負面影響能夠得到有效控制。

光照條件補償糾正結束后,應當對圖像信息進行中值濾波平滑處理。中值濾波屬于非線性濾波類型,其能夠有效排除噪聲像素,為后續進一步識別提供重要基礎。在實踐階段,應當對圖像內部像素周邊灰度差距較大的位置進行糾正,使其能夠與周邊像素實現平均化表現狀態。

3? 面部表情識別系統的實現與實驗結果

3.1? 面部表情識別系統設計

面部表情識別系統設計基本結構如圖2所示。

在設計面部表情識別系統的過程中,需要首先準備系統應用設備并合理規劃界面布局。本次應用實驗平臺為臺式計算機設備,并結合USB攝像頭裝置完成視頻圖像采集。臺式計算機配置為AMD RYZEN 5600X處理器,內存配置為16 GB,能夠有效承載面部識別計算壓力與數據存儲需求。表情識別系統采用C++編寫,并基于開源視覺庫OPEN GL完成處理模塊設計[4]。在界面規劃階段,中央顯示窗口應當與攝像頭連接,顯示視頻信息內容。窗口內采用紅色矩形標記目標人臉位置,為調試跟蹤模塊提供基礎條件。表情識別信息需要顯示于紅色矩形標記下方,并在界面右側控制區域輸出幀數狀態與識別結果保存位置。面部表情識別處理如圖3所示。

首先利用檢測定位方式對視頻圖像幀進行檢查、處理,隨后將人臉區域從攝像頭信息中分離(割)。若在單幀內成功檢測到目標人臉,則啟動人臉跟蹤處理模塊。

3.2? 人臉檢測定位及跟蹤實驗

人臉檢測與定位屬于機器人視覺識別方案的核心模塊,通過從人類基本表情視頻流內抽取相關圖像進行對比,并采用雙眼定位與視覺瞳孔拾取方法進行處理,能夠有效明確定位方案應用效果。實驗過程中,主要針對X與Y方向的雙眼瞳孔定位進行分析,并明確誤差情況。結果顯示,瞳孔定位誤差極限數據不超過4像素,具有應用可靠性。同時,對虹膜半徑識別誤差極限不超過5像素,單幀定位耗時僅523毫秒,實時性良好。

在跟蹤實驗開展階段,主要應用中值濾波、開啟閉合等像素操作方案,整體時間消耗較長。通過采用1 000幀人臉識別圖像數據進行粗定位實時檢測,對結果進行分析能夠發現,針對單幀圖像的定位耗時極限達到了72毫秒,實用性較低。為解決此類問題,應當采用粒子濾波跟蹤應用算法,使人臉檢測與識別裝置能夠得到有效補充,進一步強化實時性特征,跟蹤計算時采用式(1)進行處理[5]。

yt=2yt-1-yt-2? ? ? ? ? ? ? ? ? ? ? ? ? ? ?(1)

本式中,y代表二維向量{r,c},r,c分別代表此粒子在目標圖像內的行列坐標狀態。yt代表第t次粒子濾波初始階段所處位置,yt-1代表第t-l次確定的跟蹤目標位置,yt-2代表第t-2次確定的跟蹤目標位置。完成改造后再次進行相關識別測試發現,跟蹤算法耗時僅為人臉粗定位算法耗時的二分之一。人臉區域檢測定位與跟蹤主要算法流程如圖4所示。

3.3? 面部表情識別實驗

在針對面部表情進行識別時,為明確系統應用效果,需要展開相關測試實驗。實驗工作主要依靠訓練分類表情數據進行處理,相關數據內容來源于5名隨機人員在穩定環境條件下展現面部表情。通過對比相關實驗數據能夠發現,本次構建的表情識別系統能夠對特定目標面部情況實現高效識別,與人工鑒定表情類型結果具有趨同性,可判定為準確度較高。同時,針對實驗結果進行分析能夠發現,本次應用系統對相關特征表情的識別率超過85%,平均可識別效果相對接近,均處于85%以上。針對特定表情進行識別時,由于面部特征明顯,因此識別率會產生上升趨勢,如開心、驚訝、憤怒等,識別率能夠達到95%以上。此類面部表情特征與其他常見表情存在顯著差異,在面部器官位置出現改變時,識別敏感區域相對位置與狀態變化顯著,如面部眉毛、眼睛、嘴部等。因此,針對相關表情的識別效果較為良好,能夠在特定要求下進行應用。除此之外,針對厭煩、害怕、悲傷三種表情的識別效果相對較差,容易出現判斷錯誤或結果混淆等情況。導致此類問題出現的主要原因與三種表情敏感區域變化不顯著有關,同時此類負面表情共同特征較多,容易導致人臉識別系統出現誤判斷問題。因此,需要重視對負面表情識別的優化工作,確保不同類型面部特征能夠得到有效區分,避免影響整體識別準確率與穩定性。

除常規識別實驗外,還應當展開非特定人類表情識別實驗工作。通過此類實驗方式,能夠明確本次設立的表情識別系統能否使用多種差異人群類型識別需求場景。通過選擇四名非特定人選開展識別工作,并利用與常規面部識別系統完全一致的分類裝置進行處理,能夠在排除特定圖像信息的情況下展開客觀識別活動。四名非特定測試人員需要在穩定環境條件下展現多種面部表情,如厭煩、害怕、開心、悲傷等[6]。在表情分類裝置內部不存在對應樣本的情況下,整體工作穩定性大幅降低,但是整體分析表情識別效果與人工識別仍然存在顯著趨同性,平均識別率達到了80%,可以認為非特定人類表情識別效果仍然較為理想,能夠明確整體識別效果具有較為穩定的趨勢。因此,本次識別系統具有顯著實用性,能夠在多種情況條件下進行應用。用訓練過和為訓練過的人分別做測試,初步結果如表1所示。

4? 結? 論

綜上所述,在針對人類面部表情進行識別的過程中,機器人視覺解決方案具有良好應用效果。在落實系統處理架構時,需要重視相關技術應用細節,確保面部表情能夠得到穩定識別,盡可能提高應用質量與效率,為后續多種場景應用打下堅實基礎,進一步拓展計算機識別應用功能推廣范圍。

參考文獻:

[1] 潘光良.機器人人臉表情識別技術研究 [J].智能機器人,2019(1):50-52.

[2] 李蕭瑋.基于智能服務機器人表情識別技術研究 [J].中國新通信,2018,20(23):76.

[3] 王鍇.挑戰條件下的人臉表情識別 [D].中國科學院大學(中國科學院深圳先進技術研究院),2020.

[4] 何志超,趙龍章,陳闖.用于人臉表情識別的多分辨率特征融合卷積神經網絡 [J].激光與光電子學進展,2018,55(7):370-375.

[5] 姚麗莎,徐國明,趙鳳.基于卷積神經網絡局部特征融合的人臉表情識別 [J].激光與光電子學進展,2020,57(4):338-345.

[6] 崔鳳焦.表情識別算法研究進展與性能比較 [J].計算機技術與發展,2018,28(2):145-149.

作者簡介:劉業輝(1969.12—),男,漢族,四川省開縣人,教授,碩士研究生,主要研究方向:電子通信、移動互聯應用、人工智能應用;宋玉娥(1981.02—),女,漢族,山東省曹縣人,副教授,信號處理學博士,主要研究方向:移動通信工程、信息安全與對抗、人工智能應用;朱賀新(1983.06—),女,漢族,河南省南陽人,副教授,通信與信息系統碩士,主要研究方向:移動通信工程、移動互聯應用、人工智能應用。

主站蜘蛛池模板: 国产美女91视频| 天天综合网色中文字幕| 成人午夜福利视频| 色综合成人| 国产精品无码影视久久久久久久 | 国产对白刺激真实精品91| 天天躁夜夜躁狠狠躁躁88| 久久99国产综合精品女同| 麻豆国产精品视频| 国产18在线播放| 成年午夜精品久久精品| h视频在线观看网站| 久久77777| 国产a网站| 精品国产Ⅴ无码大片在线观看81 | 成人亚洲视频| 人妻夜夜爽天天爽| 五月天天天色| 极品av一区二区| 日韩精品高清自在线| 99精品国产高清一区二区| 成人在线欧美| 天堂亚洲网| 亚洲经典在线中文字幕| 亚洲一区二区日韩欧美gif| 国产精品页| 免费看美女自慰的网站| 日韩欧美中文字幕一本| 女人18一级毛片免费观看| 亚洲AV永久无码精品古装片| 免费高清毛片| 亚洲乱伦视频| 欧美日韩一区二区在线免费观看| 免费无遮挡AV| 日韩a在线观看免费观看| 一本大道香蕉久中文在线播放| 国产成人无码播放| 国产精品va免费视频| 激情午夜婷婷| 免费国产小视频在线观看| 亚洲男人的天堂在线观看| 欧美在线三级| 亚洲欧美天堂网| 伊人五月丁香综合AⅤ| 爱色欧美亚洲综合图区| 亚洲综合在线最大成人| 无码精油按摩潮喷在线播放 | 人妻一本久道久久综合久久鬼色| 9cao视频精品| 亚洲V日韩V无码一区二区 | 国产黑人在线| 亚洲an第二区国产精品| 国产精品999在线| 亚洲日韩高清在线亚洲专区| 一级毛片免费的| 日韩专区欧美| 美女啪啪无遮挡| 91蝌蚪视频在线观看| 视频二区亚洲精品| 亚洲中文精品人人永久免费| 欧美精品在线视频观看| 四虎AV麻豆| 波多野结衣在线一区二区| 亚洲第一中文字幕| 精品自拍视频在线观看| 久久熟女AV| 亚洲国产清纯| av一区二区人妻无码| 亚洲欧洲天堂色AV| 国产福利一区视频| 激情综合五月网| 在线中文字幕网| 天天视频在线91频| 免费国产高清精品一区在线| 91成人在线观看| 中文字幕丝袜一区二区| 全免费a级毛片免费看不卡| 为你提供最新久久精品久久综合| 综合久久五月天| 欧美在线天堂| 99久久国产综合精品女同| 国产亚洲成AⅤ人片在线观看|