999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于HEIV算法改進的瞳孔中心定位

2015-12-20 06:54:50賈彩琴
計算機工程與設計 2015年12期
關鍵詞:方法

賈彩琴,楊 劍

(中北大學 計算機與控制工程學院,山西 太原030051)

0 引 言

目前,瞳孔中心定位常用的算法有Hough變換法[1]與橢圓擬合法[2]。Hough變換法抗干擾能力強,但是計算量大,運算速度慢且對存儲空間要求高;橢圓擬合目前使用最多的方法是最小二乘法[3],該方法是根據測量得到的瞳孔邊緣點集,運用非線性最小二乘法來搜索目標函數最小值,估計出橢圓曲線的參數。該方法存在的問題:最小二乘算法在邊界樣本點數量較大,且噪聲同方差的條件下橢圓擬合精度較高,但是在橢圓邊界不完整,噪聲異方差等條件下,檢測的結果誤差較大,同時最小二乘的計算量較大。

針對以上問題,本文提出一種瞳孔中心定位法。該方法主要包含兩個部分:人臉檢測及眼睛精確定位。利用基于Adaboost的人臉檢測方法確定人臉區域,并推測出眼睛的位置,進而得到左右眼的有效矩形區域,用Sobel算子對眼睛的矩形區域進行邊緣檢測,利用基于異方差 (heteroscedastic errors-in-variables,HEIV)方 法 進 行 橢 圓 擬合,將擬合的中心點作為人眼瞳孔的中心,從而精確定位瞳孔。實驗結果表明,該方法比傳統的最小二乘法定位精度高,且魯棒性好。

1 原有的人臉檢測及瞳孔中心定位方法

AdaBoost是一種迭代算法[5]。該算法主要原理是:對于一組訓練集,通過改變每個樣本的分布概率,來得到不同的訓練集Si,對于每一個訓練集Si進行訓練從而得到一個弱分類器,再將這些弱分類器根據不同的權值組合起來,就得到了強分類器,然后將該強分類器按照級聯結構組合起來得到級聯分類器,最終通過級聯分類器來檢測人臉和眼睛。

1.1 基于AdaBoost方法的人臉檢測

本文采用了改進的AdaBoost算法并結合Viola等的級聯模型構建人臉和人眼分類器[6]。人臉檢測需要對待測圖像進行分析,判斷其是否為人臉。我們將收集的樣本分為人臉樣本和非人臉樣本兩類,由Adaboost算法及級聯分類器來完成訓練過程。而在待測圖像通過級聯分類器時,將會一次通過級聯分類器中的強弱分類器,在該過程中,如果某一強分類器拒絕該圖像通過,則認為該圖像為非人臉。

1.2 基于AdaBoost方法的人眼檢測

人臉定位后,由于眼睛分布在人臉的上半部分區域,可以利用眼睛分類器在人臉區域上半部進行眼睛檢測。在這一步中,本文仍然使用基于AdaBoost算法訓練出的級聯分類器[7]。該步驟中用到的AdaBoost分類器中訓練的為人眼樣本。

眼睛區域定位如圖1所示。

圖1 眼睛區域定位

1.3 眼睛精確定位

利用AdaBoost方法得到人眼所在位置的矩形框后,找到接近眼睛的橢圓,進而對眼睛進行精確定位。因此,提取出眼睛輪廓線是必要的。具體如下:

(1)從人臉圖像中劃分出左右眼的有效區域,并對該區域進行灰度化。

(2)對提取出的雙眼所在有效矩形區域進行二值化處理,然后利用Sobel算子對圖像進行邊緣檢測,從而提取出眼睛邊緣,如圖2 (a)所示。

(3)通過尋找人眼邊緣像素點的最大聯通區域,找出眼睛的實際輪廓線,如圖2 (b)所示,然后利用橢圓擬合來確定眼睛的中心點。

圖2 眼睛的精確定位

1.4 最小二乘瞳孔中心定位

最小二乘擬合是數據擬合中的基本方法,其主要思想是在隨機誤差服從正態分布時,利用最大似然法推出一個最優解,它的約束條件是使誤差的平方和達到最小[8]。

一般二次曲線可用一個二次多項式來表示

假設 (xi,yi) {i=0,1,…,m}是瞳孔邊緣點集。根據最小二乘法,將點集 (xi,yi)到橢圓的距離由式顯示。

求解上述方程組,進而求得方程各系數,橢圓方程便確定了。根據橢圓方程便可確定橢圓的長軸,短軸及其中心[8]。

利用最小二乘法橢圓擬合時,最小二乘算法在邊界樣本點數量較大,且噪聲同方差的條件下橢圓擬合精度較高,但是由于邊緣數據不完整且噪聲異方差,使得實驗結果誤差較大,不能滿足實際測量中的高精度要求。

2 改進的基于HEIV模型橢圓擬合

橢圓擬合的數學模型可抽象為

其中,xio∈Rq,θ∈Rp。xio代表測量的理想數據,由于在實際中,測量數據xi會受噪聲影響而帶有一定的測量誤差。本文假設該誤差服從均值為0,方差為σ2Cx的正態分布,即

這里,GI(0,C)表示均值為0,協方差為C 的獨立同分布概率密度。表達式 (3)和帶有噪聲影響的變量 (4)被稱為變量含誤差模型 (EIV)。如果各數據δxi具有不同的方差時,便稱為異方差變量含誤差模型 (HEIV)。HEIV模型就是從實際測量的數據出發,考慮帶有誤差的數據因素,來對參數進行精確估計。

令x=(x,y),Z(x)=[x2,xy,y2,x,y],θ=[A,B,C,D,E],α=F,則橢圓的一般方程可表示為

通常情況下,測量誤差的方差矩陣σ2Cx是未知的,設定測量數據x的噪聲δx 服從均值為0,方差為Cx=σ2I2的高斯分布。求得δZi的均值與協方差矩陣[4]

可知數據Z(xi)的噪聲δZi不是獨立同分布的,故采用基于HEIV 模型的方法進行橢圓擬合。將帶有噪聲數據點Zi與理想數據點Zio間的馬氏距離作為代價函數

利用文獻 [9]的方法可以求解式 (8),但是為了提高運算速度及其穩定性,本文利用廣義奇異值分解來進行求解,是一個迭代求解的過程。如下:

這里,U′i,V′i是正交矩陣,對角矩陣D 包含矩陣的奇異值。矩陣的逆平方根矩陣Γi如下

從式 (13)和式 (14)可知

同理

由廣義奇異值分解 (GSVD)的定理[10]知,存在正交矩陣U ∈Rmn×mn,V ∈Rp×p和可逆矩陣Y ∈Rp×p,使得

其中,Y =[y1,y2,…,yn]稱為廣義奇異值向量。本文所要找的^θ是最小廣義奇異值向量yp,它對應最小廣義奇異值σp。當σp=1 時,其所對應的特征向量yp即為式 (8)的解。

本文提出算法的步驟如下:

步驟1 根據式 (10)計算散布矩陣和加權協方差矩陣,拉格朗日乘子ηi,構造廣義特征值問題;

步驟2 根據廣義奇異值分解,將等式轉化為求解最小特征向量的問題,見式;

步驟3 迭代求解,直到σp=1時,迭代完成,所對應的特征向量即為所求解。

3 實驗結果及分析

為了驗證所提HEIV 算法在瞳孔中心定位問題上相比于最小二乘法的有效性,本文分別進行了橢圓擬合仿真實驗和瞳孔中心定位現場實驗。該實驗應用2.9GHz CPU,內存4GB 的PC 機,并結合MATLAB2013 仿真平臺進行仿真。

3.1 橢圓擬合仿真實驗

實驗方案設置為:在MATLAB2013 平臺上,設定一標準橢圓,定義其橢圓中心坐標為 (30,30),長半軸、短半軸為 (a,b)= (15,30)。本文抽取橢圓邊緣點的右下部分數據進行橢圓擬合,對該部分邊緣點添加服從正態分布的噪聲,其中均值為0,方差為1。分別利用LS擬合法和HEIV 擬合方法進行橢圓擬合,實驗進行500次。

由圖3知,圖 (a)、圖 (b)分別為LS,HEIV 方法所求取的橢圓中心的分布圖,圖 (c)、圖 (d)為LS方法得到的誤差分布圖,圖 (e)、圖 (f)為HEIV 算法求得的誤差分布圖。從圖中可以得到,利用最小二乘法求取的瞳孔中心比較集中,其X 分量均分布在0的右側,Y 分量均分布在0的左側,嚴重偏離了中心,屬于有偏估計。而利用HEIV 方法求得的中心誤差的X 分量與Y 分量均分布在0的兩側,屬于無偏估計,但相對于最小二乘法來說,其誤差分散范圍較大。

圖3 兩種方法求取瞳孔中心誤差分布

3.2 瞳孔中心定位現場實驗

本次實驗對自建人臉庫及BioID 人臉庫進行測試。其中,BioID 人臉庫中包含1521個分辨率為384 (286的灰度自然場景下的人臉圖像,由23個測試者提供,本次實驗取其中20個不同人物,在不同姿態下的500 張圖片進行實驗。而自建人臉庫為實驗室采集圖像,分辨率為384 (287,取30人,每組10人,每人10張,共300張。3組分為光線強 (白天開燈拍攝),光線正常,光線較暗 (晚上開燈拍攝)。本次實驗的目的是在獲取眼睛區域的前提下,利用LS方法和HEIV方法分別對人眼瞳孔定位,比較其結果。通過兩種算法求取的瞳孔中心與模擬的標準中心進行對比,分析LS擬合法和HEIV擬合方法求取瞳孔中心坐標的誤差分布。

表1為針對兩種圖像庫中眼睛瞳孔中心定位平均誤差分布情況。從表1可知,兩種算法所得的平均誤差,本文提出的HEIV 算法對光照有一定的魯棒性,且HEIV 算法相比于LS算法平均誤差小,定位精度高。

表1 兩種方法瞳孔定位的平均誤差

表2針對兩種人臉庫進行實驗統計結果。實驗結果可知,對于兩種人臉庫,針對兩種算法,本文所提出的HEIV 算法其定位精確率與平均耗時都優于LS算法。對于自建人臉庫的其中3 個人臉庫,可以得到,本文提出的HEIV 算法相比于LS算法正確率高,且平均耗時短。

圖4、圖5為LS算法和HEIV 算法對兩種人臉庫的處理結果。其中圖4為LS算法針對BioID 人臉庫及自建人臉庫的瞳孔定位效果,圖5 為HEIV 算法針對BioID 人臉庫及自建人臉庫的瞳孔定位效果。其中圖 (a)~圖 (c)為針對BioID 人臉庫的結果,圖 (d)~圖 (f)為針對自建人臉庫的結果。從圖中可知,對于普通人臉,兩種算法標定的瞳孔中心相差不大,而對于圖5 (b)中可知,本文所提出的HEIV 算法針對人眼半瞇狀態也能準確檢驗出瞳孔中心,相比于圖4 (b)精確。從圖中得出本文提出的算法對人的姿態也有一定的魯棒性和較高的精確度。

表2 兩種算法不同人臉庫的檢測結果

圖4 LS方法擬合的結果

圖5 HEIV 方法擬合的結果

4 結束語

本文提出一種基于HEIV 的瞳孔中心定位方法。該方法利用Adaboost方法來訓練并檢測人臉和眼睛,利用HEIV 算法橢圓擬合,實現瞳孔中心的定位。實驗結果表明,在正面人臉的情況下,本文提出的方法的平均誤差能夠少于0.2像素,平均一幅圖像的耗時為1ms,但本文的方法還不是很完善,對于戴眼鏡的人眼區域,瞳孔中心定位時會有一定的誤差,為了進一步改善瞳孔中心定位精度問題,必須對圖像進一步的處理,來達到瞳孔中心定位精確的目的。

[1]Bhatia N,Chhabra M.Improved hough transform for fast iris detection [C]//IEEE International Conference on Signal Processing Systems,2010:172-176.

[2]YU Longhua,WANG Hong,ZHONG Hongsheng.Human eyes detection and pupil localization [J].Computer Engineering and Applications,2013,49 (3):186-189 (in Chinese). [余龍華,王宏,鐘洪聲.人眼檢測及瞳孔定位 [J].計算機工程與應用,2013,49 (3):186-189.]

[3]YAN Bei,WANG Bin,LI Yuan.Optimal ellipse fitting method based on least square principle [J].Journal of Beijing University of Aeronautics and Astronautics,2008,34 (3):295-298 (in Chinese).[閆蓓,王斌,李媛.基于最小二乘法的橢圓擬合改進算法 [J].北京航空航天大學學報,2008,34(3):295-298.]

[4]HAN Jiandong,YANG Hongju,LV Naiguang.Automated ellipse detection and location method in 3D visual inspection[J].Computer Engineering and Applications,2011,47 (17):169-172 (in Chinese).[韓建棟,楊紅菊,呂乃光.視覺測量中橢圓自動檢測與定位方法 [J].計算機工程與應用,2011,47 (17):169-172.]

[5]Ming Yang,James Crenshaw,Bruce Augustine,et al.Ada-Boost-based face detection for embedded systems[J].Computer Vision and Image Understanding,2010,114 (11):1116-1125.

[6]KE Li,WEN Liping.face detection based on modified Adaboost algorithm [J].Opto-Electronic Engineering,2012,39 (1):113-118 (in Chinese).[柯麗,溫立平.改進的AdaBoost人臉檢測方法[J].光電工程,2012,39 (1):113-118.]

[7]JIN Juncai,TONG Weiqing,LIANG Xiaoni,et al.Accurate eye location in near-infrared images based on ellipse fitting [J].Journal of East China Normal University (Natural Science),2012,5 (3):103-110 (in Chinese).[金俊才,童衛青,梁曉妮,等.基于橢圓擬合的近紅外圖像的眼睛精確定位法 [J].華東師范大學學報:自然科學版,2012,5 (3):103-110.]

[8]Yan Bei,Gao Lifeng,Zhang Xigong.Research on feature points positioning in non-contact eye-gaze tracking system[C]//IEEE International Conference on Electronic Measurement &Instruments,2009:1042-1045.

[9]WANG Liang,DUAN Fuqing,LV Ke.Camera calibration with One-dimensional objects based on the heteroscedastic error-in-variables model[J].Acta Automatica Sinica,2014,40 (4):643-652(in Chinese).[王亮,段福慶,呂科.基于HEIV 模型的攝像機一維標定[J].自動化學報,2014,40 (4):643-652.]

[10]Golub G,Loan C F V.Matrix calculus [M].Beijing:the People’s Posts and Telecommunications Press,2009:465-467(in Chinese).[戈盧布,范洛恩.矩陣計算 [M].北京:人民郵電出版社,2009:465-467.]

猜你喜歡
方法
中醫特有的急救方法
中老年保健(2021年9期)2021-08-24 03:52:04
高中數學教學改革的方法
河北畫報(2021年2期)2021-05-25 02:07:46
化學反應多變幻 “虛擬”方法幫大忙
變快的方法
兒童繪本(2020年5期)2020-04-07 17:46:30
學習方法
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
最有效的簡單方法
山東青年(2016年1期)2016-02-28 14:25:23
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: 久久久亚洲色| 国产精品嫩草影院av| 中文字幕伦视频| 亚洲av片在线免费观看| 激情综合激情| 国产精品香蕉在线观看不卡| 国产精品美女自慰喷水| 国产精品人成在线播放| 成人国产一区二区三区| 91外围女在线观看| 国产精品久久久久鬼色| 97青草最新免费精品视频| 一区二区三区在线不卡免费| 午夜福利在线观看成人| www成人国产在线观看网站| 都市激情亚洲综合久久| 国产精品久久久精品三级| 伊人久久影视| 国产激情影院| 麻豆国产原创视频在线播放| 日本免费一区视频| 91视频精品| 日本成人不卡视频| 九月婷婷亚洲综合在线| 亚洲综合天堂网| 在线人成精品免费视频| 国产69囗曝护士吞精在线视频| 免费一级毛片在线观看| 色综合中文字幕| 最新国产麻豆aⅴ精品无| 日韩精品高清自在线| 老司机精品99在线播放| 国产后式a一视频| 久久窝窝国产精品午夜看片| 亚洲福利视频网址| 国产福利大秀91| 日日拍夜夜嗷嗷叫国产| 青青久久91| 亚洲视屏在线观看| 亚洲欧美成人网| 国产一二视频| 91在线视频福利| 亚洲美女AV免费一区| 国产在线拍偷自揄观看视频网站| 亚洲美女视频一区| 无码人妻免费| 国产99在线| 毛片久久久| 狠狠色狠狠色综合久久第一次 | 亚洲水蜜桃久久综合网站| 国产欧美日韩va另类在线播放| 日本精品影院| 人妻丰满熟妇αv无码| 熟女成人国产精品视频| 日韩在线永久免费播放| 久久婷婷综合色一区二区| 久久亚洲中文字幕精品一区| 欧美日韩在线第一页| 午夜爽爽视频| 国产精品成人一区二区| 伊人色天堂| 亚洲综合色区在线播放2019| 欧美成人h精品网站| 久久99精品国产麻豆宅宅| 久久国产精品娇妻素人| 国产午夜一级淫片| 性色在线视频精品| 露脸真实国语乱在线观看| 欧美人人干| 日日拍夜夜嗷嗷叫国产| 国产精品尹人在线观看| 在线欧美日韩| 国产SUV精品一区二区6| 国产精品尹人在线观看| 亚洲日本一本dvd高清| 国产亚洲视频播放9000| 久久人人爽人人爽人人片aV东京热| 国产欧美成人不卡视频| 色九九视频| 久久人人爽人人爽人人片aV东京热 | 欧美一级爱操视频| 国产成人精品日本亚洲|