999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于高斯混合模型的類人機器人果實辨識研究

2014-02-28 03:03:48黃仲洋江露鐘秋波
安徽農(nóng)業(yè)科學 2014年15期
關(guān)鍵詞:模型

陳 宇,黃仲洋,江露,鐘秋波

(東北林業(yè)大學信息與計算機工程學院,黑龍江哈爾濱150040;2.寧波工程學院,浙江寧波315000)

進入21世紀,機器人研究取得了重大進展。全自主仿人機器人是仿人機器人研究中非常熱門的一個領(lǐng)域,許多大學或研究機構(gòu)都對其投入了巨大的精力。嵌入式視覺系統(tǒng)是全自主仿人機器人系統(tǒng)的基礎(chǔ),它對機器人的總體性能起著決定性作用,機器人對目標的識別是建立在視覺系統(tǒng)基礎(chǔ)上的[1-2]。

果實顏色是果實非常直觀的重要特征,不同果實的顏色差別很大,這樣就能有效提取果實特征,從而對果實進行識別。過去工作主要依靠人工完成,耗時耗力并且效率低下,借助計算機提高了工作效率,并將此技術(shù)和類人機器人結(jié)合,大大提高了分析的準確性。

類人機器人自帶的攝像頭作為視覺,通過攝像頭獲取彩色圖像。傳統(tǒng)的彩色圖像分析是基于RGB色度空間的,但是RGB空間是顏色顯示空間,并不適合人的視覺特性,而HSV色度空間能很好地體現(xiàn)出人眼辨別顏色的特點,在HSV空間,圖像特征明顯,易于處理[3]。因此該研究采用HSV色度空間對圖像進行顏色提取。

將顏色作為果實特征后,結(jié)合高斯混合模型算法,對顏色進行辨識,從而達到對果實的辨識。高斯混合模型算法滿足收斂條件并且提高了識別的效率,試驗結(jié)果表明,該算法是有效的,與BP神經(jīng)網(wǎng)絡(luò)、SVM支持向量機、決策樹的識別算法相比,基于高斯混合模型的果實識別算法獲得了較高的識別率,取得了很好的試驗效果。

1 果實顏色提取

1.1 顏色空間的選擇 要處理彩色圖像,首先要選取合適的顏色空間。顏色空間指的是某個三維顏色空間中的一個可見光子集。它包含某個顏色域的所有顏色。顏色空間的用途是在某個顏色域內(nèi)方便地指定顏色。一般,圖像常采用RGB三元色彩色空間表示,但RGB三色空間中兩點間的歐氏距離與顏色距離不呈線性比例,換句話說,就是顏色受亮度的影響很大,RGB顏色空間不具有進行彩色圖像處理所要求的獨立性和均勻性指標。所謂獨立性是指顏色空間的3個分量互不影響,對于其中某個分量的處理不導致其他分量相對于人眼感覺發(fā)生變化。而均勻性是指對顏色空間中的每一個分量來說,相同的處理改變量在不同的取值處應(yīng)引起相同的視覺變化。然而絕對滿足獨立性和均勻性的顏色空間是不存在的[4],只能根據(jù)實際情況,找到一種能在較大范圍內(nèi)符合上述兩個條件的顏色空間。為更好地進行顏色辨識,通過試驗,該研究采用了HSV顏色空間。

1.2 HSV色度空間變換原理 攝像頭獲取的圖像一般為RGB圖像,因此先要將顏色空間從RGB轉(zhuǎn)換到HSV。如圖1,HSV 色彩空間是一個六棱錐體,0≤H≤360,0≤S≤1,0≤V≤1,對于 R、G、B∈[0,1],RGB 空間到 HSV 空間的映射過程如下:

2 高斯混合模型算法原理

果實識別算法有BP、貝葉斯、決策樹等,但高斯混合模型試驗得到了較好的效果,識別率較高。

圖1 HSV色彩空間

高斯混合模型是一種常用的描述混合密度函數(shù)分布的模型,矢量特征在概率空間的分布狀況通過若干個高斯概率密度函數(shù)的加權(quán)和進行描述。即每個高斯混合模型是由K個Gaussian分布構(gòu)成,1個 Guassian是“Gomponent”,形成多個分類器,對Gomponent進行線性加和形成混合高斯模型的概率密度函數(shù)[5]:

式中,xi是 d 維矢量;θ=(μ1,μK,Σ1,Σk),為高斯混合分布參數(shù);αk是加權(quán)的系數(shù),代表選中每個Component的概率,需要滿足限制條件是 Component的高斯概率密度分布,如下:

式中,μk是均值;Σk是協(xié)方差矩陣。

GMM模型的各個分量是通過均值和方差表示的,GMM的分類過程是以均值為中心的橢圓體分布,方差決定它的幾何性質(zhì)。使用高斯混合模型對流型樣本分類,首先對未知參數(shù) K、αk、μk、Σk的值進行初始化,才能構(gòu)造 GMM 模型,對概率密度函數(shù)建模。果實樣本分為5類:香蕉、西瓜、番茄、葡萄、蘋果。因此參數(shù)K=5,對于剩余3個參數(shù)的估計有多種方法,使用的比較頻繁的是EM算法。

EM算法也稱作期望最大算法,是對參數(shù)的最大似然估計,此算法主要應(yīng)用在如下方面:①對不完整數(shù)據(jù)的估計;②假設(shè)缺失的數(shù)據(jù)存在,降低似然函數(shù)復雜度[6]。

EM算法的執(zhí)行過程[7]如下。

首先,計算期望(Expectation),估計隱含變量。觀測數(shù)據(jù)確定,對完整似然函數(shù)的期望計算。

式中,θk-1是當前的參數(shù)估計值;θ是更新后的參數(shù)值。

然后,計算極大值,估計其他參數(shù)。求解θ,使 Q(θ,θk-1)得到極大值,即:

在高斯混合模型中,樣本數(shù)據(jù)由不完整數(shù)據(jù)構(gòu)成,則加入隱含變量 Z={z1,z2,…,zN},zi=(zi1,zi2,…,zik)獨立分布于K類,隱含變量的概率分別為α1,…,αk,滿足如下:

算法執(zhí)行過程中對數(shù)似然函數(shù)定義為:

式中,p(k|xi,θt-1)是K類分布的后驗概率:

使用梯度法求解條件極值,可得如下關(guān)系式:

即:

其中:

對 Q(θ,θt-1),求其關(guān)于 μk、Σk的導數(shù),讓其為 0,可得均值重估公式:

方差重估公式:

迭代終止的條件就是迭代重估公式,直到滿足預先設(shè)定的條件。EM算法涉及的理論比較簡單和單一,其主要優(yōu)點是簡單和穩(wěn)定,每次迭代都能保證觀察數(shù)據(jù)對數(shù)似然是增大的。但EM算法也有其缺點,主要是收斂速度慢,尤其當輸入的數(shù)據(jù)維數(shù)過高或者規(guī)模過大時,將嚴重影響收斂速度。EM算法能找到局部最大點,但對于找全局最大點比較困難[8]。EM算法的初始化有嚴格的要求,對于不同的初始值,能夠使得結(jié)果有較大差異[9]。目前最有效的方法是將Kmeans算法與EM算法相結(jié)合,使用Kmeans算法來計算群聚中心點,當作EM參數(shù)中均值的初始輸入值。

Kmeans聚類是聚類算法中常用的算法[10]。該算法輸入?yún)?shù)K,將輸入特征矩陣劃分為K個聚類,相同聚類對象的相似度較高,反之較小。主要思想是:選取K個中心點聚類,對最靠近中心點的對象歸類,通過迭代的方法,逐次更新各聚類中心的值,直至得到最好的聚類結(jié)果[11]。得到各個聚類的中心點之后,將其作為EM算法初始值。該算法使用的很廣泛,尤其是和EM算法相結(jié)合,先對初始數(shù)據(jù)進行粗略分類,再將得到的數(shù)據(jù)作為參數(shù)估計初始化的數(shù)據(jù)。將這兩種算法結(jié)合能提高EM算法收斂的速度和分類的正確率。

3 仿真與試驗

由于季節(jié)等試驗條件的原因,該試驗均為類人機器人對不同果實圖片的識別,見圖2。

圖2 類人機器人果實辨識試驗

圖3顯示了類人機器人識別的果實圖像樣本及HSV顏色直方圖。

該試驗每類果實收集樣本30個,共150個,其中隨機選取每類中20個作為訓練樣本,其余樣本作為測試樣本。該試驗總共測試數(shù)據(jù)為50組,果實識別效果如表1所示。

表1 試驗結(jié)果

4 結(jié)論

該試驗設(shè)計了一個具有視覺的能夠識別果實的類人機器人系統(tǒng),通過采集圖像,獲取目標信息,采用HSV顏色空間,結(jié)合高斯混合模型算法,通過訓練得到每類果實所對應(yīng)的分類器模型參數(shù),構(gòu)造分類器,實現(xiàn)了類人機器人對果實準確高效的識別。

圖3 果實樣本圖片及HSV顏色直方圖

[1]張勇.足球機器人識別算法和決策仿真[D].長沙:湖南大學,2002.

[2]陳鳳東,洪炳,朱瑩.基于HIS顏色空間的多機器人識別研究[J].哈爾濱工業(yè)大學學報,2004,36(7):928-930.

[3]張全海,施鵬飛.基于HSV空間彩色圖像的邊緣提取方法[J].計算機仿真,2000,17(6):25-27.

[4]ZHARALIC R M,SHAPRO L G.Computer and robot vision[M].New-York:Addisiona-Wesely,1992:105-120.

[5]岳佳,王士同.高斯混合模型聚類中EM算法及初始化的研究[J].微計算機信息,2006,11(3):244-246.

[6]王鑫.基于高斯混合模型的聚類算法及其在圖像分割中的應(yīng)用[D].太原:中北大學,2013.

[7]龐強,鄒濤,叢秋梅,等.基于高斯混合模型與主元分析的多模型切換方法[J].化工學報,2013(8):2938-3946.

[8]曹紅麗.混合高斯模型的混合EM算法研究及聚類應(yīng)用[D].烏魯木齊:新疆大學,2010.

[9]焦賓,呂霞付,陳勇,等.一種改進的自適應(yīng)高斯混合模型實時運動目標檢測算法[J].計算機應(yīng)用研究,2013(11):3518-3520.

[10]JAMSHIDIAN M,JENNRICH R I.Conjugate gradient acceleration of the EM algorithm[J].Journal of the American Statistical Association,1993,88:221-228.

[11]CAO J,WU Z,WU J J,et al.Towards information-theoretic K-means clustering for image indexing[J].Signal Processing,2013,93(7):2026-2037.

猜你喜歡
模型
一半模型
一種去中心化的域名服務(wù)本地化模型
適用于BDS-3 PPP的隨機模型
提煉模型 突破難點
函數(shù)模型及應(yīng)用
p150Glued在帕金森病模型中的表達及分布
函數(shù)模型及應(yīng)用
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 免费一极毛片| 国产呦精品一区二区三区下载 | 亚洲va视频| 99久久精品免费看国产免费软件| 日韩少妇激情一区二区| 精品无码国产一区二区三区AV| 亚洲精品视频网| 中文字幕乱码中文乱码51精品| 91久久国产综合精品女同我| 人妻精品久久无码区| 国产亚洲精品资源在线26u| 国产成人免费| 欧美国产成人在线| 亚洲天堂网在线视频| 午夜免费小视频| 欧美午夜在线播放| 国产一区二区三区日韩精品| 亚洲国产午夜精华无码福利| 亚洲精品国偷自产在线91正片| 无码AV高清毛片中国一级毛片| 久久天天躁夜夜躁狠狠| 日本爱爱精品一区二区| 熟女成人国产精品视频| 亚洲三级片在线看| 日韩成人在线视频| 久久a毛片| 在线日本国产成人免费的| 亚洲精品图区| 天堂在线www网亚洲| 男人天堂亚洲天堂| 久久精品91麻豆| 久久久噜噜噜久久中文字幕色伊伊 | 丝袜亚洲综合| 岛国精品一区免费视频在线观看| 天堂亚洲网| 亚洲国产精品成人久久综合影院| 国产福利在线观看精品| 亚洲精品第一页不卡| 午夜小视频在线| 99er精品视频| 国产熟女一级毛片| 91破解版在线亚洲| 99热这里只有精品5| 97视频在线精品国自产拍| 国内a级毛片| 色综合激情网| 中文字幕永久视频| 免费在线不卡视频| 97综合久久| 噜噜噜久久| 日韩欧美国产另类| 99re在线观看视频| 亚洲视频色图| 欧美精品伊人久久| 亚洲综合色在线| 国产无吗一区二区三区在线欢| 激情综合图区| 欧美成人怡春院在线激情| 亚洲色欲色欲www在线观看| 好吊日免费视频| 亚洲欧美国产五月天综合| 青青青国产精品国产精品美女| 精品国产成人国产在线| 在线看片免费人成视久网下载| 色噜噜狠狠色综合网图区| 伊人成人在线视频| 91成人在线免费观看| 一本久道久综合久久鬼色| 欧美色图第一页| 午夜不卡视频| 成年人免费国产视频| 亚洲伊人电影| 女人18毛片水真多国产| 亚洲国产成人久久77| 精品一区二区三区四区五区| 国产成人一区二区| 亚洲一区无码在线| 国产精品尤物铁牛tv| 91亚洲国产视频| 欧美成人在线免费| 亚洲熟女偷拍| 黄色片中文字幕|