祝志慧,湯 勇,洪 琪,黃 飄,王巧華,馬美湖
(1. 華中農(nóng)業(yè)大學工學院,武漢 430070;2. 農(nóng)業(yè)部長江中下游農(nóng)業(yè)裝備重點實驗室,武漢 430070;3. 華中農(nóng)業(yè)大學食品科學技術(shù)學院,武漢 430070)
家禽繁育中,雞育種目標一直都實行蛋肉兼用的培育方向,而現(xiàn)有商業(yè)品系則要求專門化——蛋用或肉用。雞種蛋的孵化周期約為21 d,是一個耗時耗能的過程[1]。若在種蛋孵化過程中或孵化早期鑒定出胚蛋的性別,不僅可以減少孵化過程中的經(jīng)濟成本而且還可以降低孵化后的產(chǎn)品浪費。種蛋雌雄鑒別后可以進行分類生產(chǎn),根據(jù)蛋品與肉品的市場需求進行有計劃的孵化養(yǎng)殖,滿足市場需求,實現(xiàn)經(jīng)濟效率的最大化。傳統(tǒng)的種蛋性別鑒別方法是通過種蛋外形特征,但是這種方法的主觀性太強、受蛋形的影響較大;另外,雖然在孵化后期利用激素法對16-18日齡雞胚的性別鑒定方法準確率高,但是發(fā)育到16日齡的雞胚已接近出雛期并已完全分化,對這些雞胚的處理是有悖于社會倫理、殘忍的一件事情[2]。所以,亟需找到一種兼顧禽業(yè)生產(chǎn)與社會倫理、且快速準確鑒別雞種蛋孵化早期胚胎雌雄的方法。
目前,雞種蛋孵化早期的性別鑒定主要分為蛋殼外鑒定和蛋內(nèi)容物的鑒定。嚴鯤鵬[3]觀察雞蛋的外形表明橢球形種蛋孵出的都是雄雞,接近球形種蛋孵化出的都是雌雞,而介于兩者之間的種蛋不易區(qū)分雌雄。唐劍林等[4]根據(jù)不同性別雞胚血管分布的不同規(guī)律,雄胚主血管明顯,血管較粗,分布均勻;雌胚血管纖細、粗細均勻、分支較多、呈不規(guī)則狀,對種蛋胚胎進行雌雄鑒別。通過蛋外形與血線形態(tài)的方式進行性別識別,分析因素太過于單一,獲取的發(fā)育信息不夠全面,容易受被測因素自身的影響。Turkyilmaz等[5]利用PCR方法篩選的PCR產(chǎn)物通過瓊脂糖凝膠電泳顯示,雄性有一個單一的條帶(256堿基對),雌性有如預期一樣的額外的第二頻帶(415堿基對)。美國Embrex公司申請的專利[6-7]通過檢測雞胚尿囊液中雌激素含量來鑒別雞胚雌雄。Steiner等[8]從雞蛋中提取少量的胚層細胞,基于傅里葉變換紅外光譜(FT-IR)測定雄性和雌性胚胎的DNA含量差異在2%左右。潘磊慶等[1]通過高光譜獲取胚胎發(fā)育的胚相、理化等全部信息,提取感興趣區(qū)域的光譜數(shù)據(jù)建立模型進行種蛋雌雄判別。PCR、激素方法操作步驟多,并且需要提取內(nèi)涵物,容易損壞胚胎,并且其成本也相對較高;紅外光譜和高光譜信息數(shù)據(jù)量過于龐大,處理速度較慢。而機器視覺獲取的種蛋圖像進行后期處理能獲得足夠的紋理信息建立判別模型,且響應速度快。近年來,隨著計算機運算速度的不斷提高和機器視覺技術(shù)在農(nóng)產(chǎn)品品質(zhì)檢測領域的廣泛應用,本文利用機器視覺技術(shù)和圖像處理技術(shù)探討種蛋孵化早期雞胚雌雄識別的可行性。
本研究的 180枚同一批次種蛋樣品均來源于荊州峪口禽業(yè)有限公司,品種為京粉1號。雞種蛋在5%新潔爾滅溶液中浸泡3 min進行消毒處理,分別編號1—180,晾干后放入孵化箱中。其中,孵化溫度和相對濕度分別為37.8 ℃和63.5%,自動翻蛋時間間隔為2 h/次,采集孵化第 3、4、5、6、8、10天的圖像。為了準確獲得種蛋雞胚雌雄性別信息,于孵化的第15天對種蛋進行破壞性解剖,人工識別性別,以此作為后期判別模型的鑒定依據(jù)。孵化后期胚胎發(fā)育趨近于成熟,各種組織器官已發(fā)育完整。雌雄胚胎組織的區(qū)別在于:雌性胚胎右側(cè)卵巢退化,使得卵巢兩側(cè)發(fā)育不平衡;而雄性胚胎兩側(cè)的睪丸發(fā)育對稱[9],可通過解剖后肉眼觀察到雄性睪丸和雌性卵巢的形態(tài)變化來區(qū)分胚蛋性別,如圖1所示。

圖1 雞胚雌雄形態(tài)圖Fig.1 Male and female morphology diagram of chicken embryo
雞胚雌雄識別機器視覺圖像采集系統(tǒng)如圖2所示。

圖2 機器視覺圖像采集系統(tǒng)Fig.2 Image acquisition system of machine vision
由圖 2可知,本文的圖像采集系統(tǒng)主要由工業(yè)相機(Basler,Aca1600-20uc)、光照系統(tǒng)和計算機構(gòu)成。光照系統(tǒng)被分為上下兩部分,上半部分為暗室部分,內(nèi)壁用黑紙平鋪,中間用載物平臺隔開,載物平臺中間開一個透光孔,且透光孔上端還有橢球槽,用于種蛋樣品的固定;下半部分為光源部分,根據(jù)試驗需要,參照深圳市振野蛋品智能設備股份有限公司的雞蛋品質(zhì)檢測系統(tǒng),選擇一個功率為1W的LED燈(ZYG- L627-1W),安裝在光照系統(tǒng)底部。圖像采集系統(tǒng)的物距為218 mm,待檢測雞蛋橫向靜置2 min,且橫向放置在載物平臺上,通過載物平臺下的光源透射,利用工業(yè)相機獲取圖像并通過USB數(shù)據(jù)線傳送至計算機。
圖 3為種蛋胚胎在不同孵化時間的機器視覺圖像。在孵化的第3天(圖3a),血線開始出現(xiàn),還未完全展開;在孵化的第4天(圖3b),血線完全呈現(xiàn)在機器視覺視野范圍內(nèi),沒有出現(xiàn)不完整的狀態(tài);從孵化的第 5天(圖3c)開始,部分血線不在機器視覺的視野范圍內(nèi),且還有部分血線已經(jīng)進入氣室端。根據(jù)血線的清晰度以及機器視覺視野范圍內(nèi)的血線完整度原則,最終確定利用孵化第4天的圖像進行后續(xù)分析。

圖3 不同孵化時期種蛋胚胎發(fā)育形態(tài)圖Fig.3 Hatching eggs embryos diagram of different hatching periods
采用圖像處理技術(shù)對雞胚蛋圖像進行預處理。如圖4所示,對原始圖像,獲取R、G、B這3個分量圖像,因B分量中種蛋區(qū)域細節(jié)信息基本丟失,所以本研究不提取B分量信息來分析。G分量包含的圖像信息豐富,通過中值濾波去除椒鹽噪聲。R分量中的亮部正好是種蛋區(qū)域,為了準確定位種蛋區(qū)域,則需要消除背景信息的影響,主要是消除與種蛋相鄰的部分由于光照產(chǎn)生的較亮區(qū)域。對此,可采用二分法逐步獲取固定閾值 15,二值化R分量并與中值濾波圖像相乘提取感興趣區(qū)域(region of interest,ROI)[10]。為了增強圖像質(zhì)量和可辨識度,本研究采用限制對比度自適應直方圖均衡化(CLAHE),CLAHE算法[11]可以通過增強局部區(qū)域的對比度,從而增強圖像局部細節(jié)的可視性,與此同時還能抑制部分噪音的產(chǎn)生[12]。利用圖像反色將ROI區(qū)域中的血線變亮,通過高帽變換(top-hat)[13]減低帽變換(bottom-hat)基本凸顯血線區(qū)域,進一步利用Otsu閾值分割[14]去除部分噪聲,提取血線區(qū)域。基于大部分的噪聲仍然存在,采用八連通域去除較小的噪點,血線完全凸顯。為了保證圖像紋理信息的真實性,需要對圖像進行映射。
1.4.1方向梯度直方圖
方向梯度直方圖(histogram of oriented gradients,HOG)的核心思想是:所檢測的局部物體外形能夠被光強梯度或邊緣方向的分布所描述,它通過計算和統(tǒng)計圖像局部區(qū)域的梯度方向直方圖來構(gòu)成特征[15]。HOG特征的提取過程如下[16]:

圖4 雞種蛋圖像處理Fig.4 Chicken hatching egg image processing
1)圖像歸一化。將顏色空間統(tǒng)一轉(zhuǎn)換到灰度圖像,并且將灰度值轉(zhuǎn)換到0~1范圍。
2)圖像梯度計算。分別計算圖像水平和豎直方向的梯度,并計算每個像素的梯度方向和梯度幅值。
3)圖像分塊。將圖像劃分為許多塊,塊與塊之間可以重疊,每個塊內(nèi)存在許多細小單元,每個單元由多個像素點組成。
4)單元梯度方向直方圖計算。將每個單元中的梯度方向分為若干個梯度方向級,計算其梯度方向直方圖。
5)塊內(nèi)直方圖歸一化。將每個塊內(nèi)的直方圖串聯(lián)成一個塊梯度方向直方圖,并進行塊內(nèi)歸一化。
6)HOG特征向量提取。經(jīng)過上述步驟,對有重疊部分塊的直方圖歸一化,將所有塊的特征向量進行組合,即將每一塊內(nèi)歸一化后的梯度方向直方圖串聯(lián),作為圖像的HOG特征向量。
1.4.2主成分分析降維
由于HOG特征向量維度過大,因此本文采用主成分分析(principal component analysis,PCA)對其進行降維。其目的用較少的新變量(即主成分)去解釋原始資料中的大部分變異[17]。主成分分析是一種基于卡洛南-洛伊(Karhunen-Loeve,K-L)正交變換的無監(jiān)督線性特征提取算法,K-L變換是在滿足最小均方誤差的前提下的最優(yōu)變換,大大降低了HOG特征向量的維數(shù)。
1.4.3灰度共生矩陣
由于圖像紋理是由灰度分布在空間位置上反復出現(xiàn)而形成的,因而圖像的灰度就具有一定的空間相關(guān)性,而灰度共生矩陣則是利用這種特性來描述紋理的一種方法,其能反映出種蛋的圖像信息,尤其是血線區(qū)域的灰度在方向、空間間隔和變化幅度上的綜合信息,從而能分析圖像的局部特征和排列規(guī)則[18]。
為了更直觀地以灰度共生矩陣描述紋理特征,通常用能量、對比度、相關(guān)性、熵和均勻度 5個標量來表征圖像紋理的特征。
試驗中,有雌、雄樣本各90枚。從雌、雄樣本中各隨機挑選60枚組成模型的訓練集(樣本120枚),剩余雌、雄樣本各30枚組成模型的測試集(樣本60枚)。為充分比較不同的建模方法對預測性能的影響,運用了支持向量機(support vector machine,SVM)、反向傳遞(back propagation,BP)神經(jīng)網(wǎng)絡和深度置信網(wǎng)絡(deep belief networks,DBN)對數(shù)據(jù)進行建模分析。
當人工神經(jīng)網(wǎng)絡超過5層時,BP學習算法無法有效傳遞誤差,梯度會在誤差反向傳播時越來越稀疏,導致誤差校正信號越來越低,近乎為0,進而使得算法陷入局部極值[19]。深度學習同樣采用的是多隱層網(wǎng)絡,因此其核心就在于解決梯度擴散問題,其中應用最廣泛的深度學習網(wǎng)絡之一就是深度置信網(wǎng)絡(DBN)。
自下而上的非監(jiān)督學習在DBN網(wǎng)絡中被稱作受限玻爾茲曼機(restricted boltzmann machine,RBM)[20-21],RBM訓練參數(shù)的方法不同于BP神經(jīng)網(wǎng)絡,其主要結(jié)構(gòu)形式是圖5所示的無向連接形式。

圖5 受限玻爾茲曼機示意圖Fig.5 Illustrative diagram of restricted boltzmann machine
RBM的結(jié)構(gòu)形式讓可見層和隱層之間無向連接,并且各層內(nèi)部無連接。其目的是在所有假設模型有相等先驗概率條件下,輸出極大似然假設,其中引入了Hopfield提出的能量函數(shù)E,對于可見層構(gòu)成的向量v,隱層構(gòu)成的向量h,有可見層與隱層之間的權(quán)重w和2層各自的偏置系數(shù)a、b,因此能量函數(shù)如式(1)所示。

式中,i、j表示神經(jīng)元,θ =(wij,ai,bj)是 RBM 的參數(shù),wij表示可見節(jié)點vi與隱層節(jié)點hj之間的連接權(quán)值,ai和 bj分別表示 vi和 hj的偏置值。聯(lián)合配置能量,引入聯(lián)合概率p描述可見層和隱層之間的向量概率關(guān)系

為求得極大似然函數(shù) P(v),對 h求邊緣分布得到似然函數(shù)

通過最大化P(v)求得損失函數(shù)L:

式(4)N表示訓練樣本個數(shù)。當能量趨于穩(wěn)態(tài)時,根據(jù)可見層數(shù)據(jù)v求隱層數(shù)據(jù)h,通過h來重構(gòu)可見向量v1,再根據(jù)v1生成新的隱層向量h1。依此可再求得新的向量v2和h2,其求解條件概率為:

最后利用對比散度(CD-k,contrastive divergence)[22]算法,通過多次Gibbs分布抽樣實現(xiàn)對樣本的近似,即可將 2次重構(gòu)的參數(shù)的差異近似作為網(wǎng)絡參數(shù)的訓練梯度:

利用以上梯度,通過多次迭代即可完成對RBM網(wǎng)絡參數(shù)的更新,將多個RBM結(jié)構(gòu)依次疊加,在DBN的最后一層設置BP網(wǎng)絡,接收RBM的輸出特征向量作為它的輸入特征向量。然后將其中的前饋傳播權(quán)重w和偏置系數(shù)a、b作為BP神經(jīng)網(wǎng)絡的初始參數(shù)值,再利用反向傳播算法進行參數(shù)微調(diào),基于這種訓練模式的網(wǎng)絡結(jié)構(gòu)就是DBN網(wǎng)絡[23]。
1)全信息特征
對于種蛋圖像,保證血線完整的情況下,利用固定的像素坐標范圍裁剪圖像,可獲取 350×350像素大小的血線區(qū)域,選取整數(shù)倍的關(guān)系,設定單元格大小為35×35像素,塊內(nèi)存在2×2個單元格,塊移動步長為35個像素單位,每個單元格內(nèi)直方圖為 9維,因此可獲取最終的HOG特征向量長度為2 916維。二維梯度信息常規(guī)處理是卷積網(wǎng)絡,根據(jù)梯度信息,人眼可分辨的種蛋性別特征較少,應用卷積網(wǎng)絡,需要提取細粒度的特征,會加大運算復雜度,所以需要對圖像進行放縮。由于前幾層對于粗粒度的提取使得樣本丟失過多特征,應用卷積網(wǎng)絡難以保證學習到有用的信息。因此可利用降采樣的方式代替卷積前幾層的操作,提取細粒度特征,此時樣本維度并不大,可以直接使用全連接,將原圖降采樣至35×35大小,即1 225維。此處自定義完成圖像處理后并降采樣的圖像所有特征為全信息特征。
2)簡化特征
HOG直方圖提取的全信息經(jīng)過 PCA降維,如圖 6所示,取累計貢獻率達到 90%的主成分數(shù)作為降維后的特征,最終得到降維后的HOG特征長度為91維。

圖6 HOG特征累計貢獻率Fig.6 Cumulative contribution rate of HOG features
灰度共生矩陣包含5維向量,HOG特征經(jīng)主成分分析降維后包含91維向量,因此PCA降維特征與灰度共生矩陣特征組合的簡化特征向量有96維。
對于特征區(qū)分度不高的輸入向量,機器學習模型很容易過擬合,尤其是神經(jīng)網(wǎng)絡,DBN網(wǎng)絡也不例外。直接將全信息特征作為輸入特征會引入很多噪音,網(wǎng)絡訓練難度大,并且導致網(wǎng)絡收斂速度過慢。
1)改善過擬合。本研究采用 Hinton等[24]提出的dropout算法,利用輸入樣本進行權(quán)值更新,令隱含節(jié)點以一定的概率隨機出現(xiàn),從而阻止某些特征僅僅在特定情況下才有效果的情況。通過這種模型平均的方式實現(xiàn)對模型過擬合的改善。
2)加快收斂速度。由于采用激勵函數(shù)是sigmoid函數(shù),當函數(shù)值趨近于0和1時,函數(shù)梯度將趨近于0,此時網(wǎng)絡訓練將陷入停滯狀態(tài),為加快收斂速度,對此本文將均方誤差損失函數(shù)調(diào)整為不受函數(shù)值影響的交叉熵函數(shù)L[25]:

式(7)中,x表示樣本,n表示樣本總數(shù),y和d分別表示網(wǎng)絡的實際輸出和期望輸出。
3)避免局部收斂。網(wǎng)絡的訓練實質(zhì)上是對參數(shù)的優(yōu)化,避免局部收斂。本研究采用隨機梯度下降算法[26](stochastic gradient descent,SGD),每次只隨機取部分樣本集進行訓練,防止網(wǎng)絡陷入局部收斂。
2.3.1建模參數(shù)設定
本文利用BP神經(jīng)網(wǎng)絡、SVM和DBN網(wǎng)絡3個算法,分別對簡化特征和全信息特征進行訓練建模。運用MATLAB R2012a版本軟件,SVM模型采用libsvm-faruto加強工具箱[27],DBN模型采用Deep Learn Toolbox工具箱[28],BPNN模型采用軟件內(nèi)嵌的 Neural Network Toolbox工具箱。
1)簡化特征
簡化特征向量維96維。對于BP神經(jīng)網(wǎng)絡,其隱層的節(jié)點數(shù)m依據(jù)經(jīng)驗公式(8)來確定:

其中n為輸入向量維度,隱層節(jié)點數(shù)為7,BP的學習速率為0.001,動量為0.9。DBN網(wǎng)絡雖然是深度網(wǎng)絡,但依然可以設置 2個隱層,經(jīng)過多次訓練調(diào)參,設定各層節(jié)點數(shù)分別為50和26,dropout比例設為0,學習速率為1,動量為0.9,網(wǎng)絡迭代次數(shù)設為1 000代。BP網(wǎng)絡和DBN網(wǎng)絡的輸出層節(jié)點數(shù)均為1,輸出值“0”和“1”分別代表雌性和雄性。SVM采用RBF核函數(shù),并利用交叉驗證的方式尋參,得到最優(yōu)參數(shù)gamma值為0.000 98,cost值為16。
2)全信息特征
對于全信息特征,BP神經(jīng)網(wǎng)絡由于其淺層網(wǎng)絡的特性,只設定單隱層,依據(jù)公式(8)求得節(jié)點數(shù)為10,BP的學習速率為0.001,動量為0.9。DBN網(wǎng)絡作為深度網(wǎng)絡,可以設置多層網(wǎng)絡逐層提取圖像特征,經(jīng)過多次訓練調(diào)參,設置5個隱層,各層節(jié)點數(shù)為900、625、400、225、100,dropout比例為0.3,學習速率為 1,動量為 0.9,網(wǎng)絡迭代次數(shù)為10 000代,RBM訓練次數(shù)為500。BP網(wǎng)絡和DBN網(wǎng)絡的輸出層節(jié)點數(shù)均為1,輸出值“0”和“1”分別代表雌性和雄性。SVM采用RBF核函數(shù),并利用交叉驗證的方式尋參,得到最優(yōu)參數(shù) gamma值為0.000 98,cost值為16。模型參數(shù)設置如表1所示。
2.3.2模型驗證
為了分析不同圖像特征信息對雌雄識別模型的影響,提取圖像特征得到簡化特征和全信息特征,利用 3種機器學習方法分別驗證,3種模型判別準確率結(jié)果如表2所示。DBN模型和SVM模型的訓練集準確率優(yōu)于BP模型,均為100%;對測試集而言,BP模型的簡化特征和全信息特征的判別綜合準確率分別為 51.67%和58.33%。SVM模型簡化特征和全信息特征的判別綜合準確率分別為60%和63.33%。DBN模型簡化特征和全信息特征的判別綜合準確率分別為58.33%和83.33%。基于全信息特征的 3種模型綜合準確率均優(yōu)于對應的簡化特征的3種模型綜合準確率,基于全信息特征的DBN模型測試集雄性準確率為76.67%,雌性準確率為90%,綜合準確率為83.33%,明顯優(yōu)于基于簡化特征的DBN模型綜合準確率58.33%。表明圖像不同特征信息對模型準確率有一定影響。

表1 模型參數(shù)設定Table 1 Model parameters setting

表2 雞胚簡化特征與全信息特征雌性鑒定模型判別結(jié)果Table 2 Discriminant results of male and female identification models of simplified features and full information features for chicken embryos
從表 2結(jié)果發(fā)現(xiàn),SVM 模型的訓練集準確率為100%,測試集識別綜合準確率最高才達到 63.33%;BP模型訓練集準確率為 80%以上,測試集識別綜合準確率最高才達到58.33%;表明SVM和BP模型出現(xiàn)過擬合現(xiàn)象。對于DBN,由于加入dropout算法,相比于SVM和BP的過擬合會有所緩解,同時用受限玻爾茲曼機進行權(quán)值初始化,降低局部收斂概率,改善了模型的過擬合。
以測試樣本平均運行時間值作為模型的判別時間。由表3可知:針對同一輸入特征的3種模型,其簡化特征的SVM模型、BP模型、DBN模型的判別時間分別為0.006 1、0.007 7、0.0227 s,即TSVM 表3 模型測試集判別時間Table 3 Discriminant time of model test set 表 3中,基于全信息特征的 DBN模型判別時間7.835 0 s遠長于其他模型的判別時間,表明輸入的特征維數(shù)越多,相應模型的判別時間會越長;同時也與模型的復雜程度有關(guān),隨著隱層數(shù)和隱層數(shù)節(jié)點的增多,神經(jīng)網(wǎng)絡越復雜,導致運行速度降低,即模型的判別時間延長。 1)本研究構(gòu)建了雞胚雌雄識別的機器視覺圖像采集系統(tǒng),采集不同孵化時間段的種蛋胚胎發(fā)育形態(tài)圖,根據(jù)血線的清晰度以及機器視覺視野范圍內(nèi)的血線完整度原則,確定孵化第4天的圖像最適合用于雞胚雌雄的識別。 2)根據(jù)全信息特征和簡化特征,分別構(gòu)建支持向量機(SVM)、反向傳遞(BP)神經(jīng)網(wǎng)絡、深度置信網(wǎng)絡(DBN)3種雞胚雌雄性別識別模型,通過模型準確率和判別時間比較,基于HOG全信息特征的DBN模型準確率最佳,但判別時間最長。其中,綜合準確率為83.33%(雄性樣本判別正確率為76.67%,雌性樣本判別準確率為90%);判別時間為7.835 0 s。 3)本文研究表明,機器視覺對孵化早期雞胚雌雄的識別有一定效果。但是從結(jié)果來看,全信息特征中的噪音對于模型依舊存在著干擾,降低了雞胚雌雄識別的準確率,并且判別時間較長。在以后的研究中,需要使用更為有效的去噪方法,盡可能消除噪音對圖像信息的影響,同時也要充分保留圖像信息,以提高鑒別精度和縮短判別時間。 [參考文獻] [1] 潘磊慶,張偉,于敏莉,等. 基于高光譜圖像的雞種蛋孵化早期胚胎性別鑒定[J]. 農(nóng)業(yè)工程學報,2016,32(1):181-186.Pan Leiqing, Zhang Wei, Yu Minli, et al. Gender determination of early chicken hatching eggs embryos by hyperspectral imaging[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2016, 32(1): 181-186. (in Chinese with English abstract) [2] 王健,漠縱泉,肖小珺,等. 雞胚性別鑒定:家禽科學研究的新視點[J]. 中國家禽,2003,25(14):23-33. [3] 嚴鯤鵬. 雞蛋的雌雄鑒別[J]. 當代畜禽養(yǎng)殖業(yè),1999(12):32. [4] 唐劍林,周玉蘭. 雞胚早期雌雄鑒別[J]. 貴州畜牧獸醫(yī),2001,25(5):29. [5] Turkyilmaz M K, Karagenc L, F?dan E. Sexing of newly-hatched chicks using DNA isolated from chorio-allantoic membrane samples by polymerase chain reaction in Denizli chicken[J]. British Poultry Science, 2010,51(4): 525-529. [6] Phelps P V. Method of Sorting Birds in Ovo: US, US 6506570 B1[P]. 2003-01-14. [7] Gore A K, Bryan T E. Method for Localizing Allantoic Fluid of Avian Eggs: US, US6510811[P]. 2003-01-28. [8] Steiner G, Bartels T, Stelling A, et al. Gender determination of fertilized unincubated chicken eggs by infrared spectroscopic imaging[J]. Analytical & Bioanalytical Chemistry, 2011, 400(9): 2775. [9] 俸艷萍. 雞的性比及性分化早期胚胎性別差異表達基因研究[D]. 武漢:華中農(nóng)業(yè)大學,2007.Feng Yanping. On the Sex Ratio of Chicken and Sexual Differentially Expressed Genes in Chicken Embryos During Early Sexual Differentiation[D]. Wuhan: Huazhong Agricultural University, 2007. (in Chinese with English abstract) [10] 雷建鋒,汪偉. 基于OpenCV的圖像閾值分割研究與實現(xiàn)[J]. 現(xiàn)代電子技術(shù),2013,26(24):73-76.Lei Jianfeng, Wang Wei. Research and implementation of image threshold segmentation based on Open CV[J]. Modern Electronics Technique, 2013, 26(24): 73-76. (in Chinese with English abstract) [11] Liu H, Yan B, Lv M, et al. Adaptive CLAHE image enhancement using imaging environment self-perception[C]//Man–Machine–Environment System Engineering – Proceedings of the 17th International Conference on MMESE.Jinggangshan, China, 2018: 343-350. [12] Zuiderveld K. Contrast Limited Adaptive Histogram Equalization[M]// Graphics gems IV. Academic Press Professional,Inc. 1994: 474-485. [13] Kushol R, Kabir M H, Salekin M S, et al. Contrast Enhancement by Top-Hat and Bottom-Hat Transform with Optimal Structuring Element: Application to Retinal Vessel Segmentation[C]// International Conference Image Analysis and Recognition. Springer, Cham, 2017: 553-540. [14] 謝鵬鶴. 圖像閾值分割算法研究[D]. 湘潭:湘潭大學,2012.Xie Penghe. The Study on the Image Thresholding Segmentation Algorithm[D]. Xiangtan: Xiangtan University, 2012. (in Chinese with English abstract) [15] Davis M, Sahin F. HOG feature human detection system[C]//IEEE International Conference on Systems, Man, and Cybernetics, 2017: 2878-2883. [16] 慕春雷. 基于HOG特征的人臉識別系統(tǒng)研究[D]. 成都:電子科技大學,2013.Mu Chunlei. The Research of Face Recognition System Based on HOG Feature[D]. Chengdu: University of Electronic Science and Technology of China, 2013. (in Chinese with English abstract) [17] 李林,吳躍,葉茂. 一種基于HOG-PCA的高效圖像分類方法[J]. 計算機應用研究,2013,30(11):3476-3479.Li Lin, Wu Yue, Ye Mao. Effective image classification method based on HOG-PCA[J]. Application Research of Computers, 2013, 30(11): 3476-3479. (in Chinese with English abstract) [18] 遲強. 基于高光譜圖像技術(shù)對牛肉品質(zhì)無損檢測的研究 [D]. 哈爾濱:東北農(nóng)業(yè)大學,2015.Chi Qiang. The Research Based on Hyperspectral Image Technology on the Nondestructive Examination for Beef Quality[D]. Harbin: College of Electric and Information,2015. (in Chinese with English abstract) [19] Heaton J. Ian Goodfellow and Yoshua Bengio and Aaron Courville: Deep learning[J]. Genetic Programming &Evolvable Machines, 2017: 1-3. [20] 周樹森. 基于深度置信網(wǎng)絡的分類方法[M]. 北京:清華大學出版社,2016. [21] 李飛,高曉光,萬開方. 基于權(quán)值動量的 RBM 加速學習算法研究[J]. 自動化學報,2017,43(7):1142-1159.Li Fei, Gao Xiaoguang, Wan Kaifang. Research on RBM accelerating learning algorithm with weight momentum[J].Acta Automatica Sinica, 2017, 43(7): 1142-1159. (in Chinese with English abstract) [22] 高琰,陳白帆,晁緒耀,等. 基于對比散度-受限玻爾茲曼機深度學習的產(chǎn)品評論情感分析[J]. 計算機應用,2016,36(4):1045-1049.Gao Yan, Chen Baifan, Chao Xuyao, et al. Sentiment analysis of product reviews based on contrastive divergencerestricted Boltzmann machine deep learning[J]. Journal of Computer Applications, 2016, 36(4): 1045-1049. (in Chinese with English abstract) [23] Lecun Y, Bengio Y, Hinton G. Deep learning[J]. Nature,2015, 521(7553): 436-444. [24] Hinton G E, Srivastava N, Krizhevsky A, et al. Improving neural networks by preventing co-adaptation of feature detectors[J]. Computer Science, 2012, 3(4): 212-223. [25] 蔡滿軍,程曉燕,喬剛. 一種改進BP網(wǎng)絡學習算法[J]. 計算機仿真,2009,26(7):172-174.Cai Manjun, Cheng Xiaoyan, Qiao Gang. An improved learning algorithm for BP network[J]. Computer Simulation,2009, 26(7): 172-174. (in Chinese with English abstract) [26] Zinkevich M, Weimer M, Smola A J, et al. Parallelized stochastic gradient descent[J]. Advances in Neural Information Processing Systems, 2010, 23(23): 2595-2603.[27] Chang C C, Lin C J. LIBSVM: A library for support vector machines[J]. Acm Transactions on Intelligent Systems &Technology, 2011, 2(3): 1-27. [28] Palm R B. Prediction as a Candidate for Learning Deep Hierarchical Models of Data[D]. Kongens Lyngby: Technical University of Denmark, 2012.
3 結(jié) 論