郭 陽,陳桂鵬,丁 建,嚴志雁,梁 華
(江西省農業科學院 農業經濟與信息研究所/江西省農業信息化工程技術研究中心,江西 南昌 330200)
隨著我國人民生活水平的提高,牛肉消費需求不斷增加。我國人均牛肉消費量從2015年的1.6 kg上升到2018年的2.0 kg[1],江西省人均牛肉消費量從2015年的1.6 kg上升到2018年的2.2 kg[2]。聯合國貿易數據(UNComtrade)和聯合國糧食及農業組織(FAO)的數據顯示,中國牛肉產量從2007年的626.2萬t上升到2018年的644.1萬t,中國牛肉產量大幅上升,同時,中國牛肉進口量從2007年的0.36萬t上升到2017年的69.50萬t,中國牛肉進口量也大幅提高,但相對人們對牛肉消費需求的增長來看,牛肉的供給還存在很大的缺口[3]。為推進牛肉市場健康發展,近年來,我國不斷擴大肉牛養殖業的規模,飼養肉牛數量總體上保持著快速增長勢頭,同時養牛業的發展對我國農村經濟建設發揮著重要作用,成為增加農民收入的主要途徑[4]。
傳統養牛方式消耗大量的人力物力,特別是勞動力成本上升導致養殖成本急劇上升[5]。同時,由于缺乏自動監測診斷工具,僅依靠人工經驗難以準確及時地獲取牛的行為特征和健康狀況[6]。采用先進傳感技術、智能傳輸技術和農業信息處理技術,可以實現牛養殖信息的智能感知、安全可靠傳輸以及智能處理,達到牛行為監測、識別分類以及疾病診斷與預警的目的,對推進養牛業發展具有重要的意義[7]。
動物行為反映動物生理健康,監測動物行為可為疾病預警與診斷提供依據。加快養殖行業數字化、信息化,實現動物行為的實時監測,就要發展智能感知、無線傳輸、智能處理等技術[8]。目前用于監測牛行為的技術主要有聲音監測技術、機器視覺技術、無線傳感器技術。
動物發出的聲音信號與行為密切相關,利用識別算法從大量聲音信號中提取出采食信號,監測牛采食行為[9]。對聲音信號處理分為聲音信號采集、預處理、聲音信號數字化以及特征提取。聲音采集利用聲音傳感器模塊實現動物反芻聲音信號采集,包含吞咽、反嘔和咀嚼等聲音信號;預處理防止干擾噪聲對數據產生影響,對聲音信號放大并消除環境噪聲信號。牛發生吞咽、反嘔和咀嚼等行為時,會發出不同的聲音,通過聲音頻率提取吞咽、反嘔和咀嚼等3種聲音。
姚意[10]通過麥克風采集反芻聲音,nRF51422芯片處理反芻聲音數據,nRF51422芯片自帶ANT網絡作為反芻采集節點實現組網并發送到ANT集中器,再傳送到PC,完成奶牛反芻信息采集,并采用反芻識別算法識別奶牛反芻聲音。張爽[11]研發了一種佩戴在奶牛頸部的監測項圈,用來采集奶牛反芻聲音、采食聲音的數據,該設備采用麥克風傳感器,利用聲音識別算法識別反芻信號,實現反芻行為監測,結果表明:該設備反芻識別精度達到90%,較好地實現了奶牛反芻行為監測。王莉薇[12]設計了一種可穿戴設備,用來監測奶牛反芻聲音信號、反芻姿態信號,利用音頻識別算法提取反芻聲音特征,實現反芻聲音的分類,同時根據奶牛反芻頸部行為變化進行姿態分類,融合聲音監測和姿態監測實現了反芻行為更精準的分類,結果表明:該可穿戴反芻設備精度達到81.3%,提高了反芻識別的準確率。Navon等[13]通過聲音傳感器監測放牧狀態下奶牛采食行為,將聲音傳感器佩戴在奶牛前額上,采集奶牛下頜運動產生的數據,并采用機器學習算法去除背景噪聲,實現采食聲音信號分類,從而實現放牧時期對奶牛采食量的監測,結果表明,該聲音監測系統識別正確率達到94%。Chelotti等[14]通過聲音監測系統自動獲取動物的采食和反芻行為,通過無線網絡節點實現數據傳輸,利用實時決策邏輯算法測量信號頻率、振幅,完成奶牛采食和反芻行為的分類,結果表明,采食行為正確率達到了97.4%,反芻行為正確率為84.0%。Deniz等[15]開發了一種基于嵌入式的聲音采集監測系統,包含微控制器模塊、音頻模塊、電源模塊、GPS模塊、無線網絡模塊,微控制器對麥克風獲取的聲音進行監測分類,并量化奶牛采食行為,結果表明,該系統在不分類情況下采食行為正確率達到92%,咀嚼、咬合以及咀嚼-咬合三類事件正確率達到78%。Vanrell等[16]設計了一種聲音采集監測系統,監測覓食過程中產生的聲音,采用一種基于分割分類正則化算法完成奶牛覓食活動分割與分類,結果表明,對于反芻和放牧行為分類的F1-score指標均高于0.89,能夠長期監測奶牛采食和放牧行為,實現精準畜牧業。
采用聲音傳感器采集數據,實時獲取吞咽、反嘔和咀嚼行為,幫助飼養員及時判斷牛的身體健康,減少人工投入,提高生產性能,實現數字化、智能化養殖。但是采用聲音傳感器的可穿戴設備體積比較大,長時間穿戴會產生應激反應。同時,家畜運動、爭斗會造成設備位置偏移或者脫落,導致采集數據產生誤差,而且聲音識別范圍窄,僅對特定動物有效,識別效果不理想。
隨著人工智能、圖像處理等信息技術的發展,機器視覺技術作為信息技術領域一個新興的應用方向而廣泛應用于數字化農業領域[17]。利用攝像機記錄動物的視頻、圖像,包含信息較為豐富,通過利用圖像處理實現動物行為識別、分類,可以提高動物福利,節約資源和人力成本[18]。
Chen等[19]為了克服傳統的反芻動物檢測方法的局限性,提出了一種視頻技術的奶牛反芻行為檢測方法。采用均值漂移算法精準跟蹤奶牛下頜運動,從視頻中提取牛嘴運動的質心軌跡曲線,實現奶牛反芻行為監測。通過手動選取奶牛嘴部區域,提出了基于視頻分析技術的奶牛反芻行為檢測方法,采用Mean-Shift算法準確地跟蹤奶牛的下頜運動,提取出牛嘴部運動的質心軌跡曲線,實現了對奶牛反芻行為的監測,采用40個視頻片段進行分析,結果表明,奶牛反芻行為的平均檢測正確率為92.03%,該方法對奶牛反芻動物行為進行監測是可行的,但由于采用單頭奶牛作為研究對象,自動化程度不高,對多頭奶牛反芻行為的監測效果不理想。Reiter等[20]通過視頻技術檢測奶牛反芻時間和反芻次數,采用Smartbow算法獲取奶牛的反芻時間,進而對奶牛19 d(每天24 h)的錄像數據分析,與飼養員直接觀察奶牛反芻行為進行對比,結果表明,奶牛每小時反芻時間Smartwell算法比目測值低1.2%,奶牛每小時反芻次數Smartwell算法比目測值高3.6%。趙凱旋等[21]采用視頻技術檢測奶牛呼吸頻率,錄制了72頭奶牛側臥視頻,每頭奶牛錄制5 min,總共360 min,采用光流法分析奶牛側臥呼吸時奶牛呼吸區域與腹部起伏規律,得到了呼吸特征值與時間變化的關系,結果表明,奶牛的呼吸頻率與異常檢測準確率分別為95.68%、89.06%。何東健等[22]采用視頻分析對犢牛躺、站、走和跑跳等行為進行了分類,采用一種改進的目標檢測方法,提取視頻中犢牛目標,通過快速聚類算法對犢牛行為分類識別,結果表明,躺的正確率高達100%、站正確率高達96.17%、走正確率高達95.85%、跑跳正確率高達97.26%。溫長吉等[23]采用視覺詞典法能實現對母牛產期行為的識別,對90組規定視角下母牛產前行走、側臥和回望等典型行為的平均正確識別率約為94.6%,對30組水平隨機視角下拍攝的上述3種行為的平均正確識別率約為88.3%。康熙等[24]提出了機器視覺技術實現跛行檢測、分類,采集了300頭奶牛總時長81 min的行走視頻,通過機器視覺技術識別奶牛行走,采用時空差值算法檢測跛行牛蹄定位地點,通過牛蹄定位試驗和跛行檢測試驗,其正確率分別達到了93.3%和77.8%。
機器視覺技術這種無接觸的識別方法不會像外帶裝置一樣影響動物的活動,避免造成動物傷害,有助于提高動物福利,對自動化、智能化養殖具有重大意義。但是機器視覺對牛行為監測視頻的采集環境要求苛刻,對算法依賴高、難以對多個目標進行有效的識別,不利于精準監測動物行為。
無線傳感節點設計小巧、易于固定,能夠實時采集和發送數據,所以無線傳感技術是單個動物行為監測最合適的方法。無線傳感器網絡技術通過使用傳感器設備將被測量的數據轉換電信號輸出,傳感器通過無線網絡發送接收那些采集進來的數據信息,實現多種數據的實時監測。隨著無線傳感器的發展,廣泛應用于動物體溫、行為、發情的監測。
Zambelis等[25]將加速度計耳標用于監測奶牛行為時間與人觀察進行對比測試,相關強度結果:活動>進食+反芻>反芻>進食(誤差大),因為進食和反芻總時間與人觀察的接近,可能是反芻與進食時間相互誤識別,且進食時間過多識別為反芻時間而導致誤差較大。Ruuska等[26]利用傳感器記錄奶牛進食、反芻和飲水行為時間。將測量值與6頭奶牛連續72 h實際記錄的時間對比,進食時間頻率分別為3.8 min/h和3.2 min/h,反芻時間頻率分別為3.2 min/h和3.2 min/h,飲水時間頻率分別為0.2 min/h和0.1 min/h。尹令等[27]利用無線傳感器網絡記錄奶牛體溫、脈搏、呼吸頻率、運動加速度發送至監測中心,識別奶牛的當前身體狀態以及是否發情。田富洋等[28]通過傳感器實時檢測奶牛顳窩部位的運動來計算奶牛的采食量,通過觀察奶牛的采食規律,提供精細化飼養方案。
在聲音檢測技術、機器視覺技術、無線傳感器網絡技術識別動物行為的基礎上,采用行為分類算法對動物行為分類,可以提高動物行為分類的效果。模式識別是通過計算機用數學方法來研究人或動物行為,可以用于動物行為信息分類,常用的模式識別方法有K近鄰算法、貝葉斯決策、K均值聚類、支持向量機和人工神經網絡等[29]。下文綜述了應用最廣的3種算法——K均值聚類算法、支持向量機算法、人工神經網絡算法。
K均值聚類指將一堆沒有標簽的數據自動劃分成幾類的方法,并保證同一類的數據有相似的特征,是一種經典的聚類算法,簡單易行[30]。K均值聚類算法簡單、效率高,成為應用最廣泛的聚類算法之一,應用于畜禽行為識別分類[31]。
王莉薇[12]提出基于K均值聚類算法和支持向量機分類算法結合進行奶牛反芻分類,結合牛反芻行為變化特征,提取并選擇對分類器最有用的和最重要的特征向量,有效地解決高維數據分類,得到更精確的反芻分類結果,結果表明,單獨支持向量機方法的準確率為73.6%~90.1%,利用K均值聚類+支持向量機方法的準確率為83.3%~93.2%。譚驥[32]采用一種改進的模糊聚類算法——半監督模糊聚類算法,結合了監督學習算法和無監督學習算法的優點,通過先訓練樣本再進行聚類,分析奶牛進食、平躺、站立、平躺動作、站立動作、快走、慢走7類運動行為,結果表明,平均準確度達到95.4%,比K均值聚類算法、BP神經網絡算法平均精密度分別提升了5.1、1.7個百分點。從算法運行時間來說,改進的模糊聚類算法耗時556 ms,短于BP神經網絡算法的1227 ms,但是加入了學習過程,略長于K均值聚類算法的364 ms。劉艷秋[33]提出了一種基于K均值聚類-BP神經網絡算法識別母羊產前運動行為,利用K均值聚類算法具有良好的魯棒性,對母羊靜態行為分類,識別母羊趴臥狀態,識別正確率高達99%。進一步結合BP神經網絡模型對母羊產前站立、行走、刨地行為進行識別,識別正確率分別為85.71%、88.88%、80.00%。尹令等[27]采用的K均值聚類算法對奶牛行為進行多級分類識別,能準確區分奶牛靜止、慢走、爬跨等行為特征,從而監測奶牛健康情況。沈維政等[34]利用K均值聚類算法對奶牛行為進行分類,靜止、微動、慢走、爬跨和快跑等行為準確率分別為71.77%、74.42%、76.15%、78.23%、80.80%,通過試驗分析各種行為所占時間的比例,預測奶牛的發情和身體異常情況。
K均值聚類算法的優點是相對容易理解和實現,時間復雜度較低;缺點是對預先輸入的分類數目較為敏感,對噪聲和離群值較為敏感,只用于數值類型數據,不適用于絕對值類型數據,不能解決非凸數據,容易陷入局部最優。
支持向量機是一個二分類器,尋找一個最優的決策邊界,將兩類樣本分開,廣泛應用于行為識別領域[36]。在智能化養殖領域,支持向量機已經成功地應用于動物行為識別、動物健康診斷[37]。支持向量計算法通過把動物行為信息定義為一個實體空間,行為信號轉化為特征向量,實現動物行為的智能分類。
Hamilton等[38]提出了一種加速器傳感器融合支持向量機識別奶牛反芻方法,瘤胃運動和收縮間隔時間作為支持向量機的特征向量,建立瘤胃運動與反芻變化規則,結果表明,反芻識別準確率達到86.1%,該模型能夠準確地檢測出反芻動物的反芻期,有助于深入了解動物健康情況。Martiskainen等[39]采用加速傳感器和支持向量機自動測試和識別奶牛站立、躺下、沉思、進食、正常和跛行等行為方式,結果表明,站立的靈敏度和準確率分別為80%、65%,躺下的靈敏度和準確率分別為80%、83%,反芻的靈敏度和準確率分別為75%、86%,進食的靈敏度和準確率分別為75%、81%,正常行走的靈敏度和準確率分別為79%、79%,跛行的靈敏度和準確率分別為65%、66%。任曉惠等[40]提出了一種螢火蟲算法優化支持向量機實現奶牛行為分類,加速度傳感器采集姿態信息,三軸加速度數據進行標準化處理,得到奶牛反芻、進食、飲水和靜止時的加速度,利用支撐向量機算法進行分類,結果表明,奶牛分類精度、靈敏度和準確率的平均值分別達到97.28%、97.03%、98.02%。陳春玲等[41]采用支持向量機算法實現肉牛的反芻行為的分類,通過隨機抽取50頭西門塔爾健康肉牛,采集9:00~15:00時間段內3000個樣本數據(其中70%為訓練集,30%為測試集),通過牛額頭安裝動作傳感器獲取肉牛加速度、角速度、角度9組特征向量,提取特征向量通過支持向量機進行分類模型訓練,結果表明,反芻和非反芻的識別率分別為97.659%、97.667%,支持向量機模型可以準確識別肉牛的反芻行為。
支持向量機算法有嚴格的數學理論支持,不依靠統計方法,從而簡化了分類和回歸的問題,并且可以處理非線性分類。但是支持向量機算法訓練時間長,預測時間與支持向量個數呈正比,只適合數量較小的分類問題,而無法處理高度復雜的數據[42]。
人工神經網絡技術起源于20世紀80年代,是人工智能的重要分支,具有自適應、自組織和自學習的特點,并廣泛應用于信息、醫學、經濟、農業等領域。在農業養殖領域,利用人工神經網絡可以實現動物行為的識別[43]。
田富洋等[44]提出一種學習化矢量人工神經網絡預測奶牛發情行為,提取發情天數、平均活動因子、體溫、產奶量等參數作為神經網絡輸入參數,進行發情預測,結果表明,發情預測率可達到70%以上。周雅婷等[45]利用3層BP人工神經網絡模型對肉牛采食行為進行識別,其正確率為高達99.04%,每1 min取1個均值進行處理,其正確率為91.09%;每5 min取1個均值進行處理,則正確率為84.03%。Dongre等[46]以日產奶量為基礎,用人工神經網絡預測了奶牛的產奶量,與多元線性回歸分析的預測效果對比,結果表明,人工神經網絡預測比多元線性回歸分析更好,準確率超過了80%,并進一步指出當包含其他生產繁殖性狀如初產年齡、性成熟年齡或其他更能準確預測產奶量的性狀能時,能進一步改善人工神經網絡的預測性能。Dong等[47]采用人工神經網絡的對牛肉混合飼料體外發酵產生的甲烷與揮發性脂肪酸產量進行了研究,分別預測了人工瘤胃發酵的CH4、CO2和總產氣量,與其實測值之間的一元線性相關分析結果顯示,其決定系數(R2)分別為0.95、0.97和0.92,BP神經網絡模型的均方根預測誤差(RMSPE)分別為3.89%、2.95%和4.23%,結果表明,人工神經網絡模型比多元線性回歸模型有更準確的預測性能。
人工神經網絡的優點是具有很強的非線性處理和自適應能力;缺點是對于結構復雜的人工神經網絡,學習速度慢;對于數據量少導致算法不運行,容易陷入NP難,需要尋找更合適的類似方法。
目前,國內外學者在牛行為監測技術、行為分類模型研究方面取得了一些進展,但缺乏可推廣應用的產品,究其原因,一是傳感器技術、機器視覺技術硬件不成熟,行為監測準確性不高;二是分類識別算法不完善,不能滿足復雜的生產養殖環境。
(1)聲音監測技術。聲音監測技術通過利用揚聲器采集聲音信號,與對應的樣本建立的數據庫匹配,操作簡單,成本不高,但受環境噪音影響尤其是周圍動物發聲的干擾。
(2)機器視覺監測技術。機器視覺監測技術難度大,需要大量數據針對動物行為進行建模,影響信息傳輸速度和效率。同時,對視頻圖像數據采集環境要求苛刻,陰天或者晚上等光照強度弱的環境下難以采集合適的視頻圖像數據。
(3)無線傳感器網絡技術。目前,行為監測智能設備大多數置于牛身上且體積大,在牛躺臥、打斗過程中容易掉落。同時,牛的養殖環境對監測設備影響較大,導致無法長期使用。
(4)牛行為分類算法。利用視頻圖像信息、傳感器采集的動物行為數據,引入K均值聚類、支持向量機和人工神經網絡等常見的模式識別方法實現牛行為信息的分類。但聚類算法對預先輸入的分類數目較為敏感,不能解決非凸數據,容易陷入局部最優;支持向量機訓練時間長,只適合數量較小的分類問題,無法處理高度復雜的數據;人工神經網絡對于結構復雜的神經網絡,學習速度慢,容易陷入NP難。
(5)多傳感器信息融合。采用聲音監測技術可以監測牛憤怒、悲傷、恐懼等不良情緒,通過監測采食聲音、反芻聲音判斷牛采食、反芻行為,但單一且容易受到噪聲影響,而且聲音識別范圍窄,識別效果不理想。采用姿態傳感器(單軸加速計、MPU6050)監測反芻姿態、日常姿態,只能監測單一的姿態信息,識別準確度不高。
通過分析聲音監測技術、機器視覺技術、無線傳感網絡技術等牛行為監測技術的研究與應用現狀,比較了支持向量機、K均值聚類、人工神經網絡等3種牛行為識別分類的優缺點,筆者認為今后對牛行為監測技術、分類模型的研究重點應側重以下5個方面。
(1)針對復雜環境噪聲以及其他動物發聲干擾,提出一種聲音過濾算法,準確提取咀嚼、吞咽和反嘔聲音的特征參數,去除多余噪聲、雜聲的影響。
(2)針對陰天、晚上等光照強度弱的環境,合理布置光源減少環境光照影響,進一步優化視頻圖像算法,實現動物圖像快速精準獲取。
(3)考慮到多數智能監測傳感器置于動物身上,設計一種動物行為監測傳感器滿足體積合理、防水、低功耗電池壽命長、易于動物穿戴不脫落,采用3D打印技術實現動物可穿戴裝置研制,結合物聯網技術開發低功耗、遠距離智能監測設備,完成監測設備智能化。
(4)針對動物行為分類算法的優缺點,合理采用最優算法。對于數據量小采用支持向量機算法,具有較好的“魯棒性”,可以得到全局最優解;對于數據量大采用人工神經網絡算法,該算法具有很強的非線性處理能力和自適應、自學習、聯想功能,有助于提高分類精度。針對單一分類算法分類效果不佳,提出一種改進的分類算法,實現更精確的分類結果。
(5)考慮到單一傳感器行為監測的準確性低,不能監測到牛行為的所有信息,采用聲音傳感器監測與姿態傳感器監測融合,多維度監測牛行為,提高監測準確性。
通過對牛行為監測技術和分類模型研究進展的綜述與分析,得出以下結論:(1)機器視覺技術具有無接觸的識別,不外帶裝置,可以對牛行為進行識別,對牛活動影響小,但對圖像視頻環境要求苛刻,牛行為識別精準度不高。(2)無線傳感器技術應用廣、技術成熟,可以監測牛采食、反芻、休息、活動等行為,但適合牛穿戴、長期可靠工作的無線網絡傳感器技術有待突破。(3)支持向量機計算簡單,理論完善,所需樣本數據少,且識別精度高,分類效果好。人工神經網絡算法的學習規則簡單,非線性擬合能力較強,但是數據不足易出現運算時間長、過學習、容易陷入局部最小值等情況。