耿艷利,宋朋首,林彥伯,季燕凱,楊淑才
采用改進CNN對生豬異常狀態聲音識別
耿艷利1,2,宋朋首1,林彥伯1,季燕凱1,楊淑才3
(1. 河北工業大學人工智能與數據科學學院,天津 300130;2. 智能康復裝置與檢測技術教育部工程研究中心,天津 300130;3. 天津魔界客智能科技有限公司,天津 300130)
豬只聲音能夠體現出其生長狀態,該研究針對人工監測豬只聲音造成的豬只疾病誤判以及耗時耗力等問題,研究基于卷積神經網絡CNN(Convolutional Neural Network)的生豬異常狀態聲音識別方法。該研究首先設計豬只聲音實時采集系統,并利用4G通訊技術將聲音信息上傳至云服務器,基于專業人員指導制作豬只異常聲音(生病、打架、饑餓等)數據集,提取豬只異常聲音的梅爾譜圖特征信息;其次引入多種注意力機制對CNN進行改進,并對CBAM(Convolutional Block Attention Module)注意力機制進行優化,提出_CBAM-CNN網絡模型;最后將_CBAM-CNN網絡模型分別與引入SE_NET(Squeeze and Excitation Network)、ECA_NET(Efficient Channel Attention Networks)和CBAM注意力機制的CNN神經網絡進行對比,試驗結果表明該文提出的_CBAM-CNN網絡模型在最優參數為128維梅爾頻率、2 048點FFT(Fast Fourier Transform)點數、512點窗移下的梅爾譜圖特征下相較于其他模型對豬只異常聲音識別效果最佳,識別率達到94.46%,驗證了算法的有效性。該研究有助于生豬養殖過程中對豬只異常行為的監測,并對智能化、現代化豬場的建設具有重要意義。
聲音信號處理;動物;異常聲音;卷積神經網絡;SE_NET;CBAM;ECA_NET
傳統的生豬養殖對豬只的健康狀態和異常狀態判斷通常需要人為蹲點監測、近距離觀察[1-2],容易造成豬只的應激反應和疾病的擴散[3-5]。隨著科學技術的發展,養豬技術越來越趨于智能化。
國外將聲音識別技術應用于生豬養殖業早于國內。2007年,意大利學者Guarino等[6]以豬咳嗽聲的梅爾頻率倒譜系數為特征,利用動態時間規整算法實現了豬咳嗽聲的識別,咳嗽聲識別準確率為85.5%。Exadaktylos等[7]基于聲音信號的頻域特征對化學誘導的豬咳嗽聲、病豬咳嗽聲、其他環境音進行分析與分類,整體識別準確率達到85%,病豬咳嗽聲識別準確率達到82%。Chung等[8]以患病豬咳嗽聲和其他聲(不患病豬咳嗽聲、豬尖叫聲、豬呼嚕聲)的梅爾頻率倒譜系數為特征,利用支持向量數據描述算法和稀疏表示分類法組成兩級分類器對其進行識別,數據集包括300個患病豬只的咳嗽聲和200個其他聲音,所提模型平均識別準確率達到91.0%。Hong等[9]使用NVIDIA TX-2嵌入式設備采集豬只聲音,搭建MnasNet網絡并實現豬只異常聲音的實時識別,消除噪聲對識別準確率的影響。Cordeiro等[10]通過決策樹對豬只聲音進行識別,證明豬只聲音可以反應豬只的年齡、性別和患病情況。
國內在此方面研究尚處于起步階段。南京農業大學團隊[11-12]對母豬是否患有呼吸道疾病判斷容易出現偏差等問題,提出一種基于改進模糊均值的咳嗽聲識別算法,有效幫助飼養員判斷豬是否有呼吸道疾病。華中農業大學團隊[13-14]將豬只咳嗽聲的梅爾頻率倒譜系數及其一階、二階差分系數組合為復合特征,使用深度信念網絡等方法對豬咳嗽聲進行識別,豬咳嗽聲識別準確率達到94.29%。涂鼎[15]以豬咳嗽聲的語譜圖為特征,使用微調的AlexNet模型實現了豬咳嗽聲的識別,模型識別準確率達到94.76%。蒼巖等[16]同樣以豬只聲音的語譜圖為特征,利用MobileNetV2模型對豬的哼叫、驚嚇、喂食等聲音進行識別,模型識別準確率達到97.3%。
綜上所述,國內外學者分別從豬只聲音采集設備、去噪與模式分類方面進行大量研究,其中如何對豬只異常聲音進行實時采集并準確識別是目前研究的重點。因此本研究搭建了基于4G通訊技術的豬只聲音遠程實時采集平臺,實現豬只聲音信息的遠程實時采集;選取豬只異常聲音的梅爾譜圖為特征參數,研究基于CNN的豬只異常聲音識別方法。
豬只聲音信息采集設備由單片機、數據采集模塊、4 G通訊模塊和電源管理模塊組成。其中單片機采用STM32F103RCT6芯片;數據采集模塊由1個麥克風咪頭和音頻放大電路組成;4G通訊模塊采用的是ME909s-821 LTE Mini PCIe 模塊。豬只聲音信息采集設備硬件連接和實物如圖1所示。
本研究試驗數據采集于河北省滄州市某豬場,豬場養殖的豬品種為長白豬,采集時間為2020年11月份,將采集設備置于料槽上方,整個采集過程持續7d。豬只聲音信息采集現場如圖2所示。
圖2中圓圈處為豬只聲音采集設備放置地點,其中采樣率設置為32 kHz,采樣位數為16 bit,通道數為單通道。編碼之后的數據通過2個直接存儲器訪問控制器將數據實時傳輸給4 G通訊模塊。
本研究通過4G通訊模塊把采集到的聲音數據傳輸到云服務器上。通訊協議采用TCP/IP協議,采集端當做TCP的客戶端,進行不間斷的向服務端發送數據。云服務器作為TCP的服務端,對指定端口進行阻塞式監聽,客戶端連接成功后開始傳輸數據,服務端先向客戶端發送重啟命令保證傳輸的數據對齊。經過專業人員指導,最終篩選得到豬咳嗽聲樣本700個,豬尖叫聲樣本1 146個,豬哼哼聲樣本1 040個。
聲音信號是非平穩信號且信號低頻段能量大,高頻段能量小,所以需要對聲音信號進行預處理,預處理過程包括:預加重、分幀、加窗。其中預加重的作用是對聲音的高頻部分進行加重,去除口唇輻射的影響,增加豬只聲音的高頻分辨率;聲音信號是非平穩的信號,但一般認為在短時間(30~50 ms)內,聲音信號是平穩的,即聲音信號具有短時平穩性,所以利用分幀加窗的方式對聲音信號進行分析。本文豬只聲音分幀長度為50 ms,幀移為12.5 ms。
采集的原始數據中豬只聲音和環境噪聲相互疊加,環境噪聲影響模型的識別效果,本文選取去除加性噪聲效果較好的譜減去噪法對豬只聲音進行去噪。借鑒文獻[12]的去噪方法,設第幀純凈聲音信號序列為x(),第幀帶噪聲音信號序列為y(),估計的1幀噪聲信號序列為d(),為采樣點序號,則譜減公式為

由X()進行逆傅里葉變換可得到第幀純凈聲音信號序列x(),將每幀純凈聲音信號序列進行重疊相加可得到去噪后的純凈聲音信號。對各類聲音進行降噪后效果如圖3所示,譜減降噪后各類聲音均沒有失真,且較好地去除了背景噪音。
豬只聲音經過去噪后聲音信號仍然存在無聲段,為了防止無聲段對識別效果產生干擾,需要對豬只聲音信號進行端點檢測,確定豬只有效聲音的起點和終點。本文選用基于短時能量的單參數雙門限端點檢測方法[17]對豬聲音進行檢測,其中短時能量計算公式為

式中為幀長,聲音分幀后每幀的長度,為豬聲音的采樣點序號,為幀序號。
3類聲音經過端點檢測后的時域曲線和短時能量曲線如圖4所示。
經過分析,發現豬只各類聲音樣本都在3 s以內,截取豬只聲音長度選擇為3 s,保證每段聲音都包含其異常聲音發音的一個周期,設計梅爾濾波器對經過預處理的豬只聲音濾波,最后得到聲音信號的梅爾譜圖[18-19]。其中128維梅爾頻率、2 048點快速傅里葉變換FFT(Fast Fourier Transform)點數、512點窗移下豬只各類異常聲音的梅爾譜圖如圖5所示。
本文以豬只聲音信號的梅爾譜圖為特征,利用卷積神經網絡搭建本文的分類模型。卷積神經網絡具有局部連接和權值共享的特點,但是卷積神經網絡在獲取到梅爾譜圖的各個位置的局部信息時,不可避免的會產生各種冗余的信息,而這種冗余的特征對提升模型的性能效果不佳[20-21],因此本文通過引入SE_NET、ECA_NET、CBAM等注意力機制對卷積神經網絡進行優化。
本文基于卷積操作構建局部特征學習塊[22]。局部特征學習塊由卷積層、批歸一化層[23]、指數線性單元激活函數和最大池化層組成,卷積層學習輸入梅爾譜圖的特征;批歸一化層對每批卷積層的輸出進行歸一化處理,提高深度網絡的性能和穩定性;指數線性單元激活函數定義批歸一層的輸出。指數線性單元具有負值,使激活的平均值更接近于零,因此可以加快網絡的收斂速度,從而獲得更高的識別精度。指數線性單元激活函數的計算公式為
SE_NET對CNN在通道方向添加注意力機制,該模型復雜度低,新增參數和計算量小,主要包括“壓縮”和“激勵”2個關鍵操作[24]。
“壓縮”部分是順著空間維度對特征圖進行“壓縮”,將原來特征圖維度íí(、、分別為特征圖的高度,寬度和通道數)壓縮為1í1í,該特征圖感受野更廣;“激勵”部分是在“壓縮”的基礎上對特征各個通道間相關性進行建模,得到不同通道的重要性大小后在“激勵”到原始特征圖中對應的通道中。實際使用中“壓縮”采用全局平均池化操作,“激勵”采用兩層全連接層,且為了增強泛化能力,神經元個數按一定的衰減比例減少。
ECA_NET是對SE_NET的改進模型,是一種極輕量的通道注意力模塊,該模塊增加的模型復雜度小,提升效果顯著[25]。ECA_NET使用1D卷積代替SE_NET中的全連接層,其中1D卷積涉及到超參,即卷積核尺寸,它代表了局部跨通道交互的覆蓋率。的計算公式為
ECA_NET通過式4自適應選擇卷積核大小,以確定局部跨信道交互的覆蓋率。SE_NET和ECA_NET模塊示意圖如圖6所示。
CBAM結合了通道注意力機制和空間注意力機制[26],將豬只異常聲音的梅爾譜圖經過卷積層生成特征圖,對此特征圖依次進行通道注意力加權和空間注意力加權得到最終經注意力加權后的特征圖,具體步驟如公式(5)、(6)所示




通道注意力部分和SE_NET原理類似。空間注意力部分具體含義為將特征圖分別進行平均池化和最大池化操作并將兩個結果連接組成íí2的特征圖,通過通道數為1的卷積層學習得到íí1的特征圖,將此特征圖通過Sigmoid激活函數得到該特征圖各部分的權重,最后將權重特征圖與原始特征圖相乘得到空間注意力加權的特征圖。
CBAM總體結構和各部分示意圖如圖7所示:
本文借鑒ECA_NET對SE_NET的改進方式,將CBAM的通道注意力部分使用ECA_NET中提出的權重共享的1D卷積來代替全連接層,同時也引入ECA_NET中提出自適應1D卷積核。改進后通道注意力部分計算公式如下
式中f ík為卷積核大小為í的卷積操作,的計算公式如式(4)所示。
改進后通道注意力部分如圖8所示:
本試驗網絡模型結構為4層局部學習單元-注意力層-全連接層,前4層局部特征學習單元卷積核個數分別為64-64-128-128,全連接層神經元個數為3。將數據集以8∶1∶1的比例劃分為訓練集、驗證集、測試集,學習率設置為0.006。因為不同類型的譜圖對模型性能有一定影響,因此本文在128維梅爾頻率下針對不同FFT(Fast Fourier Transform)點數、不同窗移下的梅爾譜圖進行了多次試驗,各類模型在不同類型梅爾譜圖下的識別效果如表1所示。

表1 不同FFT點數和窗移下準確率統計
試驗結果表明128維梅爾頻率、2 048點FFT點數、1/4窗移下的梅爾譜圖模型下識別效果最佳。本文基于提升模型識別效果和降低模型復雜度兩方面來對注意力機制進行改進,為了對改進效果進行分析,將模型大小和識別效果以表格形式展現。

表2 各網絡模型大小和識別準確率
通過對表2中模型大小和識別準確率的分析,可以看出,本文改進CNN網絡模型_CBAM_CNN在耗費少量的存儲空間的同時對模型的識別效果有很大的提升。本文所提出的_CBAM-CNN在模型大小上和識別效果兩方面均優于CBAM-CNN,相對于2D-CNN、SE-CNN、ECA-CNN這3種網絡模型,_CBAM-CNN雖然犧牲了少量存儲空間,但是在模型識別效果上有顯著提升,識別準確率達到94.46%。
模型在最佳類型譜圖下對各類異常聲音具體識別效果以多分類混淆矩陣的形式表示:

表3 不同網絡模型下試驗結果混淆矩陣統計
由表3可以看出 _CBAM-CNN模型相較與其他模型,對各類異常聲音識別最好,其中豬尖叫聲識別精確率最高,達到了100%,豬哼叫聲和豬咳嗽聲識別精確率略低,分別為92.4%和88.6%。相較于前人所做研究,本文對豬尖叫聲識別精確率高于其他所有文獻,但哼叫聲和咳嗽聲識別精確率略有不足。
1)搭建了一種基于4G通訊技術的遠程無接觸式采集豬只聲音的設備,利用卷積神經網絡對豬只聲音進行識別,引入多種注意力機制對CNN進行改進,并對CBAM注意力機制做出優化,提出_CBAM-CNN網絡模型。
2)試驗證明,豬只聲音識別最優參數組合為128維梅爾頻率、2 048點FFT、1/4窗移,最優網絡模型為_CBAM-CNN,最優識別準確率達到94.46%,其中豬只尖叫聲識別精確率達到100%,優于前人所做研究。
3)該研究采用單麥克風采集豬只聲音,未對豬舍異常聲音的豬只進行定位研究,后續將會引入麥克風陣列并結合視頻技術研究豬只養殖過程中異常行為的精準定位和精準行為監測。
[1] Mitchell S, Vasileios E, Sara F, et al. The influence of respiratory disease on the energy envelope dynamics of pig cough sounds[J]. Computers and Electronics in Agriculture, 2009, 69(1): 80-85.
[2] Sara F, Mitchell S, Marcella G, et al. Cough sound analysis to identify respiratory infection in pigs[J]. Computers and Electronics in Agriculture, 2009, 64(2): 318-325.
[3] 王瑞年,張佳,黃守婷. 數字化養豬管理體系建設實踐[J]. 今日養豬業,2021(1):9-13.
Wang Ruinian, Zhang Jia, Huang Shouting. Digital pig management system construction practice[J]. Pigs Today, 2021(1): 9-13.
[4] Mucherino A, Papajorghi P, Pardalos P. Data Mining in Agriculture[M]. New York: Springer, 2009.
[5] Moi M, N??s I A, Caldara F R, et al. Vocalization as a welfare indicative for pigs subjected to stress situations[J]. Arquivo Brasileiro de Medicina Veterinária e Zootecnia, 2015, 67(3): 837-845.
[6] Guarino M, Jans P, Costa A, et al. Field test of algorithm for automatic cough detection in pig houses[J]. Computers and Electronics in Agriculture, 2007, 62(1): 22-28.
[7] Exadaktylos V, Silva M, Aerts J M, et al. Real-time recognition of sick pig cough sounds[J]. Computers and Electronics in Agriculture, 2008, 63(2): 207-214.
[8] Chung Y, Oh S, Lee J, et al. Automatic detection and recognition of pig wasting diseases using sound data in audio surveillance systems[J]. Sensors, 2013, 13(10): 12929-12942.
[9] Hong M, Ahn H, Atif O, et al. Field-applicable pig anomaly detection system using vocalization for embedded board implementations[J]. Applied Sciences, 2020, 10(19): 6991-6991.
[10] Cordeiro A F S, N??s I A, da Silva Leit?o F, et al. Use of vocalisation to identify sex, age, and distress in pig production[J]. Biosystems Engineering, 2018, 173: 57-63.
[11] 徐亞妮,沈明霞,閆麗,等. 待產梅山母豬咳嗽聲識別算法的研究[J]. 南京農業大學學報,2016,39(4):681-687.
Xu Yani, Shen Mingxia, Yan Li, et al. Research of predelivery Meishan sow cough recognition algorithm[J]. Journal of Nanjing Agricultural University, 2016, 39(4): 681-687. (in Chinese with English abstract)
[12] 閆麗,沈明霞,劉龍申,等. 基于二次對數能量熵小波包的母豬哺乳聲去噪方法研究[J]. 農業機械學報,2015,46(11):330-336.
Yan Li, Shen Mingxia, Liu Longshen, et al. Denoising method of log energy entropy quadratic wavelet packet in sows’lactating vocalization[J]. Transactions of the Chinese Society for Agricultural Machinery, 2015, 46(11): 330-336. (in Chinese with English abstract)
[13] 龔永杰,黎煊,高云,等. 基于矢量量化的豬咳嗽聲識別[J]. 華中農業大學學報,2017,36(3),119-124.
Gong Yongjie, Li Xuan, Gao Yun, et al. Recognition of pig cough sound based on vector quantization[J]. Journal of Huazhong Agricultural University, 2017, 36(3): 119-124. (in Chinese with English abstract)
[14] 黎煊,趙建,高云,等. 基于深度信念網絡的豬咳嗽聲識別[J]. 農業機械學報,2018,49(3):179-186.
Li Xuan, Zhao Jian, Gao Yun, et al. Recognition of pig cough sound based on deep belief nets[J]. Transactions of the Chinese Society for Agricultural Machinery, 2018, 49(3): 179-186. (in Chinese with English abstract)
[15] 涂鼎. 基于音頻技術的生豬咳嗽聲音識別方法研究[D]. 哈爾濱:東北農業大學,2020. Tu Ding. Research on Pig Cough Sound Recognition Methods Based on Audio Technology[D]. Harbin: Northeast Forestry University, 2020. (in Chinese with English abstract)
[16] 蒼巖,羅順元,喬玉龍. 基于深層神經網絡的豬聲音分類[J]. 農業工程學報,2020,36(9):195-204.
Cang Yan, Luo Shunyuan, Qiao Yulong. Classification of pig sounds based on deep neural network[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2020, 36(9): 195-204. (in Chinese with English abstract)
[17] 馬輝棟,劉振宇. 語音端點檢測算法在豬咳嗽檢測中的應用研究[J]. 山西農業大學學報:自然科學版,2016,36(6):445-449.
Ma Huidong, Liu Zhenyu. Application of end point detection in pig cough signal detection[J]. Journal of Shanxi Agricultural University: Nature Science Edition, 2016, 36(6): 445-449. (in Chinese with English abstract)
[18] 李志忠,騰光輝. 基于改進 MFCC 的家禽發聲特征提取方法[J]. 農業工程學報,2008,24(11):202-205.
Li Zhizhong, Teng Guanghui. Feature extraction for poultry vocalization recognition based on improved MFCC[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2008, 24(11): 202-205. (in Chinese with English abstract)
[19] Chia A O, Hariharan M, Yaacob S, et al. Classification of speech dysfluencies with MFCC and LPCC features[J]. Expert Systems with Applications, 2012, 39(2): 2157-2165.
[20] He K, Zhang X, Ren S, et al. Delving deep into rectifiers: Surpassing human-level performance on imagenet classification[C]//IEEE International Conference on Computer Vision. IEEE Computer Society, 2015: 1026-1034.
[21] Jia Y, Shelhamer E, Donahue J, et al. Caffe: Convolutional architecture for fast feature embedding[C]//Proceedings of the 22nd ACM international conference on Multimedia. 2014: 675-678.
[22] Zhao J F, Xia M, Chen L J. Speech emotion recognition using deep 1D & 2D CNN LSTM networks[J]. Biomed Signal Process Control. 2019, 47: 312-323.
[23] Ioffe S, Szegedy C. Batch normalization: Accelerating deep network training by reducing internal covariate shift[C]//International Conference on Machine Learning, 2015: 448-456.
[24] Hu J, Shen L, Albanie S, et al. Squeeze-and-excitation networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence. 2020, 42: 2011-2023.
[25] Wang Q L, Wu B G, Zhu P F, et al. ECA-Net: efficient channel attention for deep convolutional neural networks[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). 2020: 11531-11539.
[26] Woo S, Park J, Lee J Y, et al. Cbam: Convolutional block attention module[C]//Proceedings of the European Conference on Computer Vision (ECCV). 2018: 3-19.
Voice recognition of abnormal state of pigs based on improved CNN
Geng Yanli1,2, Song Pengshou1, Lin Yanbo1, Ji Yankai1, Yang Shucai3
(1.,,300130,; 2.,,300130,; 3..,.,300130,)
Sound has been widely used to monitor the health and body conditions of pigs. But the manual monitoring cannot meet the high demand in modern agriculture at present, including zoonotic diseases, misjudgments of pig diseases, and time- and labor-consuming. In this study, a real-time collection module of pig sound was designed to rapidly recognize the abnormal state using an improved convolutional neural network (CNN). A 4G communication was used to upload the collected pig sound into the cloud server. A TCP/IP communication protocol was also selected, where the acquisition end was set as a TCP client and the uninterrupted data to the server. Specifically, the TCP cloud server was utilized to block the specified port, and then start the transfer data after the client was connected successfully. The server also sent a restart command to the client, to ensure data alignment. The sound acquisition was realized via a single channel, where the sampling frequency was 32 kHz, while the quantization digit was 16 bits. Correspondingly, the raw data of various abnormal sounds of pigs (sickness, fighting, and Hunger) were collected, according to the experts of pig breeding. Some operations were used to preprocess the data, including framing, windowing, de-nosing, and endpoint detection. As such, a voice data set of abnormal status was built. Subsequently, the Mel spectrogram of various sounds was extracted under the parameters of 128-dimensional mel frequency, 2048 points of Fast Fourier Transform (FFT) points, and 512 points of window shift. A classification model of the signal acquisition was then constructed using the feature of Mel spectrogram for pig sound signals. Therefore, a local feature learning unit was designed using an improved CNN, indicating fewer weights and lower network complexity than fully connected networks. Four layers of local feature units were constructed, where the number of convolution kernels in each layer was 64-64-128-128. Nevertheless, the local location and various redundant information were inevitably generated, when CNN had acquired each image. Three types of attention mechanisms were used to improve CNN, including Squeeze and Excitation Network (SE_NET), Efficient Channel Attention Networks, (ECA_NET), and Convolutional Block Attention Module (CBAM). A fully connected network with three neurons and an activation function of Softmax was also used to recognize abnormal sounds of pigs. The CBAM was then optimized to propose the CBAM-CNN using the ECA_NET improved SE_NET. The experimental results show that the optimal combination of parameters in pig voice recognition was 128 dimensional Mel frequency, 2048 point FFT, 1/4 window shift, and the optimal network model was _CBAM-CNN. The optimal recognition accuracy reached 94.46%, and the accuracy of pig squeal recognition reached 100%, better than before. The attention mechanism was also improved the model recognition, while reducing model complexity. A better recognition was achieved using the smaller size of _CBAM-CNN model, compared with CBAM-CNN. The accuracy of _CBAM-CNN model was 94.46% for the sound recognition of abnormal pigs. This finding can provide the accurate monitoring of abnormal behaviors of pigs in the process of breeding, thereby constructing intelligent and modern pig farms.
acoustic signal processing; animals; abnormal noise; convolutional neural network; SE_NET; CBAM; ECA_NET
耿艷利,宋朋首,林彥伯,等. 采用改進CNN對生豬異常狀態聲音識別[J]. 農業工程學報,2021,37(20):187-193.doi:10.11975/j.issn.1002-6819.2021.20.021 http://www.tcsae.org
Geng Yanli, Song Pengshou, Lin Yanbo, et al. Voice recognition of abnormal state of pigs based on improved CNN[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2021, 37(20): 187-193. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.2021.20.021 http://www.tcsae.org
2021-07-20
2021-08-31
河北省重點研發計劃項目(19226613d)
耿艷利,博士,副教授,研究方向為智能畜牧。Email:gengyl@hebut.edu.cn
10.11975/j.issn.1002-6819.2021.20.021
TP391.4
A
1002-6819(2021)-20-0187-07