



摘 要: 由于牧場(chǎng)牛只分布不均以及尺度變化大,傳統(tǒng)的目標(biāo)計(jì)數(shù)算法在畜牧領(lǐng)域計(jì)數(shù)精度不高,且用于研究的牛只數(shù)據(jù)集較少。針對(duì)這些問題創(chuàng)建了一個(gè)用于牛只密度估計(jì)的數(shù)據(jù)集,并提出了一種基于多尺度殘差視覺信息融合的牧場(chǎng)牛只數(shù)量估計(jì)方法。該方法利用多個(gè)并列且空洞率不同的空洞卷積提取牛只目標(biāo)的多尺度特征,并將殘差結(jié)構(gòu)與小空洞率卷積相結(jié)合,設(shè)計(jì)出更適合牛只活體計(jì)數(shù)的深度神經(jīng)網(wǎng)絡(luò),從而緩解了由空洞卷積帶來的網(wǎng)格效應(yīng)的影響,同時(shí)能更好地適應(yīng)牛只的多尺度變化。在牛只密度數(shù)據(jù)集中,該方法取得了最低的平均絕對(duì)誤差(MAE)和均方根誤差(RMSE)。此外,在密集人群數(shù)據(jù)集中,該方法的MAE和RMSE也屬于最優(yōu)或次優(yōu)結(jié)果。實(shí)驗(yàn)結(jié)果表明,該方法不僅適用于牛只場(chǎng)景的數(shù)量估計(jì),在人群密度估計(jì)中也有較高的準(zhǔn)確性和魯棒性。
關(guān)鍵詞: 智慧農(nóng)牧; 密度估計(jì); 深度學(xué)習(xí); 牛數(shù)量估計(jì)
中圖分類號(hào): TP391.4"" 文獻(xiàn)標(biāo)志碼: A
文章編號(hào): 1001-3695(2022)05-053-1590-05
doi:10.19734/j.issn.1001-3695.2021.10.0421
Cattle counting estimation method based on multi-scale residual visual information fusion
Yang Wu, Wang Yinghui, Tan Yao, Feng Xin
(School of Computer Science amp; Engineering, Chongqing University of Technology, Chongqing 400054, China)
Abstract: Due to the uneven distribution and large scale-variation range of living cattle,the accuracy of traditional object counting algorithm is not high in living-animal field,and there are few cattle data sets used for research.To solve these pro-blems,this paper established a dataset for cattle density estimation,and proposed a cattle counting estimation method based on multi-scale residual visual information fusion.This method used multiple parallel dilate convolution with different dilate rates to extract multi-scale features of cattle,and combined residual structure with small dilate rate convolution to design a deep neural network more suitable for living cattle object counting,thus eased the effect of grid effect caused by dilate convolution and better adapt to the multi-scale changes of cattle.The proposed method achieved the lowest mean absolute error (MAE) and root mean square error (RMSE) on the cattle density data set.In dense counting data sets,the MAE and the RMSE of the proposed method also achieved the optimal or suboptimal results.The experimental results show that the proposed method is not only suitable for the number estimation of cattle scene,but also has high accuracy and strong robustness in population density estimation.
Key words: wisdom agriculture and animal husbandry; density estimation; deep learning; cow counting estimation
0 引言
在牧場(chǎng)管理中,牛只的數(shù)量估計(jì)是養(yǎng)殖業(yè)管理和資產(chǎn)估算中最重要的任務(wù)之一。準(zhǔn)確的牛只計(jì)數(shù)能幫助牧場(chǎng)管理人員對(duì)活體資產(chǎn)進(jìn)行評(píng)估,進(jìn)而提高牧場(chǎng)養(yǎng)殖效率,同時(shí)及時(shí)發(fā)現(xiàn)偷盜行為,幫助企業(yè)或個(gè)體減少不必要的損失[1]。在實(shí)際的牛場(chǎng)中,由于牛只之間的相互遮擋、光照變化等問題,使得在牛場(chǎng)中對(duì)牛只進(jìn)行準(zhǔn)確計(jì)數(shù)極具挑戰(zhàn)性。傳統(tǒng)牧場(chǎng)管理通常采用人工計(jì)數(shù)的方法,然而這種方法非常耗時(shí)、耗力且容易出錯(cuò)[2]。目前,牧場(chǎng)牛只管理主要采用以電子耳標(biāo)為核心信息載體的硬件設(shè)備進(jìn)行計(jì)數(shù),但硬件設(shè)備在畜牧養(yǎng)殖業(yè)中存在維護(hù)成本高、操作復(fù)雜等現(xiàn)實(shí)問題,導(dǎo)致目前并未得到大規(guī)模應(yīng)用[2];同時(shí),穿戴耳標(biāo)還會(huì)給牲畜帶來一些身體傷害,如傷口感染、受到驚嚇等。
基于視覺的目標(biāo)計(jì)數(shù)在近幾年得到了廣泛的關(guān)注,很多場(chǎng)景都利用視覺信息進(jìn)行目標(biāo)計(jì)數(shù),例如密集人群計(jì)數(shù)[3]、農(nóng)作物目標(biāo)計(jì)數(shù)[4]、細(xì)胞計(jì)數(shù)[5]、小目標(biāo)計(jì)數(shù)[6]等。但對(duì)于畜牧業(yè),基于視覺的計(jì)數(shù)方法研究還尚少。目前,基于視覺的目標(biāo)計(jì)數(shù)方法主要分為三種,即基于檢測(cè)、基于回歸和基于密度估計(jì)。有些學(xué)者使用目標(biāo)檢測(cè)的方法對(duì)畜牧進(jìn)行計(jì)數(shù),如Xu等人[7]使用四軸飛行器采集的圖像通過Mask R-CNN對(duì)牲畜進(jìn)行目標(biāo)檢測(cè)與分割,實(shí)現(xiàn)了在草場(chǎng)、養(yǎng)殖場(chǎng)場(chǎng)景下的牛活體計(jì)數(shù)。李琦等人[8]采用YOLOv3目標(biāo)檢測(cè)算法與Deep SORT目標(biāo)跟蹤算法相結(jié)合,并基于雙線計(jì)數(shù)法實(shí)現(xiàn)了草原羊的自動(dòng)計(jì)數(shù)。上述方法都只適用于目標(biāo)相對(duì)稀疏的場(chǎng)景。在牧場(chǎng)實(shí)際場(chǎng)景下,由于牛只離攝像頭的距離不同,導(dǎo)致牛只的尺度變化大,且多數(shù)時(shí)候牛只都聚集在一起,存在嚴(yán)重遮擋,這種情況目標(biāo)檢測(cè)方法的計(jì)數(shù)誤差較大。Tian等人[9]通過預(yù)測(cè)圖像中豬只的密度,估計(jì)豬圈中豬只數(shù)量,該方法在豬只密度較小時(shí)預(yù)測(cè)準(zhǔn)確,但是對(duì)于數(shù)量超過10的情況,預(yù)測(cè)誤差較大。
近年來基于深度學(xué)習(xí)的密集人群密度估計(jì)問題取得了不錯(cuò)的發(fā)展。人群密度估計(jì)通過學(xué)習(xí)圖像的局部特征和其相應(yīng)的密度圖之間的映射,得到預(yù)測(cè)密度圖。密度圖代表了人群的分布情況以及每個(gè)像素點(diǎn)上人的數(shù)量,所以通過對(duì)密度圖進(jìn)行求和就能得到估計(jì)的人群數(shù)量。密度估計(jì)按網(wǎng)絡(luò)結(jié)構(gòu)分為多列網(wǎng)絡(luò)和單列網(wǎng)絡(luò)。多列網(wǎng)絡(luò)指模型中包含多列卷積,不同的列對(duì)應(yīng)不同尺寸的目標(biāo)。Zhang等人[10]最先提出多列卷積結(jié)構(gòu)網(wǎng)絡(luò)MCNN,該網(wǎng)絡(luò)由三列卷積構(gòu)成,每列卷積都使用不同大小的感受野來提取不同尺度的特征,但后續(xù)實(shí)驗(yàn)發(fā)現(xiàn)這種方法提取的特征非常冗余,且性能受分支結(jié)構(gòu)限制。之后便有了單列網(wǎng)絡(luò),即只使用一列網(wǎng)絡(luò)來提取特征。Li等人[11]提出了CSRNet,通過堆疊空洞卷積,在保持圖像分辨率的情況下增大感受野,進(jìn)而提高預(yù)測(cè)精度。Dai等人[12]設(shè)計(jì)DSNet,使用特定空洞率的空洞卷積組合提取多尺度特征,通過密集連接的方式增強(qiáng)數(shù)據(jù)間的信息傳遞,但過于密集的連接容易造成數(shù)據(jù)的過擬合。Wan等人[13]針對(duì)標(biāo)簽信息生成不準(zhǔn)確問題提出了KDMG,該網(wǎng)絡(luò)不采用固定高斯核生成監(jiān)督密度圖,而是通過KDMG利用預(yù)測(cè)的密度圖動(dòng)態(tài)調(diào)整監(jiān)督密度圖。該網(wǎng)絡(luò)在人群密度估計(jì)中取得了不錯(cuò)的效果。雖然人群密度估計(jì)網(wǎng)絡(luò)現(xiàn)在有了較好的發(fā)展,但基于深度學(xué)習(xí)的密度估計(jì)算法在牛群等畜牧業(yè)中進(jìn)行嘗試的研究還非常少。
基于此,本文提出一個(gè)多尺度殘差視覺信息融合牛群密度估計(jì)方法來估計(jì)牧場(chǎng)中牛只數(shù)量。針對(duì)現(xiàn)有的牛只密度分布不均勻、同一圖像中牛的尺度變化大的問題,本文提出了多尺度殘差特征感知模塊,該模塊通過使用多列空洞卷積來獲取多尺度的感受野,同時(shí)減弱了連續(xù)空洞卷積帶來的網(wǎng)格效應(yīng)問題。由于沒有公開的牛群數(shù)據(jù)集,所以本文創(chuàng)建了一個(gè)牛只密度數(shù)據(jù)集,并在該數(shù)據(jù)集上驗(yàn)證了本文方法的有效性。
1 牛群數(shù)據(jù)集的創(chuàng)建
1.1 牛群圖像數(shù)據(jù)采集
通過在牧場(chǎng)安裝不同的智能攝像頭,對(duì)牛只的日常生活進(jìn)行監(jiān)控,得到視頻監(jiān)控?cái)?shù)據(jù)。采集的視頻數(shù)據(jù)場(chǎng)景多樣,光照情況變化豐富,能較好地表達(dá)牧場(chǎng)的真實(shí)情況。對(duì)采集的監(jiān)控視頻進(jìn)行抽幀,得到大量的牛只圖像,再從這些圖像中選擇不同場(chǎng)景、牛群運(yùn)動(dòng)變化大的數(shù)據(jù)作為訓(xùn)練數(shù)據(jù)。最終選擇了740張圖像作為密度估計(jì)數(shù)據(jù)集,總共包含15 146頭牛,每張圖像牛只數(shù)量從3~109頭牛不等,并將牛只數(shù)據(jù)集按6:4劃分為訓(xùn)練集和測(cè)試集,訓(xùn)練集427張圖像,測(cè)試集313張圖像。
數(shù)據(jù)集的具體情況如表1所示,按場(chǎng)景可以分為四個(gè)。第一種為室外魚眼攝像頭圖像,分辨率為640×480,包含圖像131張,標(biāo)注牛只2 221只,該場(chǎng)景下白天的圖像有87張,夜晚的圖像有44張,其樣本如圖1(a)所示,第一列為夜晚情況,光線不足,可視范圍較小,第二、三列為白天情況,牛群密度適中,多數(shù)呈直線型排列,遠(yuǎn)離攝像頭部分的牛群遮擋情況較為嚴(yán)重。第二種為室內(nèi)魚眼攝像頭圖像,分辨率為1 280×960和640×480,包含圖像369張,標(biāo)注牛只5 708只,該場(chǎng)景下白天的圖像有311張,夜晚的圖像有58張,其中部分樣本如圖1(b)所示,第一列為白天室內(nèi),第二列為夜晚室內(nèi),第三列為白天室內(nèi)黑牛,該場(chǎng)景的攝像頭安裝在室內(nèi)頂棚,該視角下的牛群重疊情況相對(duì)較輕,牛群呈群體式分布。第三種為室外普通攝像頭圖像,分辨率大小不一,標(biāo)注牛只2 777只,只包含白天的圖像66張,如圖1(c)所示,該場(chǎng)景下的牛群分布較為均勻且遮擋不嚴(yán)重,屬于簡單場(chǎng)景。第四種為室內(nèi)普通攝像頭圖像,分辨率大小不一,總共包含174張圖像,標(biāo)注牛只4 440只,其中白天的圖像157張,夜晚的圖像17張,如圖1(d)所示,該場(chǎng)景下的牛群特征較明顯,但分布較為密集且重疊程度非常高,屬于困難場(chǎng)景。
3.3 實(shí)驗(yàn)結(jié)果分析
為證明本文方法的有效性,在本文創(chuàng)建的牛只數(shù)據(jù)集與一個(gè)基準(zhǔn)人群密度估計(jì)數(shù)據(jù)集(ShanghaiTech)[10]上驗(yàn)證了效果。
3.3.1 MRVNet在牛只數(shù)據(jù)集的性能評(píng)估
在牛群數(shù)據(jù)集上對(duì)比了目標(biāo)檢測(cè)方法YOLOv4[16]、YOLOv5[17],密度估計(jì)方法MCNN[10]、CSRNet[11]、DSNet[12]與KDMG[13]的計(jì)數(shù)結(jié)果。其中目標(biāo)檢測(cè)方法通過對(duì)圖像上的目標(biāo)進(jìn)行檢測(cè),統(tǒng)計(jì)檢測(cè)到的目標(biāo)框數(shù)量計(jì)算計(jì)數(shù)數(shù)量。使用MAE和RMSE指標(biāo)來評(píng)價(jià)計(jì)數(shù)的準(zhǔn)確性與模型的魯棒性。
在牛群數(shù)據(jù)集上,MAE與RMSE的評(píng)價(jià)結(jié)果如表2所示。可以看到對(duì)比其他方法,本文方法MRVNet的MAE和RMSE都是最低的,與次優(yōu)方法DSNet比,MAE下降了34.6%左右,RMSE下降了43.9%左右。從不同的方法的實(shí)驗(yàn)結(jié)果可以觀察到,YOLOv4和YOLOv5目標(biāo)檢測(cè)方法通過統(tǒng)計(jì)檢測(cè)到的牛只目標(biāo)框進(jìn)行計(jì)數(shù),由于牛群目標(biāo)重疊嚴(yán)重、小目標(biāo)多,這種場(chǎng)景下使用目標(biāo)檢測(cè)的方法會(huì)產(chǎn)生很多漏檢;相比目標(biāo)檢測(cè)的方法,CSRNet、DSNet、KDMG這類基于密度估計(jì)的方法計(jì)數(shù)效果更好,這些算法更加適應(yīng)牛群數(shù)據(jù)遮擋嚴(yán)重的情況;MCNN通過三個(gè)不同的卷積通道學(xué)習(xí)不同大小的特征,但由于分支結(jié)構(gòu)限制,每列的信息并沒有產(chǎn)生共享,實(shí)際的效果也證明該方法并沒有很好地適應(yīng)牛群的多尺度變化;CSRNet在網(wǎng)絡(luò)后端使用空洞卷積保持特征的分辨率不變并提取更加深層的特征,該方法能提取更加細(xì)致的特征,但仍然無法適應(yīng)尺度變化大的問題;DSNet利用密集連接的空洞卷積來保持信息的連續(xù)傳遞以及多尺度特征的提取,但過于密集的連接容易導(dǎo)致數(shù)據(jù)的過擬合,由于訓(xùn)練數(shù)據(jù)中屬于50~100這個(gè)數(shù)量級(jí)的訓(xùn)練數(shù)據(jù)占比非常小,該網(wǎng)絡(luò)對(duì)這部分?jǐn)?shù)據(jù)的預(yù)測(cè)準(zhǔn)確率直線下降;KDMG方法利用網(wǎng)絡(luò)預(yù)測(cè)的結(jié)果來生成監(jiān)督信息,但使用的約束較少,導(dǎo)致生成的監(jiān)督信息并不特別適用于牛群數(shù)據(jù)集;而本文的MRVNet疊加多個(gè)多尺度殘差特征感知模塊,利用三個(gè)不同空洞率的空洞卷積提取多尺度特征,適應(yīng)牛群的尺度變化,同時(shí)采用殘差連接的方式將淺層的特征信息傳遞到深層,削弱了由空洞卷積帶來的網(wǎng)格效應(yīng),彌補(bǔ)了丟失的像素特征信息,因此在MAE和RMSE值上均能達(dá)到最佳性能。該實(shí)驗(yàn)證明,MRVNet能夠較為準(zhǔn)確地計(jì)數(shù)牛場(chǎng)中牛群的數(shù)量,整體平均誤差在1.7左右。
為了使結(jié)果分析看起來更加清晰,將牛群數(shù)據(jù)集按照真實(shí)標(biāo)簽數(shù)據(jù)升序排列,并將其劃分為11組,前十組數(shù)據(jù)都包含31張圖像,最后一組包含2張圖像。測(cè)試結(jié)果如圖6所示,橫坐標(biāo)表示分組組號(hào),縱坐標(biāo)表示每張圖像中牛的數(shù)量,本文方法在各個(gè)組的預(yù)測(cè)數(shù)據(jù)都與真實(shí)數(shù)據(jù)重合度較高。MCNN整體預(yù)測(cè)數(shù)量偏低,CSRNet對(duì)于牛只數(shù)量較少、場(chǎng)景簡單的牛只預(yù)測(cè)量準(zhǔn)確,而對(duì)于數(shù)量超過18的牛只數(shù)量預(yù)測(cè)偏少,DSNet和KDMG方法在牛只數(shù)量超過20的預(yù)測(cè)相對(duì)不準(zhǔn)確。而目標(biāo)檢測(cè)的方法由于牛群遮擋情況嚴(yán)重、檢測(cè)效果不佳,所以整體預(yù)測(cè)數(shù)量都偏低。綜上所述,本文MRVNet方法對(duì)牛群數(shù)量估計(jì)最準(zhǔn)確且魯棒性更好。在牛群數(shù)據(jù)集上各模型的部分預(yù)測(cè)結(jié)果如圖7所示。第一列為原始牛群圖像,第二列為真實(shí)密度圖,之后每一列分別為MCNN、CSRNet、DSNet、KDMG預(yù)測(cè)的密度圖,最后一列為本文方法MRVNet預(yù)測(cè)的密度圖。圖中GT為真實(shí)牛只數(shù)量,Est為密度預(yù)測(cè)數(shù)量。
本文方法MRVNet預(yù)測(cè)值在任何場(chǎng)景中都比較貼近于真實(shí)值。從預(yù)測(cè)密度的分布來看,本文方法與真實(shí)密度圖的分布更加匹配。對(duì)比密度圖生成質(zhì)量,MCNN受背景的干擾比較大,會(huì)將一些背景信息識(shí)別成牛,特別是在魚眼室內(nèi)攝像頭的夜晚場(chǎng)景以及室內(nèi)普通攝像頭場(chǎng)景中,MCNN方法幾乎失效,背景與牛群信息無法區(qū)別。CSRNet在室內(nèi)魚眼攝像頭夜晚和室內(nèi)普通攝像頭這兩種場(chǎng)景受背景干擾較大,模型的魯棒性較差。從預(yù)測(cè)密度圖的個(gè)體區(qū)分性來看,本文方法對(duì)稀疏的場(chǎng)景有比較清晰的邊界區(qū)分,即使在區(qū)分度不大的黑牛群體,也能有較清晰的邊界,同時(shí)預(yù)測(cè)數(shù)量較為準(zhǔn)確,但對(duì)比CSRNet、DSNet算法,在黑牛場(chǎng)景下邊界信息非常不清晰、預(yù)測(cè)數(shù)量差距較大。在簡單場(chǎng)景下,KDMG效果與本文方法效果相當(dāng),但在室內(nèi)普通攝像頭場(chǎng)景受光線影響較大,在光線較暗的地方預(yù)測(cè)的密度圖過于稀疏。綜合多個(gè)方面,本文提出的密度估計(jì)網(wǎng)絡(luò)結(jié)果更加準(zhǔn)確,預(yù)測(cè)的密度分布與真實(shí)密度圖分布更加接近,且對(duì)各種場(chǎng)景的適應(yīng)性都比較好,對(duì)于稀疏的場(chǎng)景能較為清晰地分辨出邊界,對(duì)背景的抗干擾能力較強(qiáng)。
3.3.2 MRVNet在ShanghaiTech數(shù)據(jù)集上的性能評(píng)估
MRVNet不僅在牛群數(shù)據(jù)集的密度預(yù)測(cè)效果較好,同時(shí)在人群密度估計(jì)中也能取得較好的結(jié)果。ShanghaiTech是一個(gè)大型密集人群密度估計(jì)數(shù)據(jù)集,包含ShanghaiTech_A和ShanghaiTech_B兩部分。ShanghaiTech_ A部分隨機(jī)采集于互聯(lián)網(wǎng)上,人群分布較為密集,情況更加復(fù)雜。ShanghaiTech_B部分采集于上海某商業(yè)街,每張圖像的人數(shù)相對(duì)稀疏。在該數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果如表3所示。
在較為復(fù)雜的ShanghaiTech_A部分,MRVNet的MAE和RMSE都優(yōu)于目前先進(jìn)的方法,ShanghaiTech_ B部分也達(dá)到了次優(yōu)的效果。該實(shí)驗(yàn)從側(cè)面驗(yàn)證了本文的MRVNet方法有較強(qiáng)的適應(yīng)性和魯棒性,針對(duì)完全不同的場(chǎng)景和目標(biāo)都能有較好的預(yù)測(cè)結(jié)果。
4 結(jié)束語
針對(duì)牛群分布不均、尺度變化大的問題,本文提出了多尺度殘差牛群密度估計(jì)網(wǎng)絡(luò),利用不同空洞率的空洞卷積來獲得多尺度的特征,再加入殘差結(jié)構(gòu),減弱了使用空洞卷積帶來的網(wǎng)格效應(yīng)問題。實(shí)驗(yàn)證明與傳統(tǒng)人群密度估計(jì)方法相比,本文方法效果更好、計(jì)數(shù)更加準(zhǔn)確、模型魯棒性更好。但目前牛群數(shù)量估計(jì)還有一些需要改進(jìn)的地方,比如監(jiān)督信息的生成,由于人群密度估計(jì)的目標(biāo)和牛群密度估計(jì)的目標(biāo)不一樣,使用傳統(tǒng)高斯核生成的監(jiān)督信息并不是特別適合牛群。因?yàn)槿巳和ǔ?biāo)注的是人頭,而牛個(gè)體的形狀與人頭相差甚遠(yuǎn)。后續(xù)將會(huì)往標(biāo)注信息生成方向進(jìn)行改進(jìn)。此外,未來在數(shù)據(jù)集建設(shè)和數(shù)據(jù)標(biāo)注方面可以參考一些自動(dòng)或半自動(dòng)標(biāo)注的方法來縮減人工標(biāo)注量,提升效率[21]。
參考文獻(xiàn):
[1]Kamilaris A,Prenafeta-Boldú F X.Deep learning in agriculture:a survey[J].Computers and Electronics in Agriculture,2018,147:70-90.
[2]張國鋒,肖宛昂.智慧畜牧業(yè)發(fā)展現(xiàn)狀及趨勢(shì)[J].中國國情國力,2019(12):33-35. (Zhang Guofeng,Xiao Wan’ang.Intelligent animal husbandry development status and trend[J].China National Conditions and Strength,2019(12):33-35.)
[3]Idrees H,Saleemi I,Seibert C,et al.Multi-source multi-scale counting in extremely dense crowd images[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2013:2547-2554.
[4]黃紫云,李亞楠,王海暉.基于上下文多尺度融合的棉鈴計(jì)數(shù)算法[J].計(jì)算機(jī)應(yīng)用研究,2021,38(6):1913-1916. (Huang Ziyun,Li Yanan,Wang Haihui.Cotton bolls counting algorithm in field based on density level classification[J].Application Research of Compu-ters,2021,38(6):1913-1916.)
[5]劉曉平.基于深度學(xué)習(xí)的熒光顯微成像中細(xì)胞自動(dòng)計(jì)數(shù)方法研究[D].成都:電子科技大學(xué),2020. (Liu Xiaoping.Automatic cell counting in fluorescence microscopy based on deep learning[D].Chengdu:University of Electronic Science and Technology of China,2020.)
[6]Ma Zheng,Yu Lei,Chan A B.Small instance detection by integer programming on object density maps[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2015:3689-3697.
[7]Xu Beibei,Wang Wensheng,F(xiàn)alzon G,et al.Automated cattle coun-ting using Mask R-CNN in quadcopter vision system[J].Computers and Electronics in Agriculture,2020,171:article ID 105300.
[8]李琦,尚絳嵐,李寶山.基于頭部圖像特征的草原羊自動(dòng)計(jì)數(shù)方法[J].中國測(cè)試,2020,46(11):20-24. (Li Qi,Shang Jianglan,Li Baoshan.Method for grassland sheep automatic counting based on head image features[J].China Measurement amp; Test,2020,46(11):20-24.)
[9]Tian Mengxiao,Guo Hao,Chen Hong,et al.Automated pig counting using deep learning[J].Computers and Electronics in Agriculture,2019,163:article ID 104840.
[10]Zhang Yingying,Zhou Desen,Chen Siqin,et al.Single-image crowd counting via multi-column convolutional neural network[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Pisca-taway,NJ:IEEE Press,2016:589-597.
[11]Li Yuhong,Zhang Xiaofan,Chen Deming.CSRNet:dilated convolutional neural networks for understanding the highly congested scenes[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2018:1091-1100.
[12]Dai Feng,Liu Hao,Ma Yike,et al.Dense scale network for crowd counting[C]//Proc of International Conference on Multimedia Retrieval.New York:ACM Press,2021:64-72.
[13]Wan Jia,Wang Qingzhong,Chan A B.Kernel-based density map generation for dense object counting[C]//Proc of IEEE Trans on Pattern Analysis and Machine Intelligence.Piscataway,NJ:IEEE Press,2020.
[14]Simonyan K,Zisserman A.Very deep convolutional networks for large-scale image recognition[EB/OL].(2015-04-10)[2021-10-13].http://arxiv.org/abs/1409.1556.
[15]Yu F,Koltun V.Multi-scale context aggregation by dilated convolutions[EB/OL].(2016-04-30)[2021-10-13].https://arxiv.org/abs/1511.07122.
[16]Bochkovskiy A,Wang Chenyao,Liao Hongyuan.YOLOv4:optimal speed and accuracy of object detection[EB/OL].(2020-04-26)[2021-10-13].https://arxiv.org/abs/2004.10934v1.
[17]Jocher G.YOLOv5[EB/OL].(2020-06-09)[2021-09-12].https://github.com/ultralytics/yolov5.
[18]Shen Zhan,Xu Yi,Ni Bingbing,et al.Crowd counting via adversarial cross-scale consistency pursuit[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2018:5245-5254.
[19]Cao Xinkun,Wang Zhipeng,Zhao Yanyun,et al.Scale aggregation network for accurate and efficient crowd counting[C]//Proc of European Conference on Computer Vision.Berlin:Springer,2018:757-773.
[20]Long Yang,Tan Yao,Organisciak D,et al.Towards light-weight annotations:fuzzy interpolative reasoning for zero-shot image classification[C]//Proc of the 29th British Machine Vision Conference.2018.
[21]Lu Hao,Cao Zhiguo,Xiao Yang,et al.TasselNet:counting maize tassels in the wild via local counts regression network[J].Plant Methods,2017,13(1):1-17.