姜國權,楊小亞,王志衡,劉紅敏
(河南理工大學計算機科學與技術學院,焦作 454000)
基于圖像特征點粒子群聚類算法的麥田作物行檢測
姜國權,楊小亞,王志衡※,劉紅敏
(河南理工大學計算機科學與技術學院,焦作 454000)
為了快速準確地提取麥田作物行中心線,提出了基于圖像特征點粒子群聚類算法的麥田作物行檢測。首先,對自然光照下獲取的彩色圖像運用“過綠顏色因子圖像灰度化”、“Otsu圖像二值化”、“左右邊緣中間線檢測提取作物行特征點算法”3步對圖像進行預處理。然后,根據農田作物行中心線周圍區域的特征點到該直線的距離均小于某一距離閾值的特征,運用粒子群優化算法對每一作物行的特征點分別進行聚類。最后,對每一類的特征點用最小二乘法進行直線擬合獲取麥田作物行中心線。試驗結果表明,該算法可以對作物斷行、雜草、土塊等復雜農田環境下的圖像進行有效地作物行檢測,識別率達95%,識別誤差小于3°。與標準Hough算法相比,運行速率提升了一倍。該文可為實現農業機器人田間作業提供參考。
圖像處理;算法;聚類;作物行檢測;粒子群優化;最小二乘法
作為精準農業的一個重要組成部分,農業機器人視覺導航技術越來越備受關注[1-5],并已廣泛應用于農作物種植、施肥、中耕除草等[6-8]方面。檢測作物行中心線是進行視覺導航的基礎,國內外專家針對作物行識別在甜菜[9]、棉花[10]、谷類[11-12]以及玉米[13]等作物中的應用做了大量研究。目前常用的作物行檢測算法有Hough變換法(Hough transform, HT)[14-17]和最小二乘法。Hough算法受噪聲影響小,魯棒性強,缺點是往往存在峰值檢測難,計算量大等問題。近年來,不斷有學者提出改進的Hough變換:Jiang等[18]提出了Hough變換與消隱點約束相結合的算法,首先將過綠2G-R-B與Otsu閾值分割法相結合對圖像進行預處理,然后,運用移動窗口的方法來提取代表作物行的特征點并利用Hough算法檢測出大于實際作物行數的候選直線,最后基于消隱點的方法得到真正的作物行。該方法有效地解決了Hough變換峰值檢測的問題,識別率達到90%以上,然而,在算法實時性上仍然沒有較大的改進。為了減少計算量,Xu等[19]提出隨機Hough變換,采用多到一的映射方法,減少計算量,運用動態鏈表,降低內存。該改進算法雖能一定程度上減少內存,提高運行速度[20],但對于高密度的雜草圖像,作物行檢測精度不高。除了標準Hough及其相應的改進算法,最小二乘法也被廣泛用于作物行中心線的提取中。Montalvo等[21]將最小二乘法運用在高密度雜草的作物行中心線提取中。司永勝等[22]提出基于最小二乘法的早期作物行中心線檢測算法,利用特征點的鄰近關系對目標點分類,對點集里的特征點用最小二乘法進行直線擬合,然而在歸類過程中,當前點的選擇對分類以及直線的擬合效果有很大影響,容易受到噪聲點干擾。針對最小二乘法對噪聲敏感等問題,Jiang等[23]提出了一個新的算法:在基于作物行間距相等的基礎上,運用多窗口移動的方法,將特征點進行聚類獲得代表作物行的像素點,該算法可以保證在高雜草的作物圖像中也能成功提取特征點。但運用該方法的前提是作物行必須滿足等間距的約束條件。在實際農田環境中,有些作物行間距是不等的,此時,該方法不能很好地工作。
粒子群算法(particle swarm optimization,PSO)是解決函數優化問題的有效工具,該算法具有并行處理,計算效率快,魯棒性強等優點,常用于車道線檢測[24]。孟慶寬等[25]將粒子群優化思想運用到導航線提取中,運用垂直投影法獲取作物行左右邊界,將圖像底邊的一個像素點與圖像頂邊的一個像素點組成的直線看成一個粒子,根據一定距離范圍內目標點的個數建立適應度函數,運用粒子群優化算法進行尋優,找到最優直線。算法運行速度較快,但算法不能適應雜草較多的農田環境。基于此,本文提出了基于圖像特征點粒子群聚類算法的麥田作物行檢測。
1.1 圖像獲取
本文試驗所用圖像均拍攝于中國焦作市東于村和中國農科院研究生院試驗田。在圖像采集過程中,使用Samsung S750彩色相機進行拍攝,相機距離地面高度為1.1 m,相機光軸與水平線夾角為30°,圖像為480×640像素的彩色圖像。試驗所用計算機配置為CPU主頻2.60 GHz,內存為1.88 GB。圖像處理所用的軟件為Matlab R2009a。
1.2 圖像預處理
為了將作物信息從土壤背景中分離出來,試驗采用Tang等[26]提出的超綠色法(excess green)即2G-R-B特征因子對圖1a進行灰度化處理,并采用Otsu[27]在1975年提出的Otsu算法對圖1b進行二值化[28]處理。圖1a選取的是一幅大小為480×640像素的小麥作物圖像。灰度化及二值化結果分別如圖1b、圖1c。
為了減少圖像處理后期工作量,從二值圖像圖1c的作物行中提取部分特征點來表示作物行。試驗采用左右邊緣中間線檢測算法[29-30]。結果如圖1d。

圖1 圖像預處理Fig.1 Image preprocessing
1.3 基于粒子群的特征點聚類
1.3.1 粒子群優化算法原理
粒子群優化算法最早由Kennedy和Eberhart提出,該算法通過模仿鳥搜索食物的行為來解決優化問題。粒子群算法中,每個粒子可以看成優化問題的一個可行解,所有粒子都有一個被優化的目標函數決定的適應值,并有一個速度值決定它們飛翔的方向和距離,粒子通過跟蹤2個極值即“個體極值”和“全局極值”來更新自己在解空間中的位置與速度。具體原理如下:
假設在D維的搜索空間,這里待優化問題的變量數決定了解空間的維數D。第i個粒子的位置可表示為xi=(xi1,xi2,…,xiD),第i個粒子經歷過的最好位置(即個體極值)記為pi=(pi1,pi2,…,piD),每個粒子飛行速度為vi=(vi1,vi2,…,viD),所有粒子經歷的最好位置為pg=(xg1,xg2,…,xgD),粒子根據以下公式更新自己的速度與位置:

式中xid(t)為第t次迭代粒子i位置矢量的第d維分量;vid(t)為第t次迭代粒子i速度矢量的第d維分量;c1、c2為加速度系數;w為慣性權重;r1、r2為0~1之間的隨機數。
1.3.2 基于PSO的特征點聚類
目標圖像經本文章節1.2中的算法預處理后,可以獲得代表作物行的候選特征點圖像即圖1d。如何對其準確聚類(使代表每一作物行的特征點聚為相應的類)、確定真正代表作物行走向的特征點是下一步用最小二乘法檢測直線的關鍵所在。
根據作物的特點可知,作物行中心線周圍區域的特征點到該直線的距離dt均小于某一距離閾值(以下稱距離約束條件)。這里假設V表示特征點構成的數據空間,ykxb=+表示離散在數據空間的直線,計算V中所有特征點到所有這些直線的距離,哪條直線周圍區域滿足距離約束條件的特征點最多,就將這些特征點聚為一類。
算法具體步驟如下:
1)從上到下,從左到右掃描特征點圖像(圖1d),找到所有像素值為1的特征點(xi, yi),假設數據空間V中有n個特征點,則,i=1,2,3,…,n。
2)初始化粒子群。包括粒子群體規模m,空間維數D,迭代次數T,加速度系數c1與c2,慣性權重w。
3)在數據空間V中設置2個變量k,b。k的取值范圍為kmin到kmax,b的取值范圍為bmin到bmax。任意組合dbound構成的直線y=kiix+bjj可以看成一個粒子,其中kii∈[kmin,kmax],bjj∈[bmin,bmax],由此可知D=2。初始位置和速度在粒子各個變量的取值范圍內由系統隨機生成。初始化距離閾值dbound(dbound取值為麥田寬度的一半),同時設置一個初始值為0的累加器變量SUM。
4)根據目標適應度函數計算每個粒子的適應值。設定適應度函數為f=Q,Q表示V中的特征點(xi, yi),(i=1,2,…,n)到直線方程y=kiix+bjj的距離dt

小于距離閾值dbound的點的個數SUM。Q越大,函數適應度越好。由此找到個體極值pi和全局極值pg,根據公式(1)和公式(2)對每個粒子的速度與位置進行更新。如果距離dt小于dbound,則SUM=max(SUMii)。這里SUMii表示任一組合(kii,bjj)滿足距離約束條件的特征點的個數。
5)當達到最大迭代次數T,算法結束,輸出滿足距離約束條件的所有特征點。第一類聚類完畢。
6)刪除步驟5)中的特征點,更新V中特征點的數量。循環運行步驟4)和5),循環次數由要檢測的作物行數決定。
圖2a把特征點分為5類,剔除不滿足距離約束條件的點,留下能代表目標作物行中心線的特征點。不同顏色代表不同類的特征點聚類結果。
1.4 基于最小二乘法的線性擬合
最小二乘法是一種常用的直線檢測算法,它的優點是精度高,檢測速度快。但實際應用中由于農作物圖像一般是多行、雜草較多等原因,并不能直接應用最小二乘法進行直線擬合。對于以上問題,本文采用如下方法解決:1)利用第1.3.2節算法得到點集;2)使用最小二乘法對聚類后每一類點集里的特征點進行線性擬合。直線擬合結果如圖2b。

圖2 特征點聚類和作物行檢測結果圖像Fig.2 Images of feature points clustering and crop rows detection
針對小麥不同光照,不同的生長時期中枯草、斷行和雜草等復雜的情況,提取350幅圖像進行作物行檢測測試,其中處于越冬期的小麥作物圖像197幅,處于返青期的小麥作物圖像153幅。
試驗結果表明,對于本文提出的算法,333幅小麥圖像可以被成功檢測出所有作物行,識別率達95%。相比之下,標準Hough和文獻[25]的算法識別率分別為80%和75%。3種算法對不同生長時期的小麥成功檢測出所有作物行的圖像數量見表1。

表1 3種作物行直線檢測算法性能對比Table 1 Performance comparison between three algorithms of crop row detection
為了進一步檢測本文算法的性能,將該算法與標準Hough算法和文獻[25]提出的算法共3種算法在運行速度和識別誤差上進行了對比。運行一幅480×640像素的彩色圖像,標準Hough、文獻[25]中的算法和本文算法平均耗時分別為0.987 4、0.685 9和0.423 7 s,本文算法耗時明顯較少,相比較于標準Hough,運行速率提升一倍。對于3種算法的檢測誤差比較,本文采用Jiang等[23]提出的誤差計算方法。通過5人手工繪制作物行的直線并取其平均值作為作物行的參考直線,在繪制作物行直線時盡量使其能代表作物行的中心線,然后計算參考直線與實際檢測直線的夾角,這里的夾角是圖像中檢測的所有作物行與其對應的參考直線夾角的平均值,夾角越大,識別誤差越大。經試驗,對于提取的350幅圖像,標準Hough、文獻[25]中的算法和本文算法的平均誤差分別為2.538 0°、3.105 7°和0.936 5°,標準差分別為1.834 7°、2.499 7°和0.351 6°,如表1所示。試驗中,本文算法和文獻[25]的算法,m=100,空間維數D=2,迭代次數T=50,加速度系數c1=c2=1.494 45,慣性權重w=1,Hough算法中極坐標下極角θ的取值范圍為:θ∈[?90°, 90°]。由此可知,本文算法不僅耗時較少,而且具有較低的識別誤差。
圖3a選取了3幅處于不同自然條件下的小麥作物圖像。從左到右依次是:小麥處于越冬期并存在作物斷行情況的彩色圖像;小麥處于返青期并有枯草的彩色圖像;小麥處于返青期并含高密度雜草的彩色圖像;分別拍攝于2014年11月9日,陰天;2015年2月3日,晴天;2015年3月10日,陰天。

圖3 Hough算法的作物行檢測結果與參考直線的對比Fig.3 Comparison between reference lines and detection lines based on Hough
圖3b為經過1.2節中的算法進行預處理后的候選特征點圖像。從圖像中,可以看出,2G-R-B超綠色法以及Otsu算法對圖像有較好的分割效果,其分割結果受光照影響小,可以濾除土塊,雜物等的干擾,使植物與背景分割清晰,作物行信息清楚。并且提取的特征點可以很好表征作物行的走向。
標準Hough算法基于特征點圖像(如圖3b)進行作物行中心線提取。從圖3c中Hough變換檢測結果(圖3c紅色的線)與參考直線(圖3c藍色的線)的夾角可以看出,對于特征點比較分散的圖像,如圖3b最右邊的圖像,Hough檢測存在一定偏差,識別誤差為4.463 3°。
針對以上Hough算法對于特征點分散的圖像峰值檢測較難的問題,本文由此提出將特征點進行聚類,如圖4a。從圖4a中可以看出,聚類后的點可以很好的表征作物行的中心位置。
圖4b顯示了本文算法的作物行檢測結果與參考直線的夾角。從處理結果中可以看出,對于作物行有明顯的缺失,以及枯草和雜草干擾的圖像,該算法仍能成功檢測出作物行。

圖4 基于粒子群聚類的作物行檢測結果與參考直線的對比Fig.4 Comparison between reference lines and detection lines based on PSO-clustering for crop row
圖5 顯示了文獻[25]中的算法檢測的作物行結果,該算法基于二值圖像進行作物行中心線的提取,從圖5的結果可以看出,3幅圖檢測效果并不理想,3幅圖最右邊一行均沒有檢測出來,這主要由于其算法用粒子群優化時,直線約束方程由頂邊和底邊的2個像素點決定,然而這3行作物并不能找到底邊,因此無法被識別出來。

圖5 文獻[25]算法的作物行檢測結果與參考直線的對比Fig.5 Comparison between reference lines and detection lines based on literature[25] for crop row
這里對以上3種作物行檢測算法結果進行詳細分析。首先,對于標準Hough變換來說,對以上3幅小麥圖像,越冬期小麥、含枯草返青期小麥、含高密度雜草返青期小麥圖像,Hough算法識別誤差分別為0.968 3°、2.715 8°和4.463 3°。本文檢測算法識別誤差分別為0.631 0°、0.773 5°和1.065 7°。由此可知,對于雜草噪聲干擾較少的作物(圖3左邊兩幅圖),標準Hough和本文算法都可以成功檢測出作物行。然而對于雜草比較多的作物(圖3最右邊一幅圖),Hough的檢測結果存在較大偏差。這是由于對于噪聲點較多、特征點分散的圖像,Hough檢測算法的峰值往往難以確定。相比較于Hough檢測算法,本文通過將候選特征點聚類,剔除部分干擾特征點,留下能代表目標作物行中心線的特征點,進而可以較為準確的獲取作物行。其次,對于文獻[25]提出的算法,它的識別誤差分別為2.260 5°、1.531 9°和5.829 1°。從結果中可以看出,該算法具有一定局限性,主要由于該算法用垂直投影法確定作物行的左右邊界,從而確定圖像底邊和頂邊像素點的范圍,并用粒子群算法進行尋優,在算法實現過程中,如遇到圖5中最右邊作物行找不到底邊的情況時,該作物行無法識別。同樣,對于雜草較多的圖像,由于受到較多噪聲點的干擾,算法的檢測結果存在偏差。因此,在識別誤差方面,Hough和文獻[25]的算法高于本文提出的算法。
在運行速率方面,從表1中可以看出,本文算法和文獻[25]中的算法相比于標準Hough算法明顯耗時較少,主要由于前兩種算法都用到了粒子群優化思想,粒子群本身之所以效率高,計算速度快,和它自身的算法自身優勢有關,它從隨機性初始解出發,根據目標函數的自身正反饋,不斷調整各個變量的速度,從而快速逼近最優解。本文中Hough算法在參數范圍內量化參數空間,然后進行有限集合的窮盡搜索。若量化步長過小,則必然會耗費更多的計算時間,步長過大,則無法到達自己本身的精度。而粒子群算法,可以根據自適應調整進化步長,當前解離最優解還有“一段距離”時,那么粒子群則以較大步長靠近,當前解離最優解非常近時候,則步長又會縮小,使當前解盡量和最優解“重合”,因此粒子群算法是一種非常實用的優化方法。此外,運行一幅480×640像素大小的彩色圖像,文獻[25]中的算法和本文算法平均耗時分別為0.685 9和0.423 7 s,本文算法中,特征點的提取減少了數據量,相比較文獻[25]提高了運行速率。
由上可知,本文提出的作物行檢測算法,相比較于標準Hough算法和文獻[25]中的算法,不僅具有更快的運行速率,同時對各種復雜環境下的小麥作物圖像具有較強適應性。
1)為了快速準確的檢測作物行,提出新的聚類算法:根據特征點的距離特征,利用粒子群優化算法對每一作物行的特征點進行聚類,聚類后的特征點可以很好的代表作物行的中心位置;運用最小二乘法對每一類的特征點進行直線擬合,提高了最小二乘法的適應性。試驗結果表明,該算法可以較為準確的獲取作物行,識別率達95%,識別誤差小于3°,滿足農業機器人田間作業的實際需求。
2)該算法對含有高密度雜草的小麥圖像具有很強適應性。
3)本文將提出的作物行檢測算法與常用的2種作物行檢測算法進行了對比。試驗結果表明,標準Hough、文獻[25]中的算法和本文算法的平均誤差分別為2.538 0°、3.105 7°和0.936 5°;利用本文算法檢測作物行中心線在保證低識別誤差的同時,算法處理速率相比較于標準Hough算法提升一倍。
[1] Hemming J, Rath T. PA-Precision Agriculture: Computervision-based weed identification under field conditions using controlled lighting[J]. Journal of Agricultural Research Engineering, 2001, 78(3): 233-243.
[2] Xue J, Zhang L, Grift T E. Variable field-of-view machine vision based row guidance of an agricultural robot[J]. Computers and Electronics in Agriculture, 2012, 84(2): 85-91.
[3] Mousazadeh H. A technical review on navigation systems of agricultural autonomous off-road vehicles[J]. Journal of Terramechanics, 2013, 50(3): 211-232.
[4] Li G N, Tan Q C, Sun Q C, et al. Normal strain measurement by machine vision[J]. Measurement, 2014, 50(4): 106-114. [5] Gongal A, Silwal A, Amatya S, et al. Apple crop-load estimation with over-the-row machine vision system[J]. Computers and Electronics in Agriculture, 2016, 120: 26-35.
[6] Zhang N, Chaisattapagon C. Effective criteria for weed identification in wheat fields using machine vision[J]. Transactions of the ASAE, 1995, 38(3): 965-974.
[7] Burgos-Artizzu X P, Ribeiro A, Guijarro M, et al. Real-time image processing for crop/weed discrimination in maize fields[J]. Computers and Electronics in Agriculture, 2011, 75(2): 337-346.
[8] Rahman M, Blackwell B, Banerjee N, et al. Smartphone-based hierarchical crowdsourcing for weed identification[J]. Computers and Electronics in Agriculture, 2015, 113(C): 14-23.
[9] Bakker T, Wouters H, Asselt K V, et al. A vision based row detection system for sugar Beet[J]. Computers and Electronics in Agriculture, 2008, 60(1): 87-95.
[10] Billingsley J, Schoenfisch M. The successful development of a vision guidance system for agriculture[J]. Computers and Electronics in Agriculture, 1997, 16(2): 147-163.
[11] S?gaard H T, Olsen H J. Determination of crop rows by image analysis without segmentation[J]. Computers and Electronics in Agriculture, 2003, 38(2): 141-158.
[12] Hague T, Tillett N D. A bandpass filter-based approach to crop row location and tracking[J]. Mechatronics, 2001, 11(1): 1-12.
[13] Montalvo M, Guerrero J M, Romeo J, et al. Automatic expert system for weeds/crops identification in images from maize fields[J]. Expert Systems with Applications, 2013, 40(1): 75-82.
[14] 陳嬌,姜國權,杜尚豐,等. 基于壟線平行特征的視覺導航多壟線識別[J]. 農業工程學報,2009,25(12):107-113. Chen Jiao, Jiang Guoquan, Du Shangfeng, et al. Crop rows detection based on parallel characteristic of crop rows using visual navigation.[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2009, 25(12): 107-113. (in Chinese with English abstract)
[15] Fernandes L A F, Oliveira M M. Real-time line detection through an improved Hough transform voting scheme[J]. Pattern Recognition, 2008, 41(1): 299-314.
[16] 趙瑞嬌,李民贊,張漫,等. 基于改進Hough 變換的農田作物行快速檢測算法[J]. 農業機械學報,2009,40(7):163-165. Zhao Ruijiao, Li Minzan, Zhang Man, et al. Rapid crop-row detection based on improved Hough transformation[J]. Transactions of the Chinese Society for Agricultural Machinery, 2009, 40(7): 163-165. (in Chinese with English abstract)
[17] 曹倩,王庫,李寒. 基于機器視覺的旱田多目標直線檢測方法[J]. 農業工程學報,2010,26(13):187-191. Cao Qian, Wang Ku, Li Han. Detection algorithm for crop target multi-lines of the field image based on machine vision[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2010, 26(13): 187-191. (in Chinese with English abstract)
[18] Jiang G, Wang X, Wang Z, et al. Wheat rows detection at the early growth stage based on Hough transform and vanishing point[J]. Computers and Electronics in Agriculture, 2016, 123: 211-223.
[19] Xu L, Oja E, Kultanen P. A new curve detection method: randomized Hough transform (RHT)[J]. Pattern Recognition Letters, 1990, 11(5): 331-338.
[20] Ji R, Qi L. Crop-row detection algorithm based on random Hough transformation[J]. Mathematical and Computer Modelling, 2011, 54(3/4): 1016-1020.
[21] Montalvo M, Pajares G, Guerrero J M, et al. Automatic detection of crop rows in maize fields with high weeds pressure[J]. Expert Systems with Applications, 2012, 39(15): 11889-11897.
[22] 司永勝,姜國權,劉剛,等. 基于最小二乘法的早期作物行中心線檢測方法[J]. 農業機械學報,2010,41(7):163-167. Si Yongsheng, Jiang Guoquan, Liu Gang, et al.Early stage crop rows detection based on least square method[J]. Transactions of the Chinese Society for Agricultural Machinery, 2010, 41(7): 163-167. (in Chinese with English abstract)
[23] Jiang G, Wang Z, Liu H. Automatic detection of crop rows based on multi-ROIs[J]. Expert Systems with Applications, 2014, 42(5): 2429-2441.
[24] 石磊,趙春霞,楊靜宇,等. 一種基于粒子群的道路檢測新算法[J]. 數據采集與處理,2010,25(3):384-388.Shi Lei, Zhao Chunxia, Yang Jingyu, et al. New approach to road detection based on particle swarm optimization[J]. Journal of Data Acquisition & Processing, 2010, 25(3): 384-388. (in Chinese with English abstract)
[25] 孟慶寬,張漫,耿煌,等. 自然光照下基于粒子群算法的農業機械導航路徑識別[J]. 農業機械學報,2016,47(6):11-20. Meng Qingkuan, Zhang Man, Geng Huang, et al. Guidance line recognition of agricultural machinery based on particle swarm optimization under natural illumination[J]. Transactions of the Chinese Society for Agricultural Machinery, 2016, 47(6): 11-20. (in Chinese with English abstract)
[26] Tang L, Tian L F, Steward B L, et al. Texture-based weed classification using Gabor wavelets and neural network for real-time selective herbicide applications[P]. Urbana, 1999: 993036.
[27] Otsu N. A threshold selection method from gray-level histograms[J]. Automatica, 1975, 11(285-296): 23-27.
[28] Matsui N, Mita K. Method of reducing digital images[P]. Washington, DC: U.S. Patent and Trademark Office: 4931881, 1990.
[29] 姜國權,柯杏,杜尚豐,等. 基于機器視覺的農田作物行檢測[J]. 光學學報,2009,29(4):1015-1020. Jiang Guoquan, Ke Xing, Du Shangfeng, et al. Crop row detection based on machine vision[J]. Acta Optica Sinica, 2009, 29(4): 1015-1020. (in Chinese with English abstract)
[30] 姜國權,王志衡,趙翠君. 基于已知點的作物行檢測方法[J].應用基礎與工程科學學報,2013,21(5):983-990. Jiang Guoquan, Wang Zhiheng, Zhao Cuijun. An algorithm of detecting crop rows based on known-points[J]. Journal of Basic Science & Engineering, 2013, 21(5): 983-990. (in Chinese with English abstract)
Crop rows detection based on image characteristic point and particle swarm optimization-clustering algorithm
Jiang Guoquan, Yang Xiaoya, Wang Zhiheng※, Liu Hongmin
(School of Computer Science and Technology, Henan Polytechnic University, Jiaozuo 454000, China)
In order to extract the crop rows of wheat quickly and accurately, a new method of wheat crop row detection was proposed based on particle swarm optimization (PSO) - clustering. The first step is image segmentation. The purpose of image segmentation was to separate the green plants from background, and it required the following 2 steps: Firstly, gray-level transformation, which could be done in RGB color space. In this paper, the color excess green index 2G-R-B was used; Secondly, image binarization was conducted. Among the global thresholding techniques for image binarization, Otsu method is one of the best threshold ways. So, this paper used Otsu algorithm to binarize the above obtained gray-level image. In order to reduce the burden of the next work, it was essential to extract a number of feature points indicating the crop rows. The specific algorithm can be divided into 2 steps: Firstly, get the left and right boundary points of each crop row. Secondly, extract the midpoint between left and right boundary points. After the original crop image was processed by the above steps, we got the feature points of the crop rows. According to the characteristics that the distances from the feature points around the crop row centreline to this straight line were all smaller than a certain distance threshold, we used the clustering method based on PSO to determine the real center points indicating crop rows. In the crop rows detection algorithm based on the PSO-clustering, the line in the data space composed of the feature points was considered as a particle. Finally, the centrelines were detected by fitting a straight line with the least square method. In order to prove the superiority of the algorithm, we compared the algorithm with standard Hough transform and the algorithm proposed in another literature. We tested the performance from the aspects of the detection accuracy and processing time for different images. Here, a total of 350 images have been tested. The number of the wheat images in overwintering stage was 197 and the number of the wheat images in green stage was 153. For the algorithm proposed in this paper, the number of the wheat images in overwintering stage successfully detected was 190 and that in green stage successfully detected was 143. Comparatively speaking, for the algorithm with standard Hough transform, the numbers of the wheat images in overwintering and green stage that were successfully detected were 180 and 100, respectively. For the algorithm proposed in another literature, the numbers were 168 and 93, respectively. Three representative pictures were selected in the experiment, which included the different environment i.e. the lack of crops, soil block, and high density weed. For the 3 images, the identification errors of the proposed algorithm were 0.631 0°, 0.773 5° and 1.065 7°, respectively. The identification errors of the standard Hough were 0.968 3°, 2.715 8° and 4.463 3°, respectively. The identification errors of the algorithm proposed in another literature were 2.260 5°, 1.531 9° and 5.829 1°, respectively. Therefore, compared with the other 2 algorithms, the proposed algorithm has the advantages of high real time and high accuracy, which can meet the practical requirements of field operation of agricultural robots.
image processing; algorithms; clustering; crop rows detection; particle swarm optimization; least squares
10.11975/j.issn.1002-6819.2017.11.021
TP391.4
A
1002-6819(2017)-11-0165-06
姜國權,楊小亞,王志衡,劉紅敏. 基于圖像特征點粒子群聚類算法的麥田作物行檢測 [J]. 農業工程學報,2017,33(11):165-170.
10.11975/j.issn.1002-6819.2017.11.021 http://www.tcsae.org
Jiang Guoquan, Yang Xiaoya, Wang Zhiheng, Liu Hongmin. Crop rows detection based on image characteristic point and particle swarm optimization-clustering algorithm[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2017, 33(11): 165-170. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.2017.11.021 http://www.tcsae.org
2017-01-07
2017-05-08
國家自然科學基金資助項目(61472119,61572173,61472373,61401150);河南省科技攻關項目(172102110032);河南省教育廳高等學校重點項目(17A210014);河南省高等學校礦山信息化重點學科開放實驗室開放基金資助(KY2012-09);河南省高校基本科研業務費專項資金資助;計算機視覺與圖像處理創新團隊(T2014-3)
姜國權,男,副教授,主要從事機器視覺技術研究。焦作 河南理工大學計算機科學與技術學院,454000。Email:jguoquan@163.com
※通信作者:王志衡,男,副教授,主要從事機器視覺及模式識別研究。焦作 河南理工大學計算機科學與技術學院,454000。
Email:wzhenry@eyou.com