999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于蟻群優化算法的弱光圖像顯著性目標檢測

2021-11-05 01:29:52汪虹余張彧楊恒穆楠
計算機應用 2021年10期
關鍵詞:特征檢測模型

汪虹余,張彧,楊恒,穆楠

(四川師范大學計算機科學學院,成都 610101)

0 引言

顯著性目標檢測旨在模擬人類視覺系統,自動過濾掉圖像或視頻中的冗余的背景信息,準確地提取出與人類視覺感知一致的最感興趣區域。顯著性目標檢測可以作為各類計算機視覺任務的預處理,能夠廣泛用于目標識別[1]、視覺追蹤[2]、圖像檢索[3]、行人重識別[4]等領域。盡管在各種復雜場景下顯著性目標的定位工作已經取得了初步進展,但在弱光條件下如何準確檢測顯著性目標仍然是一個具有挑戰性的問題。其主要原因可歸結為以下3個方面:1)視覺特征在弱光條件下的適應性變差;2)弱光環境造成有效顯著性信息嚴重缺失;3)弱光條件中的圖像噪聲和雜亂背景對目標檢測具有強烈干擾。

處理這些問題的核心在于如何提取弱光場景中可用的視覺特征以及如何測得最佳對比度值,從而將顯著性物體從弱光背景中分離出來。大多數傳統的顯著性檢測模型都依賴于探索對比度線索,通過該線索確定圖像像素、超像素或區域相對于其局部鄰域或全局鄰域的差異性。Itti等[5]提出了第一個基于局部對比度的顯著性檢測模型,通過評估圖像塊多尺度特征的差異度來測量塊的顯著值;Zhang等[6]考慮了不同的空間布局和尺度變化,并提出了一種多尺度和多區域機制來生成局部顯著圖;Jian 等[7]提出了一種有效的局部顏色對比方法,該方法足以突出顯示并從復雜的背景中分離出顯著的對象;楊小岡等[8]基于局部特征綜合法設計了一種基于概率框架的多特征融合顯著性檢測算法來提升檢測的準確率。這些基于局部對比度的顯著性檢測方法傾向于在目標輪廓的周圍產生較高的顯著值。相比而言,基于全局對比度的顯著性模型能夠產生具有均勻內部結構的顯著性圖。Wu 等[9]設計了一個上下文模塊,該模塊受感受野塊(Receptive Field Block,RFB)的啟發,以捕獲全局對比度信息;Wang 等[10]提出了金字塔注意模塊,該模塊為相應的卷積層分配了具有更廣感受野的全局視圖;Zhao 等[11]提出了一種新穎的卷積神經網絡(Convolutional Neural Network,CNN),稱為金字塔特征注意網絡(Pyramid Feature Attention Network,PFAN),以增強高級上下文特征和低級空間結構特征。這些全局顯著性檢測方法的耗時相對較少,同時獲得了比較可靠的檢測結果。楊興明等[12]在聯合局部線索和全局線索的基礎上,采用多尺度的超像素分割,研究不同尺度下輪廓線索和外觀線索的互補特性,實現了目標的顯著性檢測;凌艷等[13]使用多尺度的上下文信息增強局部特征,并結合邊界損失、類平衡損失和難分類損失,以局部-全局融合的方式實現顯著目標檢測;紀超等[14]從局部到精細,結合局部和全局上下文的深度環境信息得到顯著目標。這些局部和全局相結合的顯著性檢測方法更有效地實現了對顯著目標的判別,得到了更完整的顯著性目標,但在弱光條件下,這些模型容易對那些與顯著目標相似的背景區域產生誤判。

在分析了現有顯著線索的優點和局限性之后,本研究發現要準確地檢測出弱光圖像中的顯著性目標,需要解決以下兩個主要問題:1)提取有效的視覺特征來表征弱光圖像;2)探索最優對比度信息用以分析顯著性目標的特性。為了解決這些問題,本研究進行了大量的工作,并從以下兩個方面來解決:1)探索特征圖的熵信息來自適應地選擇出最優視覺特征,2)提出蟻群優化(Ant Colony Optimization,ACO)算法,用于搜索圖像區域的最優鄰域。

ACO 算法最早由Dorigo 等[15]提出,主要利用已有較優解的后驗信息來獲取有希望成為解的先驗信息,其在圖像處理領域如圖像分割[16]、圖像上采樣[17]、圖像分類[18]等任務上取得了較好的結果。鑒于此,本文提出了一種基于ACO 算法的弱光圖像顯著目標檢測模型,模型的架構如圖1所示。

圖1 基于ACO算法的顯著目標檢測模型框架Fig.1 Framework of ACO algorithm based salient object detection model

首先,利用多尺度超像素分割構建圖像模型;其次,通過求取不同特征圖的一維熵來自適應地選擇出各類弱光圖像的最優視覺特征;然后,綜合全局對比度和空間關系線索,生成弱光圖像的初始顯著圖;最后,采用蟻群優化算法對顯著性結果進行優化。本文將提出的顯著性檢測模型在3 個基準數據集[19-21]以及所提出的弱光圖像數據集(本文使用的弱光圖像數據集的下載地址為https://drive.google.com/open?id=0BwVQK2zsuAQwX2hXbnc3ZVMzejQ)上進行了廣泛的性能評估,實驗結果表明本文所提顯著性模型的性能優于現有的一些先進的顯著性模型。

1 基于蟻群優化算法的顯著性模型

1.1 基于多尺度超像素的圖模型構造

對于給定的圖像,首先利用簡單線性迭代聚類算法[18]將其分割為N個超像素(表示為{si}),這樣可以極大地保持目標的內部結構信息。本文將超像素的個數N分別設置為100、200、300,生成3 種不同尺度的超像素。根據超像素來構建具有N個節點的圖模型Graph=(Vn,E),其中Vn和E分別表示節點集合和邊集合。Graph中的節點Vn可以看作是蟻群算法中的螞蟻,每個螞蟻的運動軌跡被定義為相應節點的關聯邊E。當螞蟻在圖模型上爬行時,信息素就沉積在了圖模型的節點上,這些信息素的數量通過蒸發和衰減策略得以更新。

1.2 最優特征選擇

構造蟻群算法的啟發式矩陣主要通過提取圖模型各節點的低層視覺特征來實現。由于圖像特征的有效性隨著光照條件的變化而產生巨大差異,因此可以引入自適應特征選擇策略來選出最優解。本文通過以下方式提取圖像的12 個手工特征,主要包括:

1)9 個顏色特征。首先,對輸入圖像進行歸一化,以消除陰影和不均勻光照的干擾。然后,將輸入的RGB 圖像分別轉換到LAB、HSV和YcbCr顏色空間并從中提取得到9個顏色特征(表示為L、A、B、H、S、V、Y、Cb和Cr)。LAB 顏色空間的L、A和B 分量能夠描述人眼可見的所有顏色,這些顏色更加接近人眼對弱光圖像的感知;HSV 顏色空間的H、S 和V 分量可以非常直觀地表示色調,深度和明亮度,在亮度較低的弱光圖像中具有良好的適應性;YCbCr顏色空間中的Y、Cb和Cr分量可以更好地感知強度變化以及色差,這將更有助于在弱光圖像中突出顯著目標的整體信息。

2)紋理特征(表示為T)。本文利用輸入圖像的二維熵來表示紋理特征,這主要基于二維熵具有很強的抗幾何形變和抗背景噪聲的能力。令I(0 ≤I≤255)表示圖像像素的灰度值,J(0 ≤J≤255)表示其鄰域像素的平均灰度值,則灰度分布的空間合成特性可以表示為:

式中:f(I,J)表示特征組(I,J)的頻率,R2表示鄰域的尺寸。輸入圖像的離散二維熵可以定義為:

3)方向特征(表示為O)。在灰度圖像gray(x,y)上,利用角度θ∈{0°,45°,90°,135°}四個不同方向上(表示為gθ(x,y))的Gabor 濾波器提取得到具有旋轉不變性和全局性的方向特征,從而減少了弱光對方向特征的影響。

4)梯度特征(表示為G)。通過在水平梯度和垂直梯度上求平均可以計算得到梯度特征,用以描述局部灰度值的幅度變化,能有效對抗弱光的影響,具有較好的適應性。

通過以上方式計算得到輸入圖像的12 個特征圖之后進一步求取12個特征圖的一維熵,計算方式如下所示:

其中pI表示值為I的像素所占的比率。由于一維圖像熵代表了圖像灰度分布的聚集特征所包含的信息量,因此每個視覺特征的有效性都可以用熵值來衡量。

最后,本文通過對12 個特征圖的一維熵值進行排序選擇出9 個最優特征(表示為{Fk},k=1,2,…,9),可以降低對顯著目標表達能力較差的特征中冗余信息的干擾,確保特征更有針對性地處理弱光圖像顯著性。

1.3 基于蟻群算法的全局優化

顯著性檢測可以看作是一項獨特的濾波任務,目的是將前景目標從背景區域中分離出來。為了從圖像中區分出顯著目標,主要策略是使用對比度信息來測量前景與其周圍背景之間的差異程度。本文主要通過計算全局對比度和空間關系來評估每個超像素的顯著性值,計算方式如下:

其中pos(si,sj)表示超像素si與sj之間的距離。坐標(xi,yi)與圖像中心(x′,y′)之間的空間距離c(si)可通過以下公式計算:

其中vx和vy表示兩個變量,主要由圖像的水平和垂直信息所決定。

通過測量所有N個超像素的顯著性值可以生成圖像的顯著圖,本文使用Otsu 的閾值方法[19]將顯著圖分為兩個部分:粗糙的顯著區域(前景種子)和非顯著區域(背景種子)。至此,本文通過計算全局對比度和空間相關性生成了弱光圖像的初始顯著圖。

為了進一步優化超像素si的顯著值,本文利用ACO 算法從si的相鄰超像素區域(表示為{sj},j=1,2,…,M(i))中搜索出與si最相似的區域?;贏CO算法搜索最相似區域的詳細過程如下:

1)初始化?;趫D模型,將m只螞蟻散布在隨機選擇的節點上,找到si的最佳關聯超像素。兩個超像素si和sj之間的距離(表示為dij)定義為:

其中:m表示螞蟻的維數,|?|表示歐幾里得距離,wk表示權重因子。

2)構造。令r表示簇半徑,Iij(t)表示在時間t內從si到si的路徑上信息素的含量,其計算公式為:

令(t)表示螞蟻k選擇從節點si到節點sj的路徑的概率,該概率可以通過以下方式獲得:

其中:ηij=1/dij表示螞蟻選擇從節點si到節點sj的期望;參數α表示信息對當前路徑的影響程度;參數β控制啟發信息ηij對路徑選擇的影響程度。Ω(si)={sj|dij≤r,j=1,2,…,M(i)}指當前節點si鄰域可選節點的集合。

3)更新。在螞蟻移動的過程中,每條路徑上剩余的信息量將發生變化。循環完成后,路徑上的信息素內容將更新如下:

其中:ρ表示信息素隨時間的蒸發速率;ΔIij=表示循環結束時,m只螞蟻從節點si到節點sj的信息素增量。

4)決策。在m個螞蟻移動結束之后,信息素矩陣更新為:

其中:φ∈[0,1]表示信息素衰減參數;Iij(0)表示第一次循環的信息素矩陣;n表示步驟2和步驟3的迭代總數。

其中:Oj是螞蟻食物的來源,為si的最優鄰域。然后,通過式(6)可以將si的最佳顯著值計算為si和最優鄰域Oj之間的差值。最終,測量所有超像素的顯著值即可生成最終的顯著圖。

基于螞蟻覓食過程中借助信息素的傳遞和交流來自主選擇最優覓食路徑的正反饋機制,蟻群算法主要以信息素的更新和概率轉移等操作來指導搜索方向。這種策略使得本文模型能夠準確找出超像素si的最優鄰域,從而進一步計算得到si的最優顯著值。由于該過程主要基于信息素更新,對光照等變化不敏感且能夠很好抑制弱光圖像中的噪聲干擾,有效提高了檢測的準確性。因此,基于蟻群算法的全局優化更加適合于弱光圖像的顯著性檢測。

2 實驗結果

本文在4 個數據集上進行了廣泛的實驗,通過和11 個具有競爭性的顯著性模型進行比較來評估本文所提出模型的性能。

2.1 實驗設置

為了證明本文模型能夠在自然光場景、復雜場景和弱光場景中都能獲得優異的性能。進行實驗測試的4個數據集包括:1)MSRA 數據集[15],其中包含10 000 張圖像,大多數圖像中僅有單個目標且圖像具有良好的照明條件;2)CSSD數據集[22],其中包含各種復雜結構的自然場景圖像;3)PASCAL-S數據集[23],其中包含背景混亂的各類圖像;4)弱光圖像(Nighttime Image,NI)數據集,其中包含200 個分辨率為640×480 的夜間圖像和與之匹配的像素級基準圖像(Ground Truth,GT)。

與本文方法作對比的11 個先進的顯著性檢測模型包括:非參數(Non-Parametric,NP)模型[24]、上下文感知(Context-Aware,CA)模型[25]、低秩矩陣恢復(Low Rank Matrix Recovery,LR)模型[26]、塊差異性(Patch Distinction,PD)模型[27]、流形排序(Manifold Ranking,MR)模型[28]、顯著優化(Saliency Optimization,SO)模型[29]、引導學習(Bootstrap Learning,BL)模型[30]、通用推廣(Generic Promotion,GP)模型[31]、空間色彩上下文(Spatiochromatic Context,SC)模 型[32]、結構化矩陣分解(Structured Matrix Decomposition,SMD)模型[33]和多示例學習(Multiple Instance Learning,MIL)模型[34]。為了比較這些不同顯著性算法的有效性和準確性,實驗中使用了8個指標,包括:

1)PR(Precision-Recall)曲線。該指標主要是通過使用不同的閾值對生成的顯著圖進行二值化并比較其與GT 之間的差異來測得,精確率(Precision,P)定義為正確檢測到的顯著像素占二值顯著圖中所有顯著像素的比率,召回率(Recall,R)的定義為正確檢測到的顯著像素占GT 中所有顯著像素的比率,計算方法如下:

式中:真陽性(True Positive,TP)是正確識別為顯著目標的像素集合;假陽性(False Positive,FP)是錯誤識別為顯著目標的像素集合;假陰性(False Negative,FN)是錯誤識別為非顯著區域的像素集合。

2)真陽性率和假陽性率(True Positive Rate-False Positive Rate,TPR-FPR)曲線。TPR的計算類似于召回率,FPR的計算為錯誤檢測到的顯著像素占GT中所有非顯著像素的比率,計算方法如下:

其中:真陰性(True Negative,TN)是正確識別為非顯著區域的像素集合。

3)F-measure 曲線,主要通過測量精確率和召回率的加權調和平均值獲得,計算方法如下:

式中β2為衡量精確率和召回率的參數。由于準確率的重要性通常比召回率要高,研究中通常將β2的取值定為0.3 來強調準確率。

4)曲線下面積(Area Under the Curve,AUC)取值,其計算為TPR-FPR 曲線下面積所占的百分比。AUC 的取值一般在0.5~1.0,AUC 越接近于1,就表明檢測的準確性越高。AUC值能夠直觀地表明顯著圖預測真實顯著目標的優劣。

5)平均絕對誤差(Mean Absolute Error,MAE)取值,其定義為生成的顯著性圖和GT 之間的差異。MAE 的取值越小,就表明生成的顯著圖(記為Salmap(x,y))和基準顯著圖(記為GT(x,y))之間的相似度越高,計算方法如下:

6)加權F-measure(Weighted F-measure,WF)取值,通過在F-measure上增加權重來計算。

7)重疊率(Overlapping Ratio,OR)取值,通過衡量二值顯著圖(記為BS(x,y))與基準顯著圖GT(x,y)之間的重疊率來計算:

OR 指標主要考慮顯著像素的完整性和非顯著像素的正確性。

8)測試每張圖像的平均執行時間(單位:秒)。所有實驗都是在Intel i5-5250 CPU(1.6 GHz)和8 GB RAM 的標準計算機上進行,主要的編程環境為Matlab。

2.2 客觀性能分析

在4 個數據集上不同顯著性檢測模型的PR 曲線、TPRFPR 曲線和F-measure 曲線如圖2 所示??梢钥闯觯疚哪P偷男阅軆炗谄渌鲗Ρ鹊娘@著模型。在MSRA 數據集、CSSD數據集、PASCAL-S 數據集上,本文模型在三條曲線上的性能優于絕大多數先進模型,說明本文模型性能得到了顯著提升,并且在多個數據集上都能保持優秀且穩定的性能。在具有挑戰性的NI 數據集上,三條曲線的性能均有明顯下降,而本文模型的性能相比其他模型而言表現依舊良好,更加魯棒。

圖2 四個數據集上各種顯著性檢測模型的PR、TPR-FPR和F-measure曲線Fig.2 PR,TPR-FPR and F-measure curves of various saliency detection models on four datasets

表1 列出了各種模型的AUC 取值,MAE 取值,WF 取值,OR取值和時間消耗。排名前三的結果分別用下劃線、斜體和加粗字體表示,其中:↑表示值越大,檢測結果越好;↓則表示值越小,檢測性能越好。從表1 中可以看出,本文模型在3 個可見光數據集上都具有很強的競爭力,且在弱光數據集上的性能要明顯優于其他數據集。

表1 在四個數據集上各顯著模型的定量性能比較Tab.1 The quantitative performance comparisons of various saliency models on the four datasets

對于MSRA 數據集而言,圖像要相對簡單一些。本文模型取得了最高的AUC 值和OR 值,模型的MAE 值和OR 值比基于全局優化的SO 模型和基于多實例學習的MIL 模型稍微遜色。在CSSD數據集上,本文模型的AUC值、WF值、MAE值和OR 值僅排第2 名和第3 名,比SMD 模型的排名相對要低。這是因為SMD 算法基于結構化矩陣分解,其在復雜場景中具有優勢。在PASCAL-S 數據集上,本文模型取得了最佳AUC值、MAE 值和OR 值,并且WF 值排名第2,僅比SO 模型相差0.99 個百分點。在NI 數據集上,本文模型的AUC 值,WF 值,MAE 值和OR 值均排名第1,這意味本文模型更適應具有低對比度、低信噪比的弱光圖像,應用場景更加廣泛,因此本文模型具有較高的魯棒性,可以在豐富多樣的復雜場景中保持優越的性能。此外,從各個數據集上的測試結果來看,本文模型在自然光場景、復雜場景和弱光場景上都能取得優異的性能,這也說明本文的模型不只是滿足于單一的應用場景,而是能 魯棒地適應于具有挑戰性的不同場景。

2.3 算法的時間復雜度分析

蟻群算法在處理較大規模的組合優化問題時,運算量較大、耗時較長,造成時間復雜度較高。此外,對于單個螞蟻而言,當群體規模較大時,很難在較短的時間內從雜亂無章的路徑中找到一條較好的路徑。本文蟻群算法計算規模為當前節點si鄰域節點集合Ω(si)={sj|dij≤r,j=1,2,…,M(i)},相對而言規模不大且易于搜索。本節將從時間復雜度和空間復雜度兩個方面來分析本文基于蟻群算法的顯著性檢測復雜性。對于算法的時間復雜度而言,主要指在求解問題時,所有算法中最小的時間復雜性;對于算法的空間復雜度而言,主要指在求解問題時,所有算法中最小的空間復雜性。

2.3.1 時間復雜度

①當蟻群算法中螞蟻的數目m=1 時,本文稱只有一只螞蟻的蟻群優化顯著性檢測(Ant Colony Optimization Saliency Detection,ACOSD)算法為ACOSD-1。

設XACOSD?1(t)為算法對應的隨機過程,在t+1 時刻的信息素率的期望為E{Iij(t+1)XACOSD?1(t)},假設函數ψ(i,t)為關于變量i,t的函數,則:

由式(19)可知,E{Iij(t+1)XACOSD?1(t)}與Iij(t)成正比,根據信息素的概念得知Iij(t)與信息素增量函數μ也是成正比關系,因此可以得出E{Iij(t+1)XACOSD?1(t)}與信息素增量函數μ成正比。

若ψ(i,t) ≥ψ>0,則:

ACOSD-1的期望收斂時間為:

由式(22)可知,ACOSD-1 算法的時間復雜度會隨著問題規模的增大而不斷增大。

②當蟻群算法中螞蟻的數目m≥1 時,稱該顯著性檢測算法為ACOSD-2。

當存在多只螞蟻時,在算法迭代過程中,這m只螞蟻單獨地作用于信息素矩陣且分別對各自路徑上的信息素進行更新。

對于ACOSD-2算法,求解所需的期望收斂時間為:

由式(24)可知,增加螞蟻數目會減少算法的期望收斂時間,也即減小算法的時間復雜度。

2.3.2 空間復雜度

對于m只螞蟻,在問題規模為M(i)的鄰域中選擇si的最優鄰域,蟻群算法所需要的內存開銷如表2所示。

表2 本文的蟻群算法所需要的空間開銷Tab.2 Spatial overhead required by ant colony algorithm in this paper

通過對蟻群優化算法的各個步驟進行分析,可以得到算法的空間復雜度為Ο(M(i)2)+Ο(mM(i))。從表1 的時間性能方面來看,本文的算法相對來說是比較實時的。CA、LR、SC 和MIL 模型在4 個數據集上的執行時間都普遍偏長,提取每幅圖像中顯著目標所消耗的時間都需要20 s 以上,整體效率偏低,其中MIL 模型在每個數據集上的平均時間消耗都達到了100 s以上,這主要是因為MIL 模型將所有像素都歸類完后,再進一步得到K個超像素,通過更新聚類中心不斷迭代,如此反復直到收斂的迭代過程大大增加了計算復雜性。對于CA 模型,其將圖像中每個像素點的顏色特征進行了全局對比度計算,因此時間復雜度會非常高。LR 模型將圖像分割成很多較小的段,再用每個段中所有特征向量的均值來表示這個段,進而構造矩陣,而每個段的特征一共53 維,使得計算時間明顯增加。SC 模型通過獲取顏色域的全局空間能量響應和邊界顯著度來集成顏色顯著性,為每個像素分別生成區域和邊界顯著值,這樣的像素級全局運算使得模型的復雜度偏高。此外,CA、LR和PD模型在PASCAL-S數據集和NI數據集的時間消耗明顯增加,這是由于NI 數據集和PASCAL-S 數據集中圖像的分辨率都比較高,而這些模型基于全局計算的步驟在圖像分辨率較高時造成計算復雜度顯著增加,因此時間性能格外差。雖然本文模型的計算復雜度略高于基于超像素的模型SO 和GP,但本文模型可以得到更精確的估計。盡管本文模型也采用了全局對比度計算,不同的是本文首先將原始圖像分成若干個超像素塊,并用它來代替圖像像素參與計算,很大程度上減少了算法所需的計算量。另外,本文模型的時間性能相對遜色于SO 和MR 模型,但對于顯著目標檢測的準確率均優于這些模型??偟膩碚f,本文模型采用全局搜索能夠明顯提升圖像顯著性檢測的性能,而其時間消耗的上升仍在可接受范圍,可以滿足弱光圖像實時顯著性檢測的需求。相較于NP、CA、LR、PD、BL 和GP 模型在弱光數據集NI 上的計算時間都顯著增加,本文的模型在弱光數據集上的時間性能依然能保持良好穩定的性能。本文提出的模型作為圖像處理任務的預處理方法,其執行時間最長在12.102 s左右,在弱光數據集上這樣的速度已經超越了目前大部分的先進模型,但在實際需求中還有一定的上升空間。作為顯著性檢測模型,除了具有較高的計算效率,能快速檢測出顯著區域之外,準確的檢測性能也是必不可少的,同時應避免對實際顯著區域的漏檢和錯誤地將背景標注為顯著區域。

2.4 算法的魯棒性分析

魯棒性主要指優化方案對于決策變量或者環境變量中一些小擾動的不敏感性。對于現有文獻而言,通常采用均值以及標準差作為衡量目標函數和軟約束函數魯棒性的參數,并簡單地將“最壞解”當作強約束函數魯棒性的參數[35-37]。因此,本文為了計算蟻群算法可行解的魯棒性,主要通過在螞蟻搜索鄰域內取大量的采樣點,然后計算這些采樣點上的目標函數值/約束函數值。對于目標函數f(x,δ),采用平均值或期望的適值函數來衡量可行解x的魯棒性能,計算如下:

式中p(δ)代表不確定性或干擾的概率密度函數。

對于蟻群算法的迭代過程而言,螞蟻在搜索路徑中得到的最優解才有可能成為全局或局部最優解,相對于其他遺傳算法,蟻群算法對初始路線的要求不高,也即蟻群算法的求解結果并不依賴于初始路線的選擇,同時在搜索過程中也不需要進行額外的人工調整,其通過迭代不斷自我調整就能進化出最優解。其次,蟻群算法的參數比較少且設置簡單,能夠很容易應用到顯著超像素的搜索且能夠高效地得到優化解。因此,本文算法具有較強的自適應性和魯棒性。

2.5 主觀性能分析

各模型的視覺性能對比如圖3 所示,從圖中可以看出所本文模型的主觀性能優于其他顯著性檢測模型,特別是對于弱光圖像。

圖3 在四個數據集上各種顯著性模型的定性比較Fig.3 Qualitative comparisons of various saliency models on four datasets

NP 模型無法在復雜背景圖像上準確檢測顯著物體。對于CA 模型、PD 模型和SC 模型,顯著目標的內部結構信息無法得到完整表示。在復雜場景和弱光環境下,MR 模型、SO 模型、SMD 模型和MIL 模型無法獲得完整的顯著目標。BL 模型和GP模型能夠在可見光圖像上獲得相對令人滿意的結果,但在弱光圖像上的性能卻比較差。本文提出的基于蟻群優化算法的顯著模型可以魯棒且準確地檢測出整個顯著目標。

3 結語

本文針對弱光圖像提出了一種基于ACO 算法的顯著目標檢測模型。通過超像素分割,以超像素為節點創建圖結構。利用基于熵的特征選擇策略和全局對比度度量進行顯著性計算。為了獲得更準確的結果,使用了魯棒的ACO 結構來優化顯著圖。在3 個可見光圖像數據集和1 個弱光數據集上的綜合評估表明,本文模型與11 個先進的顯著模型相比表現出了良好的準確性與魯棒性。盡管模型在弱光圖像顯著性檢測任務上取得了初步成功,單純依靠手工特征難以充分表征弱光圖像的特性,鑒于深度特征強大的表達能力,基于手工特征和深度特征的聯合算法是本文今后針對弱光圖像顯著目標檢測的重點研究方向。

猜你喜歡
特征檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 亚洲欧美国产五月天综合| 亚洲第一精品福利| 国产精品第5页| 精品小视频在线观看| 狼友av永久网站免费观看| 在线毛片网站| 欧美成人免费午夜全| 大香网伊人久久综合网2020| 波多野结衣久久精品| 国产亚洲欧美另类一区二区| 国产中文在线亚洲精品官网| 国产美女无遮挡免费视频网站| 国产精品久线在线观看| 欧美性天天| 亚洲国内精品自在自线官| 国产福利在线观看精品| 欧美激情第一欧美在线| 青青草91视频| 欧美色香蕉| 五月婷婷伊人网| 97久久免费视频| 国产剧情国内精品原创| 日韩精品无码不卡无码| 国产精品欧美在线观看| 日韩欧美中文在线| 欧美天堂在线| 国产精品成人一区二区不卡| 中国一级特黄大片在线观看| 三上悠亚一区二区| 欧美五月婷婷| 亚洲激情区| 日本高清免费一本在线观看| 日韩东京热无码人妻| 国产成人综合亚洲欧美在| 在线视频亚洲色图| 亚洲欧美国产五月天综合| 国产一级毛片网站| 国产Av无码精品色午夜| 亚洲男人天堂2020| 国产一级裸网站| 国产 在线视频无码| 久久中文字幕av不卡一区二区| 国产簧片免费在线播放| 人人91人人澡人人妻人人爽| 免费不卡在线观看av| 高清码无在线看| 国产爽歪歪免费视频在线观看| 91精品国产综合久久香蕉922| 欧美啪啪视频免码| 伊人大杳蕉中文无码| 久久久精品国产亚洲AV日韩| 国产美女无遮挡免费视频网站| 久久黄色毛片| 视频二区亚洲精品| 欧美一级在线播放| 国产精品亚洲αv天堂无码| 亚洲国产欧美目韩成人综合| 老司机久久精品视频| 日韩精品亚洲人旧成在线| 色哟哟国产精品一区二区| 99免费视频观看| 欧美午夜在线视频| 91热爆在线| 国产在线专区| 亚洲黄色高清| 欧美成人一级| 亚洲国产天堂在线观看| 成人蜜桃网| 亚洲h视频在线| 亚洲无码日韩一区| 夜精品a一区二区三区| 亚洲天堂网视频| 国产午夜无码专区喷水| 亚洲性影院| 久久美女精品| 国产成人综合久久| 国产99视频精品免费观看9e| 国产精品成人免费视频99| 久久久久久久久18禁秘| 五月婷婷综合色| 精品国产99久久| 青青极品在线|