汪輝進
(池州職業技術學院 信息技術系,安徽 池州 247000)
基于敏感部位圖像特征的提取方法研究
汪輝進
(池州職業技術學院 信息技術系,安徽 池州 247000)
隨著互聯網高速發展,一些敏感圖像信息也在網絡上廣泛傳播,如何對這些敏感圖像進行有效自動識別,凈化網絡環境已成為計算機領域的重點研究課題.通過對常用圖像分割算法k-means算法、k-means++算法探討,提出敏感圖像敏感部位的特殊構造形態,構建彩色變柱寬多分辨率直方圖矩特征,有效的表示了敏感部位的顏色和紋理信息.采用敏感部位特征視覺詞匯和聚類算法計算的視覺詞匯形成混合視覺詞匯表,并使用詞袋模型建模,在圖像識別階段使用基于RBF核的SVM分類器.實驗結果顯示該方法有效地提高了敏感圖像的識別效果.
敏感圖像;聚類算法;詞袋模型;圖像識別
截至2016年12月,我國共查處180.1萬件色情信息.由此可見互聯網+時代,色情圖像與視頻、即時通訊軟件、社交軟件、網絡直播平臺等,這些敏感部位的圖像越來越引起人們的關注.為此,如何讓互聯網環境變成綠色的、健康的信息通道,是我們信息領域科研人員所要研究的重點課題.經過大量調查研究,發現如何對網絡敏感圖像進行匹配和識別是學者們共同研究的重要內容,研究人員主要是通過圖像分割技術來對人臉和皮膚等區域進行有效識別[1].Liao等[2]人使用小波多尺度進行分析局部圖像信號特征,來提高圖像精密結構,提高了圖矩特征對圖像的要求.由于受圖像清晰度影響性較大,圖像一旦受到外界干擾,其識別率會下降,魯棒性也差.
本文通過研究局部圖像的特征方法來進行探討k-means算法,進一步對敏感部位patch特征值進行提取,建立混合詞匯表的詞袋模型,通過實驗比對來進行分析:
局部圖像特征的提取主要應用在圖像的匹配和檢索中,一般隨著物體燈光、噪聲的干擾,會引起局部圖像的灰度明暗變化,所以運用角點來進行提取也是不錯的方法.文獻[3]利用Harris算法進行角點特征提取,其利用局部圖像與鄰近像素點灰度之間的差值,檢測角點上各個特征點的一階導數矩陣.廣泛用于物體目標跟蹤、目標匹配、重建3D等領域.圖像分割從字面簡單理解就是將一張圖像分割成小的,互不相交的區域的集合.通過這些小的區域的像素的聚類過程,可以通過常用的邊緣方法和區域方法解決,這里主要探討基于區域的圖像分割方法--k-means算法.
通常,人們根據樣本間的距離或者相似性來定義聚類,即把相似的(或距離近的)樣本聚為同一類,而把不相似的(或距離遠的)樣本歸在其他類.算法主要思想:
(1)聚類的中心點由每個聚類子集中的數據均值來表示;
(2)通過迭代過程把數據集劃分為不同類別;
(3)使得評價聚類性能的準則函數達到最優,從而使生存的每個聚類內緊湊,類間獨立.

圖1 松散不同聚類效果圖
如圖1所示,三個不同的聚類效果不同,根據歐式定理,一般樣本距離越小,相似性度越高,差異性也越?。粯颖揪嚯x越大,相似度越差,差異性也越大.因此,可采用局部區域進行劃分.
k-means算法作為計算機圖形圖像領域最常見迭代算法之一,由于它的普遍性,它通常被稱為k-均值算法,它也被稱為Lloyd算法.給定一個初始集的K均值M1(1),…,MK(1),該算法通過兩個步驟迭代進行:
步驟一:每個聚類就是最小聚類組內距離的平方和.

其中每個xp被分配到一個確定的S(t),即它可能被分配到兩個或兩個以上.
步驟二:計算在新簇中心的方法為:

由于算術平均采用的是最小二乘法來進行計算,因此最大限度地減少了聚類內的平方和.
該算法收斂時,分配不再改變.通過兩步來優化聚類內的平方和,針對有限數量的這種分割情況下,該算法一定能收斂而達到局部最優.但該算法不能保證全局也是最優的.因此對該算法加以改進,用最近距離的聚類子集來分配方案,就是利用“最小平方和”,也等同于分配最小歐氏距離算法.
給定一組數據值(x1,x2,…,xn),其中每個都是一個 d維實向量聚類,k-均值算法旨在劃分K(≤n),S={S1,S2,…,Sk},用以減少聚類內的平方和(即方差).可得:

其中ui是Si簇點的平均值.這相當于在同一簇點中最小化誤差平方和:

因為總方差為常數,這也相當于在不同的聚類之間計算機最大誤差的平方積.
k-means算法聚類過程如圖2所示:

圖2 k-means算法聚類示意圖
(1)K初始值(以K=3為例)隨機生成的數據區域(分別用紅、綠、藍色表示)即初始聚類中心.
(2)k樣本集按最小距離來創建關聯的每一個最近聚類,可用Voronoi圖所產生的方法來表示.
(3)每個k聚類中樣本均值將成為新的均值,即為新的聚類中心.
(4)重復步驟(2)和(3),直到聚類中心達到收斂為止.
由于它是一個啟發式算法,不能保證它會收斂到全局最優,其結果可能會依賴于初始聚類.通過相關研究可知,初始聚類選不好,結果有可能不理想.因此,眾多學者對算法加以改進,比如k-means++算法,其初始化就將K個聚類中心間距離設置最大化,其新聚類中心點的選擇,一般選取距離最近聚類中心點較大的點作為新的聚類中心.一般k-means算法需要手工進行初始值的配置,很多時候難以確定初始值的大小情況下,就選擇用k-means++算法來解決,進行設置不同的聚類中心點,來達到滿意的效果.因此,k-means算法與k-means++算法是常用來進行聚類研究的重要算法.
本文提出一種基于敏感部位顏色紋理特征和視覺詞袋(Bag of Visual Words,BOW)模型的敏感圖像識別方法,是將敏感圖像的敏感部位特征信息和詞袋模型結合起來,對圖像直接進行規則網格劃分,采用手工標記敏感圖像敏感部位,以提取彩色變柱寬多分辨率直方圖矩特征(Color Variable Binwidth Multiresolution Histogram Moments,CVB-MHM),形成敏感部位視覺詞匯表.然后利用聚類方法獲取視覺詞匯表組合,建立混合視覺詞匯表并使用視覺詞袋模型來表示,再運用SVM分類器對敏感圖像進行識別.其優點CVB-MHM特征能有效地表示圖像局部塊的顏色和紋理特征,并且計算迅速,特征維度小,能穩定高效地識別敏感圖像信息.
人體敏感部位的識別對于敏感圖像識別有著關鍵作用,采用邊緣檢測[4]等方法進行敏感圖像敏感部位提取已經取得了一定的效果.考慮到使用特定算法進行敏感部位提取會產生誤差,針對詞袋模型的特點,直接采用手工標記人體敏感部位:在訓練圖像中隨機抽取一定數量的敏感圖像進行密集patch提取,根據圖像內容,用矩形區域標記敏感部位所包含的所有patch,并提取每個patch的顏色和紋理特征(采用2.2節提出的CVB-MHM特征).則該敏感部位的特征F為所有patch特征{fi}ni=1的加權平均值:

特征權值計算如下:

其中(x0,y0)為敏感區域中心坐標,(xi,yi)為對應的patch中心坐標.對于固定邊長的矩形區域,其對應的權值是確定的.敏感部位的特征提取如圖3所示:

圖3 敏感部位patch特征提取
詞袋模型已經廣泛應用到圖像檢索中,大部分詞袋模型的圖像檢索、識別方法都采用固定視覺詞匯表大小的聚類方法,本方法針對敏感圖像識別的特點,提出基于混合詞匯表的詞袋模型,并使用兩種提取詞匯表的方式:
一是提取敏感部位patch特征值,形成視覺詞匯表Ts.在訓練圖庫中,隨機抽取若干幅敏感圖像,采用3.1節的方法確定每幅圖像的敏感部位patch特征.每一個敏感部位的patch特征對應一個視覺詞匯,將所有隨機抽取的敏感圖像的敏感部位特征值組合成視覺詞匯表Ts.
二是采用聚類方法確定視覺詞匯表Tc.抽取一定數量的訓練圖像組成驗證集合SVLD和視覺詞匯表提取集合SVW,在驗證集合SVLD上對視覺詞匯表大小V進行最優驗證,使用取得最佳識別效果的視覺詞匯表大小V為聚類算法的中心數目,提取SVW中的所有密集patch的特征,采用K-Means算法進行V個類別的聚類,將計算出的V個中心作為視覺詞匯表Tc.

圖4 混合詞匯表的詞袋模型敏感圖像識別
將Ts和Tc組合成混合詞匯表TH=Ts∪Tc,用于最終的詞袋模型.基于混合詞匯表的詞袋模型敏感圖像識別如圖4所示.
對于CVB特征,下面可以通過實驗數據來驗證該算法改進的有效性,在互聯網上,圖庫1隨機下載4000張正常圖像和2000張敏感圖像進行特征值提取.圖庫2隨機價值2000張正常人像和抽取2800張Corel圖庫來增加圖像識別難度.如圖5所示,兩組圖庫,通過兩組實驗均提取100個敏感部位視覺詞匯組成Ts.
實驗一:通過互聯網隨機下載圖像進行比對固定柱寬直方圖矩特征和變柱寬多分辨率直方圖矩特征在兩個圖庫上的識別效果,實驗采用的混合視覺詞匯表詞袋模型,Tc的視覺詞匯個數固定為200.實驗一特別較多的選擇人物圖像,主要比較CVB-MHM特征較MHM特征在敏感圖像識別上性能的提升能力.
實驗二:通過互聯網進一步比對,針對實驗二的實驗數據較多地加入其他非人圖像來增加識別難度,判斷敏感圖像是否還能進行有效地識別,從而分析其敏感部分圖像的識別能力.

圖5 圖庫1和圖庫2圖像示例
在兩組試驗中,均采用圖像的多分辨率分解級數為3,并使用兩種不同的CVB-MHM特征,第一種CVB-MHM特征的柱寬設置為={1,4,16},第二種CVB-MHM特征的柱寬設置為={2,8,32},采用的分類器為基于RBF核的SVM分類器.實驗時,在訓練圖像中隨機抽取100幅敏感圖像和100幅正常圖像作為驗證集合.實驗結果的采用查準率、查全率進行比較分別如圖表1、圖表2所示.

圖表2 圖庫2比較
實驗一的結果如圖表1所示.采用了較多人物圖像來進行敏感部位的識別,CVB-MHM特征的圖像識別結果要明顯好于固定柱寬的MHM特征,在圖庫1上,={2,8,32}的CVB-MHM特征可以達到94.25%的查全率,b→={1,4,16}的CVB-MHM特征也能達到87.15%的查全率,相比CMHM固定柱寬直方圖矩82.15%,有了較大提升.其查準率b→={2,8,32}={1,4,16}分別為 94.82%和 97.92%,也高于 CMHM固定柱寬直方圖矩91.79%.
實驗二的結果如圖表2所示.加入較多其他圖像進行識別,采用了CVB-MHM特征的圖像識別結果也明顯好于固定柱寬的MHM特征,結果也達到了較為滿意地實驗效果,在圖庫2上,b→={2,8,32}的CVB-MHM特征的查全率可以達到77.7%略高于也高于CMHM圖矩77.15%,={1,4,16}的CVB-MHM特征可以達到81.30%的查全率,相比CMHM,提高比較明顯.在查準率方面={2,8,32}={1,4,16}分別為83.37%和82.04%,相比CMHM固定柱寬直方圖矩78.21%有了較大提升.
通過上述兩組實驗,大家不難發現,基于CVB-MHM特征混合詞匯表詞袋模型的敏感圖像識別方法無論在查準率和查全率上都有了不錯的改進.另外,由于CVB-MHM特征,不需要計算圖像的梯度,因此計算量比較小,更有利于敏感圖像的實時識別,因此,這種簡單而快速的識別方法,將能夠得到很好的應用.
本項研究的敏感圖像敏感部位特征提取與彩色變柱寬多分辨率直方圖矩特征圖像識別方法,針對敏感圖像敏感部位的特殊構造形態,構建彩色變柱寬多分辨率直方圖矩特征,進行圖像的顏色及結構信息的表示.通過對敏感部位patch特征提取,并采用混合詞匯表詞袋方法對敏感圖像建模,對于網絡中敏感圖像的識別效果優于原始多分辨率直方圖矩.其中針對詞袋模型可不需要分割圖像、不需要復雜的數學統計算模型的特征,因此總體計算量小,應用于圖像識別的效果好,利用上述方法還可用于相關計算機圖像分割和處理方面,如衛星遙感圖像、電子地圖、人臉識別等方面,并且還可結合其他模型如空間金字塔匹配對圖像進行建模,也是有效地可選用的方法,所以應用前景廣闊,具有較大推廣價值.
〔1〕A N Ganar,C S Gode,S M Jambhulkar.Enhancement ofImage Retrievalby Using Colour,Texture and Shape Features[C]//International Conference on Electronic Systems,Signal Processing and Computing Technologies,2014:251-255.
〔2〕Liao L,Zhang Y,Maybank S J,et al.Image recognition via two-dimensional random projection and nearest constrained subspace[J].Journal of Visual Communication&Image Representation,2014,25(5):1187-1198.
〔3〕Chris Harris,Mike Stephens,A Combined Corner and Edge Detector,4th AlveyVision Conference,1988:147-151.
〔4〕吳翔,于微波,馬艷輝,劉克平.一種新的改進 Canny圖像邊緣檢測算法[J].影像科學與光化學,2016,34(1):116-121.
TP391.4
A
1673-260X(2017)11-0011-03
2017-07-09
安徽省高校優秀青年人才支持計劃重點項目(gxyqZD2016530);2016年安徽省高等學校省級質量工程項目精品資源共享課程(2016gxk099);安徽省高等學校省級重點教學研究項目(2012jyxm695,2012jyxm697,2015jyxm528);2016年池州職業技術學院質量工程項目(2016jyxm07)