占 竹 盧開新 陳 霞 汪 軍
(東華大學,上海,201620)
服裝和面料在穿著或者洗滌過程中會不斷與自身以及外界其他物體發生摩擦,在過度頻繁的摩擦力作用下,纖維與纖維之間開始滑動并且逐漸擺脫紗線和纖維束的控制從而暴露于織物表面,形成絨毛,如果這些絨毛在隨后的摩擦過程中沒能及時脫落,將會彼此纏繞、交織在一起,突出于織物表面,形成毛球,這不僅破壞織物外觀,而且會影響織物的接觸舒適度,最終導致織物使用價值下降。隨著消費者對于服裝和面料的需求更加注重舒適性和裝飾性,織物起球問題越來越受到重視。
隨著計算機視覺技術的發展,眾多學者嘗試利用圖像處理技術研究織物起球等級客觀評定問題。這些方法可分為兩類:一類是在空間域內利用織物表面毛球的灰度差異對毛球的位置和面積進行統計,進而實現起球等級評定[1?3];另一類基于頻域內織物紋理背景和毛球的頻率信息的差異進行等級評定[4?7]。以上兩種方法都是基于人工特征提取的圖像處理方法,而具有特征自提取特性的機器學習方法,如卷積神經網絡(Convolutional Neural Networks,CNN),卻少有研究。CNN 技術在最近的報道中被證明在計算機視覺相關任務上表現出色[8]。
本研究主要基于CNN 建立了一種織物起球等級客觀評定方法,對精梳毛織物起球標準樣照進行采集,濾除紋理分量等預處理步驟,在考慮所有圓形起球區域的基礎上,驗證了所提方法的可行性,并研究了子樣本尺寸對起球等級評定準確率的影響。
精梳毛織物起球標準樣照(光面,GB/T 4802.2—2008《紡織品織物起毛起球性能的測定第2 部分:改型馬丁代爾法》)共有5 個等級,從一級到五級起球數量依次減少,每個等級包含一張標準樣照且所有等級標準樣照尺寸大小相同,其中圓形織物區域直徑為11.4 cm,整個圖片尺寸為11.5 cm×11.5 cm。由于標準樣照是以紙質圖片的形式保存的,因此可通過具有平行光源的掃描儀采集數字圖像以減少其他因素的影響。本研究采用MICROTEK 4800 型掃描儀對標準樣照進行掃描,考慮采集對象的實際尺寸為11.5 cm,選用600 dpi 的分辨率,可計算得出采集所得到圖像大小應為2 717 pixel×2 717 pixel,如圖1 所示。


圖1 織物起球標準樣照數字圖像
織物起球等級評定相關標準規定,不管是織物磨料還是起球區域都是圓形的,但目前關于織物起球等級的圖像處理研究中,還沒有針對圓形起球區域進行采樣的報道,大多學者的做法如圖2 所示,即截取部分起球區域或者截取圓形起球區域的最大內接正方形。顯然,這樣的做法是不全面和不合理的,即使是最大內接正方形也會丟失部分毛球信息(如紅色橢圓框所示),從而導致最終的評定過程出現誤差。

圖2 圓形起球區域最大內接正方形截取示意圖
由于所采集圖像中織物區域和背景區域差異明顯,可通過圖像二值化操作容易地提取圓形織物區域,然后借助Matlab 軟件的Regionprops函數定位該圓形區域的圓心坐標(x,y),其中x 表示圓心到圖像左邊界的像素距離,y 表示圓心到圖像上邊界的像素距離,x 和y 的單位均為pixel。考慮到起球區域同樣為圓形且處于織物試樣中央,因此使用圓形織物區域的圓心等效代替圓形起球區域的中心。按照GB/T 4802.2—2008 規定,馬丁代爾法中用于放置試樣的氈墊直徑為9.0 cm,即起球區域半徑為4.5 cm。根據比例關系計算可得圓形起球區域半徑對應的像素為1 063 pixel。以五級標準樣照為例,圓形織物區域輪廓及圓心如圖3(a)所示,圓形起球區域示意如圖3(b)所示,提取的圓形織物區域如圖3(c)所示,提取的圓形起球區域如圖3(d)所示。表1 列出了所有等級標準樣照的圓形起球區域圓心坐標。

圖3 圓形起球區域提取過程

表1 織物標準樣照圓形起球區域的圓心坐標
織物起球等級的客觀評定主要以毛球的數量和大小分布為依據,織物紋理的存在會引入無關干擾項,進而影響后續CNN 模型的測試準確率,因此需要將織物紋理濾除。
主要過程:對上述步驟提取得到的起球區域圖像進行快速傅里葉變換獲得頻譜圖,并繪制對應的三維頻譜,分別如圖4(a)和圖5 所示,其中的亮點對應高頻紋理分量;取頻率幅值的50%作為閾值過濾高頻分量,濾波后的頻譜如圖4(b)所示;最后再通過傅里葉逆變換即可獲得紋理濾除后的圖像。織物紋理濾除前后標準樣照局部圖像如圖6 所示。

圖4 起球標準樣照對應的頻譜圖

圖5 三維頻譜圖

圖6 起球標準樣照局部圖像
由于原始的起球標準樣照圖像太大,不適合直接輸入CNN 模型進行訓練,因此需要對原始圖像進行分割采樣獲取子樣本。采樣程序基于Py?thon 軟件完成,子樣本分割采樣示意圖如圖7所示。

圖7 子樣本分割采樣示意圖
為了增加數據量,采樣過程為橫向按照10 pixel固定步長有重疊采樣,縱向采用不重疊采樣,每個子樣本要求包含完整的起毛區域而不包含任何背景像素。
CNN 是一種帶有卷積結構的深度學習模型[9],主要包括卷積層、池化層和全連接層,每一層有多個特征圖,而每個特征圖對應通過卷積濾波器提取的某種特征。與傳統的神經網絡模型相比,CNN 通過局部感受野、權值共享、池化層等思想,有效減少了網絡的參數個數,緩解了模型的過擬合問題,并使得模型具有一定程度的位移、尺度、縮放、非線性形變穩定性。
本研究所使用的訓練CNN 的工作站配置為Intel i7 六 核CPU,64 GB DDR4 內 存 和4 塊NVIDIA GTX1080Ti 顯存12 GB 的GPU,Ubun?tu18.04 系統。本研究所設計的CNN 模型包含3個卷積層和2 個全連接層,選用目前學術界常用的PyTorch 框架進行搭建。在訓練階段,CNN 使用訓練集樣本對應的起球等級標簽訓練模型,在測試階段則利用訓練好的模型對測試集中未知標簽樣本的起球等級進行預測。
按照2.1 節所述子樣本采樣方式,設置了4種不同的子樣本大小,表2 詳細描述了按照這4種不同大小進行采樣所構建的訓練集、測試集樣本數量。

表2 訓練集、測試集樣本數量
將訓練集樣本作為輸入進行2.2 節所述CNN 模型的訓練,再將測試集樣本輸入訓練好的模型中,獲得起球等級客觀評定測試結果。取模型預測的起球等級與實際起球等級一致的測試集樣本數為Nc,測試集樣本總數為N,定義織物起球等級客觀評定準確率,見式(1)。

子樣本大小對起球等級客觀評定準確率的影響如圖8 所示。可以看出,尺寸為600 pixel×600 pixel 的子樣本集訓練所得模型具有最高的評定準確率,準確率可達98.5%,這主要是因為小尺寸子樣本會導致毛球被分割開的概率增大,影響模型對毛球數量和大小分布的擬合結果;另外,子樣本尺寸越小其對應的數據集樣本數量越多,容易發生過擬合;同樣,大尺寸子樣本所構建的數據集數量較少,訓練出的CNN 模型欠擬合,導致評定準確率急劇下降。

圖8 子樣本尺寸對起球等級客觀評定準確率的影響
子樣本大小為600 pixel×600 pixel 時,CNN模型中訓練集的損失函數值以及測試集的損失函數值和測試集上的準確率曲線如圖9 所示。在迭代次數為200 次左右時,模型快速趨于收斂,并在后續訓練過程中保持穩定,織物起球客觀評定準確率始終保持在95%以上,這說明使用CNN模型來評定織物起球等級是可行的,并且可以達到實時性要求。

圖9 600 pixel×600 pixel 子樣本對應的準確率曲線
曹飛等人與周圓圓等人同樣使用精紡毛織物標準樣照作為研究對象,并利用頻域濾波去除了織物紋理分量,但他們并沒有提取整個圓形起球區域,而是針對圓形起球區域的最大內接正方形部分進行分析。另外,其后續試驗主要利用基于圖像灰度值的閾值分割算法提取毛球的位置、面積等人工設計特征,并沒有給出所設計方法在大批量樣本情況下的準確率。GUAN S Q 等人利用小波分解和閾值分割相結合的方法提取毛球的二值圖像,然后提取毛球的面、位置等信息,最后輸入BP 神經網絡進行訓練,最終的準確率最高可達95%。相較而言,本研究所提方法等級評定準確率最高達到了98.5%,并且不需要提取人工設計特征,而是利用CNN 強大的特征提取能力自動尋找樣本的最合適特征,精簡了圖像處理流程;適用于各種不同的織物起球等級評定,從而提高了泛化能力。
本研究以精梳毛織物起球標準樣照作為研究對象,使用掃描儀完成了圖像掃描,運用Mat?lab 軟件完成了圓形起球區域的提取和織物紋理分量的濾除,運用Python 軟件實現了基于整個圓形起球區的子樣本分割采樣,在此基礎上,搭建基于CNN 的織物起球等級客觀評定模型,并研究了子樣本尺寸對評定準確率的影響。分析結果表明,子樣本尺寸為600 pixel×600 pixel 時,評定準確率可達98.5%,驗證了所提方法的可行性和有效性,但CNN 的泛化性還有待進一步研究。