鐘宇,周建良,徐燕,劉德祥,王宏強,徐羽鵬,周明珠,董浩*,,劉勇,胡清源
1.新疆維吾爾自治區煙草質量監督檢測站,烏魯木齊經濟技術開發區天柱山街55號 830026 2.上海新科乾物聯技術有限公司,上海市松江區洞涇鎮長興東路1586號 201619 3.國家煙草質量監督檢驗中心,鄭州高新技術產業開發區翠竹街6號 450001 4.中國科學院合肥物質科學研究院,合肥市蜀山湖路350號 230031 5.中國科學技術大學,合肥市金寨路96號 230026
卷煙紙參數、煙絲結構、煙絲密度等因素會對卷煙燃燒過程中的燃燒錐落頭傾向造成影響[1-3],進而影響消費者的抽吸體驗。通過測定卷煙燃燒錐落頭傾向,可以考察卷煙燃燒時出現落頭的概率,從而為低落頭傾向卷煙的原輔材料選擇和產品設計提供依據[4]。為此,李斌等[5]研究了落頭測試時燃燒錐的受力情況和影響因素,提出了一種落頭傾向檢測方法。?,帬q等[6]基于紅外測溫、圖像識別等技術設計了一種燃燒錐落頭傾向測試裝置,實現了對燃燒錐落頭的自動檢測。梁志平[7]通過模擬人抽吸卷煙、彈落煙灰的過程設計了一套燃燒錐落頭傾向測試裝置,實現了對卷煙燃燒錐落頭傾向的批量測試和準確判斷。
卷煙燃燒錐落頭傾向測試行業標準[8]規定了儀器設備要求、測試條件和測試步驟,但存在以下問題:①現有的儀器設備通過溫度探測和邊界識別的方式對煙支是否落頭進行判定,測試結果容易受到煙支角度、顏色以及落頭狀態等因素的影響。②落頭傾向測試樣品量大、測試時間長、人工判定落頭結果效率低。以神經網絡為代表的深度學習是機器學習的一個重要分支,能夠使計算機自動學習模式特征,并將特征學習融入模型建立過程中,從而減少人為設計特征的不完備性,在語音識別、計算機視覺、自然語言處理等領域有著廣泛應用[9]。在煙草檢測方面,計算機視覺技術已應用于真偽卷煙包裝鑒別[10]、煙絲組分識別[11]、爆珠缺陷識別[12-13]等依賴于人工主觀判斷的指標檢測中,但在卷煙燃燒錐落頭傾向的判定中則鮮見報道。為此,基于深度神經網絡構建了卷煙燃燒錐落頭檢測和分類識別模型,以期提高現行標準中落頭檢測的判斷效率和準確性,對卷煙燃燒錐類別進行更加細致的分類識別,為卷煙表觀燃燒性能的研究提供支持。
卷煙樣品為2019—2021年間市售產品,共100種規格樣品,包含圓周設計值24.20、20.00、17.00 mm的卷煙各40、30、30種規格。
CFP800A卷煙燃燒錐落頭傾向測試儀(合肥眾沃儀器技術有限公司)。
1.3.1 圖像采集和標注
采用CFP800A卷煙燃燒錐落頭傾向測試儀,依照煙草行業標準方法[8]測試100種規格卷煙樣品的燃燒錐落頭傾向,每個規格樣品測試40支,共采集圖像4 000張(單個圖像大小為600 px×300 px),剔除有缺陷圖像后保留3 519張。如圖1所示,按照落頭傾向測試要求對圖像進行標注,得到正常燃燒、落頭以及未點燃圖像各2 296、1 007、216張。其中,落頭圖像進一步劃分為燃燒錐完全掉落(583張)和燃燒錐未完全掉落(424張)兩類。

圖1 不同類別卷煙燃燒錐圖像Fig.1 Images of different kind combustion cones of cigarettes
1.3.2 圖像預處理
為豐富樣品數據集,提高模型泛化性和魯棒性[14],通過增強或減弱圖像特征(亮度、對比度、色度、銳度等)的方式對卷煙燃燒錐圖像進行處理,將圖像擴充至25 309張,包含正常燃燒11 565張、燃燒錐完全掉落7 972張、燃燒錐未完全掉落5 772張、未點燃圖像2 350張。
1.3.3 數據集構建
為確保各類圖像數量相當,提高圖像分布的均勻性,采用正常燃燒圖像和落頭圖像建立落頭檢測數據集,采用全部未點燃圖像和部分正常燃燒、燃燒錐完全掉落、燃燒錐未完全掉落的圖像建立落頭分類識別數據集,見表1。將兩個數據集均按4∶1的比例劃分為訓練集和測試集。

表1 落頭檢測和落頭分類識別數據集的樣品分布Tab.1 Distribution of samples in dataset of cone-falling detection and dataset of cone-falling classification-recognition (張)
1.3.4 模型建立與訓練
基于卷煙燃燒錐落頭圖像特征,選取3類主干網絡ResNet[15]、MobileNet[16]和ViT(Vision Transformer)[17]進行模型構建。為加快訓練速度,在初次訓練時遷移已初步訓練好的神經網絡權值對網絡進行初始賦值[18-21],落頭檢測任務和落頭分類識別任務中圖像傳入批大小分別為32和16。所有模型輸出后,根據公式(1)由交叉熵損失函數得到損失值,通過梯度下降算法逐步更新權值以降低損失值,優化算法為Adam(Adaptive Moment Estimation)[22],學習率為0.001,學習率衰減因子為0.000 5。

式中:L為損失值;N為樣品數;M為類別數;c為某類別;yic為樣品i的真實類別標簽;pic為樣品i預測為某類別c的概率。
通過混淆矩陣對3個模型進行評估,采用精確率(P)、召回率(R)、f1分數(精確率和召回率的調和平均)以及模型容量評估模型表現[23-25]。
圖像處理、模型建立、數值計算代碼均采用python語言,神經網絡構建采用開源的pytorch1.10.0,圖像處理單元(Graphic Processing Unit,GPU)采用NVIDIA GeForce GTX 970(美國NVIDIA公司)。
2.1.1 落頭檢測任務
如圖2所示,在落頭檢測任務中,隨著訓練輪數的增加,3個模型訓練集和測試集的損失值均顯著降低,最后逐步收斂。以ResNet和MobileNet為主干網絡的模型初始損失值較低,僅通過3~4輪訓練即可快速下降至一個較低值,經過10輪訓練曲線已較為平穩;以ViT為主干網絡的模型初始損失值較高,經過8輪訓練損失值迅速下降,然后趨于平穩。經過50輪訓練,3個模型的損失值分別為0.033、0.049和0.041。

圖2 不同模型對落頭檢測數據集的訓練結果Fig.2 Training results of cone-falling detection dataset by different models
2.1.2 落頭分類識別任務
如圖3所示,與落頭檢測訓練過程相似,在落頭分類識別任務中上,隨著訓練輪數的增加,各模型損失值均呈現極為明顯的下降趨勢然后趨于平穩;然而ViT模型在測試集上的損失值一直未能收斂,并呈現一定的波動性。經過50輪訓練,ResNet、MobileNet模型訓練集和測試集損失值均收斂至較低 值(ResNet模型訓練集0.312、測試集0.267;MobileNet模型訓練集0.285、測試集0.265),且訓練集與測試集差異較小,說明這兩個模型表現出較好的泛化能力。

圖3 不同模型對落頭分類識別數據集的訓練結果Fig.3 Training results of cone-falling classification-recognition dataset by different models
各模型在落頭檢測和落頭分類識別任務中的表現見表2??梢姡?個模型對燃燒錐落頭檢測任務的平均精確率分別為99.74%、99.64%、99.87%,平均召回率分別為99.74%、99.64%、99.87%,差異不明顯。在燃燒錐落頭分類識別任務中,ResNet模型和MobileNet模型的平均精確率、平均召回率差異也較小,均優于ViT模型。ViT模型對燃燒錐落頭分類識別任務中未點燃類別的識別精確率最低,僅為51.72%。

表2 不同模型在落頭檢測和落頭分類識別任務中的表現Tab.2 Performances of different models on cone-falling detection and classification-recognition
f1分數是模型精確率和召回率的調和平均,兼顧了模型的精確率和召回率,可以用來衡量模型的準確度,其數值(范圍為0~1)越接近1表示模型準確度越高。因此,選取f1分數作為模型準確度的評價指標,同時考慮模型運行速度,結合模型容量對3個模型進行篩選。結果表明:①在落頭檢測任務中,MobileNet模型的f1分數(0.996 3)最小但與其他兩個模型差異較小,而模型容量(8 940)明顯小于其他兩個模型。因此,該模型具有準確度高、運算速度快等優勢,適合在移動端部署。②在落頭分類識別任務中,MobileNet模型的f1分數(0.883 9)最高且模型容量(8 950 kb)最小,為最優模型。但該模型對燃燒錐完全掉落、燃燒錐未完全掉落兩種類別的f1分數較低,分別為0.829 1、0.875 9,后續可通過調整學習率、優化算法、遷移模型等參數來提高準確度。
基于卷煙燃燒錐落頭傾向測試中燃燒錐圖像的特征差異,以MobileNet、ResNet和ViT為主干網絡構建3個卷煙燃燒錐落頭檢測和分類識別模型,并對模型進行訓練和評估。結果表明:①3個模型在落頭檢測任務中均具有較低的損失值(L<0.05)和較高的準確率(P>99%,R>99%),而ViT模型在落頭分類識別任務中的準確率較低(P=86.05%,R=76.04%),在測試集上的損失值也未能收斂。②MobileNet模型具有準確度高、運算速度快等優勢,適合在移動端部署,但在落頭分類識別任務中對燃燒錐完全掉落(f1分數=0.829 1)、燃燒錐未完全掉落(f1分數=0.875 9)兩種類別的準確度較低,未來可通過調整學習率、優化算法、遷移模型等參數提高準確度。