999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于卷積神經網絡的生活垃圾圖像分類模型設計

2021-07-03 10:50:04王曉峰黃飛龍文冠鑫蘇盈盈
關鍵詞:分類模型

秦 浩 王曉峰 喻 駿 黃飛龍 文冠鑫 蘇盈盈

(1. 重慶科技學院 電氣工程學院, 重慶 401331; 2. 重慶科技學院 數理與大數據學院, 重慶 401331)

對生活垃圾進行分類收集和處理,有利于保護環境、節約資源。利用圖像識別分類技術對生活垃圾進行分類,目的是實現對生活垃圾類別的高效、快速、精準識別。目前,在這方面的研究已取得了一些成果。吳健等人設計了基于計算機視覺的實驗室垃圾分析與識別方案[1];吳碧程等人提出了基于卷積神經網絡的智能垃圾分類系統[2];汪洋等人提出的基于卷積神經網絡的垃圾分類系統,對7種生活垃圾進行分類,準確率可達91.71%[3]。本次研究,我們針對圖像出現陰影遮擋、暗光、模糊等復雜情況,引入Retinex算法[4],并通過改進VGG-16[5]卷積神經網絡模型,構建了一種可適應多種類生活垃圾的智能分類模型。

1 垃圾圖像分類方法設計

1.1 數據集的獲取

據《生活垃圾分類標志》(GB/T 19095 — 2019),生活垃圾分為4個大類:可回收物、有害垃圾、廚余垃圾(濕垃圾)和其他垃圾(干垃圾)。目前,還沒有公開的垃圾分類識別實驗數據集。我們研究使用的生活垃圾圖像數據,主要通過網絡爬取和攝像機拍攝2個途徑獲得。數據集中共有77 656張圖片,其中將有害垃圾分為12個小類,可回收垃圾分為136個小類,廚余垃圾分為48個小類,其他垃圾分為47個小類,共計243種生活垃圾類別。每張圖片的格式全部處理為JPEG格式。同時,對獲得的數據進行標記、整理,制作成一個多種類的生活垃圾圖像數據集(見圖1)。

圖1 生活垃圾圖像樣本

1.2 數據集的劃分

在訓練集的處理上,采用十折交叉驗證(10-fold cross-validation),測試改進模型的準確性。將77 656張生活垃圾圖片分成均等的10份,對其編號;輪流將其中的9份作為訓練集,1份作為測試集。每進行一輪實驗都會得到相應的正確率,將10次實驗測得的正確率平均值作為分類模型的精準度評價指標。

在驗證集的處理上也實行交叉驗證,從10份數據集中輪流抽出1份作為驗證集,其他9份作為訓練集。循環驗證,直到每份都被作為驗證集使用過。對每次訓練結果的精度做精準記錄,通過計算精準度平均值,保留精準度最高的模型,并將該模型的權重、超參數作為最終模型的權重和超參數。十折交叉驗證過程如圖2所示。

圖2 十折交叉驗證劃分

在測試集的處理上,用了7 059張圖片對改進的VGG-16卷積神經網絡模型分類精準度進行檢測,進一步驗證模型的準確率和泛化能力。

1.3 圖像數據的處理

為了保證模型檢測結果的穩定性和準確性,針對拍攝采集圖像過程中由于光線、視角等因素導致的陰影遮擋、暗光、模糊等復雜情況,引入Retinex算法,在圖像動態范圍壓縮、邊緣增強和顏色恒定3個方面進行處理,增強圖像自適應性。將照射圖像估計為空間平滑圖像,以(x,y)為像素點坐標,原始圖像為S(x,y),輸出圖像為R(x,y),亮度圖像為L(x,y)。以exp表示指數函數。將對數域r(x,y)圖像輸出轉化為實數域R(x,y)圖像輸出。Retinex算法流程如圖3所示。

圖3 Retinex算法流程

由圖3可知,原始圖像、反射圖像、亮度圖像滿足式(1)。

S(x,y)=R(x,y)*L(x,y)

(1)

對式(1)進行兩邊同時取對數變換,得初始圖像對數域輸出表達形式:

(2)

為了對原始圖像進行增強處理,引入中心環繞函數F(x,y)即高斯核函數,如式(3)。

(3)

式中:λ為歸一化常數;c是高斯環繞尺度因子。由于高斯核函數的二重積分為1,λ滿足式(4)即可。

?F(x,y)dxdy=1

(4)

通過式(3)的高斯核函數和式(2)中的初始圖像,可得改進后的圖像對數域和實數域輸出形式:

(5)

(6)

式中:R(x,y)為輸出圖像實數域形式;K指中心環繞函數的個數,取值為3,意將原始圖像從小、中、大3個尺度分別對圖像邊緣細節、色彩范圍、平衡色彩進行處理;⊕指卷積操作;wk為中心環繞函數的權重系數。

實驗結果表明,當中心環繞函數的權重系數w=0.11,高斯環繞尺度因子c=15時,對處理圖像暗光環境有較好的效果;當w=0.06,c=80時,對處理模糊圖像的效果較為明顯;當w=0.05,c=120時,對處理陰影遮擋圖像的效果較好。通過Retinex算法處理陰影遮擋、模糊、暗光圖像的效果如圖4所示。

圖4 以Retinex算法對圖像的處理效果

1.4 垃圾圖像分類識別過程

在訓練過程,利用改進后的VGG-16卷積神經網絡對輸入的生活垃圾圖像特征進行提取。通過遷移學習,利用ImageNet上預訓練的VGG-16模型前4個卷積塊的權重參數,初始化本次研究模型的前4個卷積塊的卷積核大小、卷積核數量、神經元、權重參數,同時使用大量生活垃圾圖像數據對模型進行訓練,更新權重參數,得到針對生活垃圾智能分類的最優權重參數。模型訓練過程如圖5所示。

圖5 模型訓練過程

在測試過程中,首先加載訓練的最優權重參數,然后將測試集作為模型輸入,預測得到與有害垃圾、廚余垃圾、其他垃圾、可回收垃圾對應的分類結果。模型測試過程如圖6所示。

圖6 模型測試過程

2 網絡模型設計

VGG-16卷積神經網絡包含13個卷積層、5個卷積塊、1個池化層、1個全連接層,通過相互交叉堆疊的方式連接在一起(見圖7)。這樣的方式,既使得網絡參數在一定的可控范圍之類,又使得網絡達到了一個較為深層次的深度,提升了網絡模型針對圖像分類的準確度。

圖7 VGG-16卷積神經網絡結構

現以一張224×224像素的可回收垃圾圖像為例,說明其在VGG-16模型中的處理流程。首先,圖像依次經過VGG-16模型的5個卷積塊,在每個卷積塊中通過5×5和3×3的卷積核以及2×2池化核進行卷積、池化操作,對其特征進行提取。此時,圖像的像素由224×224縮小為7×7。然后,經過全連接層將提取到的所有特征圖融合,同時將第5個卷積塊池化后的圖像數據壓平為一維向量,計算出分類的評估值。最后,通過Softmax分類器將全連接層的圖像數據進行映射,得出圖像類別的概率得分,從而實現對圖像的識別分類。

對于有4個大類243個小類的多種類生活垃圾圖像,為了防止分類模型出現過擬合情況,導致分類準確率下降,我們對VGG-16卷積神經網絡的分類交叉熵損失函數進行了改進。原來的損失函數定義形式如式(7)。

(7)

式中:Lorg表示分類交叉熵損失函數;N代表樣本總數;αnm為標注真實值的第n個樣本的第m個屬性的值,采用one-hot編碼;ynm是網絡預測值第n個樣本的第m個屬性值;i表示樣本上限值;j表示樣本屬性上限值。

為了增強模型泛化性能,防止模型出現過擬合的情況,引入L1正則化和L2正則化,構建針對生活垃圾分類的新損失函數。

僅使用L1正則化構造損失函數,即是在原損失函數后面加上一個L1正則化項,如式(8)。僅使用L2正則化構造損失函數,即是在后面加上一個L2正則化項,如式(9)。

(8)

(9)

式中:β是損失函數和正則項之間的調節系數;n為模型訓練集的樣本數量;δ為模型的所有權重參數。

從公式上看,僅使用L1正則化構建的損失函數,為了保證損失函數快速收斂,是對所有的權重參數給予相同的懲罰力度,將導致趨于0的權重參數在被懲罰時變成0;僅使用L2正則化構建的損失函數,是對權重參數較大的給予了很大的懲罰力度,而對權重參數較小的給予很小的懲罰力度,將導致趨于0的權重參數不被懲罰。為提高模型分類精準率,防止模型過擬合,對式(7)的損失函數Lorg進行改進,提出新的分類交叉熵損失函數Lnew。

(10)

(11)

(12)

在改進后的損失函數中,如果p=0,則退化為L2正則化;如果p=1,則退化為L1正則化。測試表明,當t=0.76,p=0.54時,能夠同時兼顧L1和L2正則化,降低模型的過擬合,提高分類精準率。

在模型訓練過程中,有很多訓練的圖像數據特征具有共線性,它們對于分類來說都非常重要。而L1正則化隨機提取其中一個特征,丟棄其他特征;L2正則化只是在圖像特征呈現高斯分布時進行均值選擇。因此,通過實驗對比,我們在原始損失函數Lorg上,先引入L1正則化進行特征選擇,再引入L2正則化處理共線性的圖像特征。通過這種級聯的方式,將其權值平分給各種圖像特征,保留有用的圖像特征,從而防止模型出現過擬合情況,提升模型準確率和泛化性能。

3 實驗及結果分析

為避免實驗環境因素造成分類模型效果的差異,所有對比實驗均在相同的軟硬件配置條件下進行:采用Windows10系統,顯卡為GeForce GTX 1650 with Max-Q,開發環境為Pycharm2020、Python3.7,深度學習框架為Tensorflow2.0,圖像加速器為CUDA10.0/CUDNN7.6.5。

為了驗證設計的垃圾圖像分類方法的分類效果,將數據增強前后、損失函數修改前后與原VGG-16模型的準確率和損失值進行對比。分類模型評估結果如表1所示。

表1 分類模型評估結果

使用原VGG-16網絡模型對垃圾圖像進行分類,準確率為94.43%,損失值為0.53;引入Retinex算法,對圖像進行增強處理后,準確率為95.56%,提升了1.13個百分點。在損失函數中加入L1或者L2正則化后,分類準確率較原網絡模型有較小幅度的提升。采用改進后的交叉熵損失函數之后,分類準確率達97.67%,較原網絡模型在圖像數據增強后的準確率又提升了2.11個百分點;損失值為0.18,也下降了一半。通過引入數據增強算法和改進損失函數,模型防止了過擬合情況,提升了泛化性能和分類準確率。

4 結 語

在生活垃圾分類中,采集的垃圾圖像難免存在模糊不清、暗光蔭蔽、陰影遮擋等情況。采用基于深度學習的VGG-16卷積神經網絡模型對垃圾圖像進行識別分類,可以取得較高的準確率,但該模型原用的交叉熵損失函數會導致模型過擬合,降低了模型性能。針對垃圾圖像數據的多樣性,引入Retinex算法,對存在遮擋、暗光、模糊問題的圖像進行增強處理;同時改進損失函數,加入正則化項,提升了模型在垃圾圖像檢測分類上的準確率和泛化性能。

猜你喜歡
分類模型
一半模型
分類算一算
垃圾分類的困惑你有嗎
大眾健康(2021年6期)2021-06-08 19:30:06
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: www亚洲天堂| 国产精品永久在线| 免费av一区二区三区在线| 一级看片免费视频| 亚洲一区毛片| 精品久久久久久成人AV| 99精品在线视频观看| 亚洲动漫h| 亚洲国产成人在线| 天堂成人av| 日韩精品亚洲人旧成在线| 亚洲国产精品日韩欧美一区| 欧美综合区自拍亚洲综合天堂 | 国产精品熟女亚洲AV麻豆| 国产SUV精品一区二区| 亚洲综合狠狠| 尤物精品国产福利网站| 麻豆精品在线视频| 人禽伦免费交视频网页播放| 华人在线亚洲欧美精品| 四虎影视无码永久免费观看| 98超碰在线观看| 粗大猛烈进出高潮视频无码| 成色7777精品在线| 亚洲无码视频一区二区三区 | 午夜激情福利视频| 亚洲国产综合自在线另类| 久久久久亚洲精品成人网| 国产一区二区网站| 九九九精品成人免费视频7| 99久久精品无码专区免费| 中文国产成人精品久久一| 国产va视频| 久久精品日日躁夜夜躁欧美| 欧美精品成人| 国产成人AV男人的天堂| P尤物久久99国产综合精品| 国产免费网址| 五月婷婷伊人网| 无码精品国产VA在线观看DVD| 免费在线成人网| 中国毛片网| 亚洲一区免费看| 国产精品主播| 72种姿势欧美久久久大黄蕉| 免费不卡视频| 九九热视频在线免费观看| 亚洲成人动漫在线| 国产精品自在拍首页视频8| 国产成人精品亚洲77美色| 亚洲第七页| 秋霞一区二区三区| 人妻91无码色偷偷色噜噜噜| 青青国产视频| 波多野结衣久久高清免费| 日韩国产另类| 国产精品私拍99pans大尺度 | 国产日本一区二区三区| 久久伊人色| 久久青草免费91观看| 久久a级片| 亚洲一级毛片| 欧美亚洲一区二区三区在线| 国产第一页亚洲| 日本午夜视频在线观看| 91久久夜色精品国产网站| 国产精品护士| 天堂亚洲网| 亚洲综合亚洲国产尤物| 91 九色视频丝袜| 在线欧美日韩| 色九九视频| 久久精品国产999大香线焦| 2021亚洲精品不卡a| 国产香蕉在线视频| 国产性精品| 欧美精品1区2区| 久久亚洲美女精品国产精品| 色噜噜在线观看| 亚洲天堂在线免费| 日本不卡在线| 国产精欧美一区二区三区|