999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于卷積神經(jīng)網(wǎng)絡(luò)的色情圖像檢測(cè)

2018-02-27 03:06:40余明揚(yáng)王一軍
關(guān)鍵詞:方法

余明揚(yáng) 羊 鵬 王一軍

(中南大學(xué)信息科學(xué)與工程學(xué)院 湖南 長(zhǎng)沙 410083)

0 引 言

網(wǎng)絡(luò)的爆炸式發(fā)展使得互聯(lián)網(wǎng)上充斥著各種圖片,而一些不良或非法網(wǎng)站為了謀取利益上傳大量色情圖片,如果對(duì)這些有害圖片坐視不理不僅會(huì)造成嚴(yán)重的社會(huì)問(wèn)題而且會(huì)誘導(dǎo)心智未成熟的青少年走上歧路。因此,有效檢測(cè)色情圖片的方法成為了學(xué)者們重要的研究領(lǐng)域[1-3]。

在過(guò)去的數(shù)十年間,各種各樣的方法用于色情圖像檢測(cè)。這些方法大致可分為以下三類。

第一種是基于規(guī)則導(dǎo)向的方法[4]。這種方法首先建立一個(gè)可以過(guò)濾非皮膚區(qū)域的皮膚模型,然后從待識(shí)別的圖像中得到皮膚區(qū)域面積,若大于閾值,則就認(rèn)為是色情圖片。這種方法雖然直觀且易實(shí)現(xiàn),但皮膚面積閾值難以準(zhǔn)確設(shè)定,而且許多非色情圖像也包含大量的皮膚面積,因此識(shí)別色情圖像準(zhǔn)確率較低。

第二種是基于圖像檢索的方法[5]。這種方法首先建立一個(gè)具有色情圖像的數(shù)據(jù)庫(kù),然后選擇適當(dāng)?shù)膱D像特征(如色彩形狀等),接著將待識(shí)別的圖片特征與數(shù)據(jù)庫(kù)內(nèi)的圖片特征進(jìn)行對(duì)比,如果相似度超過(guò)一定閾值,則判定為色情圖像。由于色情圖像的多樣性,為了提高準(zhǔn)確率就需要建立一個(gè)龐大的數(shù)據(jù)庫(kù),會(huì)導(dǎo)致占用內(nèi)存過(guò)大,識(shí)別時(shí)間過(guò)長(zhǎng)。

第三種是基于學(xué)習(xí)的方法[6-7]。這種方法需要設(shè)計(jì)色情圖像的視覺(jué)特征,然后基于這些視覺(jué)特征采用機(jī)器學(xué)習(xí)的方法獲取分類模型。最后使用學(xué)習(xí)好的模型來(lái)進(jìn)行色情圖像檢測(cè)。和其他兩種方法對(duì)比,盡管基于學(xué)習(xí)的方法在這三種方法中擁有較高的準(zhǔn)確率和檢測(cè)速度,但獲取的圖像特征一般情況下是人工歸納的。而人工選取的視覺(jué)特征泛化性能低,難以滿足實(shí)際要求。

卷積神經(jīng)網(wǎng)絡(luò)作為人工神經(jīng)網(wǎng)絡(luò)的一種,在近來(lái)的各種與計(jì)算機(jī)視覺(jué)有關(guān)的任務(wù)中,如圖像識(shí)別[8-9],目標(biāo)檢測(cè)[10-11]卷積神經(jīng)網(wǎng)絡(luò)均展現(xiàn)了強(qiáng)大的判別和泛化能力。文獻(xiàn)[12]中作者使用CaffeNet來(lái)提取視覺(jué)特征,但網(wǎng)絡(luò)參數(shù)過(guò)多,在數(shù)據(jù)不多的情況下容易過(guò)擬合,降低準(zhǔn)確率。本文將深度神經(jīng)網(wǎng)絡(luò)應(yīng)用于色情圖像檢測(cè)的實(shí)際問(wèn)題中,提出一種使用Inception模塊[13]的卷積神經(jīng)網(wǎng)絡(luò)模型,該模型容易實(shí)現(xiàn)結(jié)構(gòu)簡(jiǎn)單參數(shù)少不易過(guò)擬合,而且達(dá)到的準(zhǔn)確率比其他文獻(xiàn)中更高。

1 卷積神經(jīng)網(wǎng)絡(luò)特征分析

神經(jīng)網(wǎng)絡(luò)是由一連串神經(jīng)元以無(wú)環(huán)圖的形式連接建立的,也就是說(shuō),神經(jīng)網(wǎng)絡(luò)中的一些神經(jīng)元的輸出是另一些神經(jīng)元的輸入。從LeNet-5[14]在手寫字符領(lǐng)域獲得的令人矚目的成功開(kāi)始,典型的卷積神經(jīng)網(wǎng)絡(luò)通常由輸入層、卷積層、池化層、全連接層堆疊組成。

1.1 全連接層

全連接層的結(jié)構(gòu)特點(diǎn)在于兩個(gè)相鄰全連接層的神經(jīng)元之間是完全配對(duì)的,即全連接層中的每個(gè)神經(jīng)元與后一層的所有神經(jīng)元都相連,但同一層神經(jīng)元之間沒(méi)有任何連接。一個(gè)只有一層隱藏層由全連接層組成的神經(jīng)網(wǎng)絡(luò)如圖1所示。

圖1 全連接神經(jīng)網(wǎng)絡(luò)

1.2 卷積層

卷積層是卷積神經(jīng)網(wǎng)絡(luò)中最主要的部分。在圖像的傳播過(guò)程中,卷積層完成了其中的大部分計(jì)算。卷積層中每個(gè)神經(jīng)元有長(zhǎng)度、寬度、深度(不同于神經(jīng)網(wǎng)絡(luò)的深度概念)三維,并且神經(jīng)元僅與其之前的層的一部分區(qū)域連接,這使得前向傳播更有效率,并且大量的降低了網(wǎng)絡(luò)中的參數(shù)。卷積層如圖2所示。

圖2 卷積層

為了避免卷積層中參數(shù)過(guò)多,通常在卷積層中使用參數(shù)共享的方法,即同一層卷積層的所有神經(jīng)元共享同一組參數(shù)。

1.3 池化層

卷積神經(jīng)網(wǎng)絡(luò)中的池化層作用于卷積層每一層的鄰域,通常會(huì)在連續(xù)的卷積層中間插入池化層來(lái)對(duì)特征圖進(jìn)行降維處理并維持特征的尺度不變性。池化層一般使用平均池化或者最大池化操作,可用如下函數(shù)表示:

(1)

2 基于卷積神經(jīng)網(wǎng)絡(luò)的方法

為了避免手工設(shè)計(jì)色情圖像特征,使用數(shù)據(jù)為導(dǎo)向的方法來(lái)自動(dòng)獲取圖像特征。本文提出的用于訓(xùn)練識(shí)別色情圖像檢測(cè)器的框架見(jiàn)圖3。將在網(wǎng)絡(luò)上獲取的圖像通過(guò)數(shù)據(jù)增強(qiáng)處理后分為訓(xùn)練集和測(cè)試集。首先使用訓(xùn)練集訓(xùn)練設(shè)計(jì)好的卷積神經(jīng)網(wǎng)絡(luò),等待網(wǎng)絡(luò)收斂且誤差達(dá)到要求后,將測(cè)試集中的圖片輸入訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)中判別其是否為色情圖像,最后輸出測(cè)試集的準(zhǔn)確率。

圖3 色情圖像檢測(cè)器框架

2.1 模型設(shè)計(jì)

一般來(lái)說(shuō),為了提高神經(jīng)網(wǎng)絡(luò)的性能會(huì)增加網(wǎng)絡(luò)的大小,包括增加網(wǎng)絡(luò)的深度(網(wǎng)絡(luò)的層數(shù))以及寬度(每層神經(jīng)元的數(shù)量)。當(dāng)擁有大量數(shù)據(jù)時(shí)這是最簡(jiǎn)單易實(shí)現(xiàn)的方法,但這種方法有兩種缺陷。首先,網(wǎng)絡(luò)過(guò)大意味著大量的參數(shù),這使得網(wǎng)絡(luò)更容易發(fā)生過(guò)擬合,降低準(zhǔn)確率。特別是在獲得訓(xùn)練集的成本很高時(shí),簡(jiǎn)單擴(kuò)大網(wǎng)絡(luò)的大小是不經(jīng)濟(jì)的。另一個(gè)缺陷就是網(wǎng)絡(luò)尺寸過(guò)大會(huì)侵占過(guò)多的計(jì)算資源。因?yàn)橛?jì)算資源總是有限的,過(guò)大的尺寸會(huì)造成計(jì)算資源幾何級(jí)數(shù)的浪費(fèi)。

為了優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu),受到神經(jīng)學(xué)的Hebbian原則啟發(fā),即如果數(shù)據(jù)集的概率分布可由一個(gè)大型稀疏神經(jīng)網(wǎng)絡(luò)表達(dá)的話,那么網(wǎng)絡(luò)的最佳拓?fù)浣Y(jié)構(gòu)可通過(guò)分析之前一層激勵(lì)的相關(guān)統(tǒng)計(jì)特征和聚集有高度相關(guān)輸出的神經(jīng)元建立。Szegedy等提出了一種不同于傳統(tǒng)粗暴加深網(wǎng)絡(luò)層的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)Inception模塊,如圖4所示。Inception模塊由1×1,3×3,5×5等小尺寸卷積層組成。這樣的結(jié)構(gòu)不僅降低了網(wǎng)絡(luò)中的參數(shù),而且不同尺寸的卷積層實(shí)現(xiàn)了對(duì)圖像的多尺度特征提取。總的來(lái)說(shuō),Inception模塊充分利用了濾波器級(jí)別的稀疏性并結(jié)合了當(dāng)下密集矩陣的計(jì)算性能,在提升學(xué)習(xí)效果的同時(shí),大大降低了網(wǎng)絡(luò)的參數(shù)和計(jì)算量。

圖4 Inception模塊

本文基于Inception模塊,設(shè)計(jì)如圖5所示卷積神經(jīng)網(wǎng)絡(luò)模型。

圖5 卷積神經(jīng)網(wǎng)絡(luò)模型

圖5中,以C開(kāi)頭的代表卷積層,M開(kāi)頭代表最大池化層,L開(kāi)頭代表局部響應(yīng)歸一化層(Local Response Normalization),I開(kāi)頭代表Inception模塊,A開(kāi)頭代表平均池化層??梢钥闯?,如果只計(jì)算含有待學(xué)習(xí)參數(shù)的層數(shù),網(wǎng)絡(luò)模型共有17層,分別是16層卷積神經(jīng)網(wǎng)絡(luò)和1層全連接層。所設(shè)計(jì)的網(wǎng)絡(luò)使用120×120像素的RGB圖像作為輸入,網(wǎng)絡(luò)輸入圖像后,將圖片的每個(gè)通道單獨(dú)處理。經(jīng)過(guò)一系列卷積池化等操作后,再經(jīng)過(guò)Inception模塊的處理以及全連接網(wǎng)絡(luò),全連接層之前的網(wǎng)絡(luò)是將原始的圖片數(shù)據(jù)映射在隱藏層的特征空間表達(dá)上,而全連接層則起到將學(xué)習(xí)到的特征表示映射到樣本標(biāo)記空間的作用。盡管全連接層參數(shù)冗余,但過(guò)多的參數(shù)并不是一無(wú)是處的。全連接層的使用可以讓網(wǎng)絡(luò)保持較強(qiáng)表達(dá)能力,捕捉到盡可能多的圖像特征。最后使用Softmax分類器輸出不同標(biāo)簽的預(yù)測(cè)結(jié)果。Inception模塊參數(shù)見(jiàn)圖4,其余各層詳細(xì)參數(shù)見(jiàn)表1。

表1 神經(jīng)網(wǎng)絡(luò)模型參數(shù)

本文所設(shè)計(jì)的網(wǎng)絡(luò)參數(shù)總數(shù)約為250萬(wàn),文獻(xiàn)[13]中使用的CaffeNet參數(shù)大約是本文的30倍,這意味著在保證性能的前提下,可以在同等數(shù)量數(shù)據(jù)集的條件下更不易過(guò)擬合,準(zhǔn)確率更高,并且所需要的計(jì)算量也大幅降低,占用計(jì)算機(jī)資源更少,有效降低測(cè)試時(shí)間。

2.2 網(wǎng)絡(luò)的訓(xùn)練及測(cè)試

卷積神經(jīng)網(wǎng)絡(luò)使用有監(jiān)督學(xué)習(xí)來(lái)獲取不同輸入類別之間的關(guān)系。訓(xùn)練過(guò)程包括兩個(gè)部分,前向傳播及反向傳播。在前向傳播階段,對(duì)網(wǎng)絡(luò)參數(shù)進(jìn)行初始化后,訓(xùn)練集圖片作為網(wǎng)絡(luò)的輸入,通過(guò)網(wǎng)絡(luò)一層一層輸出特征圖,將圖片映射到新的特征表達(dá)空間中,輸出圖片的分類結(jié)果(是色情圖像或者不是)。在反向傳播階段,根據(jù)輸出的圖片分類結(jié)果與給定的標(biāo)簽計(jì)算出誤差,為了降低誤差,使用批量隨機(jī)梯度下降算法對(duì)網(wǎng)絡(luò)參數(shù)進(jìn)行更新,即每次迭代過(guò)程中,使用一定數(shù)量的圖片組成一個(gè)批次來(lái)決定誤差下降的方向。這種算法可以使訓(xùn)練過(guò)程中網(wǎng)絡(luò)收斂速度變快,提升收斂精度。

在訓(xùn)練誤差降低到一定值時(shí),結(jié)束對(duì)網(wǎng)絡(luò)的訓(xùn)練,得到網(wǎng)絡(luò)模型的最優(yōu)化參數(shù)。卷積神經(jīng)網(wǎng)絡(luò)的本質(zhì)其實(shí)是將圖像經(jīng)過(guò)多次變換后映射到新的特征表達(dá)中。用得到的網(wǎng)絡(luò)參數(shù)對(duì)測(cè)試集進(jìn)行測(cè)試。在對(duì)訓(xùn)練好的模型進(jìn)行測(cè)試時(shí),只包括前向傳播階段。使用測(cè)試集圖片作為網(wǎng)絡(luò)的輸入,在得到圖片的分類結(jié)果后與給定標(biāo)簽進(jìn)行對(duì)比,可得到測(cè)試集的準(zhǔn)確率。

2.3 改善過(guò)擬合問(wèn)題

過(guò)擬合指網(wǎng)絡(luò)模型在訓(xùn)練過(guò)程中過(guò)度擬合訓(xùn)練集,而在測(cè)試集上泛化性能欠佳的現(xiàn)象。一般可以通過(guò)增加網(wǎng)絡(luò)結(jié)構(gòu)的稀疏性和隨機(jī)性來(lái)提高泛化能力。除了使用Inception模塊增加網(wǎng)絡(luò)稀疏性外,本文還使用Dropout[15]技術(shù)來(lái)減少過(guò)擬合。

Dropout層位于在全連接層輸出之后,通過(guò)將所在隱藏層神經(jīng)元的激勵(lì)以一定概率設(shè)置為0來(lái)實(shí)現(xiàn),也就是說(shuō)在一次迭代中屏蔽網(wǎng)絡(luò)中的一些神經(jīng)元。被屏蔽的神經(jīng)元不參與迭代過(guò)程中的前向傳播和反向傳播。在下一次迭代過(guò)程中,又以一定概率隨機(jī)屏蔽有Dropout層隱藏層中的神經(jīng)元,即每次屏蔽的神經(jīng)元不一定相同,意味著不同的數(shù)據(jù)訓(xùn)練的神經(jīng)網(wǎng)絡(luò)是不相同的。

使用Dropout層可以起到取平均的作用。因?yàn)椴煌臄?shù)據(jù)訓(xùn)練時(shí)對(duì)應(yīng)的神經(jīng)網(wǎng)絡(luò)不同,因此可以用不同的網(wǎng)絡(luò)取平均去決定最后網(wǎng)絡(luò)的輸出,多個(gè)網(wǎng)絡(luò)取平均可以抵消一些網(wǎng)絡(luò)過(guò)擬合程度嚴(yán)重的問(wèn)題。并且使用Dropout層可以減少神經(jīng)元之間復(fù)雜的共適應(yīng)關(guān)系。因?yàn)槿B接層的所有神經(jīng)元都以一定概率被屏蔽,這樣可以避免某些特征對(duì)單一神經(jīng)元過(guò)強(qiáng)的依賴性,使得網(wǎng)絡(luò)能夠從眾多特征中學(xué)習(xí)到更具有魯棒性的模式。

3 實(shí)驗(yàn)結(jié)果及分析

為了驗(yàn)證所提出方法的效果,本文對(duì)其他基于學(xué)習(xí)的方法進(jìn)行了對(duì)比實(shí)驗(yàn)。由于缺少標(biāo)準(zhǔn)的色情圖像識(shí)別數(shù)據(jù)集,本文從互聯(lián)網(wǎng)上下載了2萬(wàn)張圖片,其中1萬(wàn)張為色情圖片,1萬(wàn)張為非色情圖片,一些圖片示例見(jiàn)圖6。

圖6 數(shù)據(jù)集樣本示例

為了在一定程度減少過(guò)擬合,對(duì)圖片使用數(shù)據(jù)增強(qiáng)技術(shù),即對(duì)每一張圖片進(jìn)行左右翻轉(zhuǎn)變換并保存作為訓(xùn)練或測(cè)試數(shù)據(jù)。也就是說(shuō),數(shù)據(jù)增強(qiáng)后一共可以得到8萬(wàn)張圖片,隨機(jī)選取其中7萬(wàn)張作為訓(xùn)練集,剩下的1萬(wàn)張作為測(cè)試集。評(píng)估準(zhǔn)則為測(cè)試集準(zhǔn)確率:

(2)

本文在Windows系統(tǒng)下基于Caffe架構(gòu)對(duì)所設(shè)計(jì)方法進(jìn)行驗(yàn)證。系統(tǒng)配置為Intel(R) Core(TM) i5-3210M CPU 2.5 GHz,8 GB內(nèi)存以及NVIDIA GT 650 M顯卡。使用的批量大小為64,動(dòng)量為0.9,權(quán)重下降為0.000 5。訓(xùn)練過(guò)程測(cè)試集的準(zhǔn)確率如圖7所示。

圖7 網(wǎng)絡(luò)訓(xùn)練過(guò)程

從圖中可以看出在經(jīng)過(guò)5個(gè)Epoch后模型在測(cè)試集中就達(dá)到了較高的準(zhǔn)確率為93.53%,隨后上升又下降,最后緩慢攀升至最高點(diǎn)后逐漸趨于穩(wěn)定,在總共迭代45 000次大約50個(gè)Epoch后,模型的參數(shù)達(dá)到最優(yōu),準(zhǔn)確率為高達(dá)99.06%。

圖8可視化了卷積層第一層的輸出,卷積層的64個(gè)卷積核以7×7較大的感受野對(duì)輸入圖像進(jìn)行了特征提取,從圖中可以看出,提取了如邊緣,輪廓等多種多樣的特征。卷積神經(jīng)網(wǎng)絡(luò)的特點(diǎn)在于每一層代表著一種視覺(jué)特征,而每一層網(wǎng)絡(luò)的特征從前一層網(wǎng)絡(luò)中提取,也就是說(shuō)高層網(wǎng)絡(luò)特征是底層網(wǎng)絡(luò)特征的概括抽象。這種層次結(jié)構(gòu)使得卷積神經(jīng)網(wǎng)絡(luò)在提取的圖像特征比人工設(shè)計(jì)的更加精確且泛化能力強(qiáng)。因此卷積神經(jīng)網(wǎng)絡(luò)能夠采用神經(jīng)網(wǎng)絡(luò)的特征提取方式,比人工設(shè)計(jì)的更加準(zhǔn)確,準(zhǔn)確率更高。

圖8 第一層卷積層輸出

3.1 與基于學(xué)習(xí)的淺層網(wǎng)絡(luò)比較

在文獻(xiàn)[16]中,作者提出對(duì)輸入數(shù)據(jù)進(jìn)行壓縮后,使用包含一個(gè)隱藏層的全連接神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)色情圖像的特征,接著對(duì)測(cè)試集圖像進(jìn)行判斷。應(yīng)用這個(gè)方法在我們的數(shù)據(jù)上,獲得的結(jié)果如表2所示,雖然由于層數(shù)減少導(dǎo)致網(wǎng)絡(luò)參數(shù)大幅降低,但準(zhǔn)確率僅為63.90%,這是無(wú)法接受的。原因在于淺層神經(jīng)網(wǎng)絡(luò)盡管理論上擁有和深度神經(jīng)網(wǎng)絡(luò)相同的表達(dá)能力(即可以近似任意的函數(shù)形式)[17],但是實(shí)際使用上,由于圖片包含層次結(jié)構(gòu)(如臉由眼睛等組成,而眼睛又由邊緣等組成),淺層神經(jīng)網(wǎng)絡(luò)不足以表達(dá)這些圖像結(jié)構(gòu),造成檢測(cè)準(zhǔn)確率較低。

表2 不同方法實(shí)驗(yàn)結(jié)果對(duì)比

3.2 與圖像檢索方法比較

在文獻(xiàn)[5]中提出使用圖像檢索的方法用于找出一個(gè)人是否在圖像中,然后通過(guò)對(duì)皮膚色彩的分析來(lái)檢測(cè)皮膚區(qū)域,基于皮膚區(qū)域面積來(lái)判斷圖像是否為色情圖像。將這個(gè)方法用于本文所使用的數(shù)據(jù)集中,獲得了81.23%的準(zhǔn)確率。這個(gè)方法表現(xiàn)欠佳的原因在于如果在圖像中沒(méi)有檢測(cè)到人的話,則認(rèn)為圖像不是色情圖像。然而檢測(cè)一張圖像中是否包含有人是比較困難的,因?yàn)橐恍┥閳D像當(dāng)中僅包含人體的一部分。并且僅通過(guò)分析皮膚區(qū)域來(lái)判別是否是色情圖像的方法不準(zhǔn)確,因此準(zhǔn)確率不高。

3.3 與其他深度神經(jīng)網(wǎng)絡(luò)模型比較

在文獻(xiàn)[12]中,作者使用CaffeNet作為神經(jīng)網(wǎng)絡(luò)的模型,并在訓(xùn)練過(guò)程中使用微調(diào)的方法對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,測(cè)試結(jié)果如表2所示。盡管訓(xùn)練過(guò)程中使用微調(diào)的方法提高了訓(xùn)練速度,也獲得了較強(qiáng)的泛化能力,在測(cè)試集中獲得的準(zhǔn)確率為96.95%,本文的方法準(zhǔn)確率比CaffeNet高出2.11%。 CaffeNet作為AlexNet的變種,有5層卷積層和3層全連接層,和AlexNet相比調(diào)換了網(wǎng)絡(luò)中池化層和局部響應(yīng)歸一化層的順序,一定程度上使得網(wǎng)絡(luò)占用更少的內(nèi)存和計(jì)算量,但是參數(shù)過(guò)于冗余的情況依舊存在,這使得在訓(xùn)練過(guò)程中易于過(guò)擬合,侵占較多計(jì)算機(jī)資源。而由于本文使用方法參數(shù)是CaffeNet的三十分之一,最后得到的網(wǎng)絡(luò)模型文件僅10 MB(CaffeNet為100 MB)。

3.4 訓(xùn)練集大小對(duì)結(jié)果的影響

為了驗(yàn)證所設(shè)計(jì)網(wǎng)絡(luò)更不易過(guò)擬合,在訓(xùn)練集中隨機(jī)選取1萬(wàn)張圖片制作小型數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),與現(xiàn)有結(jié)果進(jìn)行對(duì)比,結(jié)果如圖9所示。

圖9 訓(xùn)練集變小后實(shí)驗(yàn)結(jié)果

從圖9中可以看出,在降低數(shù)據(jù)集的數(shù)量后,不使用微調(diào)技術(shù)的CaffeNet遭受較為嚴(yán)重的過(guò)擬合問(wèn)題,準(zhǔn)確率降低了5.6%,為91.35%。而本文所使用的方法僅降低了1.78%,為97.28%。這說(shuō)明本文所設(shè)計(jì)的卷積神經(jīng)網(wǎng)絡(luò)因其網(wǎng)絡(luò)參數(shù)較少,在數(shù)據(jù)集較少的情況下依舊能獲得較高的準(zhǔn)確率,比其他網(wǎng)絡(luò)更不易過(guò)擬合,這一屬性在數(shù)據(jù)集獲取成本高的情況下是十分實(shí)用的。

4 結(jié) 語(yǔ)

本文將深度神經(jīng)網(wǎng)絡(luò)應(yīng)用于色情圖像識(shí)別上,將色情圖像識(shí)別看成一個(gè)二分類問(wèn)題,基于Inception模塊設(shè)計(jì)了一個(gè)對(duì)于色情圖像識(shí)別任務(wù)十分準(zhǔn)確的神經(jīng)網(wǎng)絡(luò)模型。并且所提出的訓(xùn)練及測(cè)試方法簡(jiǎn)單易實(shí)現(xiàn),在擁有較少數(shù)據(jù)的情況下不易過(guò)擬合,準(zhǔn)確率更高。最后使用此方法和其他主流的色情圖像檢測(cè)方法進(jìn)行對(duì)比,實(shí)驗(yàn)證明此模型比其他方法擁有更高的檢測(cè)精度。下一步將使用此模型在大型數(shù)據(jù)集(如ImageNet)上進(jìn)行學(xué)習(xí),然后與微調(diào)技術(shù)結(jié)合,減少訓(xùn)練所用的時(shí)間,進(jìn)一步提高準(zhǔn)確率。

[1] Wang M,Ni B,Hua X S,et al.Assistive tagging:A survey of multimedia tagging with human-computer joint exploration[J].Acm Computing Surveys,2012,44(4):1-24.

[2] Hong R,Meng W,Yue G,et al.Image Annotation by Multiple-Instance Learning With Discriminative Feature Mapping and Selection[J].Cybernetics IEEE Transactions on,2014,44(5):669-680.

[3] Wang M,Hua X S,Hong R,et al.Unified video annotation via multigraph learning[J].IEEE Transactions on Circuits & Systems for Video Technology,2009,19(5):733-746.

[4] Yin H,Xu X,Ye L.Big Skin Regions Detection for Adult Image Identification[C]//Digital Media and Digital Content Management.IEEE,2011:242-247.

[5] Liu B B,Su J Y,Lu Z M,et al.Pornographic Images Detection Based on CBIR and Skin Analysis[C]//Fourth International Conference on Semantics,Knowledge and Grid.IEEE Computer Society,2008:487-488.

[6] Lopes A P B,De Avila S E F,Peixoto A N A,et al.A bag-of-features approach based on Hue-SIFT descriptor for nude detection[C]//Signal Processing Conference,2009,European.IEEE,2009:1552-1556.

[7] Abe T,Shibata Y.A New Skin Detection Approach for Adult Image Identification[J].Research Journal of Applied Sciences Engineering & Technology,2012,4(21):245-274.

[8] Krizhevsky A,Sutskever I,Hinton G E.ImageNet classification with deep convolutional neural networks[C]//International Conference on Neural Information Processing Systems.Curran Associates Inc.2012:1097-1105.

[9] Meng W,Xueliang L,Xindong W.Visual Classification by l1-Hypergraph Modeling[J].IEEE Transactions on Knowledge and Data Engineering,2015,27(9):2564-2574.

[10] Yuguang Liu,Martin D Levine.Multi-Path Region-Based Convolutional Neural Network for Accurate Detection of Unconstrained “Hard Faces”[J].arXiv:1703.09145,2017.

[11] Wang L,Lu Y,Wang H,et al.Evolving boxes for fast vehicle detection[C]//IEEE International Conference on Multimedia and Expo.IEEE Computer Society,2017:1135-1140.

[12] Nian F,Li T,Wang Y,et al.Pornographic image detection utilizing deep convolutional neural networks[J].Neurocomputing,2016,210:283-293.

[13] Szegedy C,Liu W,Jia Y,et al.Going deeper with convolutions[C]//Computer Vision and Pattern Recognition.IEEE,2015:1-9.

[14] Lecun Y,Bottou L,Orr G B,et al.Efficient BackProp[J].Neural Networks Tricks of the Trade,1998,1524(1):9-50.

[15] Hinton G E,Srivastava N,Krizhevsky A,et al.Improving neural networks by preventing co-adaptation of feature detectors[J].Computer Science,2012,3(4):212-223.

[16] 雷浩,李生紅.基于改進(jìn)Kohonen網(wǎng)和BP網(wǎng)的色情圖像識(shí)別技術(shù)[J].計(jì)算機(jī)工程,2005,31(10):164-167.

[17] Cybenko G.Approximation by superpositions of a sigmoidal function[J].Mathematics of Control,Signals,and Systems,1989,2(4):303-314.

猜你喜歡
方法
中醫(yī)特有的急救方法
中老年保健(2021年9期)2021-08-24 03:52:04
高中數(shù)學(xué)教學(xué)改革的方法
化學(xué)反應(yīng)多變幻 “虛擬”方法幫大忙
變快的方法
兒童繪本(2020年5期)2020-04-07 17:46:30
學(xué)習(xí)方法
用對(duì)方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
最有效的簡(jiǎn)單方法
山東青年(2016年1期)2016-02-28 14:25:23
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚(yú)
主站蜘蛛池模板: 国产精品尹人在线观看| 精品亚洲国产成人AV| 亚洲最新地址| 成人精品在线观看| 国产无码在线调教| 国产人碰人摸人爱免费视频| 国产99精品久久| 高潮毛片无遮挡高清视频播放| 伊伊人成亚洲综合人网7777 | 精品免费在线视频| 波多野结衣亚洲一区| 国产精品3p视频| 亚洲精品午夜天堂网页| 精品伊人久久久久7777人| 2021精品国产自在现线看| 国产噜噜噜视频在线观看| 五月婷婷中文字幕| 伊人激情综合| 亚洲无码91视频| 午夜不卡视频| 亚洲精品人成网线在线| 亚洲成人福利网站| 好紧太爽了视频免费无码| 久久中文电影| 国产黄色爱视频| 天堂成人在线| a级毛片一区二区免费视频| 99ri精品视频在线观看播放| 亚洲性一区| 日韩欧美国产另类| 97人人模人人爽人人喊小说| 欧美精品啪啪| 亚洲中久无码永久在线观看软件| 99热最新网址| 国产精品视频导航| 亚洲欧美另类中文字幕| 欧美精品在线免费| 99精品在线看| 热99re99首页精品亚洲五月天| 国产一二三区视频| 色老头综合网| 国产精品视频猛进猛出| 国产拍在线| 国产精品一区二区在线播放| 亚欧乱色视频网站大全| 欧美成人a∨视频免费观看| av无码久久精品| 国产成人精品免费av| 91精品久久久久久无码人妻| 伊人久久综在合线亚洲91| 在线观看免费黄色网址| 又黄又湿又爽的视频| 成人午夜福利视频| 免费亚洲成人| 又黄又爽视频好爽视频| 欧美人人干| 日本三级欧美三级| 青青热久免费精品视频6| 午夜免费视频网站| 国产精品太粉嫩高中在线观看| 欧美精品不卡| 色综合成人| 亚洲一区二区三区国产精品| 四虎在线观看视频高清无码| 国产精品第一区| 99视频有精品视频免费观看| 国产精品福利在线观看无码卡| 色婷婷丁香| 99精品一区二区免费视频| 美女视频黄频a免费高清不卡| 波多野结衣亚洲一区| 亚洲中文字幕精品| 国内精品久久久久鸭| 亚洲天堂网在线观看视频| 欧美五月婷婷| 国产一级在线观看www色| 免费在线播放毛片| 狂欢视频在线观看不卡| 亚洲综合在线最大成人| 国产特一级毛片| 嫩草国产在线| 日韩A∨精品日韩精品无码|