999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于卷積神經網絡的JPEG圖像隱寫分析參照圖像生成方法

2019-10-21 05:44:16任魏翔翟黎明王麗娜
計算機研究與發展 2019年10期
關鍵詞:深度分析檢測

任魏翔 翟黎明 王麗娜 嘉 炬

(空天信息安全與可信計算教育部重點實驗室(武漢大學) 武漢 430072)(武漢大學國家網絡安全學院 武漢 430072)

隨著信息技術的飛速發展,多媒體文件在網絡中廣泛傳輸,導致多媒體信息安全問題日益嚴重.信息隱藏的研究成果對解決多媒體信息安全問題具有重要作用.

信息隱藏領域的研究可分為隱寫(stegano-graphy)、隱寫分析(steganalysis)兩方面.如圖1所示,隱寫是將有意義的信息隱藏在另一個稱為載體C(cover)的信息中得到隱蔽載體S(stego)的技術[1].隱寫分析是隱寫術的對抗技術,對可疑的載體信息進行攻擊,達到檢測、破壞、甚至提取秘密信息的技術[1].

Fig. 1 Steganography and steganalysis圖1 隱寫與隱寫分析

針對數字圖像的隱寫術通過對圖像中的像素或者DCT系數等圖像元素進行微量的修改,從而實現在圖像中隱藏秘密信息的目的.然而隱寫過程中對圖像元素的修改操作會對圖像元素值的統計分布造成一定的擾動.因此,當前數字圖像隱寫算法主要通過合理地選擇對圖像進行修改的位置[2],以及盡量減少所需修改的圖像元素[3-4]來達到最小化隱寫操作對原始圖像所造成影響的目的.當前具有較高安全性的數字圖像隱寫算法主要為內容自適應隱寫算法,該類算法能夠有選擇地對圖像元素進行修改,以減小秘密信息嵌入過程對圖像造成影響.該類算法設計過程可分為失真代價函數設計和隱寫碼的設計2部分.其中失真代價函數用于衡量秘密信息的嵌入過程中對原始圖像載體元素的統計規律造成的影響.而隱寫碼是指在基本嵌入的基礎上,為了減小隱寫嵌入失真(distortion)(亦稱代價)而進行的編碼[5].在STC隱寫碼[6]提出后,面向數字圖像的隱寫算法的設計工作主要集中在失真代價函數的設計[7-13].然而,隱寫的安全性不僅取決于隱寫算法、嵌入率等因素,而且在很大程度上收到隱寫過程中載體圖像自身屬性的影響[14].

當前通用圖像隱寫分析方法的相關研究可分為基于隱寫分析特征的檢測方法,以及基于深度學習的檢測方法.前者通過構建能夠描述圖像載體統計規律或特性,并且對隱寫嵌入操作敏感的隱寫分析特征,結合機器學習方法對載體進行檢測[15-19].其中,隱寫分析特征依據對圖像載體.后者基于深度學習技術,構建用于執行隱寫分析任務的深度學習模型,以實現隱寫信號的端到端檢測.目前,基于深度學習的隱寫分析相關研究已成信息隱藏領域的熱點研究問題,并取得了較好的成果[20-29].

選擇信道感知的隱寫分析方法以提升針對自適應圖像隱寫算法檢測效果為目標,利用自適應隱寫算法對圖像各元素修改的概率,將檢測重點集中在更易被隱寫算法修改的圖像區域,從而提升針對自適應隱寫算法的檢測能力.其中,待檢測圖像各元素被特定自適應隱寫算法修改的概率可視為隱寫分析模型的輔助信息.當前選擇信道感知的思想已運用于基于特征的隱寫分析模型,以及基于深度學習的隱寫分析模型.

由于JPEG圖像在互聯網中的廣泛應用,因此針對JPEG圖像的研究具有較高的實際意義.當前基于深度學習的JPEG圖像隱寫分析的研究工作主要集中于負責隱寫檢測的深度學習模型的相關研究[26-29].基于深度學習隱寫分析模型輔助信息的產生方式主要基于研究者專業經驗進行設計[23-24].本文借助深度學習方法,從隱寫分析輔助信息產生方式的角度,探索提升針對JPEG圖像的深度學習隱寫分析模型檢測效果的新途徑.

本文構建具有卷積層和反卷積層的16層卷積神經網絡,對待檢測圖像進行變換,得到待檢測圖像所對應的參照圖像,將參照圖像和待檢測圖像一同作為JPEG圖像隱寫分析模型的輸入數據,從而基于現有針對JPEG圖像深度學習隱寫分析模型,進一步提升JPEG圖像深度學習隱寫分析模型檢測能力.

本文的主要貢獻有3個方面:

1) 提出針對JPEG圖像隱寫分析的參照圖像生成模型,為針對JPEG圖像的深度學習隱寫分析模型提供輔助信息,從輔助信息的角度探索提升深度學習隱寫分析模型檢測能力的途徑;

2) 隱寫分析參照圖像生成模型基于深度卷積神經網絡,能夠通過訓練,學習有利于提升隱寫檢測能力的輔助信息生成方式;

3) 針對多種嵌入率、隱寫算法的對比實驗結果表明,所提出的針對JPEG圖像隱寫分析的參照圖像生成模型生成的參照圖像能夠提升針對JPEG圖像的深度學習隱寫分析模型的檢測能力.

1 相關工作

由于JPEG圖像在互聯網中的廣泛使用,針對JPEG圖像的隱寫分析具有較高的研究價值.因此,基于深度學習的JPEG隱寫分析方法也是隱寫分析研究領域的熱點問題.

在深度學習隱寫分析開始引起學者關注期間,Xu[26],Chen等人[27],Zeng等人[28]分別提出了針對JPEG圖像的深度學習隱寫分析模型.其中,Xu[26]構建了具有20層的深度卷積網絡模型,該模型為減少信息丟失,不使用池化操作,并加入跳轉鏈接(shortcut connection),以防止梯度消失現象發生.Chen等人[27]構建的深度學習模型包含64個卷積神經網絡,其中每個神經網絡與JPEG圖像的1個相位相對應,從而實現了網絡模型對JPEG圖像不同相位數據的分離處理.Zeng等人[28]構建了1種針對JPEG隱寫分析的混合卷積經網絡模型.該模型首先利用25個DCT變換基對待檢測圖像進行預處理,之后對預處理結果進行多種不同的量化和截斷處理,并將處理的結果分別作為不同深度卷積神經網絡的輸入.Yang等人[29]基于DenseNet[30]提出了針對JPEG圖像的深度學習隱寫分析模型.

1.1 JPEG圖像深度學習隱寫分析處理過程

卷積神經網絡(convolutional neural network, CNN)能夠提取圖像中相鄰元素之間存在的相關性.因此,當前針對JPEG圖像的深度學習隱寫分析模型主要基于卷積神經網絡,并將JPEG圖像的解壓(不取整)結果作為輸入數據.除此之外,不同針對JPEG圖像的深度學習隱寫分析模型在卷積神經網絡部分都采用了卷積層(convolutional layer)、批標準化(batch normalization)、ReLU(rectified linear unit)激活函數、平均池化(avarage pooling)等操作.

卷積神經網絡中的卷積層由多個卷積核構成,各卷積核的有卷積權重和偏置組成,卷積權重和偏置參與神經網絡的訓練.卷積層中的各卷積核分別利用卷積權重對輸入數據進行卷積操作,并將結果與對應的偏置相加,之后將卷積核的處理結果進行合并,合并結果作為該卷積層的輸出.具體處理過程:

outputl=outputl-1*Wl+Bl,

(1)

其中,outputl和outputl-1分別為第l個卷積層的輸出數據和輸入數據;Wl為第l個卷積層的卷積核參數矩陣;*為卷積操作算子;Bl為第l個卷積層的偏置.

為了提升深度學習隱寫分析模型在訓練過程中的收斂速度,采用批標準化(batch normalization, BN)層[31],對卷積層輸出的特征圖進行標準化處理.BN層的處理過程:

(2)

(3)

(4)

(5)

深度神經網絡中的激活函數保證了深度學習隱寫分析模型進行非線性特性的學習,而ReLU(rectified linear unit, ReLU)激活函數在深度學習模型中得到了廣泛的應用.ReLU激活函數的具體處理過程為

(6)

其中,x為ReLU激活函數的輸入;f(x)為其輸出結果.

平均池化屬于1種下采樣操作,對矩陣X進行平均池化操作具體過程:

(7)

其中,X為池化操作待處理的矩陣;池化操作的窗口大小為n×n;K為大小為n×n,并且元素全為1的矩陣,“*”為卷積操作算子.

相對于最大池化等其他池化操作,能夠保留隱寫算法的嵌入操作在載體中引入的微弱擾動.因此,基于深度學習的隱寫分析模型主要采用平均池化作為其池化操作.

1.2 深度學習隱寫分析輔助信息產生方式

為進一步提升針對JPEG圖像的深度學習隱寫分析模型檢測能力,Yang等人[23]和Ye等人[24]提出的深度學習隱寫分析模型在輸入數據的基礎上,附加以相應的輔助信息.當前基于深度學習的隱寫分析模型的輔助信息主要來源于待檢測圖像各元素被自適應隱寫算法修改的概率.

如圖2所示,圖像中位于紋理復雜區域的元素對應的大于位于平滑區域元素的修改概率.以上現象表明自適應隱寫算法更傾向于在圖像中的紋理復雜區域進行嵌入操作.

產生以上現象的原因為圖像紋理復雜區域的元素值的統計分布相比于平滑區域更為復雜,隱寫算法在這些統計規律復雜區域造成的擾動更加不易被覺察.因此,對隱寫算法修改概率更高的區域進行更有側重地檢測,有利于提升隱寫檢測效果待檢測圖像的元素被自適應隱寫算法修改概率可利用損失函數計算得到.具體計算方式為

(8)

其中,βi,j為位于圖像位置(i,j)的元素被修改的概率值;λ為大于零的數值,具體數值由隱寫相對嵌入率決定.

Fig. 2 An image and the corresponding embedding probability map圖2 一張圖像及其對應的修改概率圖

2 JPEG圖像隱寫分析參照圖像生成模型

雖然利用圖像各元素被修改的概率作為輔助信息,能夠提升針對JPEG圖像的深度學習隱寫分析模型的檢測能力,但當前基于深度學習隱寫分析模型所使用輔助信息的產生方法有待進一步改進,隱寫分析模型的輸入數據中隱含的與隱寫分析有關的信息有待進一步挖掘.

本文從隱寫分析輔助信息的角度,探索進一步提升深度學習隱寫分析模型檢測能力的途徑,提出JPEG圖像隱寫分析參照圖像生成模型,嘗試更加深入的挖掘待檢測圖像中與隱寫分析有關的信息.首先,基于U-NET[32]構建具有跳轉連接(skip connection)的深度卷積神經網絡,對待檢測圖像進行處理,生成用于JPEG圖像隱寫分析的參照圖像.之后,將生成的參照圖像作為隱寫分析的輔助信息,與隱寫分析模型相結合.從而更加充分地挖掘待檢測圖像中與隱寫有關的信息,在現有隱寫分析模型的基礎上,進一步提升深度學習隱寫分析模型的檢測能力的目的.

2.1 JPEG圖像隱寫分析模型的關系

JPEG圖像隱寫分析參照圖像生成模型將待檢測圖像進行處理和變換,以提升隱寫分析模型的檢測能力為目的,為針對JPEG圖像的深度學習隱寫分析模型提供輔助信息.

如圖3所示,JPEG圖像隱寫分析參照圖像生成模型與隱寫分析模型相互獨立,以待檢測圖像為輸入數據.而隱寫分析模型的輸入數據為待檢測圖像和JPEG圖像隱寫分析參照圖像生成模型的輸出數據.最終檢測結果由隱寫分析模型輸出.

Fig. 3 Relations between the proposed method and steganalysis model圖3 本文方法與隱寫分析模型的關系

2.2 所提出參照圖像生成模型結構

JPEG圖像隱寫分析參照圖像生成模型,由8個卷積層與8個反卷積層(deconvolution)組成,共16層.每個卷積層以及反卷積層的輸出依次經過批標準化(BN)和LReLu(leaky ReLu, LReLU)激活函數的處理,分別記為CONV-BN-LReLU和deCONV-BN-LReLU.

本文提出模型的反卷積層又稱為轉置卷積,記為deCONV.本文模型通過反卷積層實現上采樣目的,將經由多個卷積層輸出的抽象特征圖進行進一步變換,最終得到與輸入圖像相同大小的參照圖像.此外,為抑制梯度消失現象,在模型的卷積層與對稱位置的反卷積層之間添加跳轉連接(skip connection).

具體網絡結構如圖4所示,包括2種類型的操作組合:GT1,GT2.網絡各層結構的具體參數如表1所示,其中,列2和列3代表對應網絡層的輸入數據和輸出數據尺寸.輸入數據和輸出數據尺寸參數格式為a×(b×c),a為數據的通道數,b為數據的高度,c為數據的寬度.卷積核尺寸列為對應網絡層中卷積核的參數.卷積核的具體參數格式為n×(h×w)×s,n為卷積核的個數,h為卷積核的高度,w為卷積核的寬度,s為卷積操作的步長.Process列表示對應層包含的操作,ADD(·)為按位相加操作,“·”是與當前層相加的網絡層標號.

Fig. 4 Structure of reference image generation network for JPEG image deep learning steganalysis model圖4 JPEG圖像隱寫分析參照圖像生成模型結構圖

Layer Input Sizea×(b×c)Output Sizea×(b×c)Kernel Sizen×(h×w)×sProcessL11×(256×256)16×(256×256)16×(3×3)×1CONV-BN-LReLuL216×(256×256)32×(256×256)32×(3×3)×1CONV-BN-LReLuL332×(256×256)64×(128×128)64×(3×3)×2CONV-BN-LReLuL464×(128×128)64×(64×64)64×(3×3)×2CONV-BN-LReLuL564×(64×64)128×(32×32)128×(3×3)×2CONV-BN-LReLuL6128×(32×32)128×(16×16)128×(3×3)×2CONV-BN-LReLuL7128×(16×16)128×(8×8)128×(3×3)×2CONV-BN-LReLuL8128×(8×8)128×(4×4)128×(3×3)×2CONV-BN-LReLuL9128×(4×4)128×(8×8)128×(5×5)×2DECONV-BN-LReLu-ADD(L8)L10128×(8×8)128×(16×16)128×(5×5)×2DECONV-BN-LReLu-ADD(L7)

Continued (Table 1)

Note:ais the channel of the data,bis the height of the data andcis the width of the data. Besides,nis the number of the convolutional kernel,his the height of the convolutional kernel,wis width of the convolutional kernel andsis the stride for the convolution.

2.3 所提出參照圖像生成模型訓練方式

本文提出的隱寫分析參照圖像生成模型可采取2種訓練策略:第1種訓練策略為預訓練策略,記為Pre-training;第2種訓練策略為共同訓練方式,記為Together.

Fig. 5 Pre-training strategy圖5 Pre-training訓練策略

第1種訓練方式,即預訓練方式.首先,對本文所提出參照圖像生成模型進行預訓練,預訓練過程如圖5所示.隱寫分析參照圖像生成模型預訓練的損失函數為生成的參照圖像與待檢測圖像對應的cover圖像之間的相似程度,該損失函數的計算方法:

φ(I)=I*K,

(9)

φ(R)=R*K,

(10)

(11)

其中,1≤i≤M,1≤j≤N;M,N為圖像的寬度和長度;I為待檢測圖像對應的原始圖像;R為本文提出的方法產生的隱寫分析參照圖像;K是預訓練過程中使用的濾波器;φ(I)和φ(R)分別是對I和R進行濾波的結果;φ(I)i,j和φ(R)i,j分別為φ(I)和φ(R)位于(i,j)位置的元素值;LOSS為預訓練的損失函數.

首先采用YeNet[24]中所使用的Rich Model[16]中的30個高通濾波器K分別對生成圖像R和輸入圖像所對應的cover圖像I進行濾波操作;然后,計算以上2種圖像的濾波結果φ(I)和φ(R)之間的均方誤差,并將其作為參照圖像R與待檢測圖像對應的cover圖像I之間相似程度的度量和預訓練的損失函數LOSS.

預訓練完成之后,將參照圖像生成模型與隱寫分析模型相結合,以提升隱寫分析任務分類準確率為目標,進行訓練.通過對參照圖像生成模型進行預訓練,保證參照圖像與待檢測圖像所對應的cover圖像在殘差噪聲上盡可能接近.

第2種訓練策略,屬于1種共同訓練方式,如圖6所示,將參照圖像生成模型與隱寫分析模型作為1個整體,以提升隱寫分析檢測準確率為目標,進行共同訓練.

Fig. 6 Together training strategy圖6 Together訓練策略

2.4 參照圖像與隱寫分析模型的結合方式

JPEG圖像隱寫分析參照圖像生成模型輸出的參照圖像將作為深度學習隱寫分析模型的輔助信息,與待檢測圖像一同作為深度學習隱寫分析模型的輸入,以提升深度學習隱寫分析模型的檢測能力.

本文所提出方法生成的參照圖像可以按照2種方式與隱寫分析模型進行結合,如圖7所示.

Fig. 7 Reference images input methods圖7 參照圖像輸入方式

第1種結合方式,記為Combine方式,該種方式是將參照圖像與對應的待檢測圖像沿著圖像的x軸進行連接(concation)操作,合成結果為1個寬度為待檢測待檢測圖像2倍的矩陣,并將該合成結果作為隱寫分析模型的輸入.

第2種合結合方式,記為Channel方式,將參照圖像和待檢測圖像沿z軸進行合并.分別作為隱寫分析模型的輸入數據,在隱寫分析模型對2種數據進行相應處理,并將處理的結果進行合并.

3 實驗與分析

為驗證本文方法有效性,基于JPEG圖像隱寫分析參照圖像生成模型和J-Xune[26],構建隱寫分析模型,并與J-Xunet的檢測效果進行對比.本文使用Tensorflow深度學習框架實現提出的模型以及對比模型.本論文的數值計算得到了武漢大學超級計算中心的計算支持和幫助.

3.1 數據集合

本文實驗采用的數據集合來源于BossBase v1.01[33]中的10 000圖像.如圖8所示,本文在實驗中將BossBase v1.01中每張512×512大小的圖像從4個對角以及圖像的中間部分截取的5張大小為256×256的圖像,從而產生50 000張空域圖像.之后對50 000張空域圖像分別以質量因子為75和95,進行JPEG壓縮,得到對應不同質量因子的JPEG圖像,作為本文實驗中涉及的cover圖像.

Fig. 8 Generation of image samples in the experiments圖8 實驗數據產生方式

本文所涉及的對比實驗的訓練、驗證、測試數據的stego圖像由JC-UED[9]和J-UNIWARD[10]和隱寫算法分別以相對嵌入率0.1bpnzAC(bits per none zero AC),0.2bpnzAC,0.3bpnzAC,0.4bpnzAC,0.5bpnzAC對50 000張256×256大小的cover圖像進行嵌入得到.

對比實驗的數據構成如圖9所示,將BossBase v1.01中8 000張原始圖像對應的40 000張256×256大小的cover圖像以及對應的40 000張stego圖像,共80 000張圖像作為模型的訓練數據集合;將BossBase v1.01中與訓練測試集合不同的1 000張圖像所對應的5 000張256×256大小cover圖像以及對應的stego圖像,共10 000張圖像作為驗證數據集合;將BossBase v1.01中其余1 000張圖像對應的5 000張256×256大小圖像及其對應的stego圖像,共10 000張圖像作為實驗的測試數據集合.

所構建的數據集合保證了本文提出的模型以及對比方法采用相同的訓練、驗證、測試數據集合,并且訓練、驗證、測試數據集合的原圖像互不重復.

3.2 模型參數設置

本文所提出模型在訓練過程中都采用Adam[34]優化算法進行目標函數的優化.其中,學習率初始值為0.001,學習率每5 000次訓練衰減為原來的0.9.訓練過程中,每個mini-batch包括16對cover和stego圖像,即32張圖像;每種模型訓練的最大訓練迭代次數為20萬,即80個epoch.

此外,本文實驗所涉及的對比算法采用相同參數設置.

Fig. 9 Data sets for the experiments圖9 對比實驗數據集合構成

3.3 模型訓練策略與結合方式的選擇

為了確定JPEG圖像隱寫分析參照圖像生成模型的訓練策略,以及與深度學習隱寫分析模型的結合方式,分別采用Together,Pre-training訓練方式以及Combine和Channel結合方式進行包含1種情況的對比實驗.

該對比實驗中,將本文所提出的隱寫分析參照凸顯生成模型與J-Xunet[26]隱寫分析模型相結合.各種情況下模型的最大訓練迭代次數為12.5萬次,并選取最后5個epoch的驗證結果的平均值作為最終的檢測準確率.檢測算法為J-UNIWARD[10],相對嵌入率為0.4bpnzAC,JPEG圖像載體為質量因子為75.分別采用2種模型結合方式,以及2種不同的訓練策略,得到的4種模型在驗證數據集合中的檢測準確率如表2所示.其中,加粗數據為最高的準確率.模型在驗證集合上的準確率在訓練過程中的變化情況如圖10所示.其中,橫坐標為訓練的epoch,縱坐標為各個epoch訓練完成之后的測試準確率.

Table 2 Detection Accuracy when Different Training Strategies and Combination Ways are Applied

Note: The bold numbers are the best performance in experiments.

Fig. 10 Effect of training strategies and combination ways on verification results圖10 訓練策略、結合方式對驗證結果的影響

實驗結果表明:采用Combine方式將參照圖像生成模型與隱寫分析模型結合,能夠獲得具有更高檢測準確率的模型.當本文方法與J-Xunet隱寫分析模型采用Combine方式進行結合,并采用Together訓練方式得到的隱寫分析模型具有最高的檢測準確率.因此,本文對比實驗采用Combine方式將參照圖像生成模型產生的參照圖像與待檢測圖像結合,并采用Together訓練方式進行訓練.

3.4 對比實驗與結果分析

本文提出的JPEG隱寫分析參照圖像生成模型與J-Xunet[26]深度學習隱寫分析模型結合,從而為針對JPEG圖像的深度學習隱寫分析模型提供輔助信息,所構成的隱寫分析模型記為Reference-J-Xunet.為驗證本文提出方法的有效性,利用第3.1節中所構建的隱寫分析數據集合,進行Reference-J-Xunet與J-XuNet[26]之間的隱寫分析檢測能力對比實驗.

每種深度學習隱寫分析模型采用與3.2節中相同的參數設置.每種隱寫分析模型訓練完成之后,取訓練過程中最后5個epoch所保存模型的測試結果的平均值作為最終檢測準確率.除此之外,每種隱寫分析模型各進行以上3次測試,并取3次測試準確率的平均結果作為最終的測試結果.具體測試結果如圖11、圖12以及表3所示.其中,圖11和圖12中的圓點表示本文提出方法針對不同載體質量因子、不同嵌入率,以及不同隱寫算法嵌入的樣本的隱寫分析準確率,而正方形表示J-XuNet相應的隱寫分析準確率.表3中,行2數據為待檢測樣本的相對嵌入率,單位為bpnzAC(bits per non-zero AC DCT coecient).此外,表3中的加粗數據為針對相同算法相同嵌入率情況下最高檢測準確率.

Fig. 11 Detection accuracy comparison between J-XuNet and Reference-J-XuNet for J-UNIWARD QF75 and QF95圖11 J-XuNet與Reference-J-XuNet對于J-UNIWARD隱寫算法的檢測準確率對比

Fig. 12 Detection accuracy comparison between J-XuNet and Reference-J-XuNet for JC-UED圖12 J-XuNet與Reference-J-XuNet對于JC-UED隱寫算法的檢測準確率對比

EmbeddingMethodDetecorQF75QF950.10.20.30.40.50.10.20.30.40.5J-UNIWARDReference-J-Xunet57.35266.35774.51281.86788.50850.8853.4959.17663.71865.802J-Xunet54.43862.24672.02676.20581.57250.5252.83856.54459.08964.024JC-UEDReference-J-Xunet76.96686.02490.91692.47295.48656.29664.76272.47877.37881.236J-Xunet72.54482.38887.04490.60494.09655.14662.64465.90475.83876.984

Note: The bold numbers are the best performance in experiments.

在載體質量因子為95時,相對嵌入率為0.1bpnzAC和0.2bpnzAC,隱寫算法為J-UNIWARD的情況下,以及載體質量因子為95時,相對嵌入率為0.1bpnzAC,隱寫算法為JC-UED的情況下,檢測難度較大.為了保證模型在以上情況下的檢測效果,本文對比實驗采用調優策略進行以上情況下模型的訓練.

具體訓練過程為:

1) 采用載體質量因子為95,相對嵌入率為0.5bpnzAC的樣本,對模型進行訓練,共訓練80個epoch.

2) 利用當前情況下的樣本,繼續訓練上一步訓練過程中得到的模型,即對模型進行調優.調優過程的最大epoch數為80.

在隱寫樣本的嵌入方法為J-UNIWARD[10]算法、載體圖像質量因子為75、隱寫樣本的相對嵌入率分別為0.1bpnzAC,0.2bpnzAC,0.3bpnzAC,0.4bpnzAC,0.5bpnzAC的情況下,本文提出方法相對于對比方法的隱寫分析準確率分別提升了2.914,4.111,2.486,5.662,6.936個百分點.而當載體圖像具有較高質量因子,如質量因子為95時,隱寫分析難度相對于低質量因子圖像更大.因此,實驗中載體質量因子為95時,隱寫分析準確率相對于載體質量因子為75有所下降.但本文提出方法依然能夠提升隱寫分析模型的檢測能力.在相對嵌入率為0.2bpnzAC,0.3bpnzAC,0.4bpnzAC,0.5bpnzAC的情況下,本文方法的隱寫分析準確率相對于對比方法分別提升0.652,2.632,4.629,1.778個百分點.

當隱寫樣本采用JC-UED[9]算法進行嵌入的情況下,本文提出方法同樣能夠提升深度學習隱寫分析模型的檢測能力.當載體圖像的質量因子為75且相對嵌入率分別為0.1bpnzAC,0.2bpnzAC,0.3bpnzAC,0.4bpnzAC,0.5bpnzAC的情況下,本文方法隱寫分析準確率相對于對比方法分別提升4.422,3.636,3.872,1.868,1.39個百分點.在載體質量因子為95且相對嵌入率分別為0.1bpnzAC,0.2bpnzAC,0.3bpnzAC,0.4bpnzAC,0.5bpnzAC的情況下,本文方法的隱寫分析準確率相對于對比方法分別提升1.15,2.118,6.574,1.54,4.252個百分點.

當載體圖像質量因子為95、隱寫樣本相對嵌入率為0.1bpnzAC,隱寫算法為J-UNIWARD時,對比試驗在模型訓練過程中采用了調優策略.雖然本文算法相對于對比方法略有提升,但是本文方法和對比方法的隱寫檢測準確率均接近50%.

實驗結果表明:本文方法能夠為基于深度學習的JPEG圖像隱寫分析模型提供有利于提升檢測能力的輔助信息,提升深度學習隱寫分析模型的檢測能力.但在載體圖像具有較高質量因子、較低嵌入率情況下提升效果有待加強.

4 總 結

本文從隱寫分析模型輔助信息的角度,探索進一步提升JPEG圖像隱寫分析模型檢測能力的途徑.構建了基于卷積神經網絡的隱寫分析參照圖像生成模型為,以更加充分地挖掘待檢測圖像中與隱寫分析有關的信息.本文提出方法對待檢測圖像進行變換,并與隱寫分析模型一同參與訓練,保證參照圖像生成模型以提升隱寫分析檢測能力為目標,為隱寫分析模型提供輔助信息.對比實驗結果表明:本文提出模型,能夠為針對JPEG圖像的深度學習隱寫分析模型提供有助于提升檢測能力的輔助信息.但在載體為高質量因子JPEG圖像,相對嵌入率較低的情況下,提升效果有待加強.

在未來,將針對隱寫分析檢測對象的載體屬性與深度學習隱寫分析模型的特性,對JPEG圖像隱寫分析參照圖像生成模型進行改進與優化,改善本文構建的模型在載體具有高質量因子,相對嵌入率較低情況下的檢測能力,探索進一步提升針對JPEG圖像的深度學習隱寫分析模型檢測能力的途徑.

猜你喜歡
深度分析檢測
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
隱蔽失效適航要求符合性驗證分析
深度理解一元一次方程
深度觀察
深度觀察
電力系統不平衡分析
電子制作(2018年18期)2018-11-14 01:48:24
深度觀察
電力系統及其自動化發展趨勢分析
主站蜘蛛池模板: 九九视频免费在线观看| 无码中文字幕乱码免费2| 三上悠亚在线精品二区| 日本影院一区| 亚洲Va中文字幕久久一区| 国产精品爆乳99久久| 国产精品亚欧美一区二区| 园内精品自拍视频在线播放| 欧美19综合中文字幕| 国产福利观看| 亚洲天堂久久新| 一级毛片免费观看久| 欧美视频在线第一页| 亚洲高清无码精品| 国产在线观看91精品亚瑟| 国产美女一级毛片| 超清人妻系列无码专区| 欧美成人a∨视频免费观看| 国产在线八区| 丰满人妻中出白浆| 国产女同自拍视频| 欧美不卡视频在线观看| 大香伊人久久| 97在线国产视频| 欧美激情视频一区二区三区免费| 91麻豆精品国产91久久久久| a在线观看免费| 免费日韩在线视频| 成年人国产视频| 成人综合在线观看| 久久综合色88| 91蜜芽尤物福利在线观看| 国产日韩欧美黄色片免费观看| 国产男人的天堂| 亚洲第一极品精品无码| 成人午夜视频在线| 97久久精品人人做人人爽| 免费毛片视频| 国产九九精品视频| 三上悠亚一区二区| 亚洲天堂色色人体| 日韩人妻精品一区| av免费在线观看美女叉开腿| 九九九精品成人免费视频7| 亚洲人成人无码www| 欧美日韩国产成人高清视频| 国产成人亚洲综合A∨在线播放| 91精品国产91久无码网站| 九九九精品成人免费视频7| 女人av社区男人的天堂| 日本午夜精品一本在线观看| 毛片网站观看| 亚洲乱码视频| 欧美性久久久久| 国产96在线 | 99热这里只有精品免费| 凹凸国产熟女精品视频| 最新日本中文字幕| 日本免费精品| 婷婷激情亚洲| 国产成人一区免费观看 | 亚洲精品桃花岛av在线| AV熟女乱| 色婷婷久久| 免费无码AV片在线观看国产| 国产精品林美惠子在线播放| 亚洲中文字幕精品| 亚洲无码高清视频在线观看| 日韩精品一区二区三区swag| 国产a网站| 麻豆国产原创视频在线播放| 99热最新网址| 欧美色视频网站| 欧美中文字幕在线播放| 欧美成人二区| 午夜三级在线| 日本AⅤ精品一区二区三区日| 欧美成人二区| 免费高清a毛片| 凹凸国产分类在线观看| av色爱 天堂网| 免费观看成人久久网免费观看|