999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

多層次特征融合的對抗網絡圖像隱寫

2023-06-01 13:43:32震,王
計算機仿真 2023年4期
關鍵詞:安全性特征融合

張 震,王 真

(上海電力大學計算機科學與技術學院,上海 200000)

1 引言

圖像隱寫術是一種將秘密信息隱藏在載體圖像中并隱蔽通信行為的技術,是信息隱藏的重要分支,逐漸成為信息安全領域的研究熱點[1],[2]?,F代隱寫術一直被描述為具有保真度約束的信源編碼問題。通過量化單個像素的修改代價,計算總嵌入失真最小化,進一步降低隱寫術的統計可檢測性。在實際隱寫方案中,可以利用伴隨式矩陣編碼(STC)[3]來逼近理論有效負載失真邊界。因此,實際隱寫術的剩余工作就是設計一個合理的代價損失函數,從而為每個變化的圖像元素提供一個精確的失真度量。一個更合理的失真函數會帶來更好的隱寫安全性,因此如何設計一個更加合理的代價損失函數成為一個重要的研究課題[4-6]。

隱寫分析作為與隱寫術功能相反的技術,用于檢測載體中是否含有秘密信息。盡管一些隱寫分析方法通過結合監督學習方案和手工制作的高維統計特征或選擇信息感知技術,如空間富模型SRM[7]及其變體max-SRMd2[8]可以顯著提高檢測性能,但精心設計的失真函數依舊可以獲得很好的隱蔽性。并且隨著深度學習的發展,研究人員試圖將神經網絡引入隱寫分析領域,利用手工精心制作的網絡結構并結合隱寫分析特征領域的知識,從而實現更好的隱寫檢測性,這對隱寫術提出了重大挑戰。最近提出基于深度學習的隱寫方案,通過交替更新GAN(Generative Adversarial Network)中的編碼-解碼網絡來分別實現秘密信息的嵌入和提取[9-12],然而由于無法保證秘密信息的無差錯恢復,它們的應用一直受到限制。與上述工作不同,Tang等[13]基于現有的自適應隱寫算法的思想,提出自動隱寫失真代價學習框架ASDL-GAN,這是生成對抗網絡自動學習圖像隱寫失真的首次應用,它改變了傳統的根據先驗知識手工設計隱寫失真函數的觀念,從而減少了人為設計的因素,為生成對抗網絡在隱寫領域的應用開拓了新的方向。但是由于這是生成對抗網絡在該領域的初次探索,在時間復雜度和隱寫安全性上仍存在很大的改進空間。Yang等[14]在此框架的基礎上進行改進,并使用Tanh激活函數加快訓練速度,使得抗隱寫分析能力顯著提高。然而以上基于生成對抗神經網絡的圖像隱寫方案均存在一個明顯的不足,他們均忽略了網絡在生成隱寫圖像時的計算冗余度高、局部信息丟失嚴重、分辨率下降等問題。由于隱寫操作對像素的修改很小,使用大步伐的卷積操作容易導致神經網絡忽略圖像細微的變化,從而極大地影響生成網絡對隱寫圖像的生成。

基于上述討論,本文提出多層次特征融合的生成對抗網絡圖像隱寫方法,彌補網絡在特征提取過程中的信息丟失問題,進而使得生成的隱寫圖像隱蔽性更強,全面提高圖像隱寫安全性。

本文主要貢獻如下:

1)簡化生成對抗網絡結構,實現圖像隱寫失真代價自學習,使得生成隱寫圖像盡可能接近真實標簽,提升圖像生成效率;

2)增強特征提取準確性,融合生成網絡中多層次特征信息,有效地增加生成網絡對載體圖像細粒度和粗粒度信息的感知,解決生成網絡中局部特征信息丟失問題,進一步提升隱寫性能;

3)引入更強的隱寫分析器作為判別網絡,提高判別網絡的有效性,使網絡訓練的參數能更好的表達失真度量,增強生成對抗網絡的整體性能。

2 相關研究

在基于GAN的圖像隱寫模型中,嵌入秘密信息的失真代價可以通過兩個子網相互競爭的對抗網絡來學習。文獻[13]首次提出了一種基于GAN的自動隱寫失真學習框架(稱為ASDL-GAN)。在此框架下,利用25組卷積構建生成網絡,將XuNet[15]作為判別網絡,之后通過構建合理的損失函數和嵌入模擬器使GAN可以自動學習隱寫失真代價。訓練GAN模型收斂后,將得到的失真函數結合STC編碼方法完成實際的秘密信息嵌入和提取過程。ASDL-GAN隱寫方案的優勢在于首次提出將概率圖轉化為代價圖并構建損失函數使得代價可以進行反向傳播。與此同時該方案仍存在以下的不足。

1) TES嵌入模擬器采用了需要預訓練的神經網絡,該網絡耗費時間長。

2) 由25層卷積層構成的生成網絡無法有效的捕捉圖像紋理細節。因此,該隱寫方案仍存在提升的空間。

文獻[14]在此基礎上,進一步做了如下的改進,他們提出使用Tanh激活函數代替TES神經網絡模擬信息的嵌入的方法(稱為UT-GAN),改善了ASDL-GAN方案中TES嵌入模擬器耗費時長和需要預訓練的問題。Tanh嵌入模擬器根據(1)進行設計。其中給定修改概率pi,j(pi,j∈(0,0.5))與秘密信息隨機數si,j(si,j∈[0,1])作為輸入,嵌入模擬器輸出相應的修改值mi,j(mi,j∈{+1,0,-1})。

(1)

與此同時Yang還提出了一種基于U-Net[16]結構的生成網絡,該生成網絡相比于ASDL-GAN的生成網絡具有更好的邊緣輪廓信息捕捉能力。得益于上述兩點改進,Yang提出的UT-GAN方案具有更好的隱寫安全性。但是UT-GAN仍有些許不足,因為根據原始U-Net構造的生成網絡仍然存在細粒度信息丟失的問題,這會導致失真代價訓練忽視圖像細致的紋理信息,從而使得失真代價無法得到充分訓練,進一步影響隱寫的隱蔽性。

因此本文對原始U-Net結構進行多層次特征融合,重構生成網絡實現對載體圖像粗粒度和細粒度的信息補償作用,使用經過信息補償的對抗網絡,生成載體圖像每個像素的代價損失,最終獲得更好的隱寫魯棒性和隱寫隱蔽性。

3 多層次特征融合的對抗網絡圖像隱寫方法

3.1 總體介紹

本文設計了一個由兩部分組成的總體失真代價計算模型:多層次特征融合結構的隱寫圖像生成網絡和代價更新判別網絡。在隱寫圖像生成網絡中,首先在收縮路徑各層嵌入卷積與池化操作改進網絡結構,在減少冗余計算與參數量的基礎上防止梯度消失;之后通過在擴展路徑中添加連接層融合多層次特征,聚集不同層次特征的表達信息,對網絡進行信息補償;代價更新判別網絡使用設計好的判別網絡、嵌入模擬器以及損失函數配合生成網絡進行代價的迭代更新,從而獲得載體圖像中每個像素的代價損失。在設計好總體失真代價計算模型后,將訓練得到的像素代價損失,最終利用嵌入模擬器生成隱寫圖像??傮w框架如圖1所示。

圖1 本文網絡整體結構圖

3.2 重構隱寫圖像生成網絡

生成網絡由收縮路徑和擴展路徑組成。由于網絡淺層紋理信息豐富、圖像分辨率高,但語義性較低、噪聲較多。而深層信息語義性強,但對細節信息感知能力差。因此本文通過多層次特征融合將對應層的特征信息進行連接,使得生成網絡可以同時捕捉到淺層的紋理信息和深層的語義信息。ASDL-GAN和UT-GAN中的生成網絡在卷積過程中均存在信息丟失的問題,忽略了通道間的信息表達。其中ASDL-GAN(如圖2(a))使用多個卷積層連接很難準確捕捉圖像深層語義信息,UT-GAN(如圖2(b))引進U型網絡結構,但忽略了圖像淺層紋理信息。

圖2(b) UT-GAN生成網絡結構

圖2(a) ASDL-GAN生成網絡結構

因此,上述網絡結構均存在局部信息丟失問題,為進一步獲得不同層次的語義特征,本文提出的重構生成網絡結構(如圖3),使用多層次特征融合技術,使得生成器網絡在捕捉圖像深層語義信息的基礎上,對圖像的不同維度的特征信息進行多層次融合,從而充分捕捉圖像各個層次的信息,這是改善網絡性能的關鍵。因此,本文構建的多層次特征融合生成網絡模型可以獲得更好的整體性能,具體如下:

圖3 Proposed-GAN生成網絡結構

1) 生成網絡由M(M=16)個操作組組成,前8組組成收縮路徑,每組由尺寸為3、步長為1的卷積層、批處理歸一化層(Batch Normalization)、Leaky-ReLU激活函數、尺寸為2,步長為2的最大池化層組成,經過8層收縮路徑后得到128×1×1的特征圖;后8組組成擴展路徑,每組由步長為2、尺寸為3的反卷積層、ReLU激活函數、批處理歸一化層(Batch Normalization)、Dropout、Concat操作、尺寸為1、步長為1的卷積層組成,得到與輸入圖像大小相同的特征圖。

2) 擴展路徑添加Concat操作,跳躍連接對應收縮層中的通道數不同的多尺度特征,實現多層次特征信息融合。擴展路徑第n(n∈[9,16))層融合收縮路徑中第(M-n+1)層卷積后的特征(單層)與第(M-n)層池化處理后的特征(雙層)、第(M-n)層卷積得到特征,最終實現(3層)多層次特征融合(如圖3)。因為第3層特征與前兩層的特征大小不同,因此需要添加尺寸為1,步長為2的卷積層將特征尺度歸一化。如圖3所示,第9層中添加連接層跳躍連接融合第8層卷積后的特征、第7層池化后的特征以及第7層卷積得到特征經過步長為2的卷積得到的特征。

3) 擴展路徑中添加Dropout操作,防止過擬合,提高模型泛化能力。

4) 多層次特征融合后特征通道數增加,為減少運算量,在連接層之后通過尺寸為1、步長為1的卷積層減少通道數。

3.3 代價更新判別網絡

判別網絡和生成網絡共同配合損失函數完成對抗網絡代價更新。判別網絡在本質上充當了隱寫分析的作用,用作隱寫圖像和載體圖像的區分。也就是說,現有的基于神經網絡的隱寫分析器均可以作為判別網絡。理論上說,更強的判別網絡通過對抗訓練可以使隱寫更加安全,通過生成網絡與判別網絡相互競爭,可以有效地訓練整個網絡。ASDL-GAN、UT-GAN均使用XuNet作為判別網絡,該判別網絡是Xu等人在2016年提出的隱寫分析器,雖然它與SRM高維特征隱寫分析器相當的性能,但后續提出的隱寫分析器均具有更好的隱寫分析性能,因此本文使用性能更好的隱寫分析網絡,進而提高整個生成對抗網絡的隱寫安全性。經過多次對比實驗,最終使用YeNet[17]隱寫分析器作為本文的判別網絡。

由于隱寫的本質是對圖像的像素進行非常輕微的修改,因此圖像原始的內容會極大的影響隱寫分析器的判斷。所以,使用高通濾波濾除圖像的低頻內容,保留高頻成分,提高“信噪比”,從而可以提高判別網絡的鑒別有效性,使訓練參數可以更好的表示失真度的測量。從SRM中引入了12個高通濾波器,對載體圖像和隱寫圖像進行殘差過濾,經過高通濾波后的殘差可以對隱寫操作更為敏感并且可以加快網絡收斂速度。在訓練過程中,生成網絡通過調整參數抵抗判別網絡的隱寫分析,判別網絡通過調整參數來判斷生成網絡的結果。當過程收斂時,最終的參數用于計算每個像素的嵌入失真代價。

3.4 損失函數

損失函數是用來調節生成網絡和判別網絡中神經元更新的影響因素。本文損失函數loss_total由生成網絡的損失與判別網絡的損失兩部分組成。

判別網絡損失loss_dis結合二值交叉熵損失計算即

(2)

其中x為判別網絡的預測值,y為目標輸出。

生成網絡損失具體計算如下:

(3)

(4)

2) 計算載體圖像中嵌入有效載荷的容量C

(5)

3) 計算損失loss1_gen與loss2_gen

(6)

loss2_gen=(C-H×W×Q)2

(7)

其中loss1_gen使隱寫圖像難以被判別網絡檢測、loss2_gen保證隱寫圖像嵌入有效載荷接近嵌入率Q,H、W為圖像的高度和寬度。

4) 生成網絡損失loss_gen

loss_gen=α×loss1_gen+β×loss2_gen

(8)

α和β設置為10-7和0.1。

網絡的總損失loss_total

loss_total=loss_gen+loss_dis

(9)

4 實驗結果與分析

4.1 實驗環境

本文使用的實驗環境為windows10操作系統,采用深度學習框架Tensorflow1.13.1-gpu、CUDA10.0、CUDNN11.0進行網絡搭建以及模型的訓練、測試與驗證。本文采用DELL W-2102工作站;CPU:intel i7-9700k;GPU:RTX2080;RAM:16GB。

4.2 實驗設置

為驗證模型性能,選擇Places365-Standard[18]、BOSSBase v1.01[19]兩個公開的數據集對所提出的方法進行評價。Place365-Standard包含百萬張大尺寸的原始JPEG圖像。BOSSBase v1.01包含10000張512×512尺寸的灰度圖像。使用matlab中的“rgb2gray”函數和“imresize”函數將兩數據集圖像轉換為PGM、256×256尺寸統一規格的灰度圖像。本文從Place365-Standard中隨機選擇50000張圖像,40000張作為訓練集,剩余作為驗證集,BOSSBase v1.01作為測試集。

網絡訓練選擇學習率為10-4的Adam優化器進行迭代訓練,每次迭代輸入8幅載體圖像(BatchSize=8),epoch=70。同時訓練時使用正態分布的隨機初始化對網絡中的權重進行初始化。每次訓練流程包括:

1)將載體圖像分為若干批(BatchSize)輸入生成器,得到修改概率圖。使用Tanh嵌入模擬器組合修改概率圖和隨機數生成嵌入修改圖。生成器在載體圖像上應用相應的嵌入修改圖生成隱寫圖像。

2)載體圖像與隱寫圖像組合輸入判別器。判別器通過Adam優化器使用最小批梯度下降算法,交替更新參數。

4.3 實驗結果

從BOSSBase中隨機選擇一張圖像“1013.pgm”,測試結果如圖4所示。其中(b)、(d)、(f )分別是UT-GAN在0.4bpp嵌入率下的修改概率圖、嵌入修改圖、隱寫圖像;(c)、(e)、(g)分別是本文在0.4pp嵌入率下的修改概率圖、嵌入修改圖、隱寫圖像。

圖4 測試結果

圖4(a) 載體圖像1013.pgm,(b)、(d)、(f )分別是UT-GAN在0.4bpp嵌入率下的修改概率圖、嵌入修改圖、隱寫圖像;(c)、(e)、(g)分別是本文在0.4bpp嵌入率下的修改概率圖、嵌入修改圖、隱寫圖像。

從實驗結果可看出,經過多層次特征融合后,生成網絡對紋理區域的像素賦予了更低的修改代價。從載體圖像修改概率圖可看出,本文更傾向于在紋理復雜的地方進行修改,本文相比于UT-GAN在紋理區域修改的像素更加集中,在紋理復雜度高的地方進行秘密信息的嵌入會讓圖像隱寫安全性更高。

4.4 不同算法對比

為體現本文對像素失真代價調整的整體優勢,本文與當前效果較好的傳統隱寫算法HILL[21]、WOW[4]、S-UNIWARD[5]和基于深度學習的隱寫算法ASDL-GAN[13]、UT-GAN[14]進行對比。所有算法均采用相同的訓練集與測試集與原論文相同的參數,在0.1~0.4bpp嵌入率下使用隱寫分析特征SRM、maxSRM與集成分類器(EC)[20]結合的隱寫分析方法進行隱寫分析檢測,評估算法的安全性能,結果如圖5所示。其中錯誤率越高表明抗隱寫分析能力越強即安全性越高。圖5(a)、(b)、(c)分別為本文與傳統方法和深度學習方法分別使用SRM[7]、maxSRM[8]、YeNet[17]檢測錯誤率。

圖5 檢測結果

從中可以看出,與傳統算法相比本文的安全性能仍然無法全面超越所有傳統的隱寫算法,因為傳統的隱寫方法采用手工設計失真函數計算像素失真代價,手工設計的失真函數是基于啟發性的,并不適用于所有的載體圖像;與此同時自然圖像具有紋理不可統計性,因此手工設計的失真函數在根本上具有局限性。本文采用生成對抗網絡對像素代價進行分配,生成網絡可以根據不同的圖像特征進行自適應代價調整,因此對載體圖像的代價分配更加合理,從而實現更高的隱寫安全性與魯棒性。

本文比上述現有的基于深度學習隱寫方法的綜合安全性能更高。本文生成網絡采用多層次特征融合后相比于UT-GAN具有更好的隱寫隱蔽性,這是由于ASDL-GAN和UT-GAN的生成網絡在多重卷積過程會產生大量局部信息丟失,其中ASDL-GAN使用多個重復的卷積層連接很難捕捉到圖像的深層語義信息,UT-GAN忽略了圖像淺層紋理信息。本文使用多層次特征融合改進上述兩種方案,將多個淺層特征與深層特征進行融合,起到信息補償的作用,提高了網絡對不同層次特征的提取能力,其在相同數據集上的隱寫性能較其它算法更為均衡,生成的隱寫圖像更接近真實的標簽圖。對于抵抗SRM與maxSRM檢測,本文在不同嵌入率下相比ASDL-GAN、UT-GAN也均有一定程度安全性的提升。

為更形象地比較不同方法的性能,使用受試者工作特征曲線ROC(receiver operating characteristic)及相應AUC(area under curve)值。ROC是度量分類均衡的工具,用來比較算法性能。在0.4bpp嵌入率下使用相同的訓練集與測試集,通過SRM+EC隱寫分析模型進行隱寫分析檢測。如圖6所示。

圖6 不同隱寫方法的ROC曲線

圖中較低的ROC曲線AUC值更小,本文相比ASDL-GAN與UT-GAN的AUC值均更低,意味著隱寫方法更安全,不易手工檢測。綜合來看,本文比ASDL-GAN與UT-GAN有更好的安全性能。

4.5 實際隱寫性能

為驗證隱寫算法在實際應用時的安全性,本文使用STC編碼方法代替嵌入模擬器tanh,實際嵌入秘密信息。根據(10)由生成網絡輸出的修改概率圖計算相應的失真代價。

ηi,j=ln(2/pi,j-2)

(10)

使用SRM、maxSRM、YeNet評估算法在0.1bpp與0.4bpp嵌入率下的實際隱寫安全性,性能評估結果如表1所示。

表1 使用STC嵌入不同隱寫方法安全性比較(/%)

結果顯示,在STC實際嵌入下方案的安全性雖然有所下降,但是本文的安全性仍高于ASDL-GAN與UT-GAN,綜合性能得到提升。

4.6 訓練時間

為測試計算效率,本文與上述兩種基于深度學習的圖像隱寫方法進行模型訓練時間比較,訓練時間如表2所示。實驗均在戴爾W-2102工作站使用上述數據集進行訓練、測試,以epoch=1為例。

表2 訓練時間比較(/h)

本文比ASDL-GAN的訓練時間減少一半,這是由于本文的生成網絡提取的的特征從1×1到256×256大小不等,而ASDL-GAN的生成網絡提取的特征一直保持在256×256不變;本文比UT-GAN訓練時間有所增加,這是因為在每次迭代都要進行多層次特征融合,而增加額外的處理步驟,因此增加訓練時間的開銷。

4.7 消融實驗

為驗證本文的有效性,本節進行相關消融實驗。如表3所示,無融合為未進行特征融合的生成網絡結構;單一融合為在本文基礎上去除多層次特征融合模塊僅進行單一特征的連接構成生成網絡結構,多層次融合為本文多層次特征融合的生成網絡結構。均使用與本文相同的判別網絡、嵌入模擬器,三種網絡結構在0.4bpp嵌入率下生成隱寫圖像,使用SRM、maxSRM檢測隱寫安全性。

表3 不同融合方式安全性比較(/%)

由表3可看出,本文的多層次特征融合生成網絡結構對于圖像隱寫安全性的提高顯著,圖像隱寫安全性大大提高。

5 結語

本文以提高生成對抗網絡圖像隱寫安全性為切入點,提出在生成網絡中進行多層次特征融合,使生成的代價圖更加合理,改善網絡不能同時捕捉細致紋理信息和語義信息產生的局部信息丟失問題;引入YeNet隱寫分析器作為判別網絡,進一步提升圖像的隱寫隱蔽性。使基于對抗網絡的圖像隱寫安全性大大提高。

本方案還有以下幾個值得進一步探討的方向。1)可以結合信道選擇技術使生成網絡快速收斂,縮短模型訓練的時間;2)該類隱寫方法對載體圖像的訓練需求量較大,如何減少圖片樣本的訓練量是一個值得進一步探討的方向。

猜你喜歡
安全性特征融合
兩款輸液泵的輸血安全性評估
新染料可提高電動汽車安全性
村企黨建聯建融合共贏
今日農業(2021年19期)2022-01-12 06:16:36
融合菜
從創新出發,與高考數列相遇、融合
《融合》
現代出版(2020年3期)2020-06-20 07:10:34
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
ApplePay橫空出世 安全性遭受質疑 拿什么保護你,我的蘋果支付?
主站蜘蛛池模板: 久久美女精品国产精品亚洲| 四虎影视无码永久免费观看| 深夜福利视频一区二区| 国产午夜无码片在线观看网站| а∨天堂一区中文字幕| 国产一级毛片yw| 亚洲日韩精品无码专区97| 亚洲精品无码AV电影在线播放| 日韩无码黄色网站| 福利一区三区| 就去吻亚洲精品国产欧美| 99人体免费视频| 亚洲成人免费看| 亚洲成人精品久久| 国产黄色视频综合| 国产精品99久久久久久董美香| 亚洲日韩Av中文字幕无码| 99视频只有精品| 欧美a在线看| 亚洲欧美在线看片AI| 欧美a√在线| 国产午夜不卡| 人妻丰满熟妇av五码区| 亚洲人成色在线观看| 老司机久久精品视频| 成人福利一区二区视频在线| 亚洲精品无码AⅤ片青青在线观看| 青青青国产视频手机| 欧美伦理一区| 精品福利网| 亚洲女同一区二区| 日本免费福利视频| 囯产av无码片毛片一级| 91丝袜美腿高跟国产极品老师| 99久久国产综合精品女同| 成·人免费午夜无码视频在线观看| 成人看片欧美一区二区| 亚洲精品中文字幕无乱码| a级毛片免费在线观看| 精品国产网站| 中文字幕首页系列人妻| 白丝美女办公室高潮喷水视频| v天堂中文在线| 伊人久久大线影院首页| …亚洲 欧洲 另类 春色| 国产精品一线天| 日本a∨在线观看| 色悠久久综合| 精品第一国产综合精品Aⅴ| 高清码无在线看| 在线观看热码亚洲av每日更新| 亚洲日本中文字幕乱码中文| 性喷潮久久久久久久久| 92精品国产自产在线观看| 国产无码精品在线播放| 福利视频久久| 日韩欧美中文字幕一本 | 国产成人1024精品| 亚洲精品国产综合99| 国内精品自在自线视频香蕉| 1级黄色毛片| 91精品伊人久久大香线蕉| 2021国产在线视频| 一区二区三区国产精品视频| 国产激情无码一区二区免费| 日本成人福利视频| 91蜜芽尤物福利在线观看| 蜜臀AV在线播放| 高清无码一本到东京热| www.精品视频| 久久久久久久97| 亚洲国产天堂久久综合226114| 亚洲色欲色欲www在线观看| 91久久性奴调教国产免费| 日本精品视频一区二区| 亚洲伊人久久精品影院| 亚洲国产一成久久精品国产成人综合| 亚洲天堂网站在线| 精品视频一区二区观看| 国产swag在线观看| 久久综合激情网| 亚洲国产中文综合专区在|