999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于兩通道深度卷積神經網絡的圖像隱藏方法

2022-05-31 06:18:34段新濤王文鑫邵志強王鮮芳
電子與信息學報 2022年5期
關鍵詞:方法模型

段新濤 王文鑫 李 磊 邵志強 王鮮芳 秦 川

①(河南師范大學計算機與信息工程學院 新鄉 453007)

②(河南工學院計算機科學與技術學院 新鄉 453003)

③(上海理工大學光電與計算機工程學院 上海 200093)

1 引言

信息隱藏主要是指通過將秘密信息嵌入載體的信息冗余中,利用人類感官上的不敏感性實現秘密通信。通常信息隱藏方法有3點特征,即有效嵌入容量、抗檢測的安全性和抗失真的魯棒性[1]。傳統的信息隱藏方法主要面向安全性和魯棒性,例如最低有效位匹配(Least Significant Bit Matching, LSBM)[2],Filler等人[3]提出的接近仿真最優編碼的網格碼(Syndrome Trellis Codes, STC),并基于此構建的一系列最小化失真框架下的稱作安全隱寫術的信息隱藏方法[4,5]。但此類傳統方法一般是利用專業人士設計的代價函數,將秘密消息嵌入載體圖像的高頻或紋理區域,因此容易受到嵌入容量的制約。

隨著深度卷積神經網絡(Deep Convolutional Neural Networks, DCNN)在各個領域的興起,近些年來催生出許多基于DCNN實現的圖像隱寫術[6–8]。這其中包含一些面向容量的圖像隱寫術[9–12],此類方法并不需要完美編碼,但要求提取圖像和原始圖像盡可能相似,因此將此類隱寫術稱作“數據隱藏”更為恰當[1]。例如,Baluja[9]提出了一種較為直觀的編碼器-解碼器圖像數據隱藏框架,包含預處理網絡、隱藏網絡和提取網絡,尺寸為200×200的彩色RGB秘密圖像在預處理網絡中經卷積層處理后通道數先升高至50再降至30,輸出含有高頻紋理信息和邊緣信息的7通道特征張量,隨后和尺寸相同的彩色RGB載體圖像級聯后一同輸入隱藏網絡,得到含有秘密圖像的隱寫圖像,再利用提取網絡從隱寫圖像中提取出秘密圖像。隨后,Chen等人[10]提出了一種稱為兩通道深度隱藏網絡(Twochannel Deep Hiding Network, TDHN)的模型,實現了將一幅彩色圖像隱藏至另一幅相同尺寸大小的彩色圖像中,達到了1的相對容量,為了提高隱寫圖像的視覺質量,Chen等人[10]還設計了4種模塊用于該隱藏模型,其中Maxmod模塊用于提取載體圖像的高頻紋理特征,Avgmod模塊用于保持秘密圖像的完整性,Inception Resnet模塊用生成隱寫圖像,Inception模塊[11]用于從隱寫圖像中提取出秘密圖像。Yu[12]提出了一種基于CycleGAN[13]結構設計的隱藏模型(Attention Based Data Hiding,ABDH),利用類激活映射(Class Activation Mapping,CAM)技術[14],通過預訓練的注意力模型提取出載體圖像的注意力掩模(Attention Mask, AM),將載體圖像、秘密圖像和注意力掩模一同輸入目標圖像生成模型后得到隱寫圖像,隱寫圖像輸入秘密圖像生成模型實現秘密圖像的提取。在訓練中,載體圖像判別模型-目標圖像生成模型與秘密圖像判別模型-秘密圖像生成模型分別構成對抗關系。此外,由于CycleGAN本身是基于源域到目標域之間的風格轉換,而在該圖像數據隱藏方法中則需避免從原始載體圖像中提取出秘密圖像的風險,因此Yu[12]在損失函數中加入不一致性損失,在訓練中迫使秘密圖像生成模型從載體圖像中提取出的圖像與原始秘密圖像保持不一致。

上述基于DCNN實現的圖像數據隱藏方法已在安全方面取得較好的性能,但在視覺效果和嵌入容量方面仍存在不足。針對此類不足,基于深度學習的理論基礎,本文提出通過引入改進的金字塔池化模塊和預處理模塊來改善隱藏網絡的隱藏與提取性能,并實現了對兩幅秘密圖像的隱藏和提取。此外,本文還提出了一種新的評價指標,以更加客觀地衡量圖像隱藏方法中載體圖像的修改率和秘密圖像的提取率。本文的主要貢獻在于:

(1) 提出了一種新的基于DCNN實現的圖像數據隱藏模型,通過應用改進的金字塔池化模塊和預處理模塊有效地提高了隱寫圖像的視覺效果和抗檢測性,并實現了2的相對容量;

(2) 針對現有圖像數據隱藏方法中圖像修改率和提取率衡量指標存在的不足,提出了一種新的評價指標;

(3) 除訓練所用的ImageNet數據集外,本文的隱藏模型還在多個不同數據集上表現出了良好的泛化能力,可以實現對遙感圖像等特殊用途的圖像進行有效的隱寫和提取。

本文的其余部分將對本文的工作做進一步的介紹:第2節將詳細介紹本文提出的圖像數據隱藏方法,第3節是實驗結果和分析,第4節將對本文工作的全部內容進行總結。

2 圖像數據隱藏方法

這部分將對整體框架、改進的金字塔池化模塊和預處理模塊、隱藏網絡和提取網絡作詳細的介紹。

2.1 整體框架

本文的圖像數據隱藏框架如圖1所示,在隱藏網絡中,發送方將1幅載體圖像和2幅秘密圖像同時輸入2個預處理模塊后得到2個張量,再經過下采樣-金字塔池化-上采樣3個階段處理,最終得到含有秘密圖像的隱寫圖像,接收方接收到隱寫圖像后利用2個提取網絡分別恢復出2幅不同的提取圖像,2個提取網絡結構相同,均由下采樣-金字塔池化-上采樣構成。整個隱藏和提取過程表示為

圖1 隱藏框架

2.2 模塊

Zhou等人[15]指出DCNN的感受野遠比理論域要小,尤其是在DCNN的較深層處,此類情況通常會導致很多網絡無法充分融合先前的重要全局特征,進而影響網絡的性能。為解決這一問題,Zhao等人[16]提出了一種金字塔池化模塊,該模塊通過融合不同比例下的特征,將多種規模的特征信息結合起來,從而減少不同子區域之間上下文信息的丟失。基于此,本文嘗試在隱藏模型中加入金字塔池化模塊以提高隱寫模型生成圖像的質量,但在實驗中發現原始模塊中的等級和大小在隱藏模型中并不能滿足隱寫任務的需求,因此本文嘗試將原始的金字塔池化模塊的等級從4種增加至5種,并將每個等級的大小從1 ×1~6×6 修改為2 ×2~32×32,如圖2(a)。下文圖2、圖3的 (D, W, H)分別表示圖像的通道數、寬度和高度。

同時,本文在隱藏網絡中引入了預處理模塊,與文獻[10]中的兩通道預處理模塊不同,本文僅用1次池化和2次卷積提取特征,盡可能地減少整個網絡的參數量和計算量,如圖2(b)和圖2(c)所示。其中,2幅秘密圖像級聯后輸入秘密預處理模塊,通過卷積層提高通道數后,再經全局平均池化層得到含有全局特征的輸出張量,類似地,載體圖像輸入載體預處理模塊后也是通過卷積層提高通道數,再經全局最大池化層提取相應的高頻特征[10]。由于隱藏網絡的最終目標是生成與載體圖像盡可能相似的隱寫圖像,因此本文在載體預處理模塊中增加了一個跳躍連接,將載體圖像與載體預處理模塊的輸出張量進行級聯,以減少在后續特征提取中載體圖像有效特征的丟失。

2.3 隱藏網絡和提取網絡

除金字塔池化模塊和預處理模塊外,隱藏網絡的整體結構類似U-Net[17]中的編碼器-解碼器結構,如圖3上。另外本文也使用了跳躍連接用于將前期卷積層中的一些特征張量映射到后期的卷積層中,這有助于降低重要特征的丟失。相較于隱藏網絡,提取網絡并不包含預處理模塊,但保留了下采樣-金字塔池化-上采樣階段,如圖3下。盡管R1(*)和R2(*)的結構相同,但由于在訓練中兩者的訓練目標(提取圖像)并不是同一幅秘密圖像(S1和S2),因此最終得到的參數并不相同。此外,如圖2、圖3所示,各個模塊、隱藏網絡以及提取網絡中的單一層中均包含卷積、BatchNorm和ReLU激活函數,其中涉及對特征圖的尺寸大小進行減半或翻倍操作的層卷積核大小為4 ×4, 其余層均為3 ×3。

圖2 改進模塊

圖3 隱藏網絡和提取網絡

3 實驗和分析

為保證隱藏模型的訓練效果,本文從ImageNet數據集中隨機挑選了100000幅圖像作為訓練用的數據集,其中98000幅圖像用作訓練集,驗證集和測試集各1000幅。另外,訓練、驗證及測試中所產生的載體圖像和秘密圖像的組合均是隨機生成。訓練的總epochs設為200,初始學習率設為1×10–3,?設置為0.5,優化器使用Adam。實驗所用的程序是Python 3.6,實現隱藏模型所用機器學習庫是pytorch。實驗所用GPU設備的配置為GeForce RTX 2070 8 GB。

3.1 圖像隱藏效果及分析

實驗中,本文方法和文獻[9]中實現相同嵌入容量的方法進行了比較,如圖4。文獻[9]在圖像色彩還原方面效果較差,尤其是紅框區域,詳見圖5。而本文方法無論是隱寫圖像還是提取圖像的視覺效果均明顯優于文獻[9],尤其是當載體殘差亮度提高至5倍時文獻[9]的方法就顯示出較為明顯的像素修改痕跡。

圖4 主觀效果對比

圖5 放大效果對比

針對圖4中的2組圖像本文測試了其PSNR和SSIM,如表1所示,使用本文方法所生成圖像的指標均高于文獻[9],尤其是載體圖像的PSNR和SSIM的最高值分別達到了38.17 dB和99.28%,秘密圖像對應的指標最高值分別達到了40.13 dB和98.11%。此外,本文方法各項指標的平均值較文獻[9]分別提高了3.75 dB/3.61%, 4.57 dB/5.86%和4.56 dB/6.19%。

表1 與文獻[9]比較

3.2 消融實驗

為檢查改進的金字塔池化模塊和預處理模塊是否對本文圖像隱藏模型性能的提高具有幫助,本文利用消融實驗在多個方面對模塊的性能進行檢測,并以此進一步了解本文提出方法的可行性。在此實驗中分別去掉了金字塔池化模塊和預處理模塊,在保證其他指標不變更的情況下,分別對模型進行重新訓練,隨后在客觀指標和抗檢測性等方面進行比較。

針對最基本的客觀指標PSNR和SSIM,本文使用測試集的1000幅圖像分別對對照組模型進行了測試,結果見表2。表2中*Prep表示去掉預處理模塊,*Pyramid表示去掉金字塔池化模塊。通過對測試集的1000幅圖像進行測試,很明顯在客觀指標上對照組都未能達到原始圖像隱藏模型的水平。其中,對照組*Pyramid在大多數指標上都低于原始模型和對照組*Prep,其原因可能在于本文提出的隱藏網絡和提取網絡均使用了金字塔池化模塊,這也正說明金字塔池化模塊對本文隱藏模型性能提高的重要性。

表2 消融實驗的PSNR和SSIM比較

此外,針對消融實驗中不同對照組的安全性本文也作了分析。 StegExpose[20]是一種針對LSB隱寫術檢測的隱寫分析工具,實驗中使用StegExpose的分析結果如圖6,縱軸正陽率表示分析正確,橫軸負陽率表示分析錯誤,黑色虛線表示隱寫分析結果等同于隨機猜測,圖中每一組ROC (Receiver Operating Characteristic) 曲線的下方面積(Area Under Curve, AUC)見表3第2列,數值越小越好。此外,還使用SRNet[21]對本文模型進行了隱寫分析,SRNet是一種基于DCNN實現的隱寫分析網絡,可以對目標圖像的空域和JPEG域進行有效的盲隱寫分析檢測,分析結果見表3第3列。從表3的數據來看,本文方法在基于DCNN的隱寫分析下的表現略有不足,這是由于此類方法的隱藏容量大,隱寫圖像難以保持不被察覺[7,9]。但在消融實驗中,本文模型的SRNet隱寫分析準確率比對照組都要低,這說明本文提出的改進模塊對于提高整個模型的安全性具有一定的積極作用,同時該準確率還低于文獻[9],因此本文方法比文獻[9]具有相對更高的安全性。

表3 隱寫分析結果

圖6 StegExpose隱寫分析結果

3.3 嵌入容量分析

由于本文提出的隱藏模型將秘密圖像的數量提高至2幅,因此在嵌入容量方面要高于現有的基于DCNN實現的圖像數據隱藏方法。通常圖像數據隱藏的嵌入容量使用相對容量進行衡量,詳見式(10)。通過和幾種現有的方法進行比較,本文提出的隱藏模型的嵌入容量遠大于其他方法,詳見表4。

表4 嵌入容量比較

其中,絕對容量是指每幅載體圖像中嵌入秘密消息的大小,即秘密圖像的大小。

3.4 修改率和提取率

為了對隱藏方法中的圖像像素值修改幅度進行量化,文獻[10]提出了一種針對圖像修改率和提取率的計算方法,如式(11)、式(12)所示。其計算原理在于,衡量單個像素上像素值修改幅度的平均值。但當某點像素值由0修改為1時,該式中微小常數ε的值將對計算結果產生較大影響,且該點的像素值并不能代表該點像素值可能達到的最大修改幅度。

基于上述原因本文提出了一種新的計算方式,如式(13)—式(15)。此處需要強調的是,盡管修改率和提取率是基于像素值修改幅度計算而來的,但其僅能表達圖像在經過隱藏模型處理后平均每個像素上被修改的程度,并不能直接代表視覺效果的好壞。如表5所示,在載體圖像修改率和秘密圖像提取率等指標上本文方法基本保持了與文獻[9]所提方法的同等水平,部分指標還略有優勢。結合表1中的數據,說明與文獻[9]相比本文方法在像素修改幅度保持同等水平的基礎上實現了更優的隱藏效果。

表5 修改率和提取率比較(%)

3.5 泛化能力分析

泛化能力,通常是指機器學習算法對具有同一規律的訓練集以外的數據,在經過訓練后的網絡模型中也能得到合理的輸出。除訓練用的ImageNet數據集外,本文還選取了CeleA, COCO, VOC2012,AID和UCMerced LandUse共5個數據集,并分別隨機抽取1000幅圖像對隱藏模型進行測試。其中,CeleA為人臉數據集,COCO和VOC2012屬于自然圖像數據集,AID和UCMerced LandUse為遙感圖像數據集,考慮到在應用場景中遙感圖像一般不會作為載體圖像參與信息隱藏行為,因此在對AID和UCMerced LandUse兩組數據集的測試中本文使用了自然圖像作為載體。測試結果如圖7所示,在5組測試集的測試結果中圖像的還原度均表現良好,殘差圖中也無明顯的秘密圖像輪廓。表6展示了在5組測試集中的客觀指標平均值,尤其是CeleA中的部分指標超越了隱藏模型在ImageNet測試集中的表現。此外,表6顯示載體圖像的修改率介于1.83%到2.23%之間,秘密圖像的提取率介于96.44%到98.24%之間,5組數據集中產生圖像的平均修改率和提取率均保持在了較好水平,因此本文模型具有良好的泛化能力。

圖7 不同數據集的測試結果

4 結束語

本文提出了一種新的圖像隱藏和提取方法,通過對改進后的金字塔池化模塊和預處理模塊的應用,實現了在1幅載體圖像上對2幅全尺寸秘密圖像的隱藏和提取,并驗證了隱藏模型在多個方面的良好性能。具體地,本文的模型有以下特點:(1)具有良好的視覺效果,通過本文提出的隱藏模型獲得的隱寫圖像和兩幅提取圖像,峰值信噪比PSNR/結構相似性SSIM的最高值可以分別達到38.17 dB/99.28%和40.13 dB/98.11%,測試集中的平均值分別達到了36.07 dB/98.42%, 34.97 dB/96.56%和35.11 dB/96.48%;(2)具有高達2的相對容量;(3)通過對CeleA, COCO等多種不同類型數據集的測試,結果顯示具有良好泛化能力,可以勝任不同場景的應用,例如傳遞遙感圖像的軍事用途等。

猜你喜歡
方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
學習方法
3D打印中的模型分割與打包
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: igao国产精品| 99福利视频导航| 久久精品无码一区二区国产区| 99热这里只有免费国产精品 | 亚洲人成网站观看在线观看| 国产主播在线观看| 日本AⅤ精品一区二区三区日| 日本在线免费网站| 亚洲天堂色色人体| 女同国产精品一区二区| 色噜噜狠狠色综合网图区| 日本国产一区在线观看| 精品自窥自偷在线看| 亚洲婷婷在线视频| 亚洲天堂免费在线视频| 成人免费黄色小视频| 日韩黄色在线| 免费无码AV片在线观看中文| 国产第一页亚洲| 色有码无码视频| 国产极品美女在线播放| 极品尤物av美乳在线观看| 免费视频在线2021入口| 美女扒开下面流白浆在线试听| 毛片视频网址| 日本黄色不卡视频| 成人小视频网| 国产精品人成在线播放| 亚洲视屏在线观看| 国产不卡一级毛片视频| 日韩 欧美 国产 精品 综合| 国产一级小视频| 高清欧美性猛交XXXX黑人猛交| 亚洲美女久久| 日本国产精品| 婷婷六月天激情| 99久久精品视香蕉蕉| 亚洲欧美成aⅴ人在线观看| 免费女人18毛片a级毛片视频| 日韩精品成人网页视频在线| 日本手机在线视频| 国产乱子精品一区二区在线观看| 中文字幕久久亚洲一区| a欧美在线| 国产菊爆视频在线观看| a亚洲天堂| 欧美精品影院| 欧美一级夜夜爽| 少妇精品网站| 成人年鲁鲁在线观看视频| 欧美性精品| 97在线免费| 欧美成人精品一级在线观看| 国产精品久久久久久搜索| 国产色婷婷视频在线观看| 成人精品视频一区二区在线 | 亚洲成人www| 欧美一区二区三区欧美日韩亚洲| 婷婷综合色| 久久精品中文字幕免费| 欧美日韩国产在线播放| 日本午夜精品一本在线观看| 毛片网站观看| 免费A∨中文乱码专区| av在线手机播放| 又粗又硬又大又爽免费视频播放| 成人国产免费| 国产不卡一级毛片视频| 亚洲国产成人麻豆精品| 毛片在线播放网址| 亚洲成a人在线观看| 国产精品刺激对白在线| 九九香蕉视频| 久久综合干| 精品成人一区二区| 日韩123欧美字幕| 最新加勒比隔壁人妻| 久久女人网| 中文字幕久久亚洲一区| 无码AV高清毛片中国一级毛片| 人妻丰满熟妇啪啪| 国产国语一级毛片在线视频|