999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于條件生成對抗網(wǎng)絡與知識蒸餾的單幅圖像去霧方法

2022-04-18 10:56:38俞舒曼
計算機工程 2022年4期
關鍵詞:特征方法模型

何 濤,俞舒曼,徐 鶴

(1.南京郵電大學 電子與光學工程學院、微電子學院,南京 210023;2.南京郵電大學 計算機學院、軟件學院、網(wǎng)絡空間安全學院,南京 210023;3.江蘇省無線傳感網(wǎng)高技術研究重點實驗室,南京 210023)

0 概述

霧是由細塵或煙霧顆粒在大氣中聚集得到的產(chǎn)物,在霧霾天氣下采集的圖片通常會失去對比度、顏色保真度和邊緣信息,從而降低場景的可視性。例如,若環(huán)境中存在大量霧霾,在執(zhí)行視頻監(jiān)控任務時將難以從視頻中定位到有效的目標信息,進而阻礙任務的順利執(zhí)行。因此,去除圖像中的霧霾并提高圖像清晰度成為計算機視覺領域的研究熱點。

近年來,研究人員提出基于先驗知識和基于學習的去霧方法。基于先驗知識的去霧方法是根據(jù)手工設計的特征,并結合文獻[1]提出的大氣散射模型以恢復清晰的無霧圖像。文獻[2]提出一種經(jīng)典的統(tǒng)計觀測方法,即在大多數(shù)非天空區(qū)域中,某些像素中至少有一個顏色通道的強度較低,從而根據(jù)暗通道先驗知識可以粗略估計出透射率和大氣光值。文獻[3]是針對模糊圖像的場景深度構建一種線性模型,根據(jù)顏色衰減來恢復深度信息,利用模糊圖像的深度圖估計透射率。因透射率估計不準確,導致在輸出去霧圖像中存在明顯的偽影問題。

基于學習的去霧方法是利用卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network,CNN)從大量訓練數(shù)據(jù)中提取圖像特征,同時學習圖像對之間的映射關系。早期的大多數(shù)方法是基于大氣退化模型恢復無霧圖像,例如MSCNN[4]和DehazeNet[5]方法是最早采用CNN 進行圖像去霧,再基于大氣散射模型得到無霧圖像。由于這兩種方法缺乏有效的先驗知識,因此難以準確估計大氣光值和傳輸率,去霧效果并不理想。端到端的學習方法是將有霧圖像輸入到網(wǎng)絡模型中直接得到無霧圖像,無需估計大氣散射模型的中間參數(shù)。例如,文獻[6]將去霧任務看成是圖像到圖像的轉(zhuǎn)換問題,構建一種基于增強的pix2pix去霧網(wǎng)絡EPDN,獲得具有較優(yōu)視覺效果的無霧圖像。文獻[7]提出一種基于殘差模塊和編碼器-解碼器結構的去霧模型GMAN,該模型在一些標準的去霧數(shù)據(jù)集上具有較優(yōu)的去霧效果。

本文提出一種基于條件生成對抗網(wǎng)絡(Conditional Generative Adversarial Network,CGAN)與知識蒸餾的單幅圖像去霧方法KD-GAN。該方法以改進的U-Net網(wǎng)絡[8]作為生成器的基本架構,并在判別器的輸入端融合圖像高、低頻分量,將頻率信息作為去霧的附加約束條件與原始圖像一起輸入到判別器中。在此基礎上,通過知識蒸餾的方法減小條件生成對抗網(wǎng)絡的計算量和存儲空間,從而加快模型的訓練速度。

1 生成對抗網(wǎng)絡

近年來,生成對抗網(wǎng)絡[9](Generative Adversarial Network,GAN)在圖像生成、圖像插值和目標分類等領域中取得較大進展。GAN 由生成器和判別器兩個部分組成。生成器G:Z→Y,將輸入的隨機噪聲z∈Z映射到輸出圖像y∈Y中;判別器D:y→[0,1],將其輸入的圖像y映射成概率值。針對去霧網(wǎng)絡模型,生成器的作用是利用給定的一組有霧圖像{y1,y2,···,yn}生成偽無霧圖像判別器是通過對比真實圖像x與生成器生成的圖像y*的特征分布,從而預測輸入的圖像為真實圖像x的概率。生成器的優(yōu)化目標是在保留輸入圖像的結構和細節(jié)信息的同時,盡可能地生成接近真實無霧圖像特征分布的去霧圖像,從而使得判別器無法辨別圖像來源。判別器的優(yōu)化目標則是盡可能地辨別出輸入圖像是生成的去霧圖像還是真實無霧圖像。生成器和判別器相互博弈,以達到納什均衡[10]。GAN 的損失函數(shù)如式(1)所示:

其中:Pdata(x)為真實圖像數(shù)據(jù)的分布;Pz(z)為輸入生成器噪聲z的分布;D(x)為判別器判斷真實圖像為真的概率;D(G(z))為判別器判斷生成圖像為真的概率。

由于生成器需要大量的參數(shù)來生成具有高維語義信息的圖像,因此大多數(shù)GAN 的執(zhí)行會消耗較多的計算資源,從而限制了GAN 在CPU 性能有限的移動設備以及邊緣設備上的應用。近年來,研究人員對重型深度模型的壓縮和加速方法進行研究。如文獻[11]提出一種壓縮技術,通過將教師網(wǎng)絡產(chǎn)生的分類概率分布作為軟目標來訓練小模型,從而將集成模型中的知識遷移到單個模型中,這種壓縮技術又稱知識蒸餾。在知識蒸餾模型中將具有復雜網(wǎng)絡結構、學習能力更強的重型網(wǎng)絡視為教師網(wǎng)絡,將網(wǎng)絡結構簡單、學習能力較弱的輕量型網(wǎng)絡視為學生網(wǎng)絡。文獻[12]指出,淺層網(wǎng)絡可以學習到深層網(wǎng)絡的復雜函數(shù),并實現(xiàn)以前只有深度模型才能達到的精度。受上述方法的啟發(fā),本文提出一種基于條件生成對抗網(wǎng)絡和知識蒸餾的單幅圖像去霧方法(KD-GAN),本文將蒸餾模型中的教師網(wǎng)絡設計成具有較多網(wǎng)絡層數(shù)及權值參數(shù)的重型網(wǎng)絡,并設計3 種不同參數(shù)規(guī)模且精簡于教師網(wǎng)絡的學生網(wǎng)絡模型,以對比在不同簡化程度下學生網(wǎng)絡的去霧性能。在室外模糊圖像公開數(shù)據(jù)集OTS 和室內(nèi)模糊圖像公開數(shù)據(jù)集ITS 上進行網(wǎng)絡的訓練和測試。本文通過對比不同參數(shù)規(guī)模學生網(wǎng)絡的去霧性能變化,同時對比訓練過程中相同迭代次數(shù)下教師網(wǎng)絡和學生網(wǎng)絡的去霧效果,并將本文方法與其他去霧方法進行對比,驗證知識蒸餾在模型訓練速率和圖像去霧中的有效性。

2 整體架構

本文提出的基于CGAN 和知識蒸餾的單幅圖像去霧方法,網(wǎng)絡的整體架構包括教師網(wǎng)絡、學生網(wǎng)絡和知識蒸餾結構3 個部分。知識蒸餾[11]將提煉的教師網(wǎng)絡的知識傳遞給結構簡單、學習能力較弱的學生網(wǎng)絡,在提高學生模型訓練速度的同時,盡可能使其性能接近于具有復雜結構、學習能力強的教師網(wǎng)絡。

2.1 教師網(wǎng)絡

文獻[13]提出CGAN,其在生成器和判別器的輸入端增加了額外的限制條件,通過源域圖像代替噪聲信息,以指導生成的目標圖像。本文將原始有霧圖像作為條件信息添加到判別器的輸入端,判別器既要判斷輸入圖像是否真實,同時判斷輸入圖像與作為條件信息的原始有霧圖像是否匹配。基于引入頻率信息作為附加條件網(wǎng)絡(HLF-CGAN)的去霧方法中教師網(wǎng)絡結構如圖1 所示。

圖1 教師網(wǎng)絡結構Fig.1 Structure of teacher network

圖中生成器是基于U-Net 網(wǎng)絡[8]進行改進,U-Net 網(wǎng)絡是由編碼器-解碼器結構組成的U 型對稱網(wǎng)絡,最初用于圖像分割領域。編碼器由4 個編碼塊組成,每個編碼塊包含2 個3×3 大小的卷積核和1 個2×2 大小的最大池化層,用于下采樣,解碼器包含4 次反卷積和4 次上采樣過程。雖然U-Net 網(wǎng)絡采用最大池化的方式進行下采樣,不需要額外增加參數(shù),但容易丟失高頻特征。因此本文采用卷積步長為2 的下采樣方式,以減少特征的丟失。從圖1 可以看出,生成器網(wǎng)絡是由編碼器、解碼器和跳躍連接層組成。編碼器部分經(jīng)過8 次卷積操作將大小為256×256×3 的輸入圖像轉(zhuǎn)換成大小為1×1×512 的特征圖,其主要作用是提取圖像特征信息。每層的卷積步長為2,卷積核大小為5×5,卷積核個數(shù)前3 層分別為64、128、256 個,后5 層均為512 個。

解碼器部分進行8 次反卷積操作,在與編碼器相對應的位置上采用同樣大小和數(shù)量的卷積核,直到最終輸出大小為256×256×3 的特征圖。跳躍連接結構將編碼器和解碼器中相同大小的特征圖按通道拼在一起,以更好地利用在下采樣過程中保留的局部細節(jié)信息,從而加快網(wǎng)絡訓練過程。

高頻和低頻分量是圖像的基本特征,去霧圖像和對應的真實無霧圖像的高、低頻分量也會存在一定差異。高頻分量包括圖像中強度變化較快的部分,如銳利的邊緣、紋理和精細的細節(jié)。相反,低頻分量一般是圖像強度值變化緩慢的部分,更加強調(diào)圖像的亮度、顏色和對比度信息[14]。將高頻和低頻信息同時作為判別網(wǎng)絡的約束條件,有利于判別器對圖像邊緣、紋理和顏色上的差異性進行判斷。不同網(wǎng)絡的去霧結果對比如圖2 所示。

圖2 不同網(wǎng)絡的去霧結果對比Fig.2 Dehazing results comparison among different networks

圖片下方為去霧量化指標(結構相似性SSIM/峰值信噪比PSNR)。從圖2 可以看出,HLF-CGAN相比直接將原圖輸入到判別器的網(wǎng)絡(CGAN)具有更優(yōu)的去霧效果。

圖1 中判別器采用PatchGAN 結構,PatchGAN與普通GAN 的主要區(qū)別在于:普通GAN 的判別器是將輸入數(shù)據(jù)直接映射成一個概率值,而PatchGAN是將輸入數(shù)據(jù)映射成一個N×N大小的矩陣,矩陣中每個元素代表輸入圖像中一個較大的感受野。該矩陣的每個元素只有0 或1,即該元素的概率為真,最后再將求取的平均值作為判別器的最終輸出。PatchGAN 的優(yōu)點是可以從原輸入圖像較大的感受野中提取圖像更多的細節(jié)信息。判別器對輸入圖像進行4 次卷積操作,并轉(zhuǎn)換成大小為16×16×512 的特征圖,再將該特征圖拉伸成個一維矩陣,通過sigmoid 函數(shù)得到每個元素的概率值后再求取平均值,并將其作為最終判別器的輸出。

本文通過L1 正則項(最小絕對值偏差)約束生成圖像與真實圖像之間的距離,使得生成圖像的特征分布更加接近真實圖像的特征分布。與L2 正則項(最小均方誤差)相比,L1 正則項具有更優(yōu)的魯棒性。教師網(wǎng)絡的總損失函數(shù)如式(2)所示:

其中:Pdata(x)為輸入生成器圖像的數(shù)據(jù)分布;E(·)為期望值;x、y分別為原始有霧圖像和真實無霧圖像;D(x,y)、D(x,G(x))分別為判別器判斷真實圖像為真的概率及判斷生成圖像為真的概率;符號?為拼接的含義;x?xLF?xHF為將原始霧圖與其濾波后的低頻、高頻圖像拼接;λ為可調(diào)節(jié)的超參數(shù),代表損失項的權重。

2.2 學生網(wǎng)絡

雖然教師網(wǎng)絡具有更多權值參數(shù)和網(wǎng)絡層數(shù),能夠優(yōu)化去霧效果,但是其模型規(guī)模龐大,導致預訓練耗時久,從而難以應用到實際場景中。例如,在自動駕駛領域中,當圖像識別系統(tǒng)遇到霧天路況時,為達到安全駕駛的目的,系統(tǒng)需要及時進行去霧處理,此時自動駕駛的安全性將與系統(tǒng)的響應速度、去霧性能有著密切的關系。因此,如何壓縮模型規(guī)模并提高模型訓練速度成為研究熱點。

本文設計了3 個與教師網(wǎng)絡結構相似,但具有不同參數(shù)規(guī)模的學生網(wǎng)絡,分別記為學生網(wǎng)絡-1、學生網(wǎng)絡-2、學生網(wǎng)絡-3。經(jīng)計算,教師網(wǎng)絡共包含3 052.30×104個權值參數(shù),模型大小為509 852 KB。學生網(wǎng)絡-1 的生成器由6 層下采樣和6 層上采樣的編碼器-解碼器結構組成,包含1 741.47×104個權值參數(shù),模型大小為197 367 KB,約為教師網(wǎng)絡的1/2。其他2 個學生網(wǎng)絡的生成器分別由5 層和4 層的上下采樣編碼器-解碼器結構組成,模型大小分別約為教師網(wǎng)絡的1/5 和1/10,與教師網(wǎng)絡的8 層卷積與反卷積結構相比,學生網(wǎng)絡具有更少的權值參數(shù),并占用更小的內(nèi)存空間,從而節(jié)省大量的計算資源。

2.3 知識蒸餾

本文提出的知識蒸餾網(wǎng)絡結構如圖3 所示,其中學生網(wǎng)絡結構以學生網(wǎng)絡-1 為例。

圖3 知識蒸餾結構Fig.3 Structure of knowledge distillation

文獻[15]提出的知識蒸餾方法是學生網(wǎng)絡簡單模仿教師網(wǎng)絡的中間結果,考慮到教師網(wǎng)絡和學生網(wǎng)絡兩層特征圖之間的關系,本文首先通過最大池化將兩層卷積層轉(zhuǎn)化成相同的尺寸,再將其對應的通道兩兩作內(nèi)積得到FSP 矩陣,即圖3 中的GT和GS。FSP 矩陣是由Yim 等[16]提出的一種用于解決問題的流,若將流定義為2 個不同層的特征圖關系,知識蒸餾則是解決問題的流的方法。從圖3 可以看出,本文教師網(wǎng)絡的2 個FSP 矩陣是由教師網(wǎng)絡第1 層、第3 層、第4 層和第6 層的特征圖分別兩兩作內(nèi)積得到。同理,學生網(wǎng)絡的2 個FSP 矩陣也是由網(wǎng)絡相同層的特征圖作內(nèi)積得到。本文在得到教師網(wǎng)絡和學生網(wǎng)絡的FSP 矩陣后,再利用L2 損失函數(shù)縮短這2 個網(wǎng)絡FSP 矩陣之間的距離,以達到知識蒸餾的目的。FSP 矩陣的定義如式(3)所示:

其中:x、W分別為輸入圖像和網(wǎng)絡的權值參數(shù);為網(wǎng)絡中第i層特征圖;h、w、m分別為特征圖的高度、寬度和通道數(shù)為網(wǎng)絡中第j層特征圖。考慮到L2 正則項對異常點具有放大效果,本文選擇L2 范數(shù)的平方作為約束2 個網(wǎng)絡FSP 矩陣的代價函數(shù),因此中間層知識蒸餾的損失函數(shù)如式(4)所示:

其中:N為損失函數(shù)的個數(shù);λi為損失項的權值,取值為10~100[17]。通常λ值越大,代價函數(shù)在參數(shù)為0 時取到最小值,因為正則化系數(shù)越大,正則化的函數(shù)圖形會加速向坐標軸原點收縮。本文在基于λ為固定值100 時進行實驗。本文提出聯(lián)合損失函數(shù)來衡量教師網(wǎng)絡和學生網(wǎng)絡之間的特征相似性,即同時使用L1 正則項對2 個網(wǎng)絡生成器的輸出端特征圖進行約束。因此,學生網(wǎng)絡生成器的總損失函數(shù)如式(5)所示:

其中:GT(x)、GS(x)分別為教師網(wǎng)絡和學生網(wǎng)絡生成器輸出的特征圖。

本文實驗主要分為以下5 個步驟:

1)首先凍結學生網(wǎng)絡權值參數(shù),開始訓練教師模型,學生網(wǎng)絡不參與訓練,直到教師網(wǎng)絡的生成器和判別器的損失函數(shù)收斂。損失函數(shù)如式(2)所示。

2)當?shù)?×104、2×104、3×104、5×104次時,記錄教師網(wǎng)絡訓練過程中測試集圖像的去霧結果。

3)凍結并保存預訓練好的教師網(wǎng)絡的權值參數(shù),在相同的數(shù)據(jù)集上開始訓練學生網(wǎng)絡,此時教師網(wǎng)絡不參與訓練,直到學生網(wǎng)絡的生成器和判別器的損失函數(shù)收斂。損失函數(shù)如式(5)所示。

4)記錄學生網(wǎng)絡在訓練過程迭代相同次數(shù)時測試集圖像的去霧結果。

5)對比教師網(wǎng)絡與學生網(wǎng)絡在迭代相同次數(shù)時測試集中圖像的去霧效果,得到相應的實驗結論。

3 實驗結果與分析

3.1 實驗數(shù)據(jù)與設置

本文從室外合成霧天圖像數(shù)據(jù)集(OTS)和室內(nèi)合成圖像數(shù)據(jù)集(ITS)中分別選取5 000 張組合成模型的訓練集。在OTS數(shù)據(jù)集上選取不重復的1 000張霧圖和室外真實霧天圖像(HSTS)數(shù)據(jù)集中選取1 000張霧圖組合成模型的測試集。

本文方法在NVIDIA RTX 1080Ti GPU 計算機的Ubuntu16.0 系統(tǒng)上運行,并使用Tensorflow1.4.0深度學習框架進行實驗。生成器輸入圖像大小設置為256×256×3,學習率設置為固定值0.000 2,動量參數(shù)設置為0.5,采用Adam 優(yōu)化器對網(wǎng)絡進行優(yōu)化。

3.2 實驗結果分析

為客觀地評估去霧效果,本文使用峰值信噪比PSNR[18]和結構相似性SSIM[19]作為去霧評價指標。PSNR 值取決于原始霧圖與生成圖像對應像素間的誤差,其值越大,恢復得到的無霧圖像清晰度越高[20]。SSIM 從亮度、對比度、結構3 個方面對圖像相似性進行評估,其值越大,代表圖像失真越小。

3.2.1 不同參數(shù)規(guī)模的學生網(wǎng)絡去霧性能對比

圖4 為教師網(wǎng)絡與3 種不同參數(shù)規(guī)模學生網(wǎng)絡的去霧結果對比,記為A 組和B 組。表1 為教師網(wǎng)絡與不同參數(shù)規(guī)模學生網(wǎng)絡的評價指標與網(wǎng)絡規(guī)模對比。學生網(wǎng)絡-1 在具有更少模型參數(shù)的情況下,可以達到與教師網(wǎng)絡相近的去霧性能;學生網(wǎng)絡-2 和學生網(wǎng)絡-3 的去霧性能呈現(xiàn)較明顯的下降趨勢。從圖4 中方框選出的部分可以看出,學生網(wǎng)絡-3 對遠景及細節(jié)部分恢復得比較模糊,失真較嚴重。實驗結果表明,本文基于蒸餾架構,當學生網(wǎng)絡參數(shù)規(guī)模簡化為教師網(wǎng)絡的1/2 時,能夠達到最佳的蒸餾效果,當繼續(xù)簡化學生網(wǎng)絡參數(shù)規(guī)模時,網(wǎng)絡的去霧評價指標與視覺感受都會逐漸下降。

表1 教師網(wǎng)絡與學生網(wǎng)絡的評價指標與網(wǎng)絡規(guī)模對比Table 1 Evaluation indexs and network scales comparison of teacher network and student network

圖4 教師網(wǎng)絡與學生網(wǎng)絡的去霧結果對比Fig.4 Dehazing results comparison of teacher network and student network

3.2.2 知識蒸餾在模型收斂速率中的有效性

本文對不同迭代次數(shù)下教師網(wǎng)絡和學生網(wǎng)絡(學生網(wǎng)絡-1)的測試結果進行分析,分別記錄了迭代第1×104、2×104、3×104和5×104次時2 個網(wǎng)絡的去霧結果。圖5 是教師網(wǎng)絡和學生網(wǎng)絡在迭代第1×104次和第2×104次時生成器輸出的去霧圖像與原始霧圖的對比。

圖5 在不同迭代次數(shù)下教師網(wǎng)絡和學生網(wǎng)絡的去霧結果對比Fig.5 Dehazing results comparison of teacher networks and student networks under different iteration times

從迭代了相同次數(shù)的教師網(wǎng)絡和學生網(wǎng)絡的去霧結果可以看出,學生網(wǎng)絡具有更優(yōu)的去霧性能。在不同迭代次數(shù)下教師網(wǎng)絡和學生網(wǎng)絡的去霧評價指標如表2 所示。

表2 在不同迭代次數(shù)下教師網(wǎng)絡和學生網(wǎng)絡去霧評價指標對比Table 2 Dehazing evaluation indexes comparison of teacher networks and student networks under different iteration times

從表2 可以看出,在迭代第1×104和2×104次時,學生網(wǎng)絡的PSNR、SSIM 值略優(yōu)于迭代相同次數(shù)時的教師網(wǎng)絡,并且學生網(wǎng)絡在迭代到第3×104次時PSNR、SSIM 數(shù)值已接近于教師網(wǎng)絡迭代第5×104次時的值。這是由于訓練好的重型網(wǎng)絡通常具有大量信息,輕量型網(wǎng)絡通過重型網(wǎng)絡的知識遷移優(yōu)化權值參數(shù)時,只需要對參數(shù)進行微調(diào),因此,輕量型網(wǎng)絡的訓練速度遠優(yōu)于從頭開始訓練的網(wǎng)絡。

由此可以得出:迭代次數(shù)的增加對于網(wǎng)絡性能的提升起著至關重要的作用,由于學生網(wǎng)絡得到了從教師網(wǎng)絡遷移的知識,它可以使用比教師網(wǎng)絡更少的迭代次數(shù),從而達到與其相同的去霧性能。

3.2.3 知識蒸餾在圖像去霧中的有效性

為驗證知識蒸餾在圖像去霧中的有效性,將本文提出的方法與DCP 方法[2]、文獻[21]方法、NLP 方法[22]、GMAN 方法[7]和EPDN 方法[6]進行對比,對比結果如圖6 所示(彩色效果見《計算機工程》官網(wǎng)HTML 版)。其中A 組和B 組圖像選自OTS 數(shù)據(jù)集,C 組和D 組圖像選自HSTS 數(shù)據(jù)集。

圖6 不同方法的去霧結果對比Fig.6 Dehazing results comparison among different methods

從圖6 可以看出,DCP 方法對天空區(qū)域和白色區(qū)域的去霧失真嚴重,會將天空區(qū)域處理成深藍色,白色物體會產(chǎn)生過高的對比度。文獻[21]提出基于暗原色先驗去霧方法,也存在天空區(qū)域去霧效果失真的問題。雖然NLP 方法去霧性能較優(yōu),但是與真實圖像對比存在顏色失真的問題。基于DNN 的EPDN 方法可以生成比較自然的去霧圖像,然而在霧濃度大的區(qū)域中去霧結果會留有一些薄霧。基于編碼-解碼結構的端到端去霧網(wǎng)絡GMAN 通過殘差模塊提取霧天圖像的特征信息,具有良好的去霧效果,但恢復的圖像中存在較明顯的網(wǎng)格狀條紋,影響主觀視覺感受。由于本文設計的基于CGAN 網(wǎng)絡不需要生成器中特定的函數(shù)形式,也無需利用馬爾科夫鏈反復采樣、推斷,因此不會存在概率問題,生成的圖像也更加清晰。圖6 中每幅圖的下方標出了該圖的去霧量化指標SSIM/PSNR,本文提出的KD-GAN 去霧方法得到的量化指標與其他方法相比取得了較高的值。表3 為在兩種數(shù)據(jù)集上不同去霧方法的去霧評價指標PSNR、SSIM 的平均值。從表3可以看出,本文提出的KD-GAN 方法的PSNR 和SSIM 在OTS 和HSTS 數(shù)據(jù)集上均取得了較高的值,表明本文提出方法的去霧效果更優(yōu)。

表3 不同方法的評價指標平均值對比Table 3 The average value of evaluation indexs comparison among different methods

4 結束語

本文提出一種基于條件生成對抗網(wǎng)絡與知識蒸餾的單幅圖像去霧方法。通過設計基于編碼器-解碼器結構的條件生成對抗網(wǎng)絡,將原始有霧圖像作為條件信息添加到判別器的輸入端,以改進霧天圖像的去霧效果。為降低生成對抗網(wǎng)絡計算量和存儲成本,通過選擇L2 范數(shù)的平方來約束重型網(wǎng)絡和輕量化網(wǎng)絡的FSP 矩陣,使用L1 正則項對兩個網(wǎng)絡生成器輸出端的特征圖進行約束。在OTS 和HSTS 數(shù)據(jù)集上的實驗結果表明,本文方法的峰值信噪比和結構相似性分別為0.902 0/22.418 8 和0.895 8/22.888 5,能夠有效改善去霧效果,同時加快訓練速度。后續(xù)將優(yōu)化以過程為導向的損失函數(shù),進一步提升學生網(wǎng)絡的學習效率和去霧性能。

猜你喜歡
特征方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
主站蜘蛛池模板: 精品无码一区二区三区在线视频| 亚洲欧美成人影院| 91色爱欧美精品www| 日韩欧美国产三级| 人妻一区二区三区无码精品一区| 毛片免费在线视频| 国产情侣一区| 亚洲视频免费在线| 91精品网站| 亚洲天堂在线免费| 欧美成人一级| 欧美无专区| 亚洲性日韩精品一区二区| 欧美人在线一区二区三区| 国产精鲁鲁网在线视频| 欧美精品在线看| 亚洲欧洲日韩综合| 国产成人欧美| 亚洲精品午夜天堂网页| 免费高清a毛片| 成人a免费α片在线视频网站| 国产欧美日韩综合一区在线播放| 日韩成人午夜| 婷婷99视频精品全部在线观看| 日本人妻一区二区三区不卡影院| 国禁国产you女视频网站| 色综合婷婷| 色久综合在线| 综合久久久久久久综合网| 伊人久久大香线蕉成人综合网| www.狠狠| 特黄日韩免费一区二区三区| 国产精品毛片在线直播完整版| 亚洲精品视频免费看| 国产精品流白浆在线观看| 色婷婷综合激情视频免费看| 免费又黄又爽又猛大片午夜| 欧美日韩资源| 精品1区2区3区| 日韩欧美视频第一区在线观看| 一本无码在线观看| 国产高清不卡视频| 欧美精品1区2区| 666精品国产精品亚洲| 亚洲天堂视频在线观看免费| 亚洲中文无码h在线观看 | 日本欧美午夜| 日本手机在线视频| 91久草视频| 成人国产精品2021| 亚洲无码免费黄色网址| 98超碰在线观看| a亚洲视频| 91麻豆精品国产高清在线| 麻豆精品国产自产在线| 在线观看国产精品第一区免费| 久久亚洲中文字幕精品一区| 亚洲欧美成人在线视频| 亚洲无线国产观看| 夜夜操国产| 国产丰满大乳无码免费播放 | 国产精品入口麻豆| 一区二区欧美日韩高清免费| 国产精品香蕉| 国产一区免费在线观看| 国产高清无码第一十页在线观看| 91福利免费| 91成人在线观看视频| 欧美一级在线| 国产成人一二三| 国产精品亚洲欧美日韩久久| 亚洲无码高清一区| 久久黄色影院| 四虎影视8848永久精品| 日韩一区精品视频一区二区| 91色爱欧美精品www| 久久久久青草线综合超碰| 免费看美女自慰的网站| 亚洲va在线∨a天堂va欧美va| 国产视频一区二区在线观看| 国产99精品视频| 国产欧美日韩18|