999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于生成對抗網絡的空中目標圖像生成算法研究

2021-06-24 02:19:34祁生勇臧月進呂國云
空天防御 2021年2期
關鍵詞:模型

祁生勇,臧月進,呂國云,杜 明

(1.西北工業大學電子信息學院,陜西西安 710072;2.上海機電工程研究所,上海 201109)

0 引言

2014年,Goodfellow 等[1]提出無監督生成對抗網絡(generative adversarial networks,GAN),得益于GAN 巧妙的構思,其在圖像生成領域取得了巨大的成功。

2015年,Denton 等[2]提出了拉普拉斯金字塔生成對抗網絡(Laplacian pyramid GAN,LAPGAN),該算法將拉普拉斯金字塔和條件生成對抗網絡[3]相結合,提升了生成圖像的質量。2015年,Radford[4]提出了DCGAN,該模型結合卷積神經網絡對于圖像特征的提取能力和GAN 對數據建模的能力,進一步提升了生成圖像的質量。2017年,Arjovsky[5]等提出了WGAN(Wasserstein GAN),從理論層面分析了原始GAN 訓練不穩定的問題。 WGAN 使用Wasserstein 距離衡量真實數據分布和生成數據分布的距離,能夠在任何情況下為生成器提供梯度信息以更新參數。

目前,生成對抗網絡在圖像生成、圖像轉換、圖像超分辨率等[6]領域取得了巨大的成功。空中目標種類繁多,并且各種機型姿態各異,公開的數據集較少,因此針對空中目標圖像生成的難度較大。本文基于DCGAN架構,通過優化判別器損失函數,提高了模型訓練穩定性,同時提高了生成圖像的質量。

1 基于DCGAN模型的圖像生成算法

DCGAN 首次將GAN 和卷積神經網絡結合起來,同時設計了一些優化訓練的技巧防止模式崩塌,一定程度上解決了原始GAN 訓練不穩定的問題,在MNIST[7]和LSUN[8]數據集中取得了較好的結果。

1.1 DCGAN網絡結構

DCGAN 訓練過程如圖1所示,首先隨機向量輸入生成器得到生成圖像,判別器負責區分圖像為真的概率。判別器輸出概率越接近1 說明輸入圖像越真實,接近0 則說明與真實圖像差距較大。生成器和判別器不斷地對抗迭代優化,理論上,最終判別器無法區分輸入的是真實還是生成的圖像,對任何輸入得到的輸出都為0.5,這時模型就達到了最優,生成器完整捕獲了數據的真實分布。

圖1 DCGAN訓練過程Fig.1 DCGAN training process

圖2 展示了DCGAN 生成器網絡結構,首先輸入大小為100且服從均勻分布的隨機向量z,接著將其映射為1 024 個4×4 大小的特征圖,特征圖通過4 個不同的步幅卷積步驟后得到大小為64×64 的彩色圖像G(z)。

圖2 DCGAN生成器網絡結構Fig.2 DCGAN generator network structure

DCGAN 判別器網絡結構如圖3所示,判別器由4個卷積層和1 個全連接層構成,輸入真實圖像或生成圖像,輸出圖像為真的概率,若為真實圖像則概率接近1,若為生成圖像則概率接近0。同生成器一樣,除了輸入層,其他所有層都進行批歸一化[9]處理。

圖3 DCGAN判別器網絡結構Fig.3 DCGAN discriminator network structure

1.2 DCGAN模型的損失函數

DCGAN 的損失函數和原始GAN 的損失函數一樣,都為交叉熵損失函數,如式(1)所示。

式中:z和x分別表示隨機向量和真實圖像;pdata(x)和pz(z)分別表示真實圖像和隨機向量的概率分布;G和D分別表示生成器網絡和判別器網絡;E表示數學期望;V(D,G)表示目標函數。判別器D的目標是區分真實圖像和生成圖像:對于式(1)右側的第1 項,輸入是真實圖像,判別器D希望輸出的概率接近1;對于式(1)右側的第2 項,輸入為生成圖像G(z),判別器希望輸出趨近于0,取反之后也是越大越好,這就是max(D)的含義。生成器訓練時,D保持不變,為了“欺騙”判別器,希望D(G(z))接近1,這時生成的圖像會更接近真實圖像,整體越小代表生成效果越好,這就是min(G)的含義。

1.3 DCGAN模型存在的問題

空中目標種類繁多、姿態各異,圖像特征復雜,DCGAN 使用交叉熵損失函數易導致模型梯度消失,陷入局部最優解,不能完整地捕捉數據真實的分布。圖4 給出了生成器數據分布與真實數據分布示意圖,藍色實線表示生成器捕捉的數據分布,黑色虛線表示真實的數據分布:(a)表示訓練剛開始,兩者距離較遠;(b)表示隨著模型不斷地訓練,生成器學習到的數據分布向真實分布靠近;(c)表示理想狀況下生成器完全學習到了真實分布。

圖4 生成器數據分布與真實數據分布示意圖Fig.4 Schematic diagram of generator data distribution and real data distribution

DCGAN 損失函數為交叉熵損失,生成器很容易收斂到局部最優,參數無法更新,最終生成器的數據分布與真實數據分布如圖4(b)所示,這會導致生成圖像有偽影、圖像模糊等問題,因此需要對損失函數進行優化。

2 改進的DCGAN圖像生成算法

2.1 DCGAN損失函數缺陷

基于第1 章的分析,DCGAN 的損失函數包含最大化判別器和最小化生成器。Goodfellow[1]等證明,當損失函數為交叉熵損失時,假設最優的判別器固定,生成器G更新的目標如式(2)所示。

式中:pdata(x)和分別代表真實數據的分布和生成器的數據分布;x和分別表示真實圖像和生成圖像;LG表示生成器損失函數。對式(2)進一步化簡得到式(3)。

所以DCGAN 的生成器損失函數近似于最小化pdata(x)和之間的JS 散度(Jensen-Shannon divergence)。Arjovsky[5]指出,若pdata(x)和不重疊,則兩個分布之間的JS 散度為常數2 lg2,因此生成器的梯度將變為0,而WGAN 中使用Wasserstein 距離去判斷兩者之間的距離,每次更新判別器權重時都強制映射到一個區間,保證了反向傳播過程永遠有梯度信息,兩者之間的關系如圖5所示。

圖5 WGAN梯度示意圖Fig.5 Schematic diagram of WGAN gradient

2.2 Wasserstein距離

針對原始GAN 存在的問題,WGAN 使用Wasserstein 距離反映兩個分布之間的距離,如式(4)所示。

式中:γ表示pdata(x)和聯合分布;Π表示所有聯合分布的集合;表示兩個數學分布的Wasserstein距離。

對于每個可能的聯合分布γ,從中采樣得到真實圖像x和生成圖像,計算該聯合分布下的期望值,在所有可能的期望值中取下界,就得到了Wasserstein 距離。相較于JS 散度,即使兩個分布不重疊,Wasserstein距離也能用來衡量兩者之間的距離關系。

雖然Wasserstein 距離更準確地度量了生成圖像和真實圖像的分布距離,但是式(4)無法直接求解,因此進一步化簡為式(5)。

式中,D∈1-Lipschitz 表示判別器D滿足1-Lipschitz連續性條件,所以每次判別器權重參數會被強制截斷到[-0.01,0.01]之間。

總體來說,原始GAN 中交叉熵損失函數不能很好地判別兩個分布的距離。所以,WGAN 提出使用Wasserstein 距離衡量兩個分布之間的距離,無論兩者距離多遠,都能提供有效的梯度信息以更新網絡參數。

2.3 改進的損失函數

為了更清楚地說明判別器的作用,將式(1)中判別器的部分改寫為式(6)。

式中,LD表示判別器損失。根據2.2節的分析,為了保證模型訓練過程中梯度不為0,WGAN 在梯度更新時把判別器權重截斷在[-0.01,0.01]之間,使其滿足Lipschitz連續性條件。但是強制性截斷處理會使得判別器丟失一部分圖像信息,只能學習到一個簡單的分布,這時判別器對復雜的飛機圖像特征分辨能力較弱,因此本文對WGAN 判別器的權重參數使用梯度懲罰[10]替代強制性截斷,同時滿足Lipschitz 連續性條件,如式(7)所示。

式(7)中:y表示在x和的連線上隨機插值采樣得到的一個新樣本;ppenalty表示新樣本的分布;λ表示懲罰系數。進一步化簡可以得到式(8)。

梯度懲罰過程如下:首先隨機選擇一個真實樣本x~pdata(x)和一個生成樣本;然后在x和的連線上隨機插值采樣得到的一個新的樣本y~ppenalty。最后一項懲罰項表示:判別器D對采樣得到的樣本y求梯度,梯度大于1 的時候,懲罰項會使梯度信息接近1,這樣就會將梯度限制在一定范圍,pdata(x)和的距離也會越來越近,生成的樣本越來越符合真實場景。

最終加入懲罰項的判別器損失函數,如式(9)所示。

3 實驗結果與分析

3.1 實驗概述

1)實驗環境配置及數據集。實驗環境基于酷睿i7 處理器與英偉達GTX1080Ti GPU 環境以及Pytorch 1.4.0深度學習框架。

構建空中機動目標數據集,該數據集包含6 800張各種類型的空中目標圖片,網絡模型的訓練集與交叉驗證集包含4 760 張圖片,測試數據集包含2 040 張空中目標圖片。

2)訓練方式設計。由于網絡參數較多,為了防止模型對于訓練數據集過擬合,在模型訓練時使用Dropout[11]技術,隨機固定某些參數不更新。

生成器和判別器組成的DCGAN 網絡體現的是一種相互對抗學習的過程,如果判別器訓練效果足夠好,生成器梯度會消失;判別器訓練效果不好,生成器梯度又會不夠準確。為了權衡兩者的關系,在訓練過程中,判別器參數更新多次,生成器參數更新一次。

3)實驗參數設置。本文所有的訓練過程中模型的學習率均為0.000 2;batch size 為64;梯度懲罰λ=10;生成器和判別器參數更新次數比例為1∶5,即判別器參數更新5次,生成器參數更新1次。

3.2 評價標準

為評價改進后算法的性能,從模型訓練過程穩定性以及生成圖像FID[12]和IS[13]得分兩方面進行分析比較。改進前后生成器損失函數對比如圖6所示。

圖6 改進前后生成器損失函數對比Fig.6 Comparison of generator loss function before and after improvement

訓練穩定性評估:為了評估改進DCGAN 訓練過程的穩定性,本文采用相同的數據集對改進前后的損失函數進行比較,由圖6可知,改進后模型的生成器損失函數整體波動更小,訓練過程更穩定。

圖像生成質量評估:FID 分析于2017年被提出,該方法首先把真實圖像和生成圖像輸入訓練好的分類模型中(如Inception Net-V3網絡),去除了最后的池化層得到一個高維特征向量,通過計算生成圖像和真實圖像高維特征向量的距離,就可以得到FID 分數,FID 越小,表示生成的圖像質量越好、多樣性越好,數學表示如式(10)所示。

式中:μ為經驗均值;Σ為經驗協方差;Tr為矩陣的跡;x代表真實圖像,g代表生成圖像。

IS 是另一個通用的GAN 模型評價標準,IS 評價的思路也是使用一個訓練好的網絡對生成圖像進行分類,如果分類的準確性越高,說明生成的圖像越真實;同時生成每個種類圖像的概率越平均,說明模型生成圖像的多樣性越高。綜合得分越高表明生成器生成圖像質量越好,數學表示如式(11)所示。

式中:表示生成圖像;m表示標簽信息;是這兩個分布的KL 散度,對其求指數就得到了最終IS分數。

3.3 實驗結果分析

本文使用空中機動目標數據集,基于Pytorch深度學習框架分別對原始的DCGAN和改進的DCGAN網絡進行訓練,測試了32×32 和64×64 兩種分辨率的圖像。

圖6 為訓練損失函數曲線,由圖6 可知,改進后的生成器損失函數波動明顯下降,訓練過程更加穩定。圖7(a)和圖7(b)分別為改進前后32×32 分辨率的圖像生成結果,可以看出,改進后的生成圖像的邊緣細節更清楚,圖像噪點明顯減少并且目標主體和背景區分明顯。圖8(a)表示真實圖像,圖8(b)和圖8(c)分別表示改進前后64×64分辨率的圖像生成結果。與圖7相比,當分辨率增大時,更多的圖像細節顯示了出來,如:直升機機翼、戰斗機尾翼以及起落架都更加清晰明顯。從圖8(b)可以看出改進前生成的飛機圖像輪廓不明顯,并且容易與背景混合,會出現很多不真實的紋理;從圖8(c)可以看出改進后的飛機主體與背景更容易區分,當飛機顏色與背景相近時也不會出現兩者混在一起的情況,生成圖像更加接近真實場景。

圖7 改進前后模型生成結果對比(32×32)Fig.7 Comparison of generated results(32×32)before and after improvement

圖8 真實圖像與改進前后模型生成結果對比(64×64)Fig.8 Comparison of real images and generated results(64×64)before and after improvement

綜上所述,改進后模型生成的圖像能夠展示更多細節,飛機主體與背景差異顯著增強。通過觀察生成結果還可以看出,改進后模型生成的空中目標圖像與真實圖像更接近,虛假紋理減少,圖像邊緣細節更加豐富,可為空中目標檢測識別任務提供更強的數據支持。表1給出了兩種算法的FID和IS得分情況。

從表1 中可以看出,改進后的模型在32×32 分辨率下FID 和IS 得分分別提高了9.4%和7.6%;64×64分辨率下FID 和IS 得分分別提高了5.9%和4.8%。由此可得,改進后的模型生成圖像的質量更高,圖像細節更豐富,生成種類更加多樣化,沒有出現原始DCGAN模式崩潰的情況。

表1 兩種算法FID和IS得分比較Tab.1 Comparison of FID and IS scores between two algorithms

4 結束語

本文提出一種改進的DCGAN 圖像生成算法。模型訓練過程中使用改進的Wasserstein 距離衡量生成數據分布和真實數據分布,優化了原始DCGAN 的判別器損失函數,能夠在任何情況下為生成器提供梯度信息。實驗結果表明,針對空中目標數據集,改進后的模型訓練過程更加穩定,生成圖像更清晰,并且能夠根據需求生成不同分辨率的圖像,可以有效擴充空中目標檢測任務的數據樣本。

猜你喜歡
模型
一半模型
一種去中心化的域名服務本地化模型
適用于BDS-3 PPP的隨機模型
提煉模型 突破難點
函數模型及應用
p150Glued在帕金森病模型中的表達及分布
函數模型及應用
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 都市激情亚洲综合久久| 亚洲国产成人在线| 国产亚洲精| 亚洲精品成人7777在线观看| 色一情一乱一伦一区二区三区小说| 中文字幕久久亚洲一区| 亚洲人成在线精品| 欧美一级夜夜爽www| 99热这里只有精品国产99| 小蝌蚪亚洲精品国产| 波多野结衣无码中文字幕在线观看一区二区| 麻豆精品在线播放| 精品国产www| 呦女精品网站| 无码'专区第一页| 欧美乱妇高清无乱码免费| 2021国产精品自产拍在线| 中文国产成人久久精品小说| 米奇精品一区二区三区| 欧美三級片黃色三級片黃色1| 99视频精品全国免费品| 国产乱人视频免费观看| 欧美成人免费午夜全| 亚洲区欧美区| 日韩欧美亚洲国产成人综合| 女人18一级毛片免费观看| 亚洲人妖在线| 欧美激情伊人| 国产黄网站在线观看| 亚洲最新地址| 2022精品国偷自产免费观看| JIZZ亚洲国产| 激情综合婷婷丁香五月尤物| 91色在线观看| 久久久久88色偷偷| 亚洲 成人国产| 最新午夜男女福利片视频| 中文字幕丝袜一区二区| 全裸无码专区| 九九九国产| 成人在线观看不卡| 日韩A级毛片一区二区三区| 一区二区三区毛片无码| 一本一道波多野结衣一区二区| 国产人人射| 狠狠五月天中文字幕| 色成人亚洲| 久久国产成人精品国产成人亚洲 | 又粗又大又爽又紧免费视频| 97成人在线观看| 国产精品男人的天堂| 91精品aⅴ无码中文字字幕蜜桃 | a毛片在线免费观看| 亚洲精品欧美日本中文字幕| 精品撒尿视频一区二区三区| 91久久青青草原精品国产| 九九这里只有精品视频| 亚洲IV视频免费在线光看| 91小视频在线观看| 无码丝袜人妻| 国产精品一区在线麻豆| a毛片免费在线观看| 国产精品无码久久久久久| 日韩av无码精品专区| a欧美在线| 五月婷婷精品| 色香蕉影院| 国产浮力第一页永久地址| 日韩高清欧美| 99国产精品免费观看视频| 日韩成人在线视频| 热这里只有精品国产热门精品| 直接黄91麻豆网站| 影音先锋亚洲无码| 国产成人亚洲精品蜜芽影院| 久久精品91麻豆| 99热这里都是国产精品| 99re精彩视频| 日韩AV无码免费一二三区| 亚洲一区国色天香| 国产精品hd在线播放| 国产精品青青|