999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

深度學(xué)習(xí)在圖像處理領(lǐng)域中的應(yīng)用綜述

2018-09-10 03:06:54殷琪林王金偉
高教學(xué)刊 2018年9期
關(guān)鍵詞:深度學(xué)習(xí)

殷琪林 王金偉

摘 要:隨著大數(shù)據(jù)時代的到來,一系列深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)已在圖像處理領(lǐng)域展現(xiàn)出巨大的優(yōu)勢,為了能夠及時跟蹤深度學(xué)習(xí)在圖像領(lǐng)域的最新發(fā)展,文章針對深度學(xué)習(xí)在圖像處理領(lǐng)域的相關(guān)研究進行綜述。首先介紹深度學(xué)習(xí)的背景和卷積神經(jīng)網(wǎng)絡(luò)的知識,旨在從本質(zhì)上理解深度學(xué)習(xí)應(yīng)用在圖像領(lǐng)域的基本模型架構(gòu)及其優(yōu)化方法;其次主要在圖像識別、取證、檢測三個方向上,具體論述深度學(xué)習(xí)在圖像領(lǐng)域多個方向上的演變與發(fā)展,其目的在于了解深度學(xué)習(xí)對具體圖像處理問題的最新研究并掌握多種模型或技術(shù);最后指出深度學(xué)習(xí)在圖像領(lǐng)域存在的問題以及對未來的展望。

關(guān)鍵詞:深度學(xué)習(xí);卷積神經(jīng)網(wǎng)絡(luò);算法模型;圖像處理

中圖分類號:G640 文獻標(biāo)志碼:A 文章編號:2096-000X(2018)09-0072-03

Abstract: With the development of the era of big data, a series of deep learning network structures have shown great advantages in the field of image processing. In order to track the latest development of deep learning of imaging, this paper summarizes the related research in the field of image processing. Firstly, the background of deep learning and the knowledge of convolutional neural networks are introduced to fundamentally understand the basic model architecture and optimization methods of deep learning applied in the image domain. Secondly, the evolution and development of deep learning in multiple directions are discussed from recognition, forensics, and detection to understand the latest research of deep learning on concrete image processing problems and grasp various models or technologies. Finally, the problems faced in the future are analyzed.

Keywords: deep learning; convolutional neural network; algorithm model; image processing

一、概述

在當(dāng)今飛速發(fā)展的信息時代,數(shù)字圖像作為一種常見且有效的信息載體已滲透到社會生活的每一個角落,致使我們對圖像處理的需求也日益增長。與此同時身處于大數(shù)據(jù)時代,數(shù)字圖像產(chǎn)生的速度和規(guī)模也是非常驚人的,所以針對圖像信息處理任務(wù)也相應(yīng)地被要求具有高效率,高性能和智能化的特點。

特征表達是圖像處理的關(guān)鍵,傳統(tǒng)的特征設(shè)計需要人工完成,但這種方式過程復(fù)雜并對設(shè)計者的技術(shù)有很高的要求,所以自動化特征設(shè)計成了高效圖像處理的迫切需求。

深度學(xué)習(xí)是新興的機器學(xué)習(xí)研究領(lǐng)域,旨在研究如何從數(shù)據(jù)中自動地提取多層次特征表示,其核心思想是通過數(shù)據(jù)驅(qū)動的方式,采用一系列的非線性變換,從原始數(shù)據(jù)中提取多層次多角度特征,從而使獲得的特征具有更強的泛化能力和表達能力,這恰好滿足高效圖像處理的需求。為滿足圖像處理問題的各類需求,以卷積神經(jīng)網(wǎng)絡(luò)為代表的深度學(xué)習(xí)理論不斷取得突破,本文結(jié)合深度學(xué)習(xí)基本原理,對其在圖像處理領(lǐng)域的算法,模型甚至方法的演化和創(chuàng)新進行重點論述。

二、深度學(xué)習(xí)

(一)深度學(xué)習(xí)的背景

神經(jīng)網(wǎng)絡(luò)在二十世紀(jì)五十年代被提出,然而礙于當(dāng)時網(wǎng)絡(luò)訓(xùn)練算法理論欠缺、訓(xùn)練樣本不足和電腦的計算能力不佳,神經(jīng)網(wǎng)絡(luò)發(fā)展遇到瓶頸。隨著云計算、大數(shù)據(jù)時代的到來,計算能力的大幅提高可緩解訓(xùn)練的低效性,訓(xùn)練數(shù)據(jù)的大幅增加則可降低過擬合的風(fēng)險,再結(jié)合無監(jiān)督逐層訓(xùn)練策略和早已提出的BP算法,使得訓(xùn)練很深層的神經(jīng)網(wǎng)絡(luò)變得可能,因此深度學(xué)習(xí)這個概念開始被人們廣泛關(guān)注。

典型的深度學(xué)習(xí)模型就是很深層的神經(jīng)網(wǎng)絡(luò)。多隱層堆疊,每一層都對上一層的輸出進行處理,從而把最初始的輸入與輸出目標(biāo)之間不太密切的聯(lián)系,轉(zhuǎn)化為更為密切的表示,使得原來僅基于最后一層輸出映射難以完成的任務(wù)變?yōu)榭赡埽@種學(xué)習(xí)模式也可理解為自動的“特征學(xué)習(xí)”。

(二)卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)

圖像識別是深度學(xué)習(xí)最早嘗試的領(lǐng)域,其中卷積神經(jīng)網(wǎng)絡(luò)發(fā)揮了巨大的作用。

一般卷積神經(jīng)網(wǎng)絡(luò)由卷積層,池化層,全連接層這三種類型的層堆疊組成,每個層都有其獨有的特點和作用:

1. 卷積層:提取特征,輸入特征圖X與K個二位濾波器進行卷積運算輸出K個二維特征圖。采用卷積運算有兩點好處:(1)卷積操作可以提取相鄰像素之間的局部關(guān)系;(2)卷積操作對圖像上的平移、旋轉(zhuǎn)和尺度等變換具有一定的魯棒性。

2. 池化層:處理卷積層輸出的結(jié)果,對輸入的特征圖進行壓縮,一方面使特征圖變小,簡化網(wǎng)絡(luò)計算復(fù)雜度;另一方面精簡特征圖,提取主要特征,降低特征表達維度的同時,也對平移和扭曲等較小形變具有魯棒性。

3. 全連接層:連接所有特征,將輸出值送給分類器。

(三)基于神經(jīng)網(wǎng)絡(luò)的優(yōu)化方法

隨著神經(jīng)網(wǎng)絡(luò)模型層數(shù)越來越深,訓(xùn)練數(shù)據(jù)集越來越大,模型結(jié)構(gòu)越來越復(fù)雜,網(wǎng)絡(luò)訓(xùn)練往往會遇到過擬合、梯度消失或爆炸等問題。本節(jié)介紹幾種優(yōu)化神經(jīng)網(wǎng)絡(luò)的方法:

1. Dropout:Hinton等人提出了“Dropout”優(yōu)化技術(shù),旨在深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練過程中,對神經(jīng)網(wǎng)絡(luò)單元按照一定的概率將其暫時從網(wǎng)絡(luò)中丟棄。注意是暫時,所以在使用隨機梯度下降方法訓(xùn)練網(wǎng)絡(luò)時,每一個小批量數(shù)據(jù)都在訓(xùn)練不同的網(wǎng)絡(luò)。Dropout方法破壞了節(jié)點之間的相關(guān)性,使得網(wǎng)絡(luò)能學(xué)到更有泛化性的特征,有效防止過擬合。

2. 批量標(biāo)準(zhǔn)化:BN算法由Google在2015年提出,用來訓(xùn)練深層次神經(jīng)網(wǎng)絡(luò)。BN算法可以用來規(guī)范化某些層或者所有層的輸入,從而固定每一層輸入信號的均值與方差,有效防止梯度爆炸或消失問題。

三、深度學(xué)習(xí)在圖像領(lǐng)域的應(yīng)用

(一)圖像識別

深度學(xué)習(xí)技術(shù)最先是被應(yīng)用到圖像識別方向,并取得了引人矚目的效果。Alex等人[1]提出的AlexNet網(wǎng)絡(luò)是第一個用于圖像識別的深層卷積神經(jīng)網(wǎng)絡(luò),后續(xù)一系列圖像識別方面的深度學(xué)習(xí)發(fā)展都是以此為基礎(chǔ),相比于傳統(tǒng)的CNN結(jié)構(gòu),AlexNet網(wǎng)絡(luò)變得更深更寬,該網(wǎng)絡(luò)由5個卷積層和3個全連接層依次疊加組成。AlexNet網(wǎng)絡(luò)確立了深度學(xué)習(xí)(深度卷積網(wǎng)絡(luò))在圖像識別的統(tǒng)治地位,也定義了深度學(xué)習(xí)模型在圖像處理領(lǐng)域的一般性主體架構(gòu)——前饋卷積神經(jīng)網(wǎng)絡(luò):卷積層與池化層多樣化相互堆疊作為特征提取器,隨后連接多層全連接層,作為分類器,信息流方向固定而單一。接下來本文將從深度學(xué)習(xí)在圖像識別方向的主體架構(gòu)的局部修改和主體變化兩方面論述深度學(xué)習(xí)的發(fā)展。

1. 網(wǎng)絡(luò)結(jié)構(gòu)的局部修改

VGGNet網(wǎng)絡(luò)[2]是AlexNet網(wǎng)絡(luò)更深更寬的演變。相比于AlexNet網(wǎng)絡(luò),VGGNet網(wǎng)絡(luò)局部采用更多的小型卷積核串聯(lián)疊加替換一個大型的卷積核。這樣做不僅取得同樣的卷積效果,還添加了更多的非線性操作,使得網(wǎng)絡(luò)能提取到更加豐富的特征,同時參數(shù)量還減少了。VGGNet網(wǎng)絡(luò)證明了網(wǎng)絡(luò)層次越深提取的特征越豐富圖像識別效果越好。

NIN網(wǎng)絡(luò)則在卷積核上做了改變,將單一的線性卷積核換成多層感知機(MLP)。CNN高層特征其實是低層特征通過多種運算的組合,多非線性運算的組合能使高層特征更具泛化性。由于MLP卷積核的存在,NIN網(wǎng)絡(luò)的一次卷積操作相當(dāng)于多個卷積層操作的結(jié)果,所以NIN網(wǎng)絡(luò)能以較少的層數(shù)達到更深網(wǎng)絡(luò)的圖像識別效果。

Google Inception Net網(wǎng)絡(luò),被稱為Inception V1網(wǎng)絡(luò)。它借鑒NIN網(wǎng)絡(luò)的思想改變了卷積層,新的卷積層也被稱作Inception Module。卷積層被分成了四條并行的卷積操作線路,上層的特征輸入經(jīng)過四條線路操作后通過一個聚合操作合并作為輸出輸入到下一層。Module中大量使用1*1的卷積操作不僅可以跨通道組織信息,提高網(wǎng)絡(luò)的表達能力,還可以對輸出通道進行升維和降維,簡化計算過程。Inception V1網(wǎng)絡(luò)在獲得豐富特征信息的同時,也增強了對不同輸入尺度的適應(yīng)性。

以上所提及的用于圖像識別的深度學(xué)習(xí)模型盡管為了獲得更好的特征表達能力,增加了網(wǎng)絡(luò)深度或者復(fù)雜了卷積層的操作,但這些都是一些局部結(jié)構(gòu)的改變,網(wǎng)絡(luò)的主體架構(gòu)——前饋卷積神經(jīng)網(wǎng)絡(luò)未變,特征圖的流向仍是單一的,一層接著一層,這必然導(dǎo)致隨著網(wǎng)絡(luò)深度的增加靠近輸出的深層網(wǎng)絡(luò)難以充分獲取淺層網(wǎng)絡(luò)的特征圖,圖像識別準(zhǔn)確率趨于平穩(wěn)后會出現(xiàn)Degradation[3]現(xiàn)象,反向傳播時淺層網(wǎng)絡(luò)收不到深層網(wǎng)絡(luò)傳來的梯度,網(wǎng)絡(luò)模型難以訓(xùn)練,這些問題都影響了更深的深度學(xué)習(xí)模型發(fā)展。

2. 網(wǎng)絡(luò)結(jié)構(gòu)的主體變化

為了解決上一節(jié)的問題,He等人[3]提出了ResNet網(wǎng)絡(luò)模型,借鑒了Highway Networks通過門閥控制信息流的思想,改變了特征信息的流向,第L層的輸出不再單一的影響L+1的輸出還影響L+2層的輸出,所以每兩層可以組成一個殘差學(xué)習(xí)塊,殘差塊變相的改變了學(xué)習(xí)目標(biāo)。整個ResNet網(wǎng)絡(luò)由多個殘差塊堆疊,中間再夾雜著池化層組成,訓(xùn)練過程中只需學(xué)習(xí)輸入和輸出的差別,保護了信息完整性,簡化了學(xué)習(xí)目標(biāo)和難度。

ResNet網(wǎng)絡(luò)的思想對圖像識別領(lǐng)域的深度學(xué)習(xí)技術(shù)影響深遠,具有很強的推廣性。DenseNet網(wǎng)絡(luò)[4]就是這種思想的發(fā)展與增強,類似于殘差塊,DenseNet網(wǎng)絡(luò)有稠密塊。每一層的輸出都是之后所有層的輸入,并且數(shù)據(jù)聚合采用的是拼接而非ResNet中的相加,保證每一組輸入特征圖維度一致,這種方法更加促進了網(wǎng)絡(luò)中信息的交流。DenseNet網(wǎng)絡(luò)緩解了梯度消失問題,加強了特征傳播,極大的減少了參數(shù)量。

上述兩種圖像識別的深度學(xué)習(xí)模型都改變了特征信息流的傳輸方向,可跨層次傳輸,不再是單一的前饋卷積神經(jīng)網(wǎng)絡(luò),使得圖像識別準(zhǔn)確率相比于前饋卷積神經(jīng)網(wǎng)絡(luò)越來越好,這也符合人類思維判定的方式,結(jié)合多方面多層次的概括信息比單方面詳細信息能更好的識別一個物體。

(二)圖像取證

圖像的完整周期包含三個部分:圖像獲取、圖像編碼、圖像編輯。圖像取證的出發(fā)點是通過提取圖像在上述三周期中留下的固有痕跡(指紋特性)來分析和理解圖像的操作歷史。

1. 深度學(xué)習(xí)的簡單遷移

目前深度學(xué)習(xí)在圖像取證方向研究還很少。Baroffio等人直接將圖像識別方向的深度學(xué)習(xí)模型應(yīng)用到相機源取證問題中,因為圖像在獲取過程中由不同相機拍攝都會留下相應(yīng)相機的指紋特性,所以他們采用類AlexNet網(wǎng)絡(luò)結(jié)構(gòu)的簡單深度學(xué)習(xí)模型來提取相機的指紋特性并加以分類,取得了94%以上的相機模式分類的準(zhǔn)確率。

2. 網(wǎng)絡(luò)輸入

圖像取證不同于圖像識別的地方在于識別是區(qū)分圖像內(nèi)容里的差異,肉眼可以察覺到,而取證則是區(qū)分圖像中以微弱信號存在的操作指紋,類間形態(tài)的差異微乎其微,所以對于圖像取證問題一般的深度學(xué)習(xí)模型不能勝任。因此Chen等人[5]對深度學(xué)習(xí)模型做出了一些改變,在類AlexNet網(wǎng)絡(luò)結(jié)構(gòu)前添加了一個預(yù)處理層,放大了取證想要的指紋特征。相比沒有預(yù)處理層,實驗結(jié)果準(zhǔn)確率提升了7.22%。圖像取證的性質(zhì)必然決定了網(wǎng)絡(luò)輸入的改變,只有放大了想要提取的指紋特征,深度學(xué)習(xí)模型才能更好地充當(dāng)一個特征提取和分類器。

3. 適應(yīng)取證的結(jié)構(gòu)

針對一般取證問題,圖像的預(yù)處理顯然是必不可少的,但額外添加一個預(yù)處理層又顯累贅,所以Ni等人[6]提出了一種針對隱寫分析取證的深度學(xué)習(xí)模型,將預(yù)處理整合進網(wǎng)絡(luò)結(jié)構(gòu)中。Ni等人用30個空間富模型濾波器初始化第一層卷積核,使得第一層卷積操作兼顧預(yù)處理功能。僅管取證問題不同于識別問題,但學(xué)習(xí)模型由繁到簡是個必然的趨勢,相比于圖像識別,深度學(xué)習(xí)在圖像取證上的研究才剛剛開始,越來越多適應(yīng)取證的深度學(xué)習(xí)模型結(jié)構(gòu)將會被提出,簡化圖像取證的流程。

(三)圖像檢測

圖像檢測相比于圖像識別,不僅要識別出圖片中的物體,還要定位物體處于圖片中什么位置。

1. 多模塊堆疊

RCNN模型[7]是利用深度學(xué)習(xí)進行圖像檢測的第一個深度學(xué)習(xí)網(wǎng)絡(luò)模型,和圖像取證一樣,在研究的初期,單純的深度學(xué)習(xí)模型并不能實現(xiàn)檢測的目的。RCNN模型由四個模塊組成:(1)用Selective Search算法使每張圖像生成1K~2K個候選區(qū)域;(2)對每個候選區(qū)域,使用深度學(xué)習(xí)技術(shù)提取特征;(3)將特征送入每一類的SVM分類器,判別是否屬于該類;(4)使用線性回歸器精細修正候選框位置。從中可以看出深度學(xué)習(xí)模塊只起到了特征提取器的作用,這也是一開始各個領(lǐng)域應(yīng)用深度學(xué)習(xí)的出發(fā)點,雖然是簡單的運用,但仍然在目標(biāo)檢測競賽上取得突破性進展。

2. 模塊合并

緊接著RCNN模型,Girshick相繼提出了fast RCNN模型和faster RCNN模型。后續(xù)模型充分運用了深度學(xué)習(xí)知識,將所有模塊逐步整合進深度學(xué)習(xí)模型中,原本各自單獨的模型整合到一體后可以在網(wǎng)絡(luò)訓(xùn)練時相互約束,共同最小化整個網(wǎng)絡(luò)的損失函數(shù),推動整個深度學(xué)習(xí)網(wǎng)絡(luò)朝更好的方向發(fā)展。

四、存在的問題與研究展望

深度學(xué)習(xí)在圖像領(lǐng)域主要以卷積神經(jīng)網(wǎng)絡(luò)研究為主,但卷積運算注定整個網(wǎng)絡(luò)將會有很大的計算量,導(dǎo)致網(wǎng)絡(luò)訓(xùn)練花費時間非常長,改變卷積運算形式簡化計算復(fù)雜度也將會成為一大發(fā)展方向。圖像領(lǐng)域的研究大部分局限于灰度圖像,很少涉及彩色圖像,而四元數(shù)在普通的彩色圖像處理領(lǐng)域已取得顯著地效果,將四元數(shù)和深度學(xué)習(xí)知識結(jié)合起來想必一定能提取到更加豐富的彩色圖像特征,在彩色圖像處理領(lǐng)域取得意想不到的效果,這也是我們團隊一直致力奮斗研究的方向。

參考文獻:

[1]A. Krizhevsky, I. Sutskever, and G. Hinton. Imagenet classification with deep convolutional neural networks. In Advances in Neural Information Processing Systems 25, pages 1106-1114, 2012.

[2]Karen Simonyan, Andrew Zisserman. Very Deep Convolutional Networks for Large-Scale Image Recognition. CoRR abs:1409.1556, 2014.

[3]He, Kaiming, et al. Deep residual learning for image recognition. Proceedings of the IEEE conference on computer vision and pattern recognition,2016.

[4]Huang G, Liu Z, Weinberger K Q, et al. Densely connected convolutional networks. arXiv preprint arXiv:1608.06993, 2016.

[5]Chen J, Kang X, Liu Y, et al. Median Filtering Forensics Based on Convolutional Neural Networks. Signal Processing Letters IEEE, 2015

[6]Ye J, Ni J, Yi Y. Deep learning hierarchical representations for image steganalysis. IEEE Transactions on Information Forensics and Security, 2017, 12(11): 2545-2557.

[7]Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation. Proceedings of the IEEE conference on computer vision and pattern recognition. 2014: 580-587.

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠程開放實驗平臺構(gòu)建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學(xué)習(xí)的三級階梯
有體驗的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
利用網(wǎng)絡(luò)技術(shù)促進學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
主站蜘蛛池模板: 中文字幕久久波多野结衣| 色噜噜综合网| 爱色欧美亚洲综合图区| 亚洲精品第一在线观看视频| 国产欧美一区二区三区视频在线观看| 伊人色在线视频| 亚洲中文字幕手机在线第一页| 国产内射在线观看| 18禁高潮出水呻吟娇喘蜜芽| 欧美一区二区人人喊爽| 国产第一页亚洲| 国产精品自拍合集| 久久综合亚洲色一区二区三区| 免费国产黄线在线观看| 国产jizz| 国产成人综合日韩精品无码首页 | 精品视频一区二区三区在线播| 久久综合色播五月男人的天堂| 中文字幕在线观看日本| 欧美爱爱网| 欧美黄网在线| 色妞www精品视频一级下载| 国产精品免费电影| 日本久久网站| 亚洲国产日韩在线成人蜜芽| 456亚洲人成高清在线| 日本精品一在线观看视频| 亚洲综合极品香蕉久久网| 四虎永久免费地址在线网站| 国产一在线| 国产办公室秘书无码精品| 久久永久精品免费视频| 91青青草视频在线观看的| 一级毛片免费不卡在线| 国产三区二区| 成人亚洲国产| 亚洲国产欧美中日韩成人综合视频| 亚洲啪啪网| 亚洲综合精品香蕉久久网| 国产一区成人| 国产69囗曝护士吞精在线视频| 亚洲品质国产精品无码| 成人精品视频一区二区在线| 国产麻豆精品手机在线观看| 国产二级毛片| 怡春院欧美一区二区三区免费| 国产免费久久精品99re丫丫一| 久久99热66这里只有精品一| 久久久久久久久18禁秘| 一级毛片免费播放视频| 欧美精品v欧洲精品| 国产在线八区| 国产精品女在线观看| 国产96在线 | 亚洲精品成人片在线播放| 欧美视频在线不卡| 草草线在成年免费视频2| 日韩精品无码免费一区二区三区| 日韩无码视频专区| 欧美黄网站免费观看| 亚洲人人视频| www.精品国产| 欧美成人影院亚洲综合图| 欧洲亚洲欧美国产日本高清| 国产免费好大好硬视频| 1级黄色毛片| 国产国拍精品视频免费看| 欧美高清国产| 亚州AV秘 一区二区三区| 国产精品一区在线观看你懂的| 一级毛片高清| 熟女视频91| 麻豆精品久久久久久久99蜜桃| 亚洲福利一区二区三区| 国产乱人乱偷精品视频a人人澡| 国产91九色在线播放| 在线国产毛片| 亚洲AⅤ无码日韩AV无码网站| 熟女日韩精品2区| 欧美一级99在线观看国产| 欧美福利在线播放| 在线观看视频一区二区|