999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于生成對抗網絡的OCT 圖像去噪方法

2021-07-03 03:52:16賀玉華楊明明
現代計算機 2021年12期
關鍵詞:方法模型

賀玉華,楊明明

(四川大學計算機學院,成都610065)

0 引言

光學相干斷層掃描(Optical Coherence Tomography,OCT)[1]是一種極有潛力的生物醫學光學成像技術,由于其具有無接觸、掃描速度快和超高分辨率的特點而被廣泛應用于眼科。然而,OCT 圖像中含有大量的散斑噪聲,散斑噪聲會掩蓋細微并且很重要的圖像特征,最終影響臨床診斷。因此,去除OCT 圖像中的斑點噪聲對于提高圖像質量和臨床診斷來說有很重要的意義。

近年來,為了有效地去除SD-OCT 中的斑點噪聲,基于塊匹配[2-4]、稀疏字典學習[5]、偏微分方程[6],以及基于其他理論的多種算法相繼被提出。Buades 等人[2]提出的非局部均值濾波算法(Non-Local Means,NLM)應用在自然圖像上去噪并取得了很好的效果,但對OCT圖像去噪來說并不適用,因此,研究者提出了很多改進的非局部均值算法[3],但這些方法往往會使圖像變模糊。在非局部均值算法的基礎上,Chong 等人[4]提出了塊匹配三維過濾(Block-Matching and 3D filtering,BM3D)算法,其原理是對匹配的相似塊進行協同過濾來進行去噪,但在抑制噪聲的同時可能會引起圖像邊緣的失真。Esmaeili 等人[5]提出了一種改進的基于KSVD 的字典學習算法,其原理是學習含噪圖像數據和不含噪圖像數據之間的字典,并通過不斷更新字典使得去噪圖像逼近不含噪的圖像,但該算法對字典太過依賴。Puvanathasan 等人[6]提出了一種基于偏微分方程的各向異性擴散方法,該方法雖然能夠在去除噪聲的同時保留圖像細節甚至增強邊緣,但其結果往往過于平滑。這些算法在OCT 去噪上都存在一些缺點:過度模糊或平滑圖像,噪聲的去除不夠徹底或者在去噪結果中引入了偽影。總之,這些算法在去噪和保留原圖細節之間很難達到平衡狀態。

目前,深度學習已經在多種成像應用中取得了巨大成就,從低級任務到高級任務,例如圖像去噪[7-8],去模糊[9]和超分[10]到分割[11],檢測和識別。它模仿了人類處理信息的方式,并通過分層網絡框架從像素數據中提取高級特征[12]。Wei 等人[13]首次將聚類的卷積神經網絡應用于OCT 圖像去噪。Song 等人[14]提出了一種基于ResNet 的方法,可以在提高信噪比的同時保留細節特征。Ma 等人[15]提出了一種基于wasserstein 生成對抗網絡(wGAN)的方法。

由于條件生成對抗網絡(cGAN)[16]在圖像生成和風格遷移等圖像任務上有著良好表現,我們覺得也可以將圖像去噪問題視為圖像到圖像的轉換問題,并提出了一種基于條件生成對抗網絡(cGAN)的改進方法來實現這一目標。用有噪聲的圖像和無噪聲的圖像對進行訓練,并在生成器和鑒別器的相互競爭下,來實現去噪的目的。

1 cGAN模型簡介

1.1 cGAN原理

生成對抗網絡(Generative Adversarial Network,GAN)的原理是:生成器負責學習從輸入到真實數據的映射,生成與之相似的數據;而判別器負責對生成數據進行判斷,判斷其屬于還是不屬于真實數據;判別器再將其判斷結果反饋給生成器,進而激勵生成器生成更加相似的數據,在這個過程中判別器也需要不斷提高自己的判別能力。總之,生成對抗網絡的原理是生成器和判別器通過相互競爭,最終到達一種平衡狀態。但是對于無條件的生成網絡來說,生成數據的模式無法被控制,為了解決這一問題,條件生成對抗網絡(con?ditional Generative Adversarial Network,cGAN)應運而生,其原理是向生成器和判別器中加入約束信息來指導數據生成過程,使得生成器生成的數據是我們所期望的數據而不是為了欺騙判別器而得到的數據。

1.2 損失函數

cGAN 通過輸入圖像x和隨機向量z學到目標圖像y,即G:{x,z}→y,然后將生成的圖像和目標圖像分別輸入到判別器進行打分。對于生成器來說,希望生成更加真實的樣本可以騙過判別器,而對判別器來說,希望能夠盡可能地區分真實樣本和生成樣本,即判別器對真實樣本的打分盡可能高,而生成樣本打分盡可能低。對抗損失函數表達式如下:

其中,x 是輸入的含噪聲的圖像,y 是與x 對應的不含噪聲的圖像,z 是隨機向量。

為了使生成的圖像與目標域圖像盡可能相似,我們可以將生成圖像和目標圖像之間的L1 或L2 距離加入到損失函數中。由于L2 距離會使圖像模糊,我們采用L1 距離來衡量真實的不含噪聲圖像和生成的去噪圖像之間的差異。其目標函數如下:

2 網絡結構

2.1 生成器結構

本文使用的生成器基于文獻[17]提出的網絡架構,該網絡結構在醫學CT 圖像去噪中展示了很好的性能,該網絡是基于Encoder-Decoder 的網絡結構,在此基礎上,增加了三個快捷連接,將卷積層的特征圖和對應的反卷積層的特征圖相加,其結果作為下一個反卷積層的輸入,其目的是使該網絡可以保留更多的圖像特征。生成器的網絡結構共包含14 層,卷積層和反卷積層各七層,每一層之后都使用了ReLU 激活層。所有卷積層和反卷積層的卷積核大小均為3×3,步長均為1。除了輸入和輸出,中間層的特征圖個數均為64。該生成模型的輸入輸出均為單通道OCT 圖像,可以接受任意大小的圖片輸入。

2.2 判別器結構

判別器采用PatchGAN 結構[18],其作用是判斷輸入圖像的真假。其網絡結構一共有七層,其中奇數卷積層的步長為1,其余為2,所有卷積核大小都是4×4。根據從第一卷積層到最后一個卷積層的順序,其特征圖個數分別是64、64、128、128、256、256 和1。除了第一個和最后一個卷積層,每個卷積層后都使用了批處理歸一化(BN)層和斜率為0.2 的Leaky ReLU 激活層。由于將BN 層用于所有層會導致生成圖像結果振蕩和模型不穩定,所以第一個卷積層后只使用leaky ReLU激活層。

3 實驗與結果分析

3.1 數據集

本文采用的OCT 數據集來自文獻[18],其中包括28 對分辨率為450×900(高×寬)的合成圖像,該圖像對是通過從28 位受試者的28 只正常或異常眼睛中捕獲的高分辨率圖像進行二次采樣而生成的。更具體地說,在每個圖像對中,含噪聲的圖像是由OCT 設備(Biopitgen)直接采集的(B-scan),無噪聲的圖像是通過配準和平均在同一位置獲得的多個B-scan 圖像而得到的,也就是說無噪聲的圖像是由在同一位置采集的多張含噪聲圖像經過配準和平均所得。

在實驗中,我們丟棄了兩對非常差的圖像,并使用剩余的26 對圖像進行實驗,其中隨機選擇了十對圖像用于訓練模型,其余的用于測試。由于訓練模型需要大量的數據,因此我們將這十對圖像進行滑動剪裁,每隔8 個像素點裁剪一張分辨率為64×64 的圖像,最后數據量大約為一萬多張。

3.2 參數選擇

在實驗中,軟件環境操作系統為Windows 10,深度學習軟件框架為TensorFlow 1.14,GPU 為NVIDIA GTX 1080,內存為8 Gb。在訓練時,我們的生成器和判別器都使用了Adam 算法進行優化,學習率為0.0002。加權參數a的值設為10。

3.3 實驗分析

本實驗分別采用K-SVD 模型、BM3D 模型、wGAN模型和本文模型在測試集上進行測試。為了客觀說明本文模型的性能,對于BM3D 和K-SVD 模型,其參數按照取的最優降噪效果去設定,對于其他模型,其參數與提出該方法的參考文獻中的參數保持一致。所有型的降噪結果如圖1 所示。由實驗結果可見,本文模型對OCT 圖像的降噪效果在視覺上整體優于其他模型。為了更清晰地展示各模型的降噪結果,圖1 對局部細節進行了放大。可以看出,經BM3D 和K-SVD 模型處理過的圖像在視網膜層內部和邊界處存在條形偽影,視覺效果較差,其中,K-SVD 模型并未完全去除噪聲,BM3D 引入了塊狀偽影。wGAN 模型有效去除了斑點噪聲,增強了圖像的對比度,但是存在明顯的邊緣模糊和細節丟失的現象。采用本文模型去噪后的圖像,保留了更多的邊緣信息和細節信息,得到的結果與校準無噪聲的OCT 圖像更加接近,并且具有更加理想的視覺效果。

為了更加客觀地進行去噪效果對比,本文采用了三個評價指標,分別是峰值信噪比(Peak Signal-To-Noise Ratio,PSNR)、結構相似性(Structural Similarity Index,SSIM)和邊緣保持系數(Edge Preservation Index,EPI)。表1 所示為五種模型在測試集上得到的三種評價指標的對比。可以看出,本文模型的去噪結果在PSNR 和SSIM 這兩個指標均值上優于其他四種模型,這與圖1 所示的視覺效果對比圖基本上是吻合的,說明本文模型降噪效果最優,且是最接近其對應的無噪聲的OCT 圖像。指標EPI 計算的是去噪圖像與含噪圖像之間的邊緣信息保存能力,K-SVD 模型在該指標上取得了最大值,其原因是它的去噪結果中仍然含有噪聲,而本文模型取得了最小值,其原因是它的結果中不含噪聲。

表1 四種模型在測試集上去噪結果的評價指標

圖1 四種模型在測試集上的結果

其中前兩行為不同模型的測試結果,第三行中的圖對藍色區域進行放大,第四行中的圖對紅色區域進行放大

4 結語

本文提出了一種基于條件生成網絡(cGAN)的圖像去噪方法,通過學習有噪圖像到無噪圖像的映射來實現去噪過程。實驗結果表明,本文提出的方法是最接近無噪圖像的,對于指標PSNR 和SSIM,均優于其他對比方法。但我們的結果中仍然存在少量的噪聲,通過改善模型賴去除這些噪聲將會是我們今后的研究方向。

猜你喜歡
方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
學習方法
3D打印中的模型分割與打包
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: 欧洲免费精品视频在线| 人妻中文字幕无码久久一区| 免费播放毛片| 成年人免费国产视频| 国产精品美乳| 97se亚洲| 久久久久亚洲精品成人网| 99视频只有精品| h网址在线观看| 免费看一级毛片波多结衣| 国产日韩精品欧美一区灰| 国产91精选在线观看| 久久久久夜色精品波多野结衣| 九九香蕉视频| 国产精品福利尤物youwu| 国产9191精品免费观看| 91精品网站| 色老二精品视频在线观看| 精品色综合| 国产三区二区| 国产区人妖精品人妖精品视频| 国产精品久久久久久久久久98 | 亚洲成人精品在线| 亚洲最大福利网站| 天天综合网在线| 无码中文字幕精品推荐| 18禁不卡免费网站| 日韩精品毛片人妻AV不卡| 好吊色妇女免费视频免费| 日韩一级毛一欧美一国产| 天堂在线亚洲| 特级毛片8级毛片免费观看| 亚洲日韩精品欧美中文字幕 | 国产精品亚洲va在线观看| 99热这里只有精品5| 欧美中文字幕无线码视频| 亚洲a级毛片| 91福利在线观看视频| 亚洲人成在线精品| 亚洲国产在一区二区三区| 四虎永久免费地址在线网站| 久久超级碰| 高h视频在线| 欧美一区精品| 久久久久无码精品| 国产精品片在线观看手机版 | 亚洲日韩AV无码一区二区三区人| 麻豆国产精品一二三在线观看| 四虎亚洲国产成人久久精品| 精品一区二区三区无码视频无码| 久久大香香蕉国产免费网站| 热久久综合这里只有精品电影| 亚洲欧美不卡| 国产区免费精品视频| 97se亚洲综合不卡| 国产 在线视频无码| 欧美日韩国产高清一区二区三区| 精品国产污污免费网站| 少妇被粗大的猛烈进出免费视频| 91蝌蚪视频在线观看| 99视频精品全国免费品| 四虎影视8848永久精品| www.99精品视频在线播放| 亚洲欧美激情小说另类| 国产情侣一区二区三区| 亚洲成人播放| 亚洲综合中文字幕国产精品欧美| 99视频在线免费| 在线免费观看AV| 国产乱肥老妇精品视频| 亚洲高清在线天堂精品| 久久婷婷六月| 亚洲手机在线| 亚洲综合色在线| 国产网站免费观看| 国产尤物jk自慰制服喷水| 日本精品视频| 五月天丁香婷婷综合久久| 亚洲欧美在线综合一区二区三区| 亚洲欧美日韩久久精品| 日本欧美一二三区色视频| 成人午夜视频网站|