999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于紋理恢復的低劑量CT去噪算法

2022-08-17 10:04:34趙雪梅
電子測試 2022年14期
關鍵詞:特征提取特征

趙雪梅

(北方工業大學信息學院,北京,100009)

關鍵字:圖像去噪;低劑量CT;深度學習;紋理恢復

0 引言

近年來,隨著醫學CT的廣泛使用,X射線輻射對患者健康的潛在危害引起了公眾的關注。因此,降低CT輻射劑量已成為重要的研究課題。但X射線通量的降低會導致CT圖像噪聲和偽影的增加,進而影響醫生診斷的準確性[1]。目前已經提出了許多算法來改善低劑量CT(LDCT)的圖像質量。通常,這些算法可以分為三類:投影域去噪、迭代重建和圖像域去噪。

投影域去噪和迭代重建都需要對投影數據進行建模,但作為CT掃描儀的中間數據,投影數據一般不易獲得。圖像域去噪方法直接對CT圖像進行處理,不需要任何原始數據。因此,研究學者們在圖像域進行了大量的研究[2]。最近,深度學習為低劑量CT去噪提供了新的思路。目前已經提出了幾種用于CT去噪的方法,例如Chen等人設計了具有殘差學習的編解碼網絡(RED-CNN)[3],去噪效果顯著。但由于使用MSE損失,產生了過度平滑的問題。本文提出一種自注意力殘差編解碼網絡,相比RED-CNN,能夠更好地恢復出CT圖像的紋理特征。

1 自注意力殘差編解碼網絡(SRED-Net)

此前Yang等人引入VGG構建感知損失來解決過度平滑的問題[4],但VGG最初是針對自然圖集的分類問題進行訓練的[5],使用VGG損失會在CT重建過程中引入無關的特征[6]。因此,參考VGG19設計了特征提取網絡,用來構建特征損失,并在編碼網絡引入自注意力機制,網絡記作SRED-Net。

1.1 網絡結構

原始的RED-CNN網絡主要由卷積層,反卷積層和ReLU構成。在對應的卷積層與反卷積層之間加入短連接來學習殘差。從輸入到輸出之間分別有5個卷積層和反卷積層,連續的卷積層、反卷積層可以看作編碼、解碼的過程。網絡中所有卷積層與反卷積層的卷積核大小為5,每層的濾波器數量為96。

圖1 SRED-Net 結構圖

改進后的SRED-Net編碼部分由5個編碼塊和2個自注意力模塊組成,編碼塊濾波器數量分別為64、64、128、128、256;解碼部分由5個解碼塊組成,濾波器數量分別為256、128、128、64、64。編碼塊由卷積層與ReLU激活層組成,解碼塊由反卷積層與ReLU激活層組成。卷積核大小設為3,步長為1,padding為1。

1.2 自注意力模塊

自注意力模塊如圖2所示。自注意力機制[7]減少了對外部信息的依賴,擅長捕捉數據或特征的內部相關性。相比于自然圖像,CT圖像包含的信息較少,因此,采用自注意力機制可以更好地提取其內部相關信息。

圖2 自注意力模塊結構圖

1.3 特征提取網絡

特征提取網絡結構如圖3所示。使用網絡的第3層卷積后的輸出作為邊緣特征,用于構建邊界損失。邊界損失可以表達為:

圖3 特征提取網絡結構圖

使用網絡的第8層卷積后的輸出作為紋理特征,用于構建紋理損失。紋理損失可以表達為:

其中,FE3(·)表示提取邊緣特征,FE8(·)表示提取紋理特征,x代表輸入LDCT的patch,y代表對應的NDCT的patch,w、h、d分別表示 patch的寬,高和深度,表示求二范數。

MSE損失表達為:

將MSE損失與邊界和紋理損失相結合,完整的損失函數可以表達為:

記作BTL。其中,λ1、λ2是兩個可訓練的參數,用來權衡邊界損失和紋理損失。

2 實驗結果與分析

使用CPU版本為Intel(R) Core(TM)i5-8250U的計算機進行仿真,GPU版本為NVIDIA GTX1080的計算機能夠加速計算。網絡使用Python語言編寫,利用Pytorch框架來實現。

2.1 訓練

在訓練期間,數據集采用AAPM低劑量CT挑戰賽提供的CT數據[8],其中包括來自10位患者的常規劑量CT和相應LDCT數據,將患者L506的數據作為測試集,其余作為訓練集。CT尺寸為512×512。使用Adam優化所有網絡。通過patch的方法來增大數據集,patch size設置為64。batchsize設置為16。控制SRED的MSE損失、特征損失之間權衡的加權參數λ1、λ2通過訓練來學習。

2.2 消融實驗

通過RED-MSE和SRED-MSE的對比,驗證自注意力機制的有效性;通過RED-MSE與RED-BTL的對比,驗證特征提取網絡的有效性。

(1)視覺效果分析

圖4展示了不同神經網絡對CT去噪的視覺效果。通過比較可以看出,與不使用自注意力機制的RED-MSE相比, SREDMSE保留了更多的紋理信息。使用MSE損失會使得組織紋理過于平滑,邊界也較為模糊;使用BTL損失保留了更多的紋理細節,與NDCT更加相近。

圖4 去噪效果對比圖

(2)客觀指標分析

表1展示了測試集上三個客觀指標的均值,包括峰值信噪比(PSNR)、結構相似度(SSIM)和均方根誤差(RMSE)。網絡,在PSNR,SSIM,RMSE三項指標上均高于不使用自注意力機制的方法,驗證了自注意力機制的有效性。使用BTL的RED-BTL和SRED-BTL,三項指標均高于不使用BTL的方法,驗證了特征損失的有效性。并且,同時使用自注意力機制與BTL的SRED-BTL方法,獲得了最優的指標結果,PSNR提升了1.21dB,SSIM提升了0.0112,具有一定的紋理保留效果。

表1 測試集客觀評價指標

3 總結

針對目前深度學習方法在低劑量CT去噪領域存在的紋理缺失和組織平滑問題,本文提出了一種自注意力殘差編解碼網絡,主要有以下兩點改進:(1)引入自注意力機制;(2)設計特征提取網絡,構建邊界和紋理損失。改進后的網絡PSNR提升了約1.21dB,SSIM提升了約0.0112。

猜你喜歡
特征提取特征
抓住特征巧觀察
特征提取和最小二乘支持向量機的水下目標識別
新型冠狀病毒及其流行病學特征認識
如何表達“特征”
基于Gazebo仿真環境的ORB特征提取與比對的研究
電子制作(2019年15期)2019-08-27 01:12:00
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
基于Daubechies(dbN)的飛行器音頻特征提取
電子制作(2018年19期)2018-11-14 02:37:08
抓住特征巧觀察
Bagging RCSP腦電特征提取算法
基于MED和循環域解調的多故障特征提取
主站蜘蛛池模板: 国产精品冒白浆免费视频| 久久久久亚洲AV成人人电影软件 | 亚洲综合色区在线播放2019| 992tv国产人成在线观看| 国产AV毛片| 久久窝窝国产精品午夜看片| 97视频精品全国在线观看| 亚洲免费黄色网| 久久黄色影院| 毛片免费在线视频| 秋霞午夜国产精品成人片| 亚洲av无码专区久久蜜芽| 在线观看国产网址你懂的| 欧美啪啪视频免码| 亚洲精品视频免费| 亚洲欧美成人综合| 亚洲永久视频| 又猛又黄又爽无遮挡的视频网站| vvvv98国产成人综合青青| 原味小视频在线www国产| 国产精品福利尤物youwu | 99尹人香蕉国产免费天天拍| 久久成人18免费| 毛片久久网站小视频| 亚洲视频在线网| 香蕉99国内自产自拍视频| 91久久国产综合精品| 欧美中文字幕在线播放| 亚洲中文字幕日产无码2021| 91久久偷偷做嫩草影院电| 国产精品制服| av手机版在线播放| 亚洲国产91人成在线| 丝袜亚洲综合| 99这里只有精品免费视频| 97se亚洲综合| 91精品国产一区| 99成人在线观看| 色精品视频| 亚洲国产精品无码久久一线| 亚洲狠狠婷婷综合久久久久| 亚洲视频一区在线| 天天操精品| 亚洲国产精品VA在线看黑人| 日韩欧美国产中文| 2022国产无码在线| igao国产精品| 日韩av在线直播| 久久精品66| 欧美日本在线观看| 国产成人1024精品| 五月婷婷伊人网| 亚洲a级毛片| 精品少妇人妻一区二区| 国产丝袜无码一区二区视频| 日韩第一页在线| 在线观看国产精品日本不卡网| 欧美激情二区三区| 制服丝袜一区二区三区在线| 亚洲天堂在线视频| 亚洲精品无码久久久久苍井空| 91成人在线免费视频| 99久久国产综合精品女同| 99在线观看精品视频| 欧美高清视频一区二区三区| 亚洲Av激情网五月天| AV不卡在线永久免费观看| 亚洲啪啪网| 亚洲视频四区| 亚洲国产一区在线观看| 99偷拍视频精品一区二区| 国产不卡国语在线| 91午夜福利在线观看精品| 思思99思思久久最新精品| 国产一区二区在线视频观看| 国产主播在线一区| 欧美日韩国产在线播放| 九一九色国产| 亚亚洲乱码一二三四区| 国产成人精品一区二区三区| 最新国产高清在线| 成人无码区免费视频网站蜜臀|