999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于殘差編解碼器的通道自適應超聲圖像去噪方法

2022-07-27 09:13:50曾憲華李彥澄趙雪婷
電子與信息學報 2022年7期
關鍵詞:方法模型

曾憲華 李彥澄 高 歌 趙雪婷

①(重慶郵電大學計算機科學與技術學院 重慶 400065)

②(圖像認知重慶市重點實驗室 重慶 400065)

③(重慶安琪兒婦產醫院超聲科 重慶 400065)

1 引言

近年來,超聲檢查在醫療實踐中不斷發展并廣泛應用,尤其在心臟病篩查、婦科檢查以及孕婦常規檢查等場景中,它是最重要的成像手段之一[1]。由于成像環境和設備性能的限制,獲得的圖像極有可能被噪聲或偽影損壞,導致超聲圖像丟失關鍵信息,特別是斑點噪聲,模糊了相關細節,降低了超聲圖像中軟組織的對比度,甚至將圖像的特征信息掩蓋,給醫師造成了嚴重的視覺干擾并影響判斷。因此,超聲圖像去噪具有重要的臨床應用價值。

國內外學者在超聲圖像的噪聲建模上以及去噪方法上付出了巨大的努力。最初,研究者使用具有自適應能力的濾波器對超聲圖像去噪,如中值濾波器[2]和雙邊濾波器[3]等。這類基于投影域濾波器的方法有較低的計算復雜度,但缺乏對圖像內容的適應性,導致圖像紋理過度平滑,模糊了圖像的邊緣信息。運用低等級技術對超聲圖像去噪,如低秩張量近似[4]等,雖然計算復雜度變低,但不能保證圖像的紋理細節。基于后處理技術的超聲圖像去噪[5],能減少計算時間上的開銷,對斑點噪聲的抑制也有明顯的效果,但在訓練數據的過程中會對超聲圖像的細節造成一定的損失。在圖像修復領域中,圖像去偽影和超分辨率的相關處理方法[6,7]也被運用到圖像去噪領域,針對具體的場景,需要改進超分辨率算法,才能在圖像去噪上達到較好效果。隨后,文獻[8,9]提出將深層卷積編碼解碼框架用于圖像恢復并取得了良好的性能。結合自編碼器和卷積神經網絡的殘差網絡,Chen等人[10]又提出將淺層殘差編解碼模型用于CT圖像去噪,在對稱的編解碼結構中采用跳躍連接。本文提出的去噪模型不同于典型的編解碼結構,該模型包括了殘差學習[11],以便于卷積層和相應的反卷積層的操作。但斑點噪聲形式復雜且在空間上可變,同時依賴信道,具有組織依賴性,導致現有去噪方法不能直接運用在超聲圖像去噪上。

本文提出一種基于殘差編解碼器的通道自適應去噪模型,以達到進一步有效去除超聲圖像中噪聲的目的。針對超聲圖像中的特征信息與噪聲信號相似以及去噪任務不適定的特點,基于殘差編解碼器的通道自適應去噪模型(Residual Encoder-decoder with Squeeze-and-Excitation Network, RED-SENet)模型的編碼器部分能對超聲圖像的主要信息編碼,同時去除無用信息。對于注意力解碼器部分,在反卷積后引入注意力機制,通過對特征通道間的相互依賴關系進行顯式建模,來自動獲取每個通道的重要程度,然后根據重要程度去提升有用的特征并抑制無用的特征,使解碼器部分更關注編碼中的有用信息,恢復圖像中細節信息的同時,降低解碼過程中對噪聲等無用信息的關注程度,以此來優化去噪模型的性能。相比之前的方法,本文方法1)實驗代碼見https://github.com/liyanch/RED-SENet。顯著提高了模型的去噪效果,獲得了良好的去噪性能。

2 本文方法

2.1 去噪模型

超聲圖像中的噪聲是由于換能器引起的電磁波分散[12],使超聲圖像上出現顆粒狀圖案,那么超聲圖像中這些隨機產生的小斑點則是斑點噪聲。當粗糙紋理上的反射波對紋理產生影響時,就會在圖像中產生噪聲,并與圖像中的紋理結構混淆。超聲圖像去噪的難點在于超聲圖像中的噪聲信號是由乘性噪聲和加性噪聲混合而成的斑點噪聲,因此斑點噪聲不容易被準確地建模。斑點噪聲與組織對象的幅值相依賴,不同的組織對超聲波的阻抗程度不同,這會嚴重干擾醫師對病變的檢測。特別是在低信噪比、低對比度的超聲圖像中,斑點減少過程是非常必要的,以提高對象檢測的準確性,而不影響圖像的重要診斷特征。為了進一步完善去噪方法,重要的是要有一個準確可靠的模型。具有斑點噪聲的圖像的較為良好的模型可以模擬為

2.2 基于殘差編解碼器的通道自適應去噪模型結構(RED-SENet)

超聲圖像中斑點噪聲依賴圖像信息的特點,導致已有的RED-CNN[10]去噪模型在超聲圖像去噪上無法達到良好的去噪效果。為解決上述問題,使用基于殘差編解碼器的RED-CNN去噪模型能夠進一步有效地去除超聲圖像中的噪聲,本文在解碼器中構造出新的注意力反卷積殘差塊(Attention Deconvolution Residual block, ADR)使去噪模型提高對內容特征的敏感性,捕獲通道依賴關系,學習到圖像內容特征在各個通道中表現的重要程度。這些內容特征可通過后續的轉換加以利用,以解決超聲圖像中斑點噪聲對內容特征的依賴而造成成像質量差的問題。在提升去噪模型有效性的同時,盡可能地保留超聲圖像的紋理細節。針對去噪對象,有用信息是指超聲圖像中的紋理結構和邊緣細節信息,而無用信息是指超聲圖像中的噪聲信息。RED-SENet去噪模型包含5個卷積層(編碼器)、2個注意力反卷積殘差塊以及1個反卷積層(注意力解碼器),本文提出的去噪模型結構如圖1所示。

圖1 RED-SENet總體模型結構圖

與傳統自編碼器不同,RED-SENet去噪模型使用5個相連的卷積層堆疊成編碼器,并丟棄了每個卷積層后的池化層,以避免丟棄重要的結構細節,使圖像噪聲和偽影由低到高的逐級抑制,以保留被提取圖像塊中的基本信息。在RED-SENet中,注意力解碼器由2個注意力反卷積殘差塊和1個反卷積層組成。網絡把直接映射問題轉化為殘差映射[13]問題,每兩個卷積層引出1個殘差連接,連接到對應的反卷積層,這樣有助于避免在訓練過程中當網絡很深時出現梯度消失。但僅通過殘差連接,仍無法從根本上減少內容特征在解碼過程中的損失。而注意力解碼器很好地解決了過多的損失導致圖像重建不理想的問題,它不僅能保證已有去噪模型恢復細節的能力,而且增加了對通道有用信息的關注度,忽略無用信息,能使超聲圖像在注意力解碼器中,更有針對性地恢復結構紋理信息。

RED-SENet的去噪過程描述如下:輸入帶有噪聲的超聲圖像,超聲圖像經過5個卷積層構成的編碼器噪聲去除后得到圖像的深度編碼。深度編碼順序地經過編碼器之后的2個注意力反卷積殘差塊,得到注意力深度編碼,最后通過1個反卷積完成對超聲圖像的結構和紋理細節的恢復。

2.2.1 編碼器

2.2.2 注意力反卷積殘差塊(ADR block)

近年來,注意力機制廣泛運用于計算機視覺領域,尤其是Hu等人[14]提出的通道注意力。本文將通道注意力的特性運用到提升超聲圖像去噪的性能上,并構建注意力反卷積殘差塊。在注意力反卷積殘差塊中,第1個反卷積層輸出的特征向量經過全局平均池化層后,特征向量中每個通道的特征信息被平均化。再經過2個全連接層之后,能學習到超聲圖像特征各通道之間的非線性交互和一種確保可以強調多個通道的非互斥關系,從而完全捕獲通道依賴關系,學到這些特征信息在各個通道中表現的重要程度。然后用Sigmoid激活函數將每個通道的重要程度歸一化到0~1,通過把每個通道的重要程度與原始輸入對位相乘,從而使它們的重要程度再次分布在與輸入維度相同的不同通道中。得到有區分重要程度的特征向量與第4個卷積層后的ReLU激活函數輸出特征向量對位相加后,再使用ReLU激活函數激活,最后再進行一個反卷積運算和ReLU非線性函數激活,即經過了一個完整的注意力反卷積殘差塊。由注意力反卷積殘差塊組成的解碼器組成了注意力解碼器。注意力解碼器中連續經過2個注意力反卷積殘差塊后,再進行一次反卷積運算和非線性激活函數,這樣就可以將超聲圖像中的結構細節和紋理信息更有效地恢復。因此,本文提出的注意力反卷積殘差塊能更好地應用到基于殘差編解碼器的去噪模型中。

注意力反卷積殘差(ADR)塊側重于以計算效率高的方法模擬通道關系增強網絡的表示能力。因此,通過ADR塊,本文方法可以學習并利用全局信息來選擇性地強調通道信息特征,在通道重要性自適應的過程中抑制無用的特征,并憑借ADR塊提高網絡的去噪性能。ADR塊結構如圖2所示。

圖2 注意力反卷積殘差(ADR)塊

2.2.3 注意力解碼器

本文方法中的注意力解碼器用于增強有用信息的敏感度,更有針對性地恢復圖像結構的細節,卷積操作有噪聲過濾的作用,但仍會減少輸入信號的細節信息。因此,將2個ADR塊和1個反卷積層整合到網絡中[10]可以增強解碼器恢復結構細節和保持紋理信息的能力。通過卷積層和ADR塊的跳躍連接殘差數據遵循“先進后出”原則,即輸入圖像跳躍連接到對應的最后一個反卷積層,第2個卷積層跳躍連接到對應的倒數第1個ADR塊。注意力解碼器是由ADR塊、反卷積層和ReLU單元組成的。ADR塊描述如下:

在ADR塊中,首先,經過第1個反卷積運算后輸出的C個通道特征圖的計算為

2.2.4 損失函數

2.3 基于殘差編解碼器的通道自適應去噪模型訓練算法

RED-SENet去噪模型訓練算法如表1所示。首先,使用隨機權重初始化去噪模型φd,輸入訓練集S={(X1,Y1),(X2,Y2),...,(XN,YN)}用于訓練去噪模型φd,X為帶噪聲的超聲訓練樣本,Y為干凈的超聲圖像, (Xi,Yi) 為 訓練集中第i張超聲圖像以及對應的干凈圖像。進行第tepoch訓練時,隨機打亂訓練集中的樣本,從訓練樣本中隨機輸入圖像對(Xi,Yi)到去噪模型中,通過一系列卷積操作提取出圖像特征,再經過注意力解碼器得到注意力特征圖,進一步恢復圖像細節信息,生成去噪后的預測圖像Pi。利用均方誤差損失函數計算去噪模型預測輸出和期望輸出之間的誤差,如式(11)。然后利用式(12)計算損失梯度,通過表1算法的步驟(9)來更新優化去噪模型參數θd,循環往復,不斷更新優化去噪模型。在模型推理過程中,將測試的超聲圖像輸入到經表1的算法優化完成的去噪模型φd中,經過該模型推理后,輸出去噪結果。

表1 RED-SENet超聲圖像去噪模型訓練算法

3 實驗

本文用4個超聲數據集驗證本文方法的保真度和魯棒性,再與其他去噪方法比較,并分析結果。

3.1 數據集

(1) 胎兒心臟超聲數據集(Fetal Heart ultrasound dataset, FH)。FH超聲數據集采集自中國重慶一家婦產醫院,該數據集由2019—2020年的臨床檢查超聲圖像構建而成。從醫院獲得的原始超聲圖像數據集包含1000例,每例包含11個切面,40張超聲圖像。剔除數據集中測值、多普勒加彩等的圖像,數據集中每個切面共1000張圖像。為了驗證REDSENet去噪模型的有效性和保持病理不變性,本文選取4腔心切面進行實驗。

(2) 膽囊結石超聲數據集(Gallstone ultrasound dataset, GS)。GS超聲數據集由中國重慶的另一家醫院提供,該數據集由2014年到2015年的臨床檢查超聲圖像構建。從醫院得到的原始圖像數據集包含25659名患者的腹部超聲圖像數據集,每位患者提供一張超聲圖像。從中選擇有大量超聲圖像樣本的疾病類別,刪除常規產前檢查的超聲圖像,構建的超聲圖像包含3個器官,分別為膽囊、腎臟和肝臟。數據集包含9種疾病,分別為膽囊結石、膽囊息肉、正常膽囊、腎積水、腎結石、腎囊腫、脂肪肝、血管瘤和正常肝臟,共6563張圖像。

(3) 胎兒頭部測值超聲數據集[16](fetal Head Circumference ultrasound dataset, HC18)。此數據共有1334張標準平面的胎兒頭部超聲圖像,原始超聲圖像的大小為800像素×540像素。對數據進行預處理,本文將圖像均處理為長寬一致的圖像集。

(4) 成人心臟超聲數據集[17](Heart ultrasound dataset, CAMUS)。CAMUS數據集由來自450名患者臨床檢查的2維超聲心臟圖像組成,共1800張成人心臟超聲圖像。

通過分析超聲圖像中噪聲的特征,了解到超聲圖像中的噪聲是加性噪聲和乘性噪聲混合而成的。原始超聲圖像集是使用物理校正手段采集的圖像集,其本身含有少量超聲圖像真實的噪聲,以此作為實驗數據,一定程度上保證了模型的實用性。通過在原始超聲圖像加入加性高斯白噪聲,部分模擬超聲圖像中的噪聲,便于控制圖像集的噪聲水平進行多組實驗,以此評估本文方法的魯棒性。因此,本文通過對上述4個超聲圖像數據集添加加性高斯白噪聲來模擬超聲圖像中的加性噪聲,不僅能模擬超聲圖像中的部分噪聲,同時也能通過控制所添加的噪聲量來區別超聲圖像中的噪聲程度,使得提出的模型在不同程度下驗證其是否具有魯棒性。此外,按照留出法,從加有模擬斑點噪聲的圖像中隨機選出上述4個數據集的訓練集和測試集。

3.2 參數設置

該網絡用Pytorch實現,訓練網絡輸入的圖像塊為64像素×64像素大小的圖像塊。在實驗中,對幾個參數進行評估,最終確定如下參數設置:初始學習率lr為 10-4,逐步衰減到1 0-5。批次大小為16,訓練200 epoch,使用第200 epoch的權重參數進行測試。最后一層的卷積核數量設為1,其他層卷積核數量為96。所有層的卷積核大小都設為5×5。卷積和反卷積的步長為1,填充為0。在本文實驗過程中,所有網絡都使用Adam算法進行優化,它能基于訓練的數據迭代地更新神經網絡的權重。本文設計的去噪模型與參數配置如表2所示。

表2 RED-SENet去噪網絡結構與參數配置

本文提出的網絡能處理任意大小的圖像,未經裁剪的測試圖像可直接送入網絡去噪。本文從峰值信噪比(Peak Signal-to-Noise Ratio, PSNR)、結構相似性(Structural SIMilarity, SSIM)和均方根誤差(Root Mean Square Error, RMSE)3個方面定量評價圖像質量。在本文用到的幾項評價指標中,PSNR和SSIM越大說明圖像質量越高,RMSE值越小說明去噪后的圖像與真實圖像的差異更小,圖像質量更優。本文方法與MLP[18](Multilayer Perception),BM3D[19](Block Matching and 3D collaborative filtering),K-SVD[20](K Singular ValueDecomposition),CNN10[21](Convolutional Neural Network),RDN10[22] Residual Dense Network)和RED-CNN[10](Residual Encoder-Decoder Convolutional Neural Network)共6種先進的方法比較。其中MLP, BM3D和K-SVD是常用的圖像去噪傳統算法。RED-CNN基于編解碼器并廣泛應用于醫學圖像去噪方法。CNN10的網絡模型是根據CNN簡化的版本,也可將它看作基于CNN的超聲圖像恢復模型[21]的一個變體。RDN10是用于圖像超分辨率任務RDN的簡化版本。

3.3 實驗結果

本文方法與MLP, BM3D, K-SVD, CNN10,RDN10以及RED-CNN這6種方法分別在FH, GS,HC18和CAMUS共4個超聲圖像數據集上實驗,并在4個不同的噪聲程度上進行主觀效果和圖像評價指標的對比,來驗證RED-SENet的性能,如表3—表5和圖3—圖5所示。在評價指標的表格數據中,加粗為最優,下劃線為次優。本文通過改變高斯噪聲的大小控制超聲圖像中噪聲程度。

圖3 在同一噪聲程度下(σ =25),不同方法的去噪結果可視化

圖5 相對于噪聲圖像的絕對差分圖像

表3是在FH超聲數據集上實驗得出的各項評價指標值。從表3得出,本文方法相比RED-CNN在客觀指標上領先,平均PSNR高出將近0.2 dB,相比RED-CNN方法的SSIM,也略微領先。傳統去噪方法用于超聲圖像去噪效果普遍低于基于深度學習的方法,從表格中的最后一行看出,本文方法在幾種對比方法中,指標表現為最優或次優。在表3中,本文方法和RDN10在FH數據集上的去噪性能表現良好,本文方法的性能略優于RDN10。表4是在GS超聲數據集上實驗得出的各項評價指標值。從表4看出,本文方法在所有不同噪聲程度上的評價指標都表現最優,CNN10和RED-CNN在某些噪聲程度上的評價指標表現為次優。在HC18超聲數據集上對比各個方法的指標如表5所示,在噪聲變量取值為10和15時,RDN10各項評價指標值高于表中其他方法,本文方法的各項指標值僅低于RDN10;在噪聲變量為25和30時,本文方法的各項評價指標高于其他方法。表5是HC18超聲數據集各個方法的對比,從表中仍然能觀察到,在噪聲變量為10和15時,本文方法各種評價指標值表現為次優,在噪聲程度為25時,本文方法各項指標均優于其他方法,表明本文模型的性能較優。從表3—表6看,無論PSNR還是SSIM, RED-SENet去噪方法噪聲抑制都表現優良。

表3 胎兒心臟超聲數據集在不同噪聲情況下的實驗對比

表4 膽囊結石超聲數據集在不同噪聲情況下的實驗對比

表5 胎兒頭部超聲數據集在不同噪聲情況下的實驗對比

表6 CAMUS頭部超聲數據集在不同噪聲情況下的實驗對比

圖3(a)是FH超聲圖像上的結果。圖3(a1)是干凈的胎兒4腔心切面的超聲圖像,圖3(a2)是帶有噪聲的胎兒4腔心切面圖像。用于和本文方法對比的方法都對超聲圖像中的噪聲有不同程度的抑制。圖3(a3)使用MLP方法對圖3(a2)中的圖像去噪,可以明顯地看到胎兒4腔心的一些重要的小結構變得光滑。BM3D和K-SVD比MLP保存了更多的細節,但在組織處能看到明顯的人工生成的成分。在胎兒心臟的檢查中,心臟的室間隔膜、二三尖瓣以及卵圓孔起著關鍵的作用。如果在去噪過程中,添加了人工成分,將缺損的室間隔恢復成完好的室間隔,會導致醫生誤判,造成嚴重的后果。從圖3(a9)看到,恢復后的圖像紋理結構仍然保持一致,去噪效果良好,和圖3(a1)最為接近,因此,本文方法在結構保持和病理不變性方面也取得良好的評價,也能更有效地恢復超聲圖像中的結構紋理信息,說明本文方法去噪性能優于對比方法。

圖3(a6)—圖3(a9)、圖3(d6)—圖3(d9)都是深度學習去噪方法用于超聲圖像去噪的結果,圖3(a)—圖3(d)分別為FH/GS/HC18/CAMUS超聲數據集經各種方法去噪后的圖像。觀察可得,在超聲圖像去噪過程中,幾種深度學習方法的去噪效果明顯優于傳統方法的效果。從白色紋理部位能看到,不同方法生成的紋理不完全相同,將去噪后的圖像分別和無噪聲圖作對比,通過本文方法進行去噪后,圖像紋理與圖3(a1)最為接近,最大限度上保持了原有圖像的結構和紋理細節。

為了顯示RED-SENet的優點,相對于干凈超聲圖像的絕對差值圖像如圖4所示。從圖中能清楚看到,去噪后,圖4(c)丟失了很多原有的紋理細節。因此,用此方法去噪不能保持超聲圖像的病理不變性。圖4(d)中4腔心的邊緣信息和紋理幾乎無法體現出來。相比圖4(f)—圖4(h),圖4(h)中的紋理細節與原始圖最接近,紋理結構分布也較均勻。另外,各方法去噪后的圖像相對于帶噪聲圖像的絕對差值圖如圖5所示。差值圖中顯示的噪聲越多,代表對應模型的去噪效果越好;圖5與圖4(a)越接近,表示去除的噪聲越多,說明對應方法去噪效果越好。圖5(a)是噪聲圖和噪聲圖之間的絕對差值,圖上沒有任何噪聲。觀察圖5(b)—圖5(h),圖5(b)式中的去噪效果比圖5(c)中的略差,圖5(e)中明顯看出有部分區域的噪聲沒有被去除,圖5(d)中未被去除噪聲的區域略小于圖5(e)中的區域,圖5(f)和圖5(g)最為接近,去噪效果相當。圖5(h)中的噪聲斑點分布得更密集更均勻,留出的黑色塊更少,表明本文方法去除的噪聲最多;圖5中能觀察到,在被去除的噪聲中,圖像原本的紋理結構在絕對差分圖像圖5(h)中最不明顯,說明本文方法能更有效恢復超聲圖像中的結構細節和紋理信息。

圖4 相對于無噪聲圖像的絕對差分圖像

通過固定相同的噪聲程度,從各個指標的數值方面進行分析。從表7可以看到,本文的方法在FH數據集中3個評價指標的值均為最高;在GS數據集中結構相似性的值表現為次優,峰值信噪比和均方根誤差的值最優;在HC18數據集中本文方法的3個評價指標均表現最優;但是在CAMUS數據集上對本文方法進行效果驗證時發現,本文方法僅能在結構相似性評價指標上表現最優,而RED-CNN在PSNR和RMSE評價指標上表現最好。表7的實驗結果表明,本文方法在較高噪聲程度污染的情況下,去噪效果普遍優于其他方法,僅在CAMUS數據集上次于RED-CNN的去噪效果。

表7 不同方法在4個數據集上的定量結果分析(σ =50)

在圖6中,紅色虛線代表本文提出的方法在不同噪聲程度下胎兒心臟數據集上3種評價指標值的變化情況,其中折線放大部分的噪聲方差σ=25。圖6(a)可以看到本文提出的方法的PSNR高于REDCNN和CNN10方法處理后圖像的PSNR,圖6(b)和圖6(c)同理。本文為了再次驗證模型的有效性和實用性,使用文章中所提到的同等條件下訓練好的模型,對未使用物理手段采集到的超聲圖像去噪,在上述6種方法上進行實驗。

圖6 不同噪聲方差σ 下,胎兒心臟(FH)超聲圖像去噪后的平均評價指標

在主觀視覺方面,本文從圖7可以觀察到,未使用物理校正手段采集的超聲圖像經過傳統方法去噪后的超聲圖像失真較大,去噪后的超聲圖像的紋理過于平滑,這些失真主要表現在超聲圖像的紋理結構上。由此可見,上述2種傳統去噪方法對恢復超聲圖像的紋理細節的性能較差。對比之下,4種深度學習去噪方法對未使用物理校正手段采集的超聲圖像的去噪效果普遍優于傳統的去噪方法。同時,使用4種深度學習方法去噪后所得到的主觀圖給專業超聲科醫師評價打分,得到了良好的評價結果,一定程度上改善了視覺效果,為專業醫師的診斷減少了一定的干擾。特別地,圖7中可以看到,從紋理細節上,本文方法所得到的圖像(如圖7(g))的紋理結構保持更良好;從4腔方面觀察,腔內的噪聲也明顯減少,比其他3種深度學習方法表現更佳。另外,為了能從多個角度驗證模型的有效性,同樣采用絕對差分法,將采用上述6種方法去噪后的主觀圖與去噪前的圖像進行差值映射,如圖8所示。從絕對差分圖中觀察到,經上述6種方法進行去噪操作后所減少的噪聲量,白色斑點為去除的噪聲,減少的噪聲越多,去噪的效果越好。

圖7 未使用物理手段采集的超聲圖像去噪前后的主觀圖對比

對比圖8(a)可知,在圖8(a) —圖8(g)中,如果絕對差分圖的白色斑點越多,則去除的噪聲越多。圖8(a)和圖8(b)中,去除的噪聲比圖8(d)—圖8(g)多,但去除了部分的紋理結構和邊緣信息,導致圖像失真。再觀察圖8(d)—圖8(g),各方法的圖像邊緣信息恢復情況大致相同,觀察圖中的黑色圓形區域,圖8(g)的黑色圓形最大,且周邊白色斑點稀疏。此黑色圓形為4腔心,根據實際去噪情況來看,與去噪前的圖像對比最為接近。因此,以上實驗也驗證了本文提出的去噪模型的有效性和實用性。

圖8 相對于噪聲圖像的絕對差分圖像

4 結束語

針對超聲圖像中的斑點噪聲與其紋理結構相似而干擾醫師診斷的問題,本文設計了一個基于殘差編解碼器的通道自適應去噪網絡來有效去除斑點噪聲。與一些先進的方法對比,無論從定性評估還是定量分析上,本文模型都取得優良的評價。模擬結果表現出深度學習在超聲圖像中噪聲抑制和結構保持等方面的潛力,并能以較高的速度進行計算。在之后的研究里,繼續優化模型的去噪性能,同時在其他形態的圖像上也達到很好的去噪效果。

猜你喜歡
方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
學習方法
3D打印中的模型分割與打包
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: 熟妇无码人妻| lhav亚洲精品| 欧美激情综合| 欧美综合中文字幕久久| 亚洲综合久久成人AV| 免费 国产 无码久久久| 亚洲天堂首页| 色国产视频| 男女男免费视频网站国产| 在线观看热码亚洲av每日更新| 亚洲日产2021三区在线| 欧美一区二区福利视频| 人妻精品久久无码区| 国产一区二区三区在线观看免费| 欧美区在线播放| 久久国产精品无码hdav| 国产十八禁在线观看免费| 久操线在视频在线观看| 亚洲区一区| 国产国拍精品视频免费看 | 99人妻碰碰碰久久久久禁片| 亚洲中文字幕在线观看| 澳门av无码| 欧美全免费aaaaaa特黄在线| 美女裸体18禁网站| 欧美翘臀一区二区三区| 午夜日b视频| 亚洲高清国产拍精品26u| 思思热在线视频精品| 国产又大又粗又猛又爽的视频| 亚洲AV无码精品无码久久蜜桃| 538精品在线观看| 精品午夜国产福利观看| 国产精品久久久久久久久久久久| 91丝袜乱伦| 国产一区二区精品福利| 亚洲日韩久久综合中文字幕| 四虎国产永久在线观看| 中文字幕中文字字幕码一二区| 中文字幕无码电影| 九色视频在线免费观看| 欧美三级视频在线播放| 亚洲无码在线午夜电影| 亚洲美女高潮久久久久久久| 伊人91在线| 国产九九精品视频| 91青青草视频在线观看的| 国产丝袜第一页| 性色一区| 亚洲综合色婷婷中文字幕| 欧美日韩在线国产| 国产欧美日韩综合一区在线播放| 色老头综合网| 亚洲色婷婷一区二区| 无码国产伊人| 亚洲色婷婷一区二区| 亚洲码一区二区三区| 亚洲精品日产AⅤ| 久久免费精品琪琪| 国产精品理论片| 国产在线观看成人91 | 精品视频91| 红杏AV在线无码| 国产精品黑色丝袜的老师| 一区二区在线视频免费观看| 欧美日本视频在线观看| 国产高清色视频免费看的网址| 国产尤物jk自慰制服喷水| 国产免费网址| 国产成人综合在线视频| 国产剧情无码视频在线观看| 亚洲视频在线观看免费视频| 美女一区二区在线观看| 久久久久国产一级毛片高清板| 三上悠亚一区二区| 在线国产你懂的| 亚洲人网站| 婷婷色中文网| 爱色欧美亚洲综合图区| 精品国产成人国产在线| 亚洲毛片一级带毛片基地| 国产色婷婷视频在线观看|