999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于遺傳算法的多模態(tài)病變圖像關聯(lián)挖掘仿真

2021-11-17 07:09:16岳根霞
計算機仿真 2021年2期
關鍵詞:模態(tài)特征實驗

岳根霞

(山西醫(yī)科大學汾陽學院,山西 汾陽 032200)

1 引言

通過單一成像設備對病變信息進行獲取往往無法為醫(yī)生提供充足的病理信息,此時需要用多種成像設備對病人的同一病變部位進行多次成像,并對通過多種成像設備得到的圖像進行融合以及比較分析,才能獲取更加全面的病變部位相關信息,從而幫助醫(yī)生對疾病進行更加準確的判斷并提出更具針對性的治療方案。而圖像采集技術在醫(yī)學界的應用與普及,使醫(yī)學治療領域與臨床診斷領域出現(xiàn)了多種醫(yī)學成像設備,為醫(yī)生對疾病的診斷提供了不同特性的多種醫(yī)學圖像,這些圖像通常來源于各種成像設備,因此具備多模態(tài)的特征,能夠為醫(yī)生對疾病的診斷提供決定性的關鍵信息,這些圖像被統(tǒng)一稱為多模態(tài)病變圖像[1]。

當前多模態(tài)病變圖像的獲取方式有基于剛體模型的多模態(tài)病變圖像、基于圖像灰度的多模態(tài)病變圖像、基于圖像特征點的多模態(tài)病變圖像[2]。其中基于剛體模型的多模態(tài)病變圖像主要是結合最近鄰點迭代法、斜面匹配法與頭帽法對病變圖像進行獲取,并利用初步獲取的病變圖像建立頭表面模型,利用搜索算法對頭表面模型的空間變換參數(shù)進行獲取,從而得到病變圖像的多模態(tài)特征;基于圖像灰度的多模態(tài)病變圖像主要是結合多項式函數(shù)、基函數(shù)等變換函數(shù)對圖像進行空間變換,并通過空間變換對其它圖像中的同一部位或器官進行擬合,從而實現(xiàn)病變圖像多模態(tài)特征的獲取;基于圖像特征點的多模態(tài)病變圖像主要是通過圖像的外部特征點與內(nèi)部特征點對多幅圖像的重要拐角、曲面、曲線等對應特征進行匹配,并通過對應特征的匹配度對圖像的幾何變換方式進行決定,從而獲取病變圖像的多模態(tài)特征[3]。這幾種傳統(tǒng)多模態(tài)病變圖像的獲取方法都有一個共同的問題,即圖像挖掘誤差較大,因此提出一種基于遺傳算法的多模態(tài)病變圖像,通過實驗驗證了該多模態(tài)病變圖像的圖像挖掘誤差小于傳統(tǒng)多模態(tài)病變圖像的獲取方法。

2 基于遺傳算法的多模態(tài)病變圖像合成

2.1 病變圖像互信息歸一化

首先獲取病變圖像Shannon 信息熵中條件熵與聯(lián)合熵的關系,接著根據(jù)病變圖像Shannon 信息熵關系對病變圖像的互信息進行歸一化處理[4]。根據(jù)Shannon 信息熵的定義,對病變圖像中隨機特征變量的熵進行定義,如式(1)所示,其中隨機特征變量中包含的事件集合為{x1,x2,…,xn}。

(1)

其中,H(X)代表隨機特征變量的熵;X代表隨機特征變量;p(xi)代表事件xi發(fā)生的概率[5]。假設病變圖像中兩個隨機特征變量分別為Y與Z,并且Y與Z的取值范圍分別是{y1,y2,…,yn}與{z1,z2,…,zn},則Y與Z的概率條件分布密度分別為{p(yi|zj)|i=1,2,…,n,j=1,2,…,n}與{p(zj|yi)|j=1,2,…,n,i=1,2,…,n},這兩個隨機特征變量的序偶隨機量可以用(Y,Z)來表示,取值范圍是{(yi|zj)|i=1,2,…,n,j=1,2,…,n},這兩個隨機特征變量序偶隨機量的概率聯(lián)合分布密度是{p(yi,zj)|i=1,2,…,n,j=1,2,…,n},則這兩個隨機特征變量的聯(lián)合熵可以用式(2)來表示

(2)

其中,H(Y,Z)指的是兩個隨機特征變量的聯(lián)合熵,代表的是序偶隨機量(Y,Z)的不確定性或隨機性。

接著對兩個隨機特征變量Y與Z的條件熵進行定義,如式(3)和式(4)

(3)

(4)

其中,H(Y|Z)與H(Z|Y)分別代表兩個隨機特征變量Y與Z的條件熵,通過條件熵可以在確定一個已知隨機特征變量時,對另一個隨機特征變量的不確定性進行度量。經(jīng)過計算得到兩個隨機特征變量條件熵與聯(lián)合熵的關系

H(Y,Z)=H(Y)+H(Z|Y)=H(Z)+H(Y|Z)

(5)

當兩個隨機特征變量Y與Z處于獨立狀態(tài)時,則它們的條件熵與聯(lián)合熵的關系如下

H(Y,Z)=H(Y)+H(Y)

(6)

H(Z|Y)=H(Z)

(7)

H(Y|Z)=H(Y)

(8)

根據(jù)隨機特征變量中條件熵與聯(lián)合熵的關系對病變圖像的互信息進行歸一化處理,利用H(Y)與H(Z)表示兩個隨機特征變量Y與Z的熵,則其互信息的定義如下

(9)

利用熵的形式對互信息進行描述

I(Y,Z)=H(Y)+H(Z)-H(Y,Z)

(10)

進一步用條件熵與聯(lián)合熵對互信息進行描述

I(Y,Z)=I(Y,Z)-H(Y|Z)=H(Z)-H(Z|Y)

(11)

由于隨機特征變量具備以上性質,因此必須對其進行歸一化處理,處理方式如下

(12)

2.2 最優(yōu)模態(tài)搜索

在完成病變圖像互信息的歸一化處理后,基于遺傳算法對病變圖像互信息的最優(yōu)解即病變圖像的最優(yōu)模態(tài)進行搜索[6]。首先確定病變圖像互信息的編碼方式:對圖像x軸方向的平移距離tx、y軸方向的平移距離ty、旋轉角α這3個參數(shù)進行實數(shù)編碼,對剩余參數(shù)采取二進制編碼方式,編碼中的各個數(shù)字都代表病變圖像的一個模態(tài)[7]。

接著對適應度函數(shù)進行確定,首先獲取每個病變圖像模態(tài)的適應值:對實際待優(yōu)化模態(tài)的目標函數(shù)進行轉換以獲取模態(tài)適應值。利用病變圖像互信息對適應度函數(shù)進行描述:在T這一變換下,最優(yōu)模態(tài)搜索函數(shù)為:

(13)

并通過模態(tài)適應值對遺傳算法的參數(shù)進行確定:包括算法最大執(zhí)行代數(shù)N、種群數(shù)目P,準確選擇算法參數(shù)可以提高最優(yōu)模態(tài)搜索效率,并減少程序運行時間,通常最大執(zhí)行代數(shù)N與算法收斂速度直接相關,而種群數(shù)目P在10到160之間取值[8]。利用實驗法對最大執(zhí)行代數(shù)N、種群數(shù)目P的取值進行確定:測試不同的取值組合,所獲得的參數(shù)列表如表1所示。

表1 不同取值組合下的參數(shù)列表

根據(jù)表2的實驗結果并考慮遺傳算法自身的穩(wěn)定性,P與N的取值分別為41,40。最后需要對遺傳算法的運行停止條件進行確定,即當遺傳算法到達最大執(zhí)行代數(shù)后停止搜索,則算法達到最大執(zhí)行代數(shù)后,病變圖像的最優(yōu)模態(tài)就是種群中的最優(yōu)個體[9]。完成遺傳算法的準備工作后,對算法進行執(zhí)行,其具體執(zhí)行步驟如圖1所示。

圖1 算法具體執(zhí)行步驟

2.3 實現(xiàn)多模態(tài)病變圖像的合成

完成最優(yōu)模態(tài)搜索后,建立最優(yōu)模態(tài)獲取模型以獲取多種成像設備病變圖像的最優(yōu)模態(tài),從而進行多模態(tài)病變圖像的合成,實現(xiàn)多模態(tài)病變圖像的獲取。最優(yōu)模態(tài)獲取模型主要以SegNet和DeconvNet 為基礎,通過病變圖像模態(tài)數(shù)據(jù),以特定多路網(wǎng)絡分割復合訓練的方式,在最優(yōu)模態(tài)搜索訓練中引入反卷積網(wǎng)絡模型,通過最優(yōu)模態(tài)搜索訓練實現(xiàn)對多種成像設備所獲取病變圖像的最優(yōu)模態(tài)獲取。最優(yōu)模態(tài)獲取模型的結構如圖2所示。

圖2 最優(yōu)模態(tài)獲取模型結構

如圖2所示,最優(yōu)模態(tài)搜索訓練中包括兩個訓練部分:卷積訓練部分與反卷積訓練部分,其中卷積訓練部分是對模態(tài)進行編碼,反卷積訓練部分是對最優(yōu)模態(tài)進行解碼,編碼與解碼均通過反卷積網(wǎng)絡模型來進行。在最優(yōu)模態(tài)搜索訓練中,可以將卷積網(wǎng)絡視為一種特征提取器,其主要作用是在成像設備病變圖像中對模態(tài)的特征描述進行提取,而反卷積網(wǎng)絡可以視為一種形狀生成器,其主要作用是通過模態(tài)的特征描述對最優(yōu)模態(tài)進行提取,最后利用 softmax 網(wǎng)絡進行最優(yōu)模態(tài)提取結果的生成。卷積網(wǎng)絡中包含的卷積層數(shù)量共13個,通過池化層與激活層能夠連接這些卷積層,除此之外,卷積網(wǎng)絡還包括兩個全連接層,這兩個全連接層能夠對特定類映射起到加強作用,卷積網(wǎng)絡主要通過池化操作實現(xiàn)模態(tài)特征描述的提取。而反卷積網(wǎng)絡是一種卷積網(wǎng)絡的鏡像結構,通過反池化操作來實現(xiàn)最優(yōu)模態(tài)的提取。

獲取多種成像設備病變圖像的最優(yōu)模態(tài)后,對多模態(tài)病變圖像進行合成:對多種成像設備病變圖像中的多個最優(yōu)模態(tài)進行整合,引入深度神經(jīng)網(wǎng)絡對模態(tài)整合結果進行訓練,從而獲得最優(yōu)模態(tài)整合結果,實現(xiàn)多模態(tài)病變圖像的合成。綜上所述,通過病變圖像互信息歸一化、最優(yōu)模態(tài)搜索建立最優(yōu)模態(tài)獲取模型從而實現(xiàn)了基于遺傳算法的多模態(tài)病變圖像合成。

3 仿真研究

為了檢測本文提出的基于遺傳算法的多模態(tài)病變圖像,基于Matlab Web平臺進行仿真。

3.1 實驗過程

以Matlab Web為實驗平臺編寫vc模型仿真程序對最優(yōu)模態(tài)獲取模型進行仿真,通過MIDMES 系統(tǒng),系統(tǒng)主界面由萊單、工具欄、狀態(tài)欄和多窗口容器組成。由系統(tǒng)的萊單欄進入系統(tǒng)的各個功能模塊:圖像瀏覽與格式轉換、聚類分析、關聯(lián)規(guī)則挖掘等。當進行圖像檢索時狀態(tài)欄顯示數(shù)據(jù)庫中圖像數(shù),以及檢索到的相似圖像數(shù)。完成最優(yōu)模態(tài)獲取模型的仿真后,通過最優(yōu)模態(tài)獲取模型獲取多模態(tài)病變圖像。

圖3 實驗數(shù)據(jù)來源界面

為了保證實驗的有效性,使用基于剛體模型的多模態(tài)病變圖像、基于圖像灰度的多模態(tài)病變圖像、基于圖像特征點的多模態(tài)病變圖像與本文提出的基于遺傳算法的多模態(tài)病變圖像進行對比,觀察仿真的結果,比較多模態(tài)病變圖像挖掘誤差的大小。其中多模態(tài)病變圖像挖掘誤差的定義如下

(14)

為了減少多模態(tài)病變圖像的圖像挖掘誤差,實驗中的病變圖像都進行了同樣程度的灰度調整。每種多模態(tài)病變圖像各自進行三次實驗。本次實驗以病變細胞為病變圖像部位。

通過細胞病變圖像獲取互信息可以得到其性質,如表2所示。

表2 病變圖像互信息性質

3.2 實驗結果

基于剛體模型的多模態(tài)病變圖像、基于圖像灰度的多模態(tài)病變圖像、基于圖像特征點的多模態(tài)病變圖像、基于遺傳算法的多模態(tài)病變圖像的獲取結果如圖4所示。

圖4 不同方法的多模態(tài)病變圖像對比圖

如圖4所示,基于遺傳算法的多模態(tài)病變圖像更清晰,效果更為理想。在此基礎上,對實驗具體數(shù)據(jù)進行對比,實驗獲取的具體數(shù)據(jù)如表3所示。

表3 實驗獲取具體數(shù)據(jù)

通過表3可知,基于剛體模型的多模態(tài)病變圖像的平均圖像挖掘誤差為0.41;基于圖像灰度的多模態(tài)病變圖像的平均圖像挖掘誤差為0.2;基于圖像特征點的多模態(tài)病變圖像的平均圖像挖掘誤差為0.19;基于遺傳算法的多模態(tài)病變圖像的平均圖像挖掘誤差為0.063,通過比較可知,基于遺傳算法的多模態(tài)病變圖像的圖像挖掘誤差最小,證明本文提出的多模態(tài)病變圖像更加精準,將其應用在醫(yī)學領域能夠提升醫(yī)生診斷疾病的效率。

4 結束語

基于遺傳算法的多模態(tài)病變圖像通過病變圖像互信息歸一化、最優(yōu)模態(tài)搜索建立最優(yōu)模態(tài)獲取模型,并通過該模型獲取多種成像設備病變圖像的最優(yōu)模態(tài),進行多模態(tài)病變圖像的合成,實現(xiàn)多模態(tài)病變圖像的獲取。該多模態(tài)病變圖像的圖像挖掘誤差較小,相較于傳統(tǒng)多模態(tài)病變圖像來說更加精準,對醫(yī)療界的意義重大,有助于醫(yī)生對病變部位的疾病診斷,是醫(yī)學影像技術的一種發(fā)展,能夠獲取全面、有效、互補的病變部位醫(yī)療信息,在提升治療效果與追蹤病理變化方面有著卓越的效果。

猜你喜歡
模態(tài)特征實驗
記一次有趣的實驗
如何表達“特征”
做個怪怪長實驗
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
NO與NO2相互轉化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
國內(nèi)多模態(tài)教學研究回顧與展望
基于HHT和Prony算法的電力系統(tǒng)低頻振蕩模態(tài)識別
由單個模態(tài)構造對稱簡支梁的抗彎剛度
計算物理(2014年2期)2014-03-11 17:01:39
主站蜘蛛池模板: 欧美第九页| 色哟哟国产精品一区二区| 日韩精品一区二区三区swag| 天天躁夜夜躁狠狠躁躁88| 成人亚洲国产| 先锋资源久久| 亚洲欧美日韩综合二区三区| 91久久性奴调教国产免费| 国产伦精品一区二区三区视频优播| 高清国产在线| 这里只有精品在线播放| 四虎国产精品永久一区| 国产精品手机在线观看你懂的| 国产国模一区二区三区四区| 久热精品免费| 色偷偷一区二区三区| 免费在线视频a| 蜜桃臀无码内射一区二区三区| 免费一级大毛片a一观看不卡| av无码久久精品| 五月婷婷激情四射| 国产精品视频系列专区 | 亚洲精品麻豆| 黄色一及毛片| 亚洲无限乱码一二三四区| 日日碰狠狠添天天爽| 人妻精品全国免费视频| 国产成人a在线观看视频| 日本人妻丰满熟妇区| 欧美国产菊爆免费观看| 久久久久国产精品嫩草影院| 久久性妇女精品免费| 国产在线观看高清不卡| 国产精品亚洲片在线va| 亚洲色图综合在线| 日韩人妻少妇一区二区| 免费在线a视频| 男女性色大片免费网站| 国产精品欧美日本韩免费一区二区三区不卡| 国产在线精品香蕉麻豆| 午夜天堂视频| 国产成人艳妇AA视频在线| 波多野结衣一区二区三区AV| 久久精品国产精品国产一区| 亚洲国产综合自在线另类| 国产精品毛片一区| 中文字幕在线免费看| 欧美日韩国产成人高清视频| 欧美亚洲激情| 57pao国产成视频免费播放 | 九九热精品视频在线| 狠狠色成人综合首页| 日韩成人免费网站| 精品人妻无码中字系列| 天天躁夜夜躁狠狠躁图片| 亚洲精品国产自在现线最新| 国产精品xxx| 成人亚洲天堂| 久久久成年黄色视频| 国产一区二区三区在线观看免费| 亚洲国产成人综合精品2020| 亚洲国产亚综合在线区| 久久精品无码国产一区二区三区| 国产中文一区二区苍井空| 免费不卡视频| 日韩欧美国产另类| 波多野结衣一区二区三区四区| 国产真实自在自线免费精品| 中文无码精品a∨在线观看| 无码中文字幕乱码免费2| 亚洲成人网在线观看| 亚洲最猛黑人xxxx黑人猛交| 成年A级毛片| 久久人午夜亚洲精品无码区| 欧美激情网址| 亚洲福利一区二区三区| 伊人91在线| 国产人免费人成免费视频| 69综合网| 日韩无码视频播放| 97视频免费在线观看| 亚洲AV电影不卡在线观看|