999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

異構(gòu)融合網(wǎng)絡(luò)下超采樣圖像細節(jié)增強仿真

2021-12-10 08:32:28鄒小花
計算機仿真 2021年11期
關(guān)鍵詞:細節(jié)融合實驗

鄒小花,夏 容

(南昌航空大學科技學院,江西 南昌 332020)

1 引言

圖像在異構(gòu)融合網(wǎng)絡(luò)信息交互的情況下容易丟失一些細節(jié),導致圖像變得不完整、紋理不自然、邊緣模糊,不能滿足用戶的需求。如何使圖像細節(jié)在異構(gòu)融合網(wǎng)絡(luò)下得到增強,進而提高圖像質(zhì)量是在醫(yī)學診斷、軍事衛(wèi)星以及高清晰視頻領(lǐng)域等研究的重要課題,并具有極高的科學價值。

針對上述問題,相關(guān)人員對圖像細節(jié)增強進行了研究,但是仍有許多不足。例如文獻[1]提出基于非下采樣輪廓小波變換的圖像細節(jié)增強方法,使用頻域分析算法對圖像進行分解,得到圖像的輪廓,從而獲得圖像的高頻和低頻信息,為了改善低頻圖像亮度不均勻等問題,再對低頻圖像做視網(wǎng)膜增強處理,同時對高頻圖像做非線性增強,通過去噪處理后得到高頻特征圖;在粗糙的低頻圖像范圍內(nèi)分析高頻圖像的顯著性特征,最后將高頻圖像與低頻圖像進行融合得到精細的細節(jié)增強圖。此方法能夠最大化的利用高頻與低頻圖像信息,并且可以控制光照對實驗的影響。文獻[2]為加強遙感圖像的細節(jié)處理,將傳統(tǒng)的非下采樣法與模糊理論相結(jié)合,研究出一種遙感圖像增強算法。首先將原始圖像做NSCT變換處理,得到不同子帶上的高頻系數(shù)與低頻系數(shù),利用模糊理論對高頻系數(shù)進行處理,并將這些系數(shù)設(shè)立成隸屬度函數(shù);再按照從高層到底層的順序,將高頻系數(shù)線性逐層加入到低頻中,全部加入后,實現(xiàn)遙感圖像細節(jié)的增強。該方法無論在主觀還是客觀方面都能增強遙感圖像的細節(jié)。文獻[3]提出一種基于圖像跨尺度相似性和特征組合的圖像超分辨率重建方法。首先利用圖像的跨尺度相似性,采用KNN算法分別建立高、低分辨率圖像之間的像素特征和梯度特征的映射關(guān)系,然后利用像素特征映射關(guān)系對輸入圖像重建包含高頻信息的高分辨圖像,利用奇異值閾值化獲取輸入圖像的有效高頻信息,并利用梯度特征映射關(guān)系將高頻信息放大后分塊疊加到高分辨率圖像上,得到最終的圖像重建結(jié)果。

上述方法雖然使圖像的細節(jié)得到增強,但是在設(shè)計過程中未能考慮到圖像的紋理方向,導致圖像邊緣不清晰,存在鋸齒現(xiàn)象,并且需要改變的計算參數(shù)很多,實驗操作起來比較復雜。針對以上問題在異構(gòu)網(wǎng)絡(luò)融合基礎(chǔ)上,提出超采樣圖像細節(jié)增強研究。超采樣圖像技術(shù)可以有效的提升圖像的細節(jié)質(zhì)量,與其它增強圖像細節(jié)的方法相比,該方法可以快速提高圖像的分辨率、降低畫面噪點,從而增強圖片細節(jié)。

2 異構(gòu)融合網(wǎng)絡(luò)下超采樣圖像細節(jié)增強

2.1 異構(gòu)融合網(wǎng)絡(luò)下奇異值算法模型建立

異構(gòu)融合網(wǎng)絡(luò)[4]是指網(wǎng)關(guān)將各種類型的網(wǎng)絡(luò)連接到核心網(wǎng)絡(luò)中,最終融合成為一個整體,是時代發(fā)展與科技進步的必然趨勢。網(wǎng)絡(luò)融合有很多的優(yōu)勢,使網(wǎng)絡(luò)的覆蓋范圍擴大,讓網(wǎng)絡(luò)資源得到高效利用,從而降低運營的成本;融合可以滿足用戶多樣化的需求,為用戶提供更好的服務(wù)。圖1為網(wǎng)絡(luò)異構(gòu)融合示意圖。

圖1 異構(gòu)融合網(wǎng)絡(luò)示意圖

要想在異構(gòu)融合網(wǎng)絡(luò)環(huán)境下增強超采樣圖像的細節(jié),需設(shè)定一個低分辨率圖像為L,再通過雙三次差值方法[5]把該圖像的邊緣部分變得模糊,使它成為缺少細節(jié)且分辨率較高的低頻圖像,將H設(shè)定為目標圖像,從而獲得目標高頻細節(jié)圖像

(1)

標準的奇異值算法模型的建立是對M*N矩陣里的A進行分解,其步驟為:

步驟一:利用正交變換方式,對A矩陣進行消減,變換成雙對角矩陣B

(2)

U1為M*M的正交陣;

B如果它滿足M*N的上雙對角矩陣,則M≥n;如果滿足M*N的下雙對角矩陣,則M

對矩陣B做奇異值分解,得出

(3)

S為對角矩陣,其中每個元素分別對應一個奇異值。

將式(2)與式(3)相結(jié)合,就可以得到奇異值分解的公式為

(4)

在矩陣S中,任何一個元素σ都與矩陣A中的一個特征值相對應。根據(jù)降序儲存的順序σ≥σi+1(i≥0)假設(shè)U=U1*U2,這樣矩陣A中的右奇異值全部儲存在U中。相同道理可以得出矩陣A的左奇異值都儲存在V中。因此在異構(gòu)融合網(wǎng)絡(luò)下矩陣A的奇異值算法模型為

(5)

此奇異值算法模型有兩個重要的目標:

2)無論是低頻圖像塊還是高頻圖像塊所得到的稀疏表示系數(shù)均相同。

2.2 超采樣圖像細節(jié)的增強

在異構(gòu)融合網(wǎng)絡(luò)環(huán)境下根據(jù)局部自適應性特點,搜索原始低分辨率圖像,獲取最準確的匹配塊,利用奇異值算法模型對圖像進行矩陣重構(gòu)[7],獲取有價值的高頻細節(jié)信息。細節(jié)增強算法由4部分組成分別為:

1)初始差值:采用哪種方式的差值算法會影響最后的分辨率效果,差值算法較好得到的結(jié)果就越準確,本文在獲得原始分辨率圖像時使用的是輪廓模板差值法,該方法能夠較好的保持原始圖像的基本輪廓。

2)塊匹配搜索[8]:找出兩個圖像塊的對應點,并且計算出對應的像素之差,所得的值作為圖像匹配的準則。Y0作為原始的高頻圖像,對此進行逐點分塊處理,圖像里全部像素點b∈Y0,得到的坐標是(bx,by),將b看作右下角的一個控制點,構(gòu)建一個分辨率為i×i的圖像參考塊,示意圖如圖2所示。

圖2 超采樣圖像參考塊示意圖

上圖展示了其中一個塊劃分的圖像,一個小方格對應一個像素點,圖中粗線框架表示劃分為4×4的塊。

對初始低分辨率圖像中控制點b上的對應像素ρ進行計算,坐標為(ρx,ρy),公式如下

ρx=bx/scale,ρy=by/scale

(6)

scale代表圖像的縮放因子,將ρ設(shè)為搜索中心,構(gòu)建5×5的搜素范圍窗,并且在此范圍窗內(nèi)做完整的匹配搜素。將每個匹配塊與目標參考塊進行匹配值計算,匹配值最小的匹配塊是參考塊的最佳匹配。

奇異值分解算法分別為原始超分辨率圖像與低分辨率圖像提供目標塊和學習塊,在匹配過程中會用到很多的初始圖像信息,這樣會降低計算的復雜程度,計算起來較為簡便。

3)奇異值閾值:將最佳匹配塊R變?yōu)楦哳l圖像Rh的計算公式如下所示

Rh=R-R*Gσ

(7)

高頻圖像Rh奇異值分解后得到Rh=U∑VT,獲得如下所示的奇異值矩陣

∑=diag(λ1,λ2…,λr),λ1≥λ2…λr≥0

(8)

(9)

經(jīng)過奇異值分解獲得初始超采樣圖像目標塊Bi(Bi?Y0)所對應的高頻圖像

(10)

(11)

(12)

將以上操作步驟反復進行,直到所有的圖像塊都完成上述操作,最終得到完整的超采樣圖像細節(jié)增強圖。

異構(gòu)融合網(wǎng)絡(luò)下對超采樣圖像做細節(jié)增強時,圖像的邊緣或者細節(jié)較多的地方,由于疊加圖像的高頻圖像中會有偽高頻成份存在,此種偽高頻可以看做是一種噪聲,但并不是普通的高斯噪聲、脈沖噪聲等。可以利用奇異值分解算法對其進行去噪處理,不需要對噪聲類型做假設(shè),處理過程極其簡單。

圖3為所提方法操作流程。

圖3 細節(jié)增強流程圖

3 實驗分析

3.1 實驗參數(shù)

為了驗證本文圖像細節(jié)增強算法的有效性,將主觀視覺與客觀的峰值信噪比、結(jié)構(gòu)相似度作為評價標準完成對比實驗。將所提算法與文獻[1]、文獻[2]算法做對比分析。為了實驗的公平性,在進行對比時,采用的參數(shù)需要一致,原子數(shù)量為800,稀疏度設(shè)為5,塊的大小為5×5,重疊大小是5。

3.2 實驗結(jié)果分析

設(shè)置第一組為對物品圖像細節(jié)的增強實驗,圖4為三種不同算法對圖像細節(jié)增強的效果。

圖4 實驗一圖像細節(jié)增強的效果圖

峰值信噪比:常用作圖像壓縮等領(lǐng)域信號重建質(zhì)量的測量,本文通過對比該值分析細節(jié)增強圖像清晰度

(13)

式中,MAXI表示圖像點顏色的最大數(shù)值,MSE表示圖像均方差。兩個m×n單色圖像I和K的均方根誤差為

(14)

下表為實驗一得出的三種算法的峰值信噪比與結(jié)構(gòu)相似度對比表:

結(jié)構(gòu)相似度是對圖像質(zhì)量進行打分評價的一個很經(jīng)典的指數(shù),取值范圍[0,1],值越大,表示圖像失真越小。從第一組的對比實驗中可以看出,本文使用方法得到的細節(jié)增強圖像清晰度高,帽子的紋理較清晰,達到了有效增強效果,而文獻方法得到圖像存在非常明顯的面塊現(xiàn)象,細節(jié)信息丟失。

第二組實驗設(shè)置為對動物皮毛圖像細節(jié)的增強實驗,以下三幅圖為第二組實驗得到的超采樣圖像細節(jié)增強圖:

圖5 皮毛圖像細節(jié)增強的效果圖

下表為實驗二得出的圖像對比結(jié)果:

經(jīng)過對比可以看出采用本文算法進行細節(jié)增強的圖像中,動物的皮毛紋理會比初始圖像更加的清晰,文獻[1]、文獻[2]算法對圖像中大面積的震蕩紋理處理效果較差。

表1與表2在客觀上對三種算法做出比較,從數(shù)據(jù)顯示的信息可以看出,本文方法與文獻[1]、文獻[2]方法相比,會產(chǎn)生更高的峰值信噪比并且結(jié)構(gòu)相似度接近于1。因此在異構(gòu)融合網(wǎng)絡(luò)下,使用本文算法對超采樣圖像細節(jié)的增強有較好效果。

表1 帽子圖峰值信噪比與結(jié)構(gòu)相似度對比表

表2 皮毛圖像峰值信噪比與結(jié)構(gòu)相似度對比表

4 結(jié)論

本文提出了異構(gòu)融合網(wǎng)絡(luò)下超采樣圖像的細節(jié)增強。通過采集訓練樣本,建立奇異值算法模型,利用奇異值分解與閾值算法,獲取最佳匹配圖像,對該圖像做加窗處理后使圖像的細節(jié)部分得到增強。通過實驗對比,無論是圖片的直觀感受,還是客觀的峰值信噪比與結(jié)構(gòu)相似度的數(shù)據(jù),都表明本文方法不僅提高了奇異值算法的性能,而且實現(xiàn)圖像細節(jié)增強的過程簡單、快速,與其它方法相比能很好的實現(xiàn)圖像的細節(jié)增強。

猜你喜歡
細節(jié)融合實驗
記一次有趣的實驗
村企黨建聯(lián)建融合共贏
融合菜
從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
以細節(jié)取勝 Cambridge Audio AXR100/ FOCAL ARIA 906
《融合》
做個怪怪長實驗
留心細節(jié)處處美——《收集東·收集西》
細節(jié)取勝
Coco薇(2016年10期)2016-11-29 19:59:58
NO與NO2相互轉(zhuǎn)化實驗的改進
主站蜘蛛池模板: 国内精品视频| 22sihu国产精品视频影视资讯| 91成人免费观看在线观看| 中文字幕自拍偷拍| 99精品免费在线| 欧美中文一区| 欧美一道本| 免费国产不卡午夜福在线观看| 婷婷开心中文字幕| 国产日韩欧美在线视频免费观看 | 国产精品美女在线| 久久综合丝袜日本网| www.91在线播放| 五月天久久婷婷| 亚洲一区第一页| 亚洲国产天堂久久综合226114| 中国国产高清免费AV片| 亚洲 日韩 激情 无码 中出| 中文字幕av无码不卡免费| 不卡无码h在线观看| 99这里只有精品在线| 欧美日韩一区二区三区四区在线观看| 亚洲综合片| 国产激情无码一区二区APP| 亚洲精品无码在线播放网站| 99999久久久久久亚洲| 精品国产成人三级在线观看| 亚洲国产精品不卡在线| 国产日本一区二区三区| 欧美激情综合| 精品一区二区三区视频免费观看| 国产丝袜91| 五月天在线网站| 97精品久久久大香线焦| 国产成人成人一区二区| 成人欧美日韩| 97视频精品全国在线观看| 国产精品久久久久久久久久久久| 精品福利视频网| 999精品视频在线| 99精品免费在线| 国产香蕉97碰碰视频VA碰碰看| 国产美女主播一级成人毛片| 乱人伦视频中文字幕在线| 丰满人妻被猛烈进入无码| 国产色婷婷| 国产91成人| 午夜老司机永久免费看片| 人妻21p大胆| 亚洲欧美日韩天堂| 四虎永久在线视频| 2022国产91精品久久久久久| 亚洲国产在一区二区三区| 国产成人久久综合777777麻豆| 女高中生自慰污污网站| 亚洲一区第一页| 青青草一区| 永久免费无码成人网站| 超清无码熟妇人妻AV在线绿巨人 | 国产欧美日韩精品综合在线| 国产在线拍偷自揄拍精品 | 久久五月天综合| 亚洲第一视频免费在线| 男人天堂亚洲天堂| 91精品啪在线观看国产60岁| 99re免费视频| 香蕉在线视频网站| 日韩欧美在线观看| 在线观看国产精美视频| 国产美女在线观看| 日日拍夜夜嗷嗷叫国产| 色婷婷在线播放| 国产成人三级在线观看视频| 永久免费无码日韩视频| 国产在线视频福利资源站| 激情无码字幕综合| 91九色视频网| 国产精品无码久久久久久| 亚洲人成日本在线观看| 制服丝袜一区| 在线观看亚洲国产| 欧美午夜精品|