999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于機器學習的無參考圖像質(zhì)量評價指標體系改進

2019-05-24 14:21:16樊曉婷畢艷輝
無線互聯(lián)科技 2019年2期
關鍵詞:機器學習

樊曉婷 畢艷輝

摘 要:為解決BRISQUE算法中單純提取灰度空間指標特征的問題,進一步提升算法預測的準確性,文章在BRISQUE算法的基礎上改進了無參考圖像質(zhì)量評價指標體系,提出了一種基于灰度空間和色彩空間的改進算法。同時,為了減少單一數(shù)據(jù)庫造成的模型過擬合現(xiàn)象,提升算法的魯棒性,該算法分別在LIVE和CSIQ數(shù)據(jù)庫上分析了算法計算結(jié)果與DMOS值的相關性。實驗結(jié)果表明,改進的BRISQUE算法評價結(jié)果與人類主觀評價具有高度的一致性,較BRISQUE算法在一致性方面有一定程度的提升。

關鍵詞:無參考圖像質(zhì)量評價;BRISQUE算法;機器學習;圖像失真

圖像作為人類視覺和機器模式識別的重要信息來源,蘊含了大量有價值的信息,一張圖像質(zhì)量的好壞直接影響獲取信息的準確性和完整性。在圖像的獲取、存儲、傳輸、顯示等過程中不可避免地會引入一些干擾因素,如噪聲、模糊等,最終造成圖像質(zhì)量的下降。

BRISQUE算法是Anish Mittal,Alan Conrad Bovik等[1-2]于2012年提出的基于機器學習的無參考圖像質(zhì)量評價算法,該算法基于圖像灰度空間提取與圖像質(zhì)量相關的指標,構(gòu)建無參考圖像質(zhì)量評價模型,但該算法未考慮色彩對圖像質(zhì)量的影響。本文基于BRISQUE算法改進原有的無參考圖像質(zhì)量評價指標體系,在色彩空間上提取多個相關指標,并在不同圖像數(shù)據(jù)庫上進行實驗測試。實驗結(jié)果表明:改進的BRISQUE算法評價結(jié)果與人類主觀評價具有高度的一致性,較BRISQUE算法在一致性方面有一定程度的提升。

1 BRISQUE算法簡介

BRISQUE算法的基本步驟為:

(1)對圖像作局部灰度標準化處理,獲取圖像標準化灰度值(Mean Subtracted Contrast Normalized,MSCN)。

(2)廣義高斯函數(shù)(Generalized Gaussian Distribution,GGD)擬合MSCN值,獲取形狀參數(shù)α和方差σ2兩個指標特征。

(3)非對稱廣義高斯函數(shù)(Asymmetric Generalized Gaussian Distribution,AGGD)分別擬合4個方向上的相鄰像素MSCN值,每個方向上獲取4個參數(shù),共計16個指標特征。

(4)在采樣因子為2的下采樣的尺度上按(1)、(2)、(3)步驟提取18個指標作為獲取失真的第3組特征。

(5)基于在兩個尺度上提取的36個特征指標,利用支持向量回歸(Support Vector Regression,SVR)模型學習出圖像質(zhì)量評價函數(shù)。

BRISQUE創(chuàng)新性地將機器學習算法應用于無參考圖像質(zhì)量評價中,較傳統(tǒng)的客觀評價指標相比具有明顯優(yōu)勢。但其僅僅考慮圖像失真在灰度方面引起的指標的變化。本文在基于BRISQUE算法的基礎上引入色彩空間指標,并在不同數(shù)據(jù)集上進行模型的訓練。

本文所采用的圖像數(shù)據(jù)庫為LIVE和CSIQ,其中LIVE數(shù)據(jù)庫主觀分數(shù)是DMOS(0-100)。CSIQ數(shù)據(jù)庫的主觀分數(shù)為DMOS值(0-1),為保證兩個數(shù)據(jù)庫主觀分數(shù)范圍的一致性,將CSIQ數(shù)據(jù)庫的DMOS值范圍擴大100倍。

2 基于BRISQUE算法的指標體系改進

2.1 色彩空間特征提取

CIELAB顏色空間是由國際照明委員會(Commission Internationale de LEclairage,CIE)制定的一種色彩模式。自然界中任何一點色彩都可以在 CIELAB空間中表達出來[3]。

CIELAB色彩空間中的3個坐標軸分別為:L*表示色彩空間中灰度的位置,a*表示色彩空間中相對于紅色/綠色的位置,b*表示色彩空間相對于黃色和綠色的位置。其中,圖像(i,j)處的色度的定義如下[4]:

(1)

在提取特征前先對圖像色度做局部標準化處理,起到去相關的作用。

(2)

其中:,,M和N分別為圖像的高度和寬度,參數(shù)C=1來增強式子的穩(wěn)定性。和分別為局部均值和標準差。

我們稱為標準化色度系數(shù)。參考圖像標準化后的色度值近似服從標準高斯分布,同時,相鄰像素的色度值具有很強的相關性,標準化后的色度值大大減小了這種相關性。

根據(jù)實驗研究發(fā)現(xiàn),參考圖像的標準化色度系數(shù)值近似服從標準高斯分布,而失真圖像的標準化色度系數(shù)值則呈現(xiàn)不同的分布,GGD可以有效獲取失真圖像更多的統(tǒng)計數(shù)據(jù)特征。期望為0的廣義高斯分布函數(shù)為:

(3)

我們用GGD擬合標準化色度系數(shù)值,并估計兩個參數(shù)。

由于原始圖像的標準化色度系數(shù)值分布更均勻,因此,相鄰像素的會呈現(xiàn)有規(guī)律的特征,構(gòu)建4個方向成對的相鄰像素的標準化色度系數(shù)值模型[5-7]:

(1)水平方向

(4)

(2)豎直方向

(5)

(3)主對角線方向

(6)

(4)副對角線方向

(7)

我們采取更一般的AGGD模型提取相鄰像素的特征,眾數(shù)為0的AGGD分布函數(shù)為:

(8)

其中:v為形狀參數(shù),為范圍參數(shù),提取AGGD最佳擬合參數(shù),其中為:

(9)

對于每個像素點的4個方向上有16個特征參數(shù)。考慮到圖像通常具有多尺度性,同時,通過將多尺度信息融入圖像質(zhì)量評價,因此,在兩個尺度上(原圖像尺度和采樣因子為2的下采樣的尺度)提取將征,共計提取特征數(shù)目為36(18×2)。

2.2 SVR機器學習模型建立

無參考圖像質(zhì)量評價NR IQA可以看作是一個回歸問題。基于提取的特征通過一個回歸函數(shù)來學習出圖像質(zhì)量評價函數(shù),可表示為[8]:

(10)

其中:x為提取的特征向量,f(·)為回歸函數(shù),Q為最后的圖像質(zhì)量。

通過SVR的方法進行訓練模型。70%的圖片作為訓練集,30%的圖片作為測試集。經(jīng)過1 000次隨機模擬實驗,BRISQUE算法和改進的BRISQUE算法的訓練集和測試集輸出的結(jié)果與主觀評測結(jié)果的線性相關系數(shù)和斯皮爾曼相關系數(shù)如表1—2所示。

相關系數(shù)越接近于1說明該算法預測值與主觀評測的DMOS值相關性越高。

3 結(jié)語

無參考圖像質(zhì)量評價方法不需要參考圖像的任何信息,僅根據(jù)失真圖像本身來進行質(zhì)量評價。本文在BRISQUE算法的基礎上,在CIELAB色彩空間上提取特征指標并構(gòu)建了無參考圖像質(zhì)量評價模型。在LIVE和CSIQ圖像質(zhì)量評價數(shù)據(jù)庫上的實驗結(jié)果表明,本文的評價結(jié)果與人類主觀質(zhì)量評價高度一致,較BRISQUE算法有很大程度的提升。

[參考文獻]

[1]MOORTHY A K,BOVIK A C.A two-step framework for constructing blind image quality indices[J].IEEE Signal Processing Letters,2010(5):513-516.

[2]SAAD M A,BOVIK A C,CHARRIER C.DCT statistics model-based blind image quality assessment[C].Atlanta:IEEE International Conference on Image Processing,2011:3093-3096.

[3]范賜恩,冉杰文,顏佳,等.顏色空間統(tǒng)計聯(lián)合紋理特征的無參考圖像質(zhì)量評價[J].光學精密工程,2018(4):916-926.

[4]江程.基于結(jié)構(gòu)相似度的圖像客觀質(zhì)量評價方法研究[D].湘潭:湘潭大學,2012.

[5]MITTAL A,MOORTHY A K,BOVIK A C.No-reference image quality assessment in the spatial domain[J].IEEE Transactions on Image Processing,2012(12):4695-4708.

[6]MOORTHY A K,BOVIK A C.Blind image quality assessment: from natural scene statistics to perceptual quality[J].IEEE Transactions on Image Processing,2012(12):3350-3364.

[7]MITTAL A,SOUNDARARAJAN R,BOVIK A C.Making a “completely blind” image quality analyzer[J].IEEE Signal Processing Letters,2013(3):209-212.

[8]王志明.無參考圖像質(zhì)量評價綜述[J].自動化學報,2015(6):1062-1079.

猜你喜歡
機器學習
基于詞典與機器學習的中文微博情感分析
基于網(wǎng)絡搜索數(shù)據(jù)的平遙旅游客流量預測分析
時代金融(2016年27期)2016-11-25 17:51:36
前綴字母為特征在維吾爾語文本情感分類中的研究
科教導刊(2016年26期)2016-11-15 20:19:33
下一代廣播電視網(wǎng)中“人工智能”的應用
活力(2016年8期)2016-11-12 17:30:08
基于支持向量機的金融數(shù)據(jù)分析研究
基于Spark的大數(shù)據(jù)計算模型
基于樸素貝葉斯算法的垃圾短信智能識別系統(tǒng)
基于圖的半監(jiān)督學習方法綜述
機器學習理論在高中自主學習中的應用
極限學習機在圖像分割中的應用
主站蜘蛛池模板: 波多野结衣中文字幕久久| 日韩东京热无码人妻| 青青草综合网| 中文字幕伦视频| 久久99精品国产麻豆宅宅| 国产综合精品一区二区| 制服丝袜在线视频香蕉| 国国产a国产片免费麻豆| 欧美日韩导航| 国产视频入口| 日韩欧美中文字幕在线韩免费| 精品撒尿视频一区二区三区| 国产97公开成人免费视频| 波多野吉衣一区二区三区av| 国产成人h在线观看网站站| 日本免费新一区视频| 国产波多野结衣中文在线播放| 久久青青草原亚洲av无码| 国产成人无码综合亚洲日韩不卡| 999国内精品久久免费视频| 九色视频线上播放| 午夜天堂视频| m男亚洲一区中文字幕| 91成人免费观看| 波多野衣结在线精品二区| 欧美区一区二区三| 在线欧美一区| 18禁高潮出水呻吟娇喘蜜芽| 一本一道波多野结衣av黑人在线| 女人爽到高潮免费视频大全| 色偷偷一区| 欧美伊人色综合久久天天| 欧美亚洲一区二区三区在线| 午夜精品福利影院| 精品伊人久久久大香线蕉欧美 | 一本视频精品中文字幕| 丁香亚洲综合五月天婷婷| 91久久青青草原精品国产| 欧美成人精品欧美一级乱黄| 国产一区二区三区夜色| 欧美国产日韩一区二区三区精品影视| 欧美精品色视频| 久草国产在线观看| 久久国产V一级毛多内射| 亚洲男人天堂网址| 在线观看精品国产入口| 一级高清毛片免费a级高清毛片| 欧美日韩在线亚洲国产人| 中美日韩在线网免费毛片视频 | 亚洲国产在一区二区三区| 国产高清又黄又嫩的免费视频网站| 国产三区二区| 亚洲国产日韩欧美在线| 久久综合结合久久狠狠狠97色| 亚洲中久无码永久在线观看软件 | 一级毛片视频免费| 久久毛片免费基地| 久久9966精品国产免费| 国产成人欧美| 成年女人18毛片毛片免费| 久久狠狠色噜噜狠狠狠狠97视色| 亚洲无线视频| 97se亚洲| 99这里只有精品6| 国产精品一线天| 无码 在线 在线| 国产一区免费在线观看| 免费又黄又爽又猛大片午夜| 日韩欧美亚洲国产成人综合| 综合色区亚洲熟妇在线| 欧美影院久久| 自偷自拍三级全三级视频| 亚洲成人播放| 久久这里只有精品66| 国产午夜福利亚洲第一| 国产精品国产三级国产专业不| 亚洲第一中文字幕| 国产免费网址| 国产毛片高清一级国语| 青青草国产在线视频| 五月综合色婷婷| 国产微拍一区二区三区四区|