999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于L*a*b*顏色空間的高動態范圍成像算法

2019-01-02 03:45:00趙金波白本督范九倫
計算機工程 2018年12期

趙金波,肖 照,白本督,范九倫

(1.西安郵電大學 通信與信息工程學院,西安 710061; 2.西北工業大學 軟件與微電子學院,西安 710072)

0 概述

動態范圍是指可見光區域亮度的最大值與最小值的比值[1]。由此計算的動態范圍數值通常都很大,為了方便起見,可以用亮度最大值與最小值比值的對數值來表示動態范圍。動態范圍越大,圖像中包含的亮度層次越多,圖像細節越豐富[2-3]。自然場景有很寬廣的亮度范圍,如夜晚的星光亮度約為10-4cd/m2,陽光直射下室外環境的亮度約為105cd/m2~109cd/m2[4]。傳統的數字成像設備,比如數碼單反相機,只能記錄現實場景中有限的亮度、對比度信息,稱之為低動態范圍(Low Dynamic Range,LDR)成像設備,其所捕獲的圖像稱為LDR圖像。對于同時有高亮和昏暗區域的場景,利用傳統的低動態范圍成像設備不能通過單次曝光來捕獲場景中的全部亮度信息。高動態范圍(High Dynamic Range,HDR)圖像則是以線性的方式記錄實際場景中的亮度信息。相比普通LDR圖像,HDR圖像可以提供更多的場景亮度信息、良好的整體對比度和更清晰的圖像細節,從而給人們更加逼真的視覺感受,在航天、醫學、攝影、機器視覺等領域有廣泛的應用前景。

HDR圖像的獲取通常有2種方法:1)采用特殊的成像設備直接拍攝[5-7];2)采用多幅不同曝光量的LDR圖像進行合成。前一種方法對成像設備要求較高,成本高昂。因此,大部分研究采用第二種圖像合成的方法來獲取HDR圖像[8-10]。目前,雖然基于多曝光的HDR圖像獲取技術在國際上已經獲得很多研究者的關注,但是大多數研究都集中在如何解決多曝光圖像在像素層的合成問題,而較少關注合成過程中顏色空間的選擇問題。

文獻[11]提出利用最小平方誤差估計求取相機的響應函數,并分別對R、G、B三通道進行輻照度域的合成和色調映射處理,得到能在普通設備上顯示的HDR圖像。文獻[12]首先將不同曝光序列的圖像從RGB空間轉換到HSV空間,通過對亮度、色調和飽和度分量分別進行處理得到HDR圖像,但是由于其在色調合成中引入極坐標系,因此增加了算法復雜性。文獻[13]僅對Y通道數據進行相機響應函數的求解,對U和V通道數據采用加權平均的計算方法,然而在將顏色空間轉換為RGB時會出現“色彩灰化”現象。

本文提出一種基于L*a*b*顏色空間的HDR圖像合成算法。將RGB顏色空間轉換到L*a*b*顏色空間,采用Debevec算法僅對L*亮度通道進行相機響應函數的標定和HDR圖像的合成,進而應用Reinhard全局色調映射算法[14]對亮度通道L*進行動態范圍的壓縮。針對a*和b*2個色品通道,根據不同曝光時間的圖像對色品純度的影響提出一種新的權重函數來進行合成。最后將基于L*a*b*顏色空間的圖像轉換到RGB顏色空間進行顯示。

1 L*a*b*顏色空間HDR合成算法

1.1 L*a*b*顏色空間

RGB顏色空間依賴于設備,對于給定的一組R、G、B三元值,不存在單一、明確的彩色解釋,即相同的圖像文件可能在不同的計算機系統上視覺效果明顯不同。另外,RGB顏色空間在使用紅綠藍三基色系統匹配某些可見光譜時,需要使用基色的負值,使用不方便[15]。為此,國際照明委員會CIE重新修正了顏色匹配函數,于1931年引入CIE XYZ顏色空間。CIE XYZ顏色空間由RGB顏色空間轉換而來,三色刺激值由1931 XYZ顏色匹配函數來計算,保證了對于任何可見光譜的表示三色刺激值均為非負數。當標準觀察者觀察2個不同的光源顯示相同的顏色時,則具有相同的三色刺激值。此外,CIE XYZ顏色空間不依賴顯示設備。但是,CIE XYZ顏色空間在人類的感知均勻性方面比較差。為此,1976年,CIE引入CIE L*a*b*顏色空間,其模型如圖1所示。

圖1 CIE L*a*b*顏色空間模型

L*a*b*顏色空間在色彩科學、創新藝術和諸如打印機、掃描儀等彩色設備的設計中具有廣泛的應用。因此,相比在傳統的顏色空間進行合成,在L*a*b*空間進行合成具有以下優勢:首先,L*a*b*顏色空間能夠更清楚地分離彩色信息和灰度信息;其次,L*a*b*顏色空間致力于人類視覺的感知均勻性,采用歐式距離來描述彩色之間的差別[16],L*分量密切匹配人類感知亮度,對人類的亮度感知是線性的,也就是說,如果一種顏色的L*值是另一種顏色L*值的2倍,那么在視覺感知上第1種顏色的亮度也是第2種顏色亮度的2倍。

L*通道的數值范圍是[0,100],0表示黑色,100表示白色。數值越大,亮度越大;a*通道的數值范圍是[-128,127],-128表示綠色,127表示紅色;b*通道的數值范圍是[-128,127],-128表示藍色,127表示黃色。

RGB顏色空間向L*a*b*顏色空間的轉換,首先需要將RGB顏色空間數值進行歸一化處理,根據式(1)實現RGB向XYZ顏色空間的轉換。

(1)

然后,根據式(2)將XYZ顏色空間轉換為L*a*b*顏色空間。

(2)

(3)

其中,r表示X/Xn、Y/Yn或Z/Zn;Xn=0.950 456,Yn=1,Zn=1.088 754。Xn、Yn、Zn分別表示標準照明體照射在完全漫反射體上,再經過完全漫反射到觀察者眼中的白色刺激三刺激值。

1.2 亮度通道的合成

在L*a*b*顏色空間中,L*通道表示亮度分量,a*、b*通道表示色度分量。因此,只需要在L*通道進行高動態范圍圖像的合成與色調映射處理。首先應用Debeve算法來獲取相機響應函數,鑒于L*通道數值的取值范圍為[0,100]的連續值,計算具有復雜性,本文選擇0,0.1,0.2,…,100共1 001個離散的亮度值,并給出計算相機響應函數的權重函數:

(4)

其中,z為L*a*b*顏色空間中的L*分量,Zmin=0,Zmax=100。經過相機響應曲線的標定后,根據得到的像素值L*與曝光量間的映射關系進行高動態范圍圖像的亮度通道合成。采用Reinhard全局色調映射算法進行處理,得到經過壓縮的高動態范圍圖像的亮度分量。

1.3 色度通道的合成

在L*a*b*顏色空間中,a*和b*2個色品分量的數值取值范圍是[-128,127]。隨著曝光時間的增加,不同曝光時間圖像序列的色品純度逐漸下降。色品純度越大,所占權重應該越大。為此,引入如下的權重函數:

(5)

其中,w(I)表示像素值I的權重。I表示a*和b*通道的像素值,(i,j)表示圖像的空間位置,p表示序列圖像中的圖像數目,‖·‖表示取絕對值。

對a*和b*分量加權求和處理采用的基本原理可表示為:

(6)

(7)

其中,ai和bi表示第i張圖像對應的a*和b*分量,p表示圖像張數,ω(ai)和ω(bi)表示第i張圖像的a*和b*分量對應的權值。通過采用加權平均的方法可以避免直接平均所帶來的飽和度降低問題。

2 實驗結果與分析

本文實驗的操作系統是Windows 10,編程環境是MATLAB 2014a。在進行HDR圖像合成時,需要固定相機來保證拍攝的場景固定不變,避免圖像序列的配準處理。圖2和圖3是常用的2組典型的HDR場景圖像序列,圖4和圖5是以佳能EOS 760D單反相機拍攝的2組不同曝光量的低動態范圍序列圖像。

圖2 圖像序列1

圖3 圖像序列2

圖4 圖像序列3

圖5 圖像序列4

為驗證本文算法的有效性,實驗分別采用基于RGB顏色空間、基于YUV顏色空間的高動態范圍圖像合成算法和本文算法對圖2~圖5中的圖像序列進行HDR合成并比較,實驗結果如圖6和圖7所示。其中,圖6是對合成結果進行對比,圖7是對圖6圈中區域放大進行細節對比。

圖6 HDR合成圖像結果對比

圖7 HDR合成圖像局部區域對比

基于主觀評價,對于圖像整體,從圖6可以看出,與其他2種算法相比,本文算法在色彩還原上更接近真實場景,圖6(a)基于RGB顏色空間合成圖像的顏色過于艷麗,圖6(b)基于YUV顏色空間合成時則出現了顏色淡化現象,而圖6(c)利用本文算法合成的結果更加真實地還原了場景的顏色特征。在圖像的局部細節方面,從圖7可以看出,如第2行的草坪,基于RGB顏色空間合成的結果圖像中左上角部分的3輛汽車模糊不清,基于YUV空間合成的結果雖然左上角部分可以較清楚地還原現實場景的信息,但草坪的顏色整體淡化,本文算法合成的結果在左上角部分能夠較好的看清汽車的數量及輪廓,在草坪的顏色上能較好地還原其真實色彩。

基于客觀評價是比較不同算法合成的高動態范圍圖像的結構相似性(Structural Similarity,SSIM)[17],它是一種衡量2幅圖像相似度的指標。由于傳統的基于RGB顏色空間進行合成時需要對3個顏色通道分別采用相同的合成手段,計算速度較慢,因此將基于RGB顏色空間的合成圖像作為參照,對只采用一個顏色通道合成的基于YUV空間算法與本文算法進行比較,實驗結果如表1所示。從表1可以看出,與基于YUV顏色空間合成算法相比,本文算法具有更高的結構相似性,更能較好地還原場景的亮度信息。

表1 不同圖像序列合成結果的SSIM比較

3 結束語

針對傳統顏色空間合成的HDR圖像計算量大、耗時長及基于YUV顏色空間合成結果出現色彩灰化等問題,本文提出一種基于L*a*b*顏色空間的合成算法。該算法對圖像的亮度和色度信息進行分離處理,在L*通道進行相機響應函數的計算、輻照度域的合成和色調映射處理,而對于a*和b*2個色度通道只需進行加權求和。實驗結果表明,該算法的計算速度快,成像質量高,具有較高的應用價值。下一步將考慮引入更全面的權重因子合成2個色度通道,從而獲取更加真實的成像結果。

致謝:

本文研究受到西安郵電大學西郵新星團隊大力幫助,特此感謝。

主站蜘蛛池模板: 午夜国产理论| 亚洲AV无码乱码在线观看代蜜桃| 欧美综合成人| 2018日日摸夜夜添狠狠躁| 成年人福利视频| 国产在线一二三区| 亚洲天堂精品视频| 色视频国产| 777国产精品永久免费观看| 国产第八页| 免费久久一级欧美特大黄| 99久久99视频| 久久久久青草线综合超碰| 国内精品久久久久久久久久影视 | 亚洲六月丁香六月婷婷蜜芽| 高清大学生毛片一级| 国产精品三级av及在线观看| 91视频99| 国产成人精品综合| 国产丝袜91| 亚洲天堂精品在线观看| 丝袜无码一区二区三区| 人妻少妇乱子伦精品无码专区毛片| 国产91视频免费| 911亚洲精品| 国产特级毛片aaaaaaa高清| 91高清在线视频| 欧美另类第一页| 老司机久久99久久精品播放| 97se亚洲综合在线天天| 欧美人与牲动交a欧美精品 | 97视频免费看| 国产精品无码制服丝袜| 91精品国产自产91精品资源| 亚洲国产精品一区二区第一页免| 麻豆精品在线播放| 狠狠色丁香婷婷| 亚洲无卡视频| 在线观看亚洲人成网站| 三上悠亚一区二区| 五月激情综合网| 在线高清亚洲精品二区| 亚洲无线国产观看| 综合色在线| 伊人久久大线影院首页| 久久精品视频亚洲| 亚洲日韩精品欧美中文字幕 | 伊人久久大香线蕉成人综合网| 亚洲精品视频免费看| 91外围女在线观看| 色悠久久久| 久久 午夜福利 张柏芝| 22sihu国产精品视频影视资讯| 免费国产在线精品一区| 狠狠色狠狠综合久久| 欧美97欧美综合色伦图| 国产黄色爱视频| 毛片久久久| 欧美日韩一区二区在线免费观看| 国产精品亚洲天堂| 国产女人在线观看| 国内精品小视频在线| 亚洲永久精品ww47国产| 青青操国产视频| 看av免费毛片手机播放| 久久国产高清视频| 国内精品久久九九国产精品| 国产精品区视频中文字幕| 国产乱子伦手机在线| 亚洲美女一级毛片| 亚洲aaa视频| 综合成人国产| 99精品在线看| 久久香蕉国产线看观看精品蕉| 国产精品偷伦在线观看| 欧美另类精品一区二区三区| 亚洲狠狠婷婷综合久久久久| 911亚洲精品| 久久毛片网| 天堂成人在线| 丰满人妻中出白浆| 久久黄色一级视频|