











摘要:針對霧霾天氣拍攝的圖片質量大幅下降的問題,基于經典的大氣散射模型提出了一種新的多任務學習方法,以端到端的方式聯合學習透射圖和去霧圖像。該網絡框架是基于一種新的雙重條件生成對抗網絡,由兩個改進的條件生成對抗網絡(CGAN:Conditional Generative Adversarial Network)堆疊組成,即將有霧圖像輸入第1階段CGAN估計透射圖,然后將預測的透射圖和有霧圖像輸入第2階段CGAN,通過第2個生成器恢復出對應的無霧圖像。為改善輸出圖像的顏色失真和邊緣模糊問題,設計了聯合損失函數,提高圖像轉化的質量。在合成和真實數據集上與多種去霧方法進行定性和定量實驗比較,結果表明,該方法輸出的無霧圖像具有更好的視覺效果,其結構相似性和峰值信噪比的值分別達到了0. 985和32. 880 dB。
關鍵詞:圖像去霧:大氣散射模型;條件生成對抗網絡;多任務學習:聯合損失
中圖分類號:TP391.4 文獻標志碼:A
霧霾通常是由空氣中存在的懸浮顆粒如灰塵、煙霧和其他干顆粒引起的。在霧霾天氣下拍攝的圖片質量大幅下降,進而對圖像的后續處理(如交通監控、目標識別、圖像分類等領域)造成嚴重影響。因此,通過圖像去霧技術恢復圖像能見度和清晰度已成為計算機視覺領域的研究熱點。
早期的單幅圖像去霧方法主要依賴于良好的先驗假設,即基于先驗的方法,通過人工計算估計透射率和大氣光值,帶人大氣散射模型中輸出無霧圖像。然而,這些算法的性能取決于先驗的準確性,且不能推廣到所有類型的場景中。……