楊書廣
(西安建筑科技大學 理學院,陜西 西安 710055)
單圖像超分辨率重建(SR)是計算機視覺中的一個經典問題,它的目標是從一張低分辨率(LR)圖像重建高分辨率(HR)圖像。SR 已廣泛應用于視頻監控、衛星遙感圖像、醫學圖像、顯微鏡成像以及圖像和視頻壓縮等諸多領域。雖然針對圖像SR 提出了許多解決方案,但由于圖像SR 的病態性和較高的實用價值,在計算機視覺領域仍是一個活躍而富有挑戰性的研究課題。近年來,深度學習技術,特別是卷積神經網絡(CNN)和殘差學習,極大地提升了圖像超分辨率重建的性能。SRCNN[1]是首個成功采用CNN 來解決SR 問題的模型,它是一個簡單的3 層網絡,可以學習低分辨率圖像LR 和高分辨率圖像HR 之間的端到端的映射,在當時取得了超越傳統算法的重建效果。隨后,各種用于超分辨率重建的卷積神經網絡相繼出現。He Kim 等[2]通過引入全局殘差學習,將網絡深度增加到20 層,在SR 性能上取得了顯著提高。其他一些模型,如DRCN[3]和DRRN[4],則側重于權重共享,以減小模型參數的比例。雖然這些方法性能優越,但都需要原始LR 圖像的雙三次插值版本作為輸入,不可避免地丟失了一些細節,且計算量較大。而反卷積[5]和亞像素卷積[6],可以改善這一問題。相比于雙三次插值,它們有助于減少原圖像的信息損失。為了生成高質量的圖像,Johnson 等人提出了基于從預先訓練的網絡中提取的高級特征的感知損失函數,與使用逐像素損失訓練的方法相比,該函數可以重構更精細的細節。……