999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

采用輕量級卷積神經網絡的H.266/通用視頻編碼跨分量預測

2025-02-07 00:00:00鄒承益萬帥朱志偉尹宇杰
西安交通大學學報 2025年2期

摘要:為提高新一代通用視頻編碼標準(H.266/VVC)中色度幀內預測的準確度,提出了采用輕量級卷積神經網絡的跨分量預測方法。設計了亮度模塊和邊界模塊,從亮度和色度參考樣本中提取特征。設計了注意力模塊,構建當前亮度參考樣本和邊界亮度參考樣本之間的空間關系,并應用于邊界色度參考樣本生成色度預測樣本。為降低編解碼復雜度,設計網絡在二維完成特征融合和預測,優化了現有的同組參數處理不同塊大小的訓練策略。并且,引入寬度可變卷積,根據不同的塊大小調整網絡參數。實驗結果表明:與H.266/VVC測試模型VTM18.0相比,所提網絡在Y(亮度分量)、Cb(藍色色度分量)、Cr(紅色色度分量)上分別實現了0.30%、2.46%、2.25%的碼率節省。與其他基于卷積神經網絡的跨分量預測方法相比,有效地降低了網絡參數和推理復雜度,分別節省了約10%的編碼時間和19%的解碼時間。

關鍵詞:通用視頻編碼;跨分量預測;輕量級卷積神經網絡;注意力機制;寬度可變卷積

中圖分類號:TN919.8 文獻標志碼:A

DOI:10.7652/xjtuxb202502018 文章編號:0253-987X(2025)02-0180-09

Cross-Component Prediction for H.266/Versatile Video Coding Based on Lightweight Convolutional Neural Network

ZOU Chengyi1, WAN Shuai1,2, ZHU Zhiwei1, YIN Yujie1

(1. School of Electronic and Information, Northwestern Polytechnical University, Xi’an 710129, China;

2. School of Engineering, Royal Melbourne Institute of Technology, Melbourne VIC3001, Australia)

Abstract:To improve the accuracy of intra chroma prediction in H.266/versatile video coding (VVC), a cross-component prediction method based on lightweight convolutional neural network was proposed in this paper. The luma module and chroma module were designed to extract features from luma and chroma reference samples, and the attention module was designed to leverage the attention mechanism to construct the spatial correlation between the current luma reference samples and the boundary luma reference samples. Finally, the attention mask was applied to the boundary chroma reference samples to generate chroma prediction value. To reduce the encoding and decoding complexity, the feature fusion and prediction in the network were achieved in two dimensions, the existing training strategy with shared parameters to handle variable block sizes was improved, and slimmable convolutions were introduced to adjust network parameters according to different block sizes. The experimental results show that the proposed algorithm achieved 0.30%/2.46%/2.25% BD-rate reduction on the Y/Cb/Cr component, respectively, compared with the H.266/VVC test model VTM18.0. Compared with other convolutional neural networks-based cross-component prediction methods, the proposed method effectively reduced the network parameters and inference complexity, saving 10% encoding time and 19% decoding time.

Keywords:versatile video coding; cross-component prediction; lightweight convolutional neural network; attention mechanism; slimmable convolution

近年來,隨著互聯網的迅速發展,4K/8K超高清視頻、高幀率視頻、大動態范圍視頻、全景視頻等視頻業務層出不窮,相關應用對高性能視頻編碼技術的需求與日俱增。如何進一步降低編碼比特率,同時保持高視頻質量,一直是學術界和工業界的研究熱點。新一代視頻編碼標準H.266/通用視頻編碼(versatile video coding,VVC)是最新的視頻編碼標準之一,相比于上一代視頻編碼標準 H.265/高效視頻編碼(high efficiency video coding,HEVC)[1],在保證相同視頻圖像質量的前提下,可節省近50%的碼率,滿足了對高效視頻壓縮的需求,并支持當今更廣泛的媒體內容和新興應用[2-4]。

H.266/VVC提高幀內編碼效率的方法之一是為亮度分量和色度分量引入獨立的劃分結構。由于亮度塊是在色度塊之前編碼的,所以編碼的亮度信息可以用于色度預測,以進一步減少分量之間的冗余。為實現這一點,H.266/VVC利用了重構的亮度信息進行跨分量預測。跨分量線性模型(cross-component linear model,CCLM)[5]是一種有效的色度分量編碼工具,它建立了一個跨分量線性預測模型,并將該模型應用于下采樣的亮度重建樣本來預測色度。然而,簡單的線性映射無法準確地表示分量之間的關系,在預測復雜的情況下性能有限。

近年來,卷積神經網絡(convolutional neural network,CNN)已成功用于跨分量預測[6-15]。文獻[6]首次提出了一種用于跨分量預測的混合神經網絡。基于此,文獻[7]提出了變換域損失以獲得更高的預測性能。文獻[8]研究了超參數的影響,并實現了計算效率和壓縮性能之間的平衡。文獻[9]提出在編碼樹單元(coding tree unit,CTU)級別使用深度神經網絡進行跨分量預測。自注意力機制可用于評估特定輸入變量對輸出的影響,文獻[10]將這個概念成功地擴展到跨分量預測,以評估每個邊界參考像素對當前塊像素的影響。針對文獻[10]中的方法,文獻[11]提出了使用單個模型預測不同塊大小數據的訓練方法以減少模型數量。文獻[12]提出了空間信息細化,進一步提高了編碼性能。文獻[13]提出了一個輕量級卷積神經網絡實現了更低的編解碼復雜度。基于文獻[13]中的方法, 文獻[14]提出了樣本自適應方法進一步提高性能,并提出了簡化卷積的方法進一步減少推理參數。

然而,上述方法中的網絡是在高維空間完成亮度和色度特征的融合,需要額外的卷積層將融合后的特征映射到二維色度空間,復雜度較高。而且,上述方法均采用單模型訓練所有塊大小,該策略雖然可以節省總參數量,但大塊和小塊采用同樣的參數量并不合理。相對于大塊,小塊通常內容更為簡單且容易被預測,應采用更少的參數。本文提出了一種基于注意力的輕量級卷積神經網絡用于跨分量預測,在保證網絡預測性能的前提下顯著降低了網絡參數量。并且,改變現有的同組參數處理不同塊大小的訓練策略,提出了利用寬度可變卷積根據不同的塊大小調整網絡參數,減少了小塊的推理復雜度。實驗結果表明,與H.266/VVC測試模型VTM18.0相比,在相同重建視頻質量下,本文所提出的方法在在Y(亮度分量)、Cb(藍色色度分量)、Cr(紅色色度分量)分量上可分別節省0.30%、2.46%和2.25%的碼率。與其他基于卷積神經網絡的跨分量預測方法相比,本文網絡在提高色度編碼性能的同時,實現了更少的編解碼時間。

1 相關研究

1.1 跨分量線性模型

YCbCr顏色空間的3個分量間存在相關性,去除分量間的冗余可以進一步提高視頻編解碼性能。視頻編碼中重建的亮度像素可以用于色度幀內預測。文獻[5]中首次引入了亮度和色度分量之間的線性模型,其中線性模型的參數可以通過顯式傳輸或隱式推導獲得。基于高效視頻編碼框架,文獻[15]設計了幾種改進的色度亮度預測算法,稱為跨分量預測,具有優異的性能。文獻[16]建議僅使用左鄰居或上鄰居采樣來推斷線性模型,文獻[17]中的工作提出了一種自適應模板選擇方法來擴展相鄰像素采樣,其中Cr分量可以從Y分量或Cb分量預測,或者從Y分量和Cb分量進行預測。在文獻[18]中,相鄰像素的加權和被用作當前色度像素的預測,其中加權因子由亮度和色度之間的相關性確定。文獻[19]對同一位置的亮度塊和色度塊進行模板匹配,然后使用匹配的亮度塊的同一位置色度塊作為當前色度塊的預測器。在文獻[20]中,引入了一種使用亮度殘差信號來補償色度殘差信號的去相關方法。

為進一步提高跨分量線性模型的預測能力,在文獻[21-22]中,提出了多模型的CCLM(multi-model based cross-component linear model,MMLM)方法。該方法首先將當前塊的重建亮度值劃分為組,并將線性模型應用于每組。其次,設計了更多的亮度下采樣濾波器。最后,提出了一種結合角度幀內預測和CCLM預測的預測方法。文獻[23]提出了多種梯度下采樣濾波器,利用亮度梯度構建與色度之間的梯度線性模型。文獻[24]提出了卷積跨分量模型,使用相鄰模板構建亮度和色度之間多對一的關系。

1.2 基于神經網絡的跨分量預測

與簡單的線性模型無法準確描述亮度和色度分量之間的相關性相比,神經網絡善于建模更復雜的非線性映射,如圖1所示。

文獻[6]首次將混合神經網絡引入色度幀內預測,該網絡利用卷積神經網絡和全連接網絡分別從重構的亮度樣本和相鄰重構的亮度和色度樣本中提取特征。然后,將這兩個特征進行融合以預測色度樣本。基于這種方法,文獻[7]提出了一個變換域損失函數,有利于熵編碼過程。此外,文獻[7]還研究了超參數的影響,以實現計算效率和壓縮性能之間的平衡。文獻[8]提出了一種不同的卷積神經網絡,它使用亮度和色度樣本作為網絡的兩個模塊的輸入。此外,針對基于網絡的幀內預測模式,提出了一種新的信令方案,并證實了絕對變換差分之和損失函數對訓練預測網絡的好處。文獻[9]提出通過更深的神經網絡和更多的參考像素來預測CTU級別的色度,小于CTU的塊將復制位于同一位置的預測。CCLM的預測值被生成作為色度初始化,并且編碼失真水平被引入作為網絡的輸入。然而,這種方法需要修改VVC的編碼和解碼流程,因為該網絡是在CTU級別應用的,并且預測值需要傳輸到編碼單元級別。

注意力網絡被廣泛用于不同類型的深度學習任務,以提高神經網絡的性能。文獻[10]首次提出一種基于注意力的色度預測神經網絡,該網絡使用注意力機制來建模參考樣本和預測樣本之間的空間關系。該網絡由4個模塊組成。前兩個模塊(跨分量邊界模塊和亮度卷積模塊)從相鄰的重構樣本和并置的重構亮度塊中提取跨分量信息和亮度空間信息。前兩個模塊的輸出特征由第3個基于注意力的模塊融合,最后一個預測頭模塊產生色度預測值。基于這項工作,文獻[11]提出了一個多模型用于處理可變的塊大小并簡化推理過程。此外,文獻[11]還提出了幾種簡化方案來進一步降低原始多模型的復雜性,包括卷積運算的復雜性降低框架、使用稀疏自動編碼器的簡化跨分量邊界模塊以及具有整數精度近似的算法。為進一步改進色度預測,文獻[12]提出了兩種基于現有注意力結構的空間信息細化方案,包括增加下采樣模塊和位置圖。 文獻[13]提出了面向輕量級的卷積神經網絡,并將Cb和Cr分量分別進行預測,然而這樣大大提高了編解碼復雜度。基于文獻[13]中的網絡,文獻[14]提出了樣本自適應方法利用更多的邊界參考樣本以進一步提高預測性能,還提出了簡化卷積的方法進一步減少推理參數以降低編解碼復雜度。然而,上述方法的網絡都是在高維空間完成特征融合,再通過預測模塊降維以完成最終預測,且大塊和小塊均采用相同的參數進行訓練和推理,這導致網絡設計和針對不同塊大小的訓練策略都有進一步的簡化空間。

2 采用輕量級卷積神經網絡的H.266/VVC跨分量預測

本節首先詳細介紹了所提出的跨分量預測網絡,然后提出了一種利用可變卷積訓練不同塊大小的策略,以降低復雜度。

2.1 基于注意力的輕量級卷積神經網絡

基于注意力的輕量級卷積神經網絡框架如圖2所示。該網絡由邊界模塊、亮度模塊、注意力模塊組成。與傳統色度預測模式[25]不同,Cb和Cr分量的邊界樣本一起輸入。這樣,兩個色度分量只需要預測一次,而不需要預測兩次,可以顯著降低推理復雜度。此外,與其他色度預測網絡不同,亮度和色度邊界樣本是單獨輸入的,與文獻[10-12]相比,這可以更好地從不同的參考樣本中提取特征,同時節省了注意力模塊的復雜度。與文獻[13]和[14]相比,在提取特征后直接映射到二維預測,不需要額外的預測模塊得到Cb和Cr分量的預測值,從而大大降低了網絡復雜度。

由于在視頻編碼中經常使用YCbCr 4∶2∶0格式,因此在預測同一位置的色度塊之前對重建的亮度塊進行下采樣。值得注意的是,這里使用與CCLM相同的傳統下采樣操作,并且下采樣的亮度塊X∈H×W的大小設為H × W。在色度預測的過程中,拼接當前塊的上邊界和左邊界作為亮度和色度邊界參考樣本BY∈d、 Bc∈2×d,其中d隨著編碼順序和塊大小變化而變化,Y是亮度分量,c∈{Cb,Cr}是當前色度分量。

邊界模塊和亮度模塊并行地從邊界參考樣本和同一位置的亮度參考樣本中提取特征。邊界模塊被分為兩個分支,分別從亮度和色度邊界參考樣本中提取亮度和色度特征。這種方法清楚地分離不同的分量,直到最后的注意力模塊,然后可以根據亮度圖更有效地包裹色度特征。每個邊界分支的輸出特征圖S∈C×d可以表示為

S(B,W,b)=ReLU(WB+b)(1)

式中:W∈5×C×D和b∈C代表5×1卷積的權重和偏置,D為輸入通道數;ReLU為激活函數修正線性單元。

亮度模塊并行地提取位于同一位置的亮度參考樣本X上的空間信息。使用步長為1的C維5×5卷積層來獲得亮度特征圖X1∈C×H×W,其在網絡中具有最大的卷積核大小。映射函數可以寫成

X1(X,WY,bY)=ReLU(WYX+bY)(2)

式中:WY∈5×5×C和bY∈C是5×5卷積的權重和偏置。

注意力模塊通過注意力機制對所有輸入特征進行融合,以獲得融合特征。與文獻[10-12]中融合當前亮度塊特征和跨分量邊界特征的注意力模塊不同,注意力圖是根據當前亮度塊和亮度邊界的特征生成的。這種方法不僅可以更好地預測色度,還減少了對齊特征維度(即1×1卷積)的計算需求。與文獻[13-14]中的方法類似,注意力模塊將亮度參考特征通過1×1卷積將映射到更小的空間,從而得到F∈J×b和G∈J×H×W,不同的是色度邊界的特征會直接映射到2維空間,從而得到H∈2×b,這樣可以在注意力模塊直接完成最終的預測,而不需要多余的卷積再來實現多維特征到2維的映射,從而大大減少了參數量。然后,將F和G相乘得到注意力圖A=FTG,A∈b×H×W。通過對A應用softmax函數以生成注意力掩碼M∈b×H×W,表示每個邊界位置對當前塊的影響。A中每個值的計算方式為

αj,i=exp(mj,i)

∑b-1i=0exp(mj,i)(3)

式中:j=0,…,H×W-1代表了預測塊的樣本位置;i=0,…,b-1代表參考樣本位置;mj,i代表M中每個值。通過運算=HM,將掩碼作用在色度邊界特征上,得到色度預測值∈2×H×W。

2.2 寬度可變卷積

文獻[11]提出了塊獨立的訓練策略,可以使用單個網絡預測3種不同大小的塊,文獻[14]進一步將這種方法運用在所有尺寸的塊上。通常越小的塊越容易預測,所以預測小塊可以使用比預測大塊更少的參數。文獻[26]首次提出了寬度可變卷積的概念,針對不同硬件設備需要訓練部署不同模型的問題,只需要訓練一個網絡就可以根據實際硬件設備的資源限制動態調整卷積寬度。文獻[27-28]分別將寬度可變卷積用于基于神經網絡的圖像壓縮和視頻壓縮,以改變碼率失真的權衡并控制復雜度。受這些文獻的啟發,本文提出采用寬度可變卷積的方法來控制不同塊大小所使用的參數量,在保證性能的基礎上極大減少了預測小塊的推理復雜度。

圖3展示了具有不同數量活動通道的寬度可變卷積。以色度邊界分支和亮度分支為例,同樣的模型可以以多種不同的寬度(活動通道數量)運行,并且模型變體的參數是共享的,允許實現精度和效率之間的平衡。本文采用3種不同的寬度,1×代表使用所有的通道,0.75×代表使用前75%的通道,0.5×代表使用前一半的通道。

本文網絡完整的訓練過程偽代碼如下。

輸入:

{XNm,BNm,ZNm}:當前亮度塊,邊界參考樣本,基準真實值。 其中,m∈[0,M]代表數據數量, N∈{16,32,64,128,256,512,1024}代表待預測塊的面積。

C: 可變寬度卷積的活動通道數

θN(W(t)): N個網絡共享權重W(t)

L(t)reg: 訓練t步的目標函數

optimizer (g(t)): 優化器函數

過程:

t←0初始化步長

while θN(W(t))未收斂 do:

for m∈[0,M) do

for N∈{16,32,64,128,256} do

if 16≤Nlt;64 do

C=32

if 64≤Nlt;256 do

C=48

if 256≤N≤1024 do

C=64

t←t+1

L(t)reg←MSE(ZNm,θN(XNm,BNm,W(t-1)))

g(t)←ΔWL(t)reg(獲取t步的梯度)

W(t)←optimizer(g(t))

end for

end for

end while

在訓練第t步時,首先根據預測塊的面積確定可變寬度卷積的活動通道數,本文最多使用64個活動通道,最少使用32和活動通道,即1×=64,0.75×=48,0.5×=32。確定活動通道數后即可更新網絡參數,獲得一組新的權重。為了讓預測值更接近于原始值,使用最小化均方誤差(mean-square error,MSE)作為目標函數來更新網絡參數,MSE公式如下

MSE(yi, i)=1n∑ni=1(yi-i)2 (4)

式中:yi為真實值;i為預測值;n為像素總數。

本文網絡的參數如表1所示。由于采用了寬度可變卷積,邊界模塊和亮度模塊的輸出通道及注意力模塊的輸入通道會根據塊的大小發生變化。

2.3 網絡訓練

訓練數據集由來自DIV2K數據集[29]的800張圖像和來自BVI-DVC數據集[30]的800張圖像組成。DIV2K數據集是一個高質量的自然圖像數據集,包含800個訓練樣本和100個驗證樣本。DIV2K數據庫中圖像的最大分辨率為2K((2040×648)~(2040×2040)像素)。該數據庫還提供了3個較低分辨率版本((1020×324)~(1020×1020)像素,(680×216)~(680×680)像素,(510×162)~(510×510)像素),它們通過雙線性和未知濾波器按因子2、3、4進行下采樣。對于每個數據實例,隨機選擇一個分辨率。值得注意的是,選擇高分辨率圖像的概率被設置為高于低分辨率圖像的選擇概率,并且圖像需要從PNG格式轉換YCbCr 4∶2∶0格式。BVI-DVC是一個YCbCr格式的代表性視頻數據庫,旨在訓練基于CNN的視頻壓縮算法,其中包含270p~2160p的各種空間分辨率的800個序列。對于每個序列,隨機選擇一個幀,然后選擇多個H×W大小的塊。所有像素值都需要轉換為浮點數,并歸一化到[0,1]范圍內。所有尺寸的塊一起輸入到網絡中訓練。

在本文中,Tensorflow/Keras被用于訓練所提出的網絡。批量大小設置為16。所提出的網絡使用Adam優化器,并以10-4的學習率開始訓練。為了公平比較復雜度,本文只在訓練網絡時使用GPU,在VTM推理時使用CPU。所使用CPU為Intel Core i9-12900K,GPU為NVIDIA GeForce RTX 3090。

2.4 H.266/VVC集成

將所提出的方法作為一種新模式加入到VTM18.0[31]中,與傳統色度預測模式(平面、直流、角度預測、CCLM)進行率失真競爭。集成后,共有9種候選預測模式。在編碼端,所有候選預測模式通過計算率失真性能代價進行模式選擇,選出損失最小的模式。這不僅需要修改預測過程,而且需要額外的二進制塊級語法標志來指示給定塊是否使用所提出的方法。如圖4所示,如果最佳模式是新模式,則設置為1。否則,指定為0。這樣,新模式只需要一個標志,而其他模式有一個以上的標志。與傳統模式不同,所提出的預測模式在編碼和解碼過程中只需一次執行就可以獲得兩個色度分量(Cb和Cr)的預測值,這大大降低了編碼和解碼的復雜度。

3 實驗與分析

3.1 編碼性能評估

編碼性能測試采用全幀內配置配置,量化參數(quantization parameter,QP)設置為通用測試條件(common test conditions,CTC)[32]所建議的22、27、32、37。采用BD-rate(Bjntegaard delta bit rate, 用符號ΔR表示)來評估相對于VTM18.0的編碼性能。測試序列包括CTC推薦的22個不同分辨率的視頻序列,分為5個類別,分別為class A(6個視頻序列)、class B(5個視頻序列)、class C(4個視頻序列)、class D(4個視頻序列)和class E(3個視頻序列)。表2總結了本文網絡和其他網絡在VTM18.0的BD-rate對比結果。實驗結果表明:在相同重建視頻質量下,本文網絡在Y、Cb、Cr上分別平均節省了0.30%、2.46%和2.25%的編碼碼率。這表明本文網絡可提高壓縮效率,尤其是針對色度分量,并且與文獻[11]和文獻[14]相比,編碼性能更高。

3.2 復雜度分析

表3展示了網絡參數數量以分析網絡復雜性。

從表3可以看出:對于面積大于等于256的塊,本文網絡所使用的訓練參數數量(4962)小于文獻[11]和文獻[14]中的網絡參數數量(7074和5538); 對于面積小于256的塊,本文網絡所使用的訓練參數數量(2498和1266)遠小于文獻[11,14]中的網絡參數數量(7074和5538)。這意味著本文提出的神經網絡比文獻[11,14]中的網絡更輕量,且能根據塊大小靈活調整參數。

表4總結了本文網絡和其他網絡在VTM18.0的編解碼復雜度對比結果。其中,文獻[14]為目前最先進的卷積神經網絡跨分量預測方法之一。實驗結果表明:相比于VTM18.0,本文網絡編碼和解碼時間分別增加了20%和297%。與文獻[11,14]中的網絡相比,本文網絡在提高編碼性能的同時,實現了更少的編碼時間和解碼時間。相比文獻[14]中的網絡,本文網絡編碼和解碼時間分別降低了10%和19%。

4 結 論

本文提出了一種基于注意力的輕量級神經網絡用于跨分量預測,該網絡能夠有效地對參考樣本和預測樣本之間的空間關系進行建模。為降低復雜度,設計網絡在二維完成參考樣本的特征融合和Cb與Cr兩個色度分量的預測。并且,改變了現有跨分量預測網絡的訓練策略,采用寬度可變卷積根據塊大小調整網絡參數。實驗結果表明,新的預測模式有效,相對于最先進的卷積神經網絡跨分量預測方法,在節省了比特率的同時,大大減少了編解碼復雜度。

在未來的工作中,為進一步提高編碼性能,可考慮使用更多的參考信息,并根據內容設計不同的網絡進行預測。

參考文獻:

[1]SULLIVAN G J, OHM J R, HAN W J, et al. Overview of the high efficiency video coding (HEVC) standard [J]. IEEE Transactions on Circuits and Systems for Video Technology, 2012, 22(12): 1649-1668.

[2]BROSS B, CHEN Jianle, OHM J R, et al. Developments in international video coding standardization after AVC, with an overview of versatile video coding (VVC) [J]. Proceedings of the IEEE, 2021, 109(9): 1463-1493.

[3]萬帥, 霍俊彥, 馬彥卓, 等. 新一代通用視頻編碼標準H.266/VVC: 現狀與發展 [J]. 西安交通大學學報, 2024, 58(4): 1-17.

WAN Shuai, HUO Junyan, MA Yanzhuo, et al. The new-generation versatile video coding standard H.266/VVC: state-of-the-art and development [J]. Journal of Xi’an Jiaotong University, 2024, 58(4): 1-17.

[4]萬帥, 霍俊彥, 馬彥卓, 等. 新一代通用視頻編碼H.266/VVC: 原理、標準與實現 [M]. 北京: 電子工業出版社, 2022.

[5]LEE S H, CHO N I. Intra prediction method based on the linear relationship between the channels for YUV 4:2:0 intra coding [C]//2009 16th IEEE International Conference on Image Processing (ICIP). Piscataway, NJ, USA: IEEE, 2009: 1037-1040.

[6]LI Yue, LI Li, LI Zhu, et al. A hybrid neural network for chroma intra prediction [C]//2018 25th IEEE International Conference on Image Processing (ICIP). Piscataway, NJ, USA: IEEE, 2018: 1797-1801.

[7]LI Yue, YI Yan, LIU Dong, et al. Neural-network-based cross-channel intra prediction [J]. ACM Transactions on Multimedia Computing Communications and Applications, 2021, 17(3): 77.

[8]MEYER M, WIESNER J, SCHNEIDER J, et al. Convolutional neural networks for video intra prediction using cross-component adaptation [C]//2019 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). Piscataway, NJ, USA: IEEE, 2019: 1607-1611.

[9]ZHU Linwei, ZHANG Yun, WANG Shiqi, et al. Deep learning-based chroma prediction for intra versatile video coding [J]. IEEE Transactions on Circuits and Systems for Video Technology, 2021, 31(8): 3168-3181.

[10]BLANCH M G, BLASI S, SMEATON A, et al. Chroma intra prediction with attention-based CNN architectures [C]//2020 IEEE International Conference on Image Processing (ICIP). Piscataway, NJ, USA: IEEE, 2020: 783-787.

[11]BLANCH M G, BLASI S, SMEATON A F, et al. Attention-based neural networks for chroma intra prediction in video coding [J]. IEEE Journal of Selected Topics in Signal Processing, 2021, 15(2): 366-377.

[12]]ZOU Chengyi, WAN Shuai, JI Tiannan, et al. Spatial information refinement for chroma intra prediction in video coding [C]//2021 Asia-Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA ASC). Piscataway, NJ, USA: IEEE, 2021: 1422-1427.

[13]ZOU Chengyi, WAN Shuai, MRAK M, et al. Towards lightweight neural network-based chroma intra prediction for video coding [C]//2022 IEEE International Conference on Image Processing (ICIP). Piscataway, NJ, USA: IEEE, 2022: 1006-1010.

[14]ZOU Chengyi, WAN Shuai, JI Tiannan, et al. Chroma intra prediction with lightweight attention-based neural networks [J]. IEEE Transactions on Circuits and Systems for Video Technology, 2024, 34(1): 549-560.

[15]KHAIRAT A, NGUYEN T, SIEKMANN M, et al. Adaptive cross-component prediction for 4∶4∶4 high efficiency video coding [C]//2014 IEEE International Conference on Image Processing (ICIP). Piscataway, NJ, USA: IEEE, 2014: 3734-3738.

[16]ZHANG Xingyu, GISQUET C, FRANOIS E, et al. Chroma intra prediction based on inter-channel correlation for HEVC [J]. IEEE Transactions on Image Processing, 2014, 23(1): 274-286.

[17]ZHANG Tao, FAN Xiaopeng, ZHAO Debin, et al. Improving chroma intra prediction for HEVC [C]//2016 IEEE International Conference on Multimedia amp; Expo Workshops (ICMEW). Piscataway, NJ, USA: IEEE, 2016: 1-6.

[18]LEE S H, MOON J W, BYUN J W, et al. A new intra prediction method using channel correlations for the H.264/AVC intra coding [C]//2009 Picture Coding Symposium. Piscataway, NJ, USA: IEEE, 2009: 1-4.

[19]YEO C, TAN Y, LI Zhengguo, et al. Chroma intra prediction using template matching with reconstructed luma components [C]//2011 18th IEEE International Conference on Image Processing. Piscataway, NJ, USA: IEEE, 2011: 1637-1640.

[20]KIM W S, PU Wei, KHAIRAT A, et al. Cross-component prediction in HEVC [J]. IEEE Transactions on Circuits and Systems for Video Technology, 2020, 30(6): 1699-1708.

[21]ZHANG Kai, CHEN Jianle, ZHANG Li, et al. Multi-model based cross-component linear model chroma intra-prediction for video coding [C]//2017 IEEE Visual Communications and Image Processing (VCIP). Piscataway, NJ, USA: IEEE, 2017: 1-4.

[22]ZHANG Kai, CHEN Jianle, ZHANG Li, et al. Enhanced cross-component linear model for chroma intra-prediction in video coding [J]. IEEE Transactions on Image Processing, 2018, 27(8): 3983-3997.

[23]KUO Chewei, LI Xinwei, XIU Xiaoyu, et al. Gradient linear model for chroma intra prediction [C]//2023 Data Compression Conference (DCC). Piscataway, NJ, USA: IEEE, 2023: 13-21.

[24]ASTOLA P. AHG12: convolutional cross-component model(CCCM) for intra prediction: JVET-Z0064 [EB/OL]. (2022-04-13) [2024-05-01]. https://jvet-experts.org/.

[25]BROSS B, WANG Yekui, YE Yan, et al. Overview of the versatile video coding (VVC) standard and its applications [J]. IEEE Transactions on Circuits and Systems for Video Technology, 2021, 31(10): 3736-3764.

[26]YU Jiahui, YANG Linjie, XU Ning, et al. Slimmable neural networks [C]//7th International Conference on Learning Representations. New York, USA: ICLR, 2019:1-12.

[27]YANG Fei, HERRANZ L, CHENG Yongmei, et al. Slimmable compressive autoencoders for practical neural image compression [C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).Piscataway, NJ, USA: IEEE, 2021: 4996-5005.

[28]LIU Zhaocheng, HERRANZ L, YANG Fei, et al. Slimmable video codec [C]//2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). Piscataway, NJ, USA: IEEE, 2022: 1742-1746.

[29]MA Di, ZHANG Fan, BULL D R. BVI-DVC: a training database for deep video compression [J]. IEEE Transactions on Multimedia, 2022, 24: 3847-3858.

[30]TIMOFTE R, AGUSTSSON E, GOOL L V, et al. NTIRE 2017 challenge on single image super-resolution: methods and results [C]//2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). Piscataway, NJ, USA: IEEE, 2017: 1110-1121.

[31]BROWNE A, YE Y, KIM S. Algorithm description for versatile video coding and test model 18(vtm 18): JVET-AB2002 [EB/OL]. (2022-10-28) [2024-05-01]. https://jvet-experts.org/.

[32]BOYCE J, SUEHRING K, LI L, et al. JVET common test conditions and software reference configurations: JVET-J1010 [EB/OL]. (2018-04-20) [2024-05-01]. https://jvet-experts.org/.

(編輯 陶晴 武紅江)

主站蜘蛛池模板: 亚洲熟女偷拍| 亚洲无码免费黄色网址| 精品国产乱码久久久久久一区二区| 亚洲午夜福利精品无码| 亚洲永久色| 中国国产高清免费AV片| 一区二区午夜| 久久情精品国产品免费| 中国国产一级毛片| AV不卡在线永久免费观看 | 人人91人人澡人人妻人人爽| 欧美中文字幕在线二区| 亚洲天堂高清| 午夜日b视频| 国内精自视频品线一二区| 亚洲男人在线天堂| 国产精品视频第一专区| 欧美不卡视频在线观看| 国产精品无码久久久久AV| 在线免费观看a视频| 欧美福利在线| 日本久久久久久免费网络| 9啪在线视频| www.亚洲一区| 91蜜芽尤物福利在线观看| 精品视频福利| 制服丝袜国产精品| 国产导航在线| 国产一区二区人大臿蕉香蕉| 波多野结衣一级毛片| 国产成人精品一区二区秒拍1o| 国产成人综合日韩精品无码首页| 超级碰免费视频91| 亚洲无线一二三四区男男| 9丨情侣偷在线精品国产| 久久综合九色综合97网| 国产迷奸在线看| 国产97视频在线| 性欧美精品xxxx| 欧美a在线视频| 青青草91视频| 亚洲欧美人成电影在线观看| 久久青青草原亚洲av无码| 98精品全国免费观看视频| 国产日韩欧美中文| 亚洲大学生视频在线播放| 美女一区二区在线观看| 奇米精品一区二区三区在线观看| 欧美国产精品拍自| 久久夜色撩人精品国产| 亚洲天堂777| 亚洲 欧美 偷自乱 图片| a亚洲视频| 天天色天天综合| 无码一区18禁| 99久久国产自偷自偷免费一区| 国产Av无码精品色午夜| 91人妻日韩人妻无码专区精品| 国产精品一区二区在线播放| 五月天天天色| 国产亚洲欧美日本一二三本道| 婷婷在线网站| 亚洲视频一区在线| 亚洲日韩精品无码专区| 久久黄色影院| 18禁色诱爆乳网站| 精品国产一区二区三区在线观看| 香蕉eeww99国产精选播放| 国产亚洲高清在线精品99| 国产美女自慰在线观看| 亚洲精品视频免费| 2022国产91精品久久久久久| 精品国产电影久久九九| 国内视频精品| 日韩激情成人| 亚洲色图另类| 久久综合一个色综合网| 欧美yw精品日本国产精品| 91精品国产综合久久不国产大片| 亚洲国产精品一区二区第一页免 | 波多野结衣久久精品| 国产av一码二码三码无码|