楊文哲 徐邁 白琳



摘要:提出了一種應(yīng)用于視頻質(zhì)量增強(qiáng)算法的動(dòng)態(tài)結(jié)構(gòu)性剪裁算法Maskcut,它可以有效提高基于深度學(xué)習(xí)的視頻質(zhì)量增強(qiáng)算法的運(yùn)行速度。Maskcut是一種通用的剪裁思路,支持絕大多數(shù)的基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)深度學(xué)習(xí)網(wǎng)絡(luò)模型的剪裁加速。基于原模型中已經(jīng)訓(xùn)練好的參數(shù)數(shù)據(jù),Maskcut使用一種針對(duì)剪裁加速的二次訓(xùn)練策略來(lái)進(jìn)一步微調(diào)參數(shù),從而在保證模型有效性損失不大的同時(shí),縮短模型運(yùn)行時(shí)間。以一種先進(jìn)的視頻質(zhì)量增強(qiáng)算法——多幀質(zhì)量增強(qiáng)2.0(MFQE 2.0)為目標(biāo),Maskcut剪裁后可以快速達(dá)到峰值信噪比(PSNR)指標(biāo)損失低于1%、時(shí)間縮短10%以上的加速指標(biāo)。
關(guān)鍵詞:模型加速;圖像質(zhì)量增強(qiáng);結(jié)構(gòu)性剪裁
Abstract: Maskcut, a dynamic structural clipping algorithm for video quality enhancement is proposed, which can effectively improve the speed of video quality enhancement algorithm based on deep learning. Maskcut is a general tailoring idea that supports most of the tailoring acceleration based on the deep learning network models for convolutional neural networks (CNN). Based on the trained parameter data in the original model, the secondary training for tailoring acceleration is carried out to further fine-tune the parameters. With an advanced video quality enhancement algorithm, the multi-frame quality enhancement 2.0(MFQE 2.0) as the goal, the peak signal-to-noise ratio (PSNR) index is less than 1% and the time is shortened by more than 10% after Maskcut clipping.
Keywords: model acceleration; image quality enhancement; structural tailoring
隨著多媒體及5G時(shí)代的到來(lái),視頻傳輸?shù)乃俾屎蛶挼玫搅擞行岣撸藗儗?duì)于高清視頻的需求也變得越來(lái)越高。但是由于許多拍攝軟硬件條件不高或多層多級(jí)中轉(zhuǎn)壓縮過(guò)程復(fù)雜等原因,使得視頻質(zhì)量不夠清晰,因此高清視頻仍有著很大的提升空間。目前,針對(duì)圖像視頻質(zhì)量增強(qiáng)的算法,大多是基于深度學(xué)習(xí)的龐大計(jì)算量。這些算法在應(yīng)用時(shí)往往存在參數(shù)冗余、計(jì)算量大、時(shí)間耗費(fèi)多等問(wèn)題,這也是近兩年來(lái)深度學(xué)習(xí)領(lǐng)域需要著重解決的問(wèn)題。目前大量的優(yōu)化算法大多是基于浮點(diǎn)運(yùn)算次數(shù)(FLOPs)的仿真工作。面對(duì)實(shí)際問(wèn)題和模型,如果沒(méi)有底層的硬件支持和推理加速,很多算法使用時(shí)并不能獲得理想的加速效果。本文中,我們主要聚焦于實(shí)際硬件加速效果,而非理論計(jì)算量的改變。
1視頻質(zhì)量增強(qiáng)模型加速算法的相關(guān)工作
1.1視頻質(zhì)量增強(qiáng)
在視頻質(zhì)量增強(qiáng)方面,由GUAN Z. Y.等提出的壓縮視頻質(zhì)量提升2.0(MFQE 2.0)模型[1],是目前實(shí)用性相對(duì)較好的一種深度學(xué)習(xí)算法。該算法以卓越的速度和性能效果優(yōu)于同時(shí)期的其他視頻質(zhì)量增強(qiáng)算法。本文中,我們以此作為剪裁算法的實(shí)踐模型對(duì)象,提出了一種具有通用性的剪裁算法。在MFQE 2.0模型中,增強(qiáng)算法分為兩個(gè)子網(wǎng)絡(luò),分別對(duì)應(yīng)數(shù)據(jù)特征提取運(yùn)動(dòng)補(bǔ)償(MC)子網(wǎng)絡(luò)和數(shù)據(jù)恢復(fù)質(zhì)量增強(qiáng)(QE)子網(wǎng)絡(luò)。其中,數(shù)據(jù)恢復(fù)QE子網(wǎng)絡(luò)為卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型,對(duì)于剪裁算法的操作性和兼容性較高。針對(duì)不同質(zhì)量(QP)的視頻數(shù)據(jù)集,MFQE 2.0能夠訓(xùn)練對(duì)應(yīng)的模型,并能根據(jù)視頻前后好幀的同一物體的像素信息,對(duì)當(dāng)前低幀圖像進(jìn)行質(zhì)量增強(qiáng)。由于MFQE 2.0訓(xùn)練較慢,且所采用的從訓(xùn)練后的大模型剪裁小模型的方法也存在合理性[2],故在MFQE 2.0訓(xùn)練好的模型基礎(chǔ)上進(jìn)行剪裁,可以達(dá)到更快、更好的效果。
1.2模型剪裁加速
在剪裁加速方面,近兩年來(lái)相關(guān)論文的成果眾多,如HAN S.等[3]提出的剪裁-量化-編碼的三部曲結(jié)構(gòu),是壓縮模型比較經(jīng)典的方法。本課題也是從這種壓縮技巧入手,但目的是縮短模型的運(yùn)行時(shí)間。本文中的剪裁方式主要為隨機(jī)剪裁,即根據(jù)網(wǎng)絡(luò)中的參數(shù)大小進(jìn)行剪裁。這種方法能夠減少計(jì)算量和參數(shù)數(shù)量,但剪裁結(jié)果為稀疏性矩陣,而運(yùn)算時(shí)許多框架對(duì)于稀疏性矩陣的卷積(底層會(huì)轉(zhuǎn)為乘法運(yùn)算)并無(wú)有效加速;因此,時(shí)間上的加速效果不明顯。一般做法是,底層運(yùn)算采用特定的計(jì)算庫(kù),但是這種做法的通用性較差,與框架結(jié)合效果不佳。而李浩等[4]提出的基于濾波器剪裁的加速方法,以通道為單位,并以濾波器的標(biāo)準(zhǔn)差作為衡量重要性標(biāo)準(zhǔn)來(lái)進(jìn)行剪裁。雖然這種思路能夠在不依賴其他框架的情況下,有效縮短模型的運(yùn)行時(shí)間,但依然存在優(yōu)化空間,如缺乏在重訓(xùn)過(guò)程中的更自由的調(diào)整策略和自動(dòng)調(diào)整剪裁閾值的機(jī)制。本文所提的加速算法也在此基礎(chǔ)上進(jìn)行了改進(jìn)。
面對(duì)工業(yè)界亟待解決的問(wèn)題,一種基于算法層面的有實(shí)際加速效果的剪裁就顯得非常重要。因此,本文主要針對(duì)深度學(xué)習(xí)算法的時(shí)間耗費(fèi)問(wèn)題,并以一種視頻質(zhì)量增強(qiáng)算法為例,提出一種可以通過(guò)自動(dòng)調(diào)整剪裁標(biāo)準(zhǔn)進(jìn)行通道性剪裁的方法。同時(shí),實(shí)驗(yàn)結(jié)果表明,該方法切實(shí)縮短了模型的運(yùn)行時(shí)間,加速模型在工業(yè)界的落地應(yīng)用。
2 Maskcut動(dòng)態(tài)剪裁方法
2.1動(dòng)態(tài)通道剪裁
基于李浩提出的通道性剪裁的基礎(chǔ)概念,本文的剪裁算法得以提出。在以往的通道性剪裁中(如圖1所示),每一層的濾波器維度為四維,圖1的每一個(gè)卷積核被視作一個(gè)質(zhì)點(diǎn);核矩陣為濾波器在輸入通道、輸出通道維度的二維表示。無(wú)論是逐層剪裁還是整體剪裁,都要先通過(guò)L1-norm或核矩陣的標(biāo)準(zhǔn)差等指標(biāo)排序來(lái)確定要剪裁掉的通道,然后重訓(xùn)微調(diào),提高模型準(zhǔn)確率,并同時(shí)對(duì)應(yīng)剪掉下一層的核矩陣對(duì)應(yīng)通道的輸出。
在剪裁后重訓(xùn)的過(guò)程中,濾波器的數(shù)值會(huì)經(jīng)損失函數(shù)反向梯度傳播而不斷改變。如果我們依然按照原先的標(biāo)準(zhǔn),那么此時(shí)可能有一些通道變得不符合規(guī)則。模型在剪裁后都是需要訓(xùn)練的,所以我們可以將訓(xùn)練過(guò)程中的剪裁做形式上的改變:不需要立刻導(dǎo)出小通道數(shù)模型,而是如圖2所示,將對(duì)應(yīng)通道的前向傳遞函數(shù)和反向梯度傳遞函數(shù)進(jìn)行可控阻斷,在保留被剪裁參數(shù)的同時(shí),取得和剪裁濾波器通道一樣的效果;在重訓(xùn)過(guò)程中,也可以隨時(shí)更改開(kāi)啟關(guān)閉的通道。
2.2半自動(dòng)剪裁標(biāo)準(zhǔn)調(diào)整機(jī)制
通道性剪裁有著簡(jiǎn)單直接的優(yōu)勢(shì),但一個(gè)比較突出的問(wèn)題是每層裁剪的數(shù)量需要預(yù)先設(shè)定。無(wú)論剪裁標(biāo)準(zhǔn)是濾波器的標(biāo)準(zhǔn)差、L1-norm值,還是其他,都只是標(biāo)準(zhǔn)的差異而已,而選定的剪裁比例或閾值卻沒(méi)有對(duì)應(yīng)的優(yōu)化機(jī)制。本文提出了一種半自動(dòng)剪裁標(biāo)準(zhǔn)調(diào)整機(jī)制,對(duì)于動(dòng)態(tài)剪裁可以考慮選擇。


通過(guò)以上的導(dǎo)函數(shù)尋找極大值點(diǎn),可以輔助尋找適合被剪裁的通道。如預(yù)設(shè)剪裁[a,b]范圍的通道數(shù)(百分比),然后使用尋找極大值點(diǎn)的方法,從[a,b]區(qū)間內(nèi)尋找導(dǎo)函數(shù)最大值點(diǎn),以此作為當(dāng)前剪裁的真正比例。通過(guò)動(dòng)態(tài)剪裁的方法,可以在每輪重新訓(xùn)練時(shí),不斷地重新確認(rèn)剪裁的比例值。
2.3 Maskcut剪裁算法
本文使用L1-norm作為衡量通道重要性的指標(biāo)。通過(guò)對(duì)L1-norm進(jìn)行排序,算法將通道整體的重要度進(jìn)行區(qū)分,剪裁那些不太重要的通道,并采用動(dòng)態(tài)裁剪的方式隨時(shí)調(diào)整選擇的通道位置,或利用半自動(dòng)剪裁標(biāo)準(zhǔn)調(diào)整機(jī)制,隨時(shí)調(diào)整選擇的通道數(shù)量。
剪裁算法的步驟具體如下:
(1)以輸入通道為主,以卷積層為單位,計(jì)算各個(gè)通道的L1-norm并排序;
(2)設(shè)定各層的初始剪裁比例或范圍;
(3)根據(jù)比例范圍和半自動(dòng)剪裁標(biāo)準(zhǔn)調(diào)整機(jī)制,找出此輪真正的剪裁比例;
(4)確認(rèn)被剪裁的通道對(duì)應(yīng)的開(kāi)關(guān)關(guān)閉,對(duì)模型進(jìn)行微調(diào)重訓(xùn);
(5)重復(fù)步驟(3)—(4),直至滿足要求,最后將開(kāi)通道對(duì)應(yīng)參數(shù)導(dǎo)出至新模型,完成剪裁。
其中,步驟(3)非必需,可根據(jù)實(shí)際情況選擇是否進(jìn)行。
2.4動(dòng)態(tài)剪裁實(shí)踐流程
采用通道開(kāi)關(guān)后,算法由原來(lái)的篩選-重訓(xùn)的流程變成了如圖3所示的流程。在每輪訓(xùn)練中,新的流程可以更自由地重新修改訓(xùn)練通道。最重要的是,通過(guò)不斷調(diào)整訓(xùn)練的通道數(shù)量,并搭配自動(dòng)選擇閾值分割線的機(jī)制,就可以進(jìn)一步實(shí)現(xiàn)動(dòng)態(tài)剪裁和重訓(xùn),從而將兩者有機(jī)結(jié)合起來(lái)。待訓(xùn)練效果可以接受時(shí),再通過(guò)導(dǎo)出開(kāi)通道的參數(shù),原模型就可以轉(zhuǎn)變?yōu)橐粋€(gè)簡(jiǎn)單且低維的小模型,從而完成剪裁。
2.5理論分析
3實(shí)驗(yàn)結(jié)果
本文所提的基礎(chǔ)模型是基于Tensorflow 1.0版本的MFQE 2.0模型,故我們以Tensorflow 1.14為運(yùn)行框架環(huán)境,來(lái)測(cè)試MFQE 2.0的QP32視頻數(shù)據(jù)集及模型。
3.1 MFQE 2.0模型分析
3.1.1概述
在剪裁前,應(yīng)對(duì)模型的運(yùn)行時(shí)間、計(jì)算時(shí)間開(kāi)支進(jìn)行分析和了解。
我們利用Tensorflow內(nèi)置的時(shí)間分析工具timeline進(jìn)行測(cè)量。由于timeline是官方內(nèi)嵌的時(shí)間測(cè)量工具,雖有一定的波動(dòng)性,但相對(duì)來(lái)說(shuō)可靠得多。通過(guò)timeline分析,不僅可以計(jì)算出整個(gè)模型的單次運(yùn)算時(shí)間,還可以獲得每個(gè)卷積層的運(yùn)算時(shí)間;因此對(duì)于卷積層的通道剪裁來(lái)說(shuō),有著更明顯的對(duì)比效果,故我們以此工具作為時(shí)間測(cè)量的手段。
在MFQE 2.0網(wǎng)絡(luò)中,前面緊湊計(jì)算對(duì)應(yīng)的是特征提取網(wǎng)絡(luò),而后面相對(duì)耗時(shí)長(zhǎng)的部分是重建網(wǎng)絡(luò),因此優(yōu)先剪裁的對(duì)象應(yīng)是QE重建網(wǎng)絡(luò)中的CNN那一部分。這種做法對(duì)于其他算法模型來(lái)說(shuō)也有著很強(qiáng)的通用價(jià)值。
3.1.2參數(shù)分析
為了進(jìn)一步了解模型和參數(shù),應(yīng)對(duì)模型的參數(shù)進(jìn)行分析。首先我們以層為單位,對(duì)MFQE 2.0中比較容易剪裁的QE重建網(wǎng)絡(luò)部分中的各個(gè)卷積層的參數(shù)進(jìn)行分析,并且對(duì)每個(gè)權(quán)重值的絕對(duì)值進(jìn)行排序和計(jì)數(shù),對(duì)權(quán)重值和索引比進(jìn)行歸一化,從而能夠統(tǒng)計(jì)出權(quán)重的分布,具體的情況如圖4所示。
3.2剪裁實(shí)驗(yàn)結(jié)果
我們以QP=32的視頻數(shù)據(jù)為例,對(duì)MFQE 2.0的QE部分網(wǎng)絡(luò)進(jìn)行剪裁加速實(shí)驗(yàn)。
QE部分網(wǎng)絡(luò)的原始維度主要有7層,通道數(shù)均為32,我們?cè)诖嘶A(chǔ)上進(jìn)行整體剪裁加速實(shí)驗(yàn)。為了方便統(tǒng)計(jì)和測(cè)試,采取各層剪裁的通道數(shù)時(shí)刻保持一致,通道數(shù)不斷調(diào)整的方法進(jìn)行實(shí)驗(yàn)。
3.2.1剪裁時(shí)間結(jié)果
Tensorflow靜態(tài)圖的特點(diǎn)導(dǎo)致在模型剪裁時(shí),只能采取稀疏+參數(shù)數(shù)據(jù)遷移的方案。而在稀疏之前,需要先對(duì)不同剪裁的具體時(shí)間加速效果進(jìn)行實(shí)驗(yàn),這也能給后面的稀疏實(shí)驗(yàn)提供優(yōu)化對(duì)比。
因此,我們將原方案32通道的模型做更改,并用timeline來(lái)測(cè)試時(shí)間,經(jīng)平均處理消除不確定性,其結(jié)果如圖5所示。
可以看出,隨著通道數(shù)的減少,模型運(yùn)算的總時(shí)間也相應(yīng)減少。雖然只是裁剪部分層的通道,但由于QE網(wǎng)絡(luò)所占運(yùn)行時(shí)間很長(zhǎng),所以相對(duì)來(lái)說(shuō)只檢測(cè)QE網(wǎng)絡(luò)部分的時(shí)間加速效果依然不錯(cuò)。
當(dāng)方案中的通道數(shù)為26時(shí),數(shù)據(jù)平均處理后的時(shí)間仍比原模型時(shí)間更久一些。經(jīng)查閱資料后得知,在計(jì)算機(jī)底層計(jì)算時(shí),由于通道數(shù)是卷積層濾波器四維矩陣中的兩個(gè)維度,因此在計(jì)算時(shí)都是按照感受野為單位進(jìn)行的,可能會(huì)因維度數(shù)目和計(jì)算機(jī)底層的一些內(nèi)存單元大小的匹配,存在時(shí)間長(zhǎng)短的區(qū)分。原模型通道數(shù)僅為32,因此在通道數(shù)目減小的過(guò)程中,如果不是減少量顯著,則存在時(shí)間消耗不減反增的可能,這與計(jì)算機(jī)底層內(nèi)存塊的空間大小等都有關(guān)系。
總的來(lái)說(shuō),通過(guò)剪裁通道數(shù)能夠很方便地實(shí)現(xiàn)時(shí)間加速,但至于性能如何,則需要通過(guò)稀疏實(shí)驗(yàn)進(jìn)行驗(yàn)證。
3.2.2剪裁結(jié)果分析
通過(guò)動(dòng)態(tài)的通道剪裁方案,算法能夠在每次訓(xùn)練時(shí)不直接將某些參數(shù)置為0,而是通過(guò)對(duì)掩模層的“開(kāi)關(guān)”進(jìn)行學(xué)習(xí),這樣就能實(shí)現(xiàn)損失函數(shù)和反向梯度傳播的對(duì)應(yīng)更新,以更快速準(zhǔn)確地實(shí)現(xiàn)視頻質(zhì)量增強(qiáng)的網(wǎng)絡(luò)剪裁效果。我們對(duì)之前提到的算法和方案進(jìn)行了落實(shí),在MFQE 2.0網(wǎng)絡(luò)中,以QP=32的數(shù)據(jù)和訓(xùn)練好的模型對(duì)低質(zhì)量幀(non-PQF)進(jìn)行實(shí)驗(yàn)。
如果不進(jìn)行相應(yīng)的參數(shù)恢復(fù),而直接進(jìn)行剪裁,那么峰值信噪比(PSNR)和結(jié)構(gòu)相似性比(SSIM)的運(yùn)行結(jié)果如表1所示。
可以看出,如果直接進(jìn)行剪裁,會(huì)導(dǎo)致模型的性能變得非常差。也就是說(shuō),雖然模型存在著大量權(quán)重小的參數(shù),但仍不能簡(jiǎn)單忽略。如果直接刪除一些小權(quán)重的通道,而不對(duì)其他的通道進(jìn)行適當(dāng)?shù)男薷暮驼{(diào)整,那么準(zhǔn)確率和質(zhì)量增強(qiáng)效果依然會(huì)大打折扣。
使用掩模層進(jìn)行不斷地重訓(xùn)后,通過(guò)調(diào)整通道開(kāi)關(guān)閉合,就可以計(jì)算損失函數(shù),阻斷部分梯度反向傳播的更新。
經(jīng)上述訓(xùn)練后,我們分別測(cè)試了所得模型的時(shí)間和效果,結(jié)果如表2所示。分析PSNR對(duì)應(yīng)列與直接剪裁不重訓(xùn),我們可以看到模型重訓(xùn)對(duì)模型的性能恢復(fù)效果。
我們采用PSNR作為質(zhì)量增強(qiáng)效果的客觀標(biāo)準(zhǔn)。基于此種動(dòng)態(tài)通道的剪裁方法有著較好的卷積神經(jīng)網(wǎng)絡(luò)的通用性和一般規(guī)律性,并在本文的視頻質(zhì)量增強(qiáng)任務(wù)上實(shí)現(xiàn)了有效的效果。
總的來(lái)看,如果主要分析ΔPSNR和總時(shí)間的平衡,分析結(jié)果如表3所示。在目前的實(shí)驗(yàn)結(jié)果中,在通道數(shù)為24時(shí),能夠?qū)崿F(xiàn)以0.7%的性能損失換取12.5%的總時(shí)間縮短,達(dá)到預(yù)期指標(biāo)。
4結(jié)束語(yǔ)
本文提出了一種動(dòng)態(tài)的通道剪裁方法,以L1-norm作為衡量濾波器通道重要程度的標(biāo)準(zhǔn),通過(guò)動(dòng)態(tài)剪裁、統(tǒng)一設(shè)定剪裁比例,對(duì)已經(jīng)訓(xùn)練好的MFQE 2.0模型進(jìn)行剪裁加速。在MFQE 2.0的QP 32數(shù)據(jù)集中,通過(guò)微調(diào)模型后,我們發(fā)現(xiàn):當(dāng)將QE網(wǎng)絡(luò)的32通道數(shù)剪裁至24時(shí),可以達(dá)到以0.7%的性能損失換取12.5%的總時(shí)間縮短的指標(biāo)。在剪裁后網(wǎng)絡(luò)最終導(dǎo)出之前,隨著迭代次數(shù)的推進(jìn),模型剪裁效果會(huì)更好,而且具有一定外擴(kuò)性,即最后的模型再適當(dāng)增大通道時(shí),由于動(dòng)態(tài)剪裁的選通機(jī)制,可以相對(duì)更輕松微調(diào)至其他數(shù)目通道的模型。通過(guò)動(dòng)態(tài)通道剪裁,完成了MFQE 2.0的視頻質(zhì)量增強(qiáng)的模型有效加速。
本文還提出一種半自動(dòng)剪裁標(biāo)準(zhǔn)調(diào)整策略,通過(guò)擬合函數(shù)的一階導(dǎo)數(shù)極大值或最大值尋找,輔助決定剪裁最佳比例,后續(xù)應(yīng)嘗試從結(jié)果反饋信息或二分類輔助自動(dòng)決定剪裁比例。
參考文獻(xiàn)
[1] GUAN Z Y, XING Q L, XU M, et al. MFQE 2.0: a new approach for multi-frame quality enhancement on compressed video [J]. IEEE transactions on pattern analysis and machine intelligence,2019:1.DOI: 10.1109/tpami.2019.2944806
[2] ZHU M, GUPTA S. To prune, or not to prune: exploring the efficacy of pruning for model compression [EB/OL]. (2018-06-23) [2020-12-22]. http://arxiv.org/abs/1710.01878
[3] HAN S, MAO H Z, DALLY W J. Deep compression: compressing deep neural networks with pruning, trained quantization and huffman coding [EB/OL]. [2020-12-22]. https: // arxiv.org/abs/1510.00149
[4]李浩,趙文杰,韓波.基于濾波器裁剪的卷積神經(jīng)網(wǎng)絡(luò)加速算法[J].浙江大學(xué)學(xué)報(bào)(工學(xué)版), 2019, 53(10): 1994-2002
[5] LI H, KADAV A, DURDANOVIC I, et al. Pruning filters for efficient ConvNets [EB/OL]. [2020-12-22].https://arxiv.org/abs/1608.08710
[6] LEBEDEV V, LEMPITSKY V. Fast ConvNets using group-wise brain damage [C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas, NV, USA: IEEE, 2016: 2554-2564. DOI: 10.1109/ cvpr.2016.280
[7] WEN W, WU C P, WANG Y D, et al. Learning structured sparsity in deep neural networks[EB/OL]. [2020-12-22]. https: //arxiv. org/abs/ 1608.03665
[8] HOWARD A G, ZHU M L, CHEN B, et al. MobileNets: efficient convolutional neural networks for mobile vision applications [EB/OL]. [2020- 12-22]. https: //arxiv.org/abs/1704.04861
[9] LI H, KADAV A, DURDANOVIC I, et al. Pruning filters for efficient ConvNets [EB/OL]. [2020-12-24]. https: //arxiv.org/abs/1608.08710
[10] POLYAK A, WOLF L. Channel-level acceleration of deep face representations [J]. IEEE access, 2015, 3: 2163-2175. DOI: 10.1109/ access.2015.2494536
作者簡(jiǎn)介
楊文哲,北京航空航天大學(xué)電子信息工程學(xué)院在讀碩士研究生;研究方向包括深度學(xué)習(xí)、圖像壓縮等。
徐邁,北京航空航天大學(xué)電子信息工程學(xué)院教授、教育部“青年長(zhǎng)江學(xué)者”、中國(guó)圖象圖形學(xué)學(xué)會(huì)青工委副主任;研究方向包括圖像處理、視頻壓縮、視頻通信、計(jì)算機(jī)視覺(jué)與人工智能等;2016年獲教育部霍英東青年基金資助,2017年獲人工智能學(xué)會(huì)技術(shù)發(fā)明一等獎(jiǎng)(第二完成人),2018年獲教育部科技進(jìn)步一等獎(jiǎng)、中國(guó)電子學(xué)會(huì)優(yōu)秀科技工作者,2019年獲國(guó)家優(yōu)秀青年基金資助,2020年獲北京市杰出青年基金資助;發(fā)表論文100余篇。
白琳,北京航空航天大學(xué)網(wǎng)絡(luò)空間安全學(xué)院教授;主要研究方向包括通信網(wǎng)絡(luò)安全、無(wú)線通信、物聯(lián)網(wǎng)、無(wú)人機(jī)通信等領(lǐng)域等;主持國(guó)家自然科學(xué)基金項(xiàng)目3項(xiàng)、國(guó)家重點(diǎn)研發(fā)計(jì)劃項(xiàng)目子課題1項(xiàng),獲國(guó)家自然科學(xué)基金優(yōu)秀青年科學(xué)基金資助,獲第四屆中國(guó)出版政府獎(jiǎng)、中國(guó)電子學(xué)會(huì)自然科學(xué)二等獎(jiǎng)、國(guó)家科技進(jìn)步二等獎(jiǎng);發(fā)表SCI期刊文章66篇,著有英文專著2部、中文專著3部。