999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合空間約束和梯度結構信息的視頻篡改檢測算法

2019-10-18 11:37:28普菡黃添強翁彬肖輝黃維
網絡與信息安全學報 2019年5期
關鍵詞:區域實驗檢測

普菡,黃添強,翁彬,肖輝,黃維

融合空間約束和梯度結構信息的視頻篡改檢測算法

普菡1,2,3,黃添強1,2,3,翁彬1,2,3,肖輝1,2,3,黃維1,2,3

(1. 福建師范大學數學與信息學院,福建 福州 350007;2. 福建省大數據挖掘與應用工程技術研究中心,福建 福州 350007;3. 數字福建大數據安全技術研究所,福建 福州 350007)

相鄰幀間相似性原理的傳統視頻被動取證方法會對畫面運動劇烈的視頻發生大量誤檢測,針對這個問題,提出了一種融合空間約束和梯度結構信息的視頻篡改檢測方法。首先,利用空間約束準則,提取低運動區域和高紋理區域,并將兩個區域進行融合,獲取頑健的量化相關性豐富區域用于提取視頻最優相似性特征;然后,改進原有特征的提取和描述方法,運用符合人類視覺系統特性的梯度結構相似性GSSIM來計算空間約束相關性值,最后,利用切比雪夫不等式對篡改點進行定位。實驗證明,針對畫面運動劇烈的視頻,所提算法誤檢率更低,精確度更高。

空間約束;量化相關性豐富區域;梯度結構相似性;畫面運動劇烈的視頻

1 引言

由于數字視頻的篡改檢測在司法取證、新聞媒體等方面有重要的意義,因此近年來國內外對該領域展開了大量研究[1]。但現有的數字視頻取證技術大多針對畫面運動平緩的視頻,對畫面運動劇烈視頻的取證會造成大量誤檢測[2]。因此,針對畫面運動劇烈視頻的篡改取證是一個亟待解決的問題,具有重要的研究意義。

目前,國內外的一些研究團隊關于視頻幀刪除篡改的研究已經取得一定進展。Zhao等[3]首先通過比較視頻相鄰幀之間的HSV顏色直方圖的相似性進行幀間篡改的粗檢測,然后結合SURF特征提取和FLANN進行細檢測,進一步確認篡改點,但由于HSV顏色直方圖的基本原理是利用不同色彩在視頻幀中所占的比例,并沒有考慮不同色彩在視頻幀中的空間位置信息,故該特征不能很好地代表幀圖像信息,所以該方法的穩健性有待提高;Sowmya等[4]通過時空三元特征關系(STTFR,spatiotemporal triad feature relationship)技術對任何給定視頻生成一個128 bit的信息數字,作為該視頻唯一的指紋,利用視頻時域上的篡改會破壞這種指紋的原理進行篡改取證,但該種方法屬于主動取證,需要預先獲得原始視頻,所以其實用性受到一定限制。Wang等[5]提出一種基于非負張量分解的視頻篡改檢測方法,但該方法對細微的幀刪除篡改和同源幀插入篡改會造成漏檢測,具有一定的局限性。Lin等[6]提出一種融合音頻的多通道視頻幀間篡改檢測方法,通過融合音頻通道和視頻幀序列通道的檢測結果進行檢測,然后結合QDCT特征進行細檢測定位,但對于無聲視頻和畫面運動劇烈的視頻,該方法不能體現出它的優越性。Wang等[5]根據篡改視頻重壓縮保存后會導致離散余弦變換系數分布直方圖出現周期性偽影,以及運動估計誤差會顯現周期性尖峰進行篡改取證,但該方法在檢測含有噪聲的視頻時性能顯著下降,而且無法檢測到刪除幀數是GOP整數倍時的篡改,同樣不適用于使用恒定比特率編碼模型的視頻,所以該方法的適用局限性比較大。Liu等[6]提出了專門為H.264編碼視頻設計的幀刪除檢測方案,證明了在視頻幀刪除篡改的情況下P幀序列平均殘差會在時域上表現出周期性,但該方法只適應于特定編碼的視頻。

由于視頻本身的時域冗余性,相鄰幀之間存在很大的相關性,所以基于視頻內容連續性的檢測方法對于大部分遭受幀刪除篡改的視頻有良好的性能。傳統的幀刪除篡改檢測方法的主要步驟是:首先提取視頻幀特征,然后計算相鄰幀特征的相關性,最后通過相關性值出現的異常點進行篡改點的定位。然而,由于畫面運動比較劇烈的視頻相鄰幀之間的相關性波動比較大,傳統的檢測方法會對其造成大量誤檢測。因此,本文提出一種融合空間約束和梯度結構信息的視頻篡改檢測方法,在更加精準地檢測到篡改位置的同時,大大降低了誤檢率。鑒于視頻的運動劇烈區域是影響檢測精確率的主要因素,故本文算法首先采用自適應閾值最佳劃分法對待檢測視頻進行空間約束,提取出低運動和高紋理區域,然后把兩者進行融合,獲取最優量化相關性豐富區域,并結合梯度結構相似性特征梯度結構相似性(GSSIM,gradient structure similarity)和GSSIM熵等方法,提高了特征的頑健性表達和檢測的準確率。

由于在視頻的量化相關性豐富區域提取的特征變化相對一致,所以該算法能夠適用于不同畫面運動劇烈程度的視頻;同時利用基于人類視覺特性的GSSIM特征的頑健性表達,該方法不限制視頻清晰程度以及視頻類型,能檢測到僅僅幾幀的細微篡改。使用空間約束和梯度結構信息的結合方法,提高了檢測方法的頑健性,針對畫面運動劇烈的視頻,與現有算法[5-7]相比,誤檢率更低,精確率更高。

2 視頻空間約束

現有算法大多基于視頻相鄰幀之間的極大相關性原理進行篡改檢測。對于畫面運動劇烈的視頻,鑒于相鄰幀之間的相關性變化比較劇烈,僅利用傳統的檢測算法會造成大量誤檢測,因此可對視頻進行空間約束,獲取有利于篡改檢測的空間區域,提高檢測的精準率。視頻空間約束是結合視頻時空域上的相關信息對視頻幀進行空域上的約束,通過定義一定的約束條件,過濾掉一部分影響篡改檢測效果的區域,保留有利于篡改檢測的空間區域。

本文主要采用自適應閾值最佳區域劃分法對視頻進行空間約束,主要流程如圖1所示,主要分為兩部分的內容:①利用自適應低運動區域劃分法獲取視頻的低運動區域;②首先通過自適應高紋理區域劃分法實現對視頻高紋理區域的空間約束;然后融合低運動和高紋理區域,獲取有利于篡改檢測的量化相關性豐富區域。

2.1 自適應低運動區域劃分法

2.1.1 背景模型的初始化

2.1.2 低運動區域的檢測

首先通過當前幀與背景模型絕對差值的計算得到差圖像,然后利用自適應閾值Th判斷得到差圖像對應的二維掩碼,以此確定低運動區域。

圖1 視頻空間約束的流程

2.1.3 低運動區域的更新

由于視頻的畫面一直在變化,低運動區域也在實時變化,所以需要對低運動區域進行更新,主要包含兩種更新方法:①當視頻的場景微小變化時,進行像素級更新;②當視頻的場景變化大時,進行幀級更新。具體更新的方法如下。

方法1 像素級更新

當低運動區域發生較大范圍變化時,僅使用像素級更新,較難達到很好的效果,需要利用接下來介紹的幀級更新方法。

方法2 幀級更新

當低運動區域的面積小于整個幀圖像面積超過一定百分比時,說明低運動區域發生了較大范圍的變化。當連續多幀圖像都出現這種情況時,需要利用上文低運動區域的檢測方法對該區域進行重新獲取。

圖2 差圖像的直方圖的簡化模型

步驟1 把直方圖的頻數最大值點和頻數最小值點進行連線,得到直線L。

步驟4 選取最大距離的點對應的橫坐標(灰度值)作為二值掩碼式(5)的閾值。

2.2 量化相關性豐富區域

2.2.1 自適應高紋理區域劃分法

步驟1 首先計算當前幀灰度圖像對應的梯度圖像的最小像素值和最大像素值,然后計算二者的平均值作為閾值的初始值。

步驟2 通過初始閾值把當前幀劃分為高紋理區域和低紋理區域,然后分別計算兩區域梯度圖像的平均灰度值1和2,及兩區域梯度圖像的灰度分別占整個幀梯度圖像灰度的百分比1和2。

2.2.3 區域融合

3 篡改檢測算法

本文算法融合空間約束和梯度結構信息對給定視頻進行篡改檢測。首先,通過自適應低運動區域劃分法獲取視頻的低運動區域,并結合自適應高紋理區域劃分法獲取視頻的高紋理區域;然后,把兩者進行融合,獲取有利于基于相鄰幀之間極大相關性原理檢測方法的量化相關性豐富區域;其次,基于人類視覺特性改進原有的特征提取和描述方法,在此區域上提取梯度結構相似性特征GSSIM得到空間約束相關性值,并利用GSSIM商對其進行后處理;最后,利用切比雪夫不等式對篡改點進行定位。算法的具體流程如圖3所示。

3.1 視頻空間約束

考慮到視頻本身的特性,視頻的空間約束過程主要分為3部分:①首先對視頻進行預處理,然后對視頻的低運動區域進行空間約束;②視頻高紋理區域的空間約束;③視頻量化相關性豐富區域的空間約束。

步驟1 對視頻低運動區域的空間約束。

為了減少計算復雜度,把待檢測視頻轉換成幀序列圖像,并對得到的幀序列圖像進行灰度化的預處理。

畫面變化劇烈的視頻,由于原始視頻的高運動區域使相鄰幀之間相關性值比較小,使視頻幀間篡改點的相鄰兩幀之間相關性值也會變小[8],因此為了減少誤檢率,可以定義一定的約束條件,過濾掉視頻幀的高運動區域,獲取視頻的低運動區域。利用本文2.1節提出的自適應低運動區域劃分法,對視頻低運動區域進行空間約束的主要步驟如圖4所示。首先,根據視頻場景信息構建視頻的背景模型;其次,當前幀和背景模型作差得到對應的差圖像;然后,通過自適應閾值判斷是否為低運動區域[9],并對低運動區域進行形態學操作來填補空隙和移除含有噪聲的小面積區域;最后,根據視頻場景的變化劇烈程度進行低運動區域的更新。

步驟2 對視頻高紋理區域的空間約束。

由于視頻幀的高紋理區域包含幀圖像大量的梯度信息和邊緣信息,所以對視頻高紋理區域進行空間約束可以確保特征提取的有效性和精準性[10]。利用2.2節提出的自適應高紋理區域劃分法,對視頻高紋理區域進行空間約束的主要步驟如圖5所示。首先,計算視頻幀的梯度信息;然后,通過自適應閾值的判斷得到視頻的高紋理區域;最后,通過形態學操作來填補空隙和移除含有噪聲的小面積區域。

步驟3 對視頻量化相關性豐富區域的空間約束。

為了避免造成誤檢測,可以獲取視頻的量化相關性豐富區域[11]。根據2.2節的內容,對視頻的量化相關性豐富區域進行空間約束的主要步驟如圖6所示,首先,對低運動和高紋理區域進行融合,取兩個區域的交集;然后,通過形態學操作來填補空隙和移除含有噪聲的小面積區域,獲取視頻的最優量化相關性豐富區域,實現對視頻的空間約束。

3.2 特征提取

由于人類視覺系統具有對圖像的邊緣梯度信息比較敏感的特性,而梯度信息本身可以很好地反映出圖像中微小的細節反差和紋理特征變化,因此可以將梯度作為重要的結構信息[12]。基于這一特性,改進原有結構相似性(SSIM,structural similarity)特征的提取和描述方法,在量化相關性豐富區域上采用梯度結構相似性(GSSIM),度量相鄰幀的相似性。梯度結構相似性主要把從原始圖像和梯度圖像提取到的局部信息融合[13],從而提升傳統SSIM在模糊圖像上的性能,其中,梯度圖像獲取的具體步驟是:首先把原始幀圖像進行Sobel邊緣檢測,然后進一步對其進行逐像素動態范圍壓縮,凸顯圖像的重要顯著特征[14]。GSSIM的定義如下

圖6 視頻量化相關性豐富區域的空間約束

最后將圖像塊之間的梯度結構相似度取平均值(MGSSIM, mean gradient structural similarity),MGSSIM衡量的是兩幅圖像幀之間的相似度。兩幅圖像對應的所有圖像塊GSSIM的均值可以由式(26)得出。

3.3 特征處理

根據人類視覺系統的視覺停留現象,為了人類在視覺上能夠感知連續的畫面,視頻的幀率一般是24~25 fp/s,所以相鄰幀之間的相關性非常大,而經過人為幀刪除惡意篡改之后,篡改點的相鄰兩幀之間相關性變小。但不能簡單地通過分析相關性值的大小來判斷視頻是否被篡改[1],因為對于一個內容非靜止的待檢測視頻,它的內容變化程度是未知的,同一視頻的幀間相關性值也會出現變化。為了進一步消除視頻內容運動變化對檢測結果造成的影響,本文用MGSSIM商替換MGSSIM,MGSSIM商的定義如式(28)所示。

3.4 篡改點的定位

本文使用切比雪夫不等式[15]定位異常點。切比雪夫不等式衡量的是隨機變量與均值之間的偏離程度,隨機變量越遠離平均值,概率越低?;谇斜妊┓虿坏仁降幕驹?,可以用其進行離群點檢測。切比雪夫不等式證明,對于任何一個隨機變量,它的任何一個取值與均值的距離都遵循一定的概率,的取值只與它的方差有關[5]。切比雪夫不等式定義如式(30)和式(31)所示。

4 實驗結果及分析

4.1 實驗設置

為了評估算法的檢測效果,本文在3個公開數據集上進行了實驗,分別是SULFA視頻庫(surrey university library for forensic analysis surrey university library for forensic analysis)[15]、CDNET視頻庫(a video database for testing change detection algorithms)[16],華南理工視頻篡改檢測數據庫VFDD(Video Forgery Detection Database) Version1.0[17],共約200個視頻。使用Adobe Premiere Pro CC軟件對所有待檢測視頻進行不同數量程度的幀刪除篡改,分別是5,10、20、25、50、75、100。本文的算法由Python和Matlab編程實現。以下為實驗所使用的計算機配置:中央處理器Intel(R) Xeon(R) CPU,16 GB內存以及操作系統為Microsoft Windows 10PC。

4.2 實驗結果

為了驗證本文算法的有效性,分別針對不同運動劇烈程度的視頻進行不同程度的幀刪除篡改,具體步驟是:對所有視頻運行檢測算法并分析實驗結果,同時和現有方法的檢測結果進行比較和量化分析。為了驗證本算法的頑健性,分別從空間約束、梯度結構相似度GSSIM兩個角度進行對比實驗,同時和現有的較優算法進行實驗效果的比較分析。實驗的具體流程如下。①驗證空間約束對檢測算法準確率的影響,具體步驟是:對于運動變化劇烈和平緩的兩類視頻,在同等條件下,分別對這兩類視頻進行空間約束和不進行空間約束進行篡改檢測,對比實驗效果。②驗證GSSIM特征的頑健性,具體步驟是:在同等條件下,對畫面模糊和清晰的兩類視頻分別提取特征SSIM和GSSIM進行對比實驗。

4.2.1 對視頻進行空間約束的實驗結果

選取視頻Camera Road 01.avi進行空間約束實驗結果的展示說明。首先,運用自適應的運動區域檢測算法對低運動區域進行空間約束。實驗結果如圖7所示,選取第8幀圖像構建的原始背景模型如圖7(a)所示,第8幀的背景模型如圖7(b)所示,第8幀圖像如圖7(c)所示,圖7(b)和圖7(c)相減得到第8幀的差圖像如圖7(d)所示。對得到的差圖像進行直方圖統計如圖7(e)所示,利用2.1節低運動區域閾值的自適應選取算法進行閾值的選取,該幀圖像的閾值選取為20,進而得到第8幀的二值化掩碼,如圖7(f)所示,其中黑色區域是檢測到的第8幀的低運動區域。然后,利用2.2節的方法對視頻的高紋理區域進行空間約束,閾值為150,實驗結果如圖8所示,白色區域即為高紋理區域。最后,對視頻幀的高紋理區域和低運動區域進行融合,取兩區域的交集,得到第8幀的量化相關性豐富區域,如圖9所示,實現對視頻的空間約束。

4.2.2 篡改檢測結果展示

針對視頻的幀刪除篡改,可以通過觀察檢測結果中被篡改的位置是否出現尖銳峰值,及是否會定位到異常點來判斷檢測效果。根據GSSIM商公式的計算,在一個篡改點的位置產生兩個異常點,相應地會導致一對相鄰的峰值出現,篡改點的位置用黑色圓圈標記。

圖8 視頻高紋理區域的空間約束

圖9 視頻量化相關性豐富區域的空間約束

(1)驗證本文算法對運動劇烈視頻的有效性

為了驗證本文方法的有效性,針對不同運動劇烈程度的視頻均進行了篡改檢測,檢測結果如圖10所示。對于畫面運動較為劇烈的視頻,選取的實驗視頻是SULFA視頻庫中fuji_2800_ road(1).avi,該視頻中記錄的是在高速公路上行駛的汽車,并對其在95幀處進行了10幀的幀刪除篡改(95~105),檢測結果如圖10(a)所示,可以觀察到在95幀處有尖銳明顯的峰值出現,用黑色圓圈標記;如圖10(b)所示,實驗視頻是CDNET視頻庫中turbulence3.avi,turbulence分組的視頻畫面運動較為劇烈,并在238幀處進行了75幀的幀刪除篡改(238~313),可以觀察到在238幀處有尖銳明顯的峰值出現,同時篡改點用黑色圓圈標記。對于畫面運動相對劇烈的視頻,選取的實驗視頻是HUANAN視頻庫中walkman. avi,該視頻記錄的是奔跑的行人,同時對該視頻在200幀處進行了25幀的幀刪除篡改(200~225),檢測結果如圖10(c)所示,可以觀察到在221幀處有尖銳明顯的峰值出現,而且用黑色圓圈標記。如圖10(d)所示,實驗視頻是CDNET視頻庫中dynamicBackground的boats.avi,由于它是動態背景的視頻,所以整體畫面運動相對劇烈,同時在82幀處進行了20幀的幀刪除篡改(82~102),可以觀察到在82幀處有尖銳明顯的峰值出現,用黑色圓圈標記。

圖10 運動變化劇烈視頻的篡改檢測結果

通過實驗證明,本文算法對不同運動劇烈程度的視頻檢測性能都比較良好,均能精準地把篡改點定位出來。

(2) 驗證空間約束效果的對比實驗

為了驗證本文算法所提的空間約束是否能提升檢測的準確率,在同等條件下,針對運動變化劇烈和運動變化平緩的兩類視頻,對視頻進行空間約束和不進行空間約束分別做對比實驗。

①運動變化劇烈的視頻

針對運動變化劇烈視頻的對比實驗結果如圖11所示,實驗視頻是CDNET視頻庫中Night Video的Video1.avi,并在36幀處進行了5幀的幀刪除篡改(36~51)。首先,對待檢測視頻不進行空間約束,篡改檢測的效果如圖11(a)所示??梢悦黠@看到被篡改的位置36幀處沒有出現尖銳的峰值,且并沒有定位到異常點,卻在92幀和151幀處標記了篡改點,存在嚴重的誤檢測。造成誤檢測的主要原因是該視頻的運動變化較為劇烈,從圖11(a)中可以觀察到該視頻相鄰幀的相關性波動很大,因為該視頻中存在高速運動的汽車,所以該視頻的運動變化非常劇烈。然后,對視頻進行空間約束,同樣的條件下,對得到的量化相關性豐富區域進行視頻篡改檢測,檢測效果如圖11(b)所示,可以觀察到在36幀處有尖銳明顯的峰值出現,用黑色圓圈標記。

通過對比實驗,證明了對視頻進行適當的空間約束可以提高視頻篡改檢測的準確率,減少誤檢率。而且受視頻內容變化的影響,現有算法對僅僅幾幀的刪除篡改往往檢測不到,但本文算法卻可以實現精確檢測。說明本文算法不僅能適應于運動變化劇烈的視頻篡改,還同樣能檢測到幾幀的細微幀刪除篡改,具有很強的頑健性。

②運動變化平緩的視頻

針對運動變化平緩視頻的實驗結果如圖12所示,實驗視頻是HUNAN視頻庫中的Yvmaoqiu.avi,并在53幀處進行了25幀的幀刪除篡改(53~78)。首先,對視頻不進行空間約束,篡改檢測的結果如圖12(a)所示??梢钥吹奖淮鄹牡奈恢?3幀處出現尖銳的峰值,以及黑色圓圈標記的異常點。從圖像中可以觀察到該視頻相鄰幀的相關性波動很小,因為視頻中不存在高速運動的物體,所以該視頻的運動變化較為平緩。然后,對視頻進行空間約束,同樣的條件下,對空間約束區域進行篡改檢測,檢測效果如圖12(b)所示??梢杂^察到在53幀有尖銳明顯的峰值出現,用黑色圓圈標記。通過對比實驗,說明本文算法同樣適用于運動變化平緩的視頻。

圖11 運動變化劇烈視頻的對比實驗

圖12 運動變化平緩視頻的對比實驗

(2) 驗證特征GSSIM的頑健性

基于人類視覺特性的原理改進SSIM的特征提取和描述方法,本文算法提出在量化相關性豐富區域上提取梯度結構相似性GSSIM進行篡改檢測。為了驗證GSSIM特征具有較強的頑健性,能夠適用于畫面模糊視頻的特征提取。在同等條件下,針對畫面模糊和畫面清晰兩種類型的視頻,分別提取SSIM和GSSIM進行對比實驗。

①畫面模糊的視頻

針對畫面模糊視頻的對比實驗結果如圖13所示,實驗視頻是CDNET視頻庫中Night Video的Video1.avi,并在75幀處進行了20幀的幀刪除篡改(75~95)。首先,用Adobe Premiere Pro CC軟件對篡改后的視頻進行高斯模糊處理,其中模糊因子設為10;其次,對空間約束后的視頻提取SSIM特征進行篡改檢測,檢測的效果如圖13(a)所示,可以看到被篡改的位置75幀處并沒有出現尖銳的峰值,同時也沒有黑色圓圈標記的異常點,但在170幀處標記到了異常點,造成了誤檢測;然后,同樣的條件下,對視頻提取GSSIM特征進行篡改檢測,檢測效果如圖13(b)所示,可以觀察到在75幀有尖銳明顯的峰值出現,用黑色圓圈標記。通過對比實驗,說明本文提出的GSSIM特征具有較強的頑健性,能夠適用于模糊視頻的篡改。

②畫面清晰的視頻

針對畫面清晰視頻的對比視頻實驗結果如圖14所示,實驗視頻是SULFA視頻庫中的02_original.avi,并在61幀處進行了20幀的幀刪除篡改(61~81)。首先,對空間約束后的視頻提取SSIM特征進行篡改檢測,檢測效果如圖14(a)所示,可以看到被篡改的位置61幀處出現尖銳的峰值,同時也有黑色圓圈標記的異常點;其次,同樣的條件下,對同樣的視頻提取GSSIM特征進行檢測,檢測效果如圖14(b)所示,可以觀察到在61幀處同樣有尖銳明顯的峰值出現,而且用黑色圓圈進行了標記。通過對比實驗,說明本文算法提出的GSSIM特征適用于清晰視頻的篡改。

圖13 畫面模糊視頻的對比實驗

圖14 畫面清晰視頻的對比實驗

4.2.3 量化分析與討論

為了評價算法的性能,本文使用準確率(precision)、召回率(recall)對實驗結果進行分析,計算公式如下。

其中,N是檢測出的正確(correct)點數,N是檢測出的錯誤(false)點數,N是未檢測出(miss)的篡改點數,即漏檢的篡改點的數量。

部分實驗結果如表1和表2所示,從表1中可以看出本文算法對不同視頻可以有效準確地檢測到不同程度的幀刪除篡改,其中篡改幀數為5幀時的召回率最低,原因是該篡改幀數較小,不足以影響到相鄰幀間的相關性值的變化,造成了漏檢的篡改點的數量較多;篡改幀數為100的檢測準確率最高,因為該篡改幀數較大,漏檢的篡改點的數量較少,同時誤檢率也比較低,所以精確率較高。表2是本文算法與對比文獻算法的性能比較結果,通過分析表2可以得出結論,本文通過空間約束對量化相關性豐富區域進行篡改檢測,在不同公開視頻數據庫上的檢測結果在準確率和召回率上總體均優于文獻[5]和文獻[6]的算法。本文算法對CDNET庫中夜間視頻的檢測性能相對不太理想,但也優于對比算法,原因可能是夜間視頻光線比較暗,對該類視頻提取到的幀特征不能很好地代表幀圖像內容,所以算法在夜間視頻的檢測性能略微下降。

表1 視頻的幀刪除篡改檢測結果

表2 各算法性能比較結果

5 結束語

本文提出了融合空間約束和梯度結構信息的視頻篡改檢測算法,首先對給定視頻進行空間約束,分別自適應地提取出低運動和高紋理區域,把兩區域進行融合,獲取量化相關性豐富區域,通過在此區域上提取梯度結構相似性特征GSSIM得到空間約束相關性值,并利用GSSIM商對空間約束相關性值進行后處理,最后利用切比雪夫不等式實現對篡改點的檢測和定位。通過對比實驗證明,對視頻進行空間約束可以過濾掉一些易造成誤檢的區域,使約束得到的量化相關性豐富區域的相鄰幀之間相關性值大小較為穩定,使之能夠適用于運動變化劇烈視頻的篡改檢測;同時基于人類視覺系統的特性改進了原有的特征提取和描述方法,提出了檢測性能較好的梯度結構相似性特征GSSIM,可以適用于模糊視頻的篡改取證。實驗證明本文算法具有很高的精確率、極低的誤檢率及較強的頑健性,不足之處在于對夜間視頻的篡改檢測性能不太好,這也是后繼需要重點研究的工作。

[1] 陳威兵,楊高波, 陳日超等. 數字視頻真實性和來源的被動取證[J]. 通信學報, 2011, 32(6).177-183.

CHEN W B, YANG G B, CHEN R C, et al. Digital video passive forensics for its authenticity and source[J]. Journal on Communications. 2011, 32(6).177-183.

[2] SINGH, RAAHAT DEVENDE R, AGGARWAL N. Video content authentication techniques: a comprehensive survey[J]. Multimedia Systems, 2018:1-30.

[3] ZHAO D N, WANG R K, LU Z M. Inter-frame passive-blind forgery detection for video shot based on similarity analysis[J]. Multimedia Tools & Applications, 2018(1):1-20.

[4] SOWMYA K N, CHENNAMMA H R, LALITHA R. Video authentication using spatio temporal relationship for tampering detection[J]. Journal of Information Security and Applications, 2018, 41:159-169.

[5] WANG W, FARID H. Exposing digital forgeries in video by detecting double MPEG compression[C]//8th Workshop on Multimedia and Security (MM&Sec’06). NY, 2016: 37-47.

[6] LIU H, LI S, BIAN S. Detecting frame deletion in H.264 video[C]//10th International Conference ISPEC. 2017: 262-270.

[7] 左建軍, 吳有富. 一種基于直方圖的實時自適應閾值分割方法[J]. 畢節學院學報, 2014, 32(4):53-56.

ZUO J J, WU Y F. A real-time adaptive threshold segmentation method based on histogram[J]. Journal of Bijie University, 2014, 32(4): 53-56.

[8] 黃添強, 陳智文, 蘇立超, 等. 利用內容連續性的數字視頻篡改檢測[J]. 南京大學學報(自然科學), 2011, 47(5):493-503.

HUANG T Q, CHEN Z W, SU L C, et al. Digital video forgeries detection based on content continuity[J]. Journal of Nanjing University(Natural Sciences), 2011, 47(5):493-503.

[9] 薛麗霞, 羅艷麗, 王佐成. 基于幀間差分的自適應運動目標檢測方法[J]. 計算機應用研究, 2011, 28(4):1551-1552.

XUE L X, LUO Y L, WANG Z C. Detection algorithm of adaptive moving objects based on frame difference method[J]. Application Research of Computers, 2011, 28(4):1551-1552.

[10] 王晅, 畢秀麗, 馬建峰, 等. 基于概率統計模型與圖像主紋理方向分析的非線性濾波算法[J]. 中國圖象圖形學報, 2018, 13(5):858-864.

WANG X, BI X L, MA J F, et al. Nonlinear filtering algorithm using probability statistic and main texture direction analysis based on randon transforms[J]. Journal of Image and Graphics, 2018, 13(5):858-864.

[11] AGHAMALEKI J A, BEHRAD A. Inter-frame video forgery detection and localization using intrinsic effects of double compression on quantization errors of video coding[J]. Signal Processing: Image Communication, 2016: 289-302.

[12] 孫健鈞, 趙巖, 王世剛. 基于圖像梯度信息強化的SIFT特征匹配算法改進[J]. 吉林大學學報(理學版), 2018, 56(1):82-88.

SUN J J, ZHAO Y, WANG S G. Improvement of SIFT feature matching algorithm based on image gradient information enhancement[J]. Journal of Jilin University (Science Edition), 2018, 56(1): 82-88.

[13] NERCESSIAN S, AGAIAN S S, PANETTA K. A. An image similarity measure using enhanced human visual system characteristics[C]//SPIE Defense, Security and Sensing. 2011.

[14] QADIR G, YAHAYA S, HO A T. Surrey university library for forensic analysis (SULFA) of video content[C]// IET Conference on Image Processing (IPR 2012). 2012: 1-6.

[15] HE Z. The data flow anomaly detection analysis based on LipChebyshev method[J]. Computer System Application, 2009, 18(10): 61-64.

[16] GOYETTE N, JODOIN P M, PORIKLI F, et al. Changedetection.net: a new change detection benchmark dataset[C]// Computer Vision & Pattern Recognition Workshops. 2014: 1-8.

[17] HU Y J, AL-HAMIDI S. Construction and evaluation of video forgery detection database[J]. Journal of South China University of Technology (Natural Science), 2017, 45(12): 57-64.

Video tampering detection algorithm based on spatial constraint and gradient structure information

PU Han1,2,3, HUANG Tianqiang1,2,3, WENG Bin1,2,3, XIAO Hui1,2,3, HUANG Wei1,2,3

1. Mathematics and Informatics, Fujian Normal University, Fuzhou 350007, China 2. Fujian Provincial Engineering Research Center of Big Data Analysis and Application, Fuzhou 350007, China 3. Digital Fujian Big Data Security Technology Institute,Fuzhou 350007, China

The traditional video passive forensics method using only the principle of similarity between adjacent frames will cause a lot of false detection for the video with severe motion.Aiming at this problem, a video tamper detection method combining spatial constraints and gradient structure information was proposed. Firstly, the low motion region and the high texture region were extracted by using spatial constraint criteria. The two regions were merged to obtain the robust quantitative correlation rich regions for extracting video optimal similarity features. Then improving the extraction and description methods of the original features, and using the similarity of the gradient structure in accordance with the characteristics of the human visual system to calculate the spatial constraint correlation value. Finally, the tampering points were located by the Chebyshev inequality. Experiments show that the proposed algorithm has lower false detection rate and higher accuracy.

spatial constraints, the quantitative correlation rich regions, GSSIM(gradient structure similarity), videos with severe motion

普菡(1995? ),女,河南平輿人,福建師范大學碩士生,主要研究方向為信息安全、數字多媒體取證。

黃添強(1971? ),男,福建仙游人,博士,福建師范大學教授,主要研究方向為機器學習、數字多媒體取證。

翁彬(1981? ),男,福建福州人,博士,福建師范大學講師,主要研究方向為機器學習及應用。

肖輝(1991? ),男,福建建甌人,福建師范大學碩士生,主要研究方向為信息安全、數字多媒體取證。

黃維(1994? ),女,福建莆田人,福建師范大學碩士生,主要研究方向為信息安全、數字多媒體取證。

TP393

A

10.11959/j.issn.2096?109x.2019052

2019?04?14;

2019?06?06

黃添強,fjhtq@fjnu.edu.cn

國家重點研發計劃專項基金資助項目(No.2018YFC1505805);應用數學福建省高校重點實驗室基金資助項目(No.SX201803)

National Key Program for Developing Basic Science (No.2018YFC1505805),Applied Mathematics Fujian Provincial Key Laboratory Project (No.SX201803)

普菡, 黃添強, 翁彬, 等. 融合空間約束和梯度結構信息的視頻篡改檢測算法[J]. 網絡與信息安全學報, 2019, 5(5): 64-79.

PU H, HUANG T Q, WENG B, et al. Video tampering detection algorithm based on spatial constraint and gradient structure information[J]. Chinese Journal of Network and Information Security, 2019, 5(5): 64-79.

猜你喜歡
區域實驗檢測
記一次有趣的實驗
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
做個怪怪長實驗
NO與NO2相互轉化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
小波變換在PCB缺陷檢測中的應用
關于四色猜想
分區域
主站蜘蛛池模板: 美女国产在线| AV天堂资源福利在线观看| 亚洲精品自拍区在线观看| 中文字幕天无码久久精品视频免费| 国产在线日本| 在线观看av永久| 免费在线看黄网址| 亚洲最新网址| 色网站在线免费观看| 国产午夜福利在线小视频| 国产经典免费播放视频| 亚洲an第二区国产精品| 久久免费精品琪琪| 亚洲欧美一区二区三区蜜芽| 国产精品尤物在线| 亚洲香蕉伊综合在人在线| 午夜无码一区二区三区在线app| 在线看免费无码av天堂的| 中文字幕永久视频| 手机精品福利在线观看| 久久亚洲天堂| 国产激情在线视频| 国产69精品久久久久孕妇大杂乱 | 国产成人永久免费视频| 国产精品视频观看裸模| 欧美精品v日韩精品v国产精品| 嫩草国产在线| 日韩精品一区二区三区大桥未久| 国产福利不卡视频| 色婷婷综合在线| 久久国产高潮流白浆免费观看| 日本高清成本人视频一区| 视频在线观看一区二区| 亚洲天堂日韩av电影| 91在线日韩在线播放| 国产在线观看一区精品| 色婷婷亚洲十月十月色天| 天天摸天天操免费播放小视频| 久久精品女人天堂aaa| 久久情精品国产品免费| 亚洲欧美另类中文字幕| 亚洲第一黄片大全| 91免费片| 黄色网页在线观看| 在线观看91精品国产剧情免费| 亚洲精品不卡午夜精品| 午夜福利无码一区二区| 久久五月视频| 免费一级无码在线网站 | 毛片网站在线看| 欧美激情视频一区| 亚洲色精品国产一区二区三区| 动漫精品中文字幕无码| 亚洲综合色在线| 欧美成人手机在线观看网址| 午夜啪啪福利| 东京热高清无码精品| 色综合中文综合网| 囯产av无码片毛片一级| 欧美无专区| 亚洲有码在线播放| 午夜a视频| 久久久精品无码一区二区三区| 在线观看国产精品一区| 狠狠综合久久| 久久久久免费精品国产| 亚洲综合色区在线播放2019| 国产原创自拍不卡第一页| 波多野结衣中文字幕一区二区| 97在线观看视频免费| 免费无码AV片在线观看中文| 综合网久久| 国产噜噜在线视频观看| 9cao视频精品| 欧美三級片黃色三級片黃色1| 精品人妻一区二区三区蜜桃AⅤ| 激情六月丁香婷婷四房播| 日本黄网在线观看| 高清无码手机在线观看| www.日韩三级| 再看日本中文字幕在线观看| 青青久久91|