999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于CNN-BiLSTM 模型的日志異常檢測方法

2022-07-14 13:11:24孫嘉張建輝卜佑軍陳博胡楠王方玉
計算機工程 2022年7期
關鍵詞:特征實驗檢測

孫嘉,張建輝,卜佑軍,陳博,胡楠,王方玉

(1.鄭州大學 中原網絡安全研究院,鄭州 450001;2.中國人民解放軍戰略支援部隊信息工程大學,鄭州 450001)

0 概述

隨著共享、開放的互聯網飛速發展,網絡攻擊方式也呈現出自動化、多樣化的發展趨勢,網絡安全面臨著前所未有的挑戰。網絡安全威脅主要包括系統內部漏洞威脅、誤操作威脅和外部攻擊威脅。目前多數網絡系統都會輸出記錄系統運行狀態和執行操作的日志文件,日志文件可以在入侵檢測、故障處理、事件關聯、事故處理、事后追究等諸多方面提供幫助。對日志進行分析應用于在線監視和威脅檢測,是計算機安全領域中的研究熱點之一[1]。

傳統的日志分析方法多是開發人員根據專業領域知識,使用手動檢查、編寫規則、應用統計學分析或聚類等方法,人工進行特征識別和建立規則,但是隨著網絡入侵攻擊由獨立、簡單、直接、易暴露逐漸演變成有組織、有目標、持續時間長的APT 等攻擊,以及逐漸規模化發展、分布式部署、高并行和冗余運行的系統應用發展[2],海量的日志數據和高隱蔽性的攻擊手段導致人工選取特征、制定規則困難和檢測方法適用性低,而深度學習可為解決這些問題提供新的思路。

在大數據時代背景下,深度學習技術蓬勃發展,如聚焦學習樣本空間特征的卷積神經網絡(Convolutional Neural Network,CNN)[3]、挖掘發現時間序列特征的循環神經網絡(Recurrent Neural Network,RNN)[4]。深度學習模型在參數合適的情況下不需要人工提取特征,模型本身就能完成特征提取與檢測工作,在保證準確率的同時大幅減少工作量。為保證深度學習檢測模型的準確率,模型結構應與數據結構相適應,并且需要足夠的數據進行訓練,而海量的日志數據正適用于訓練深度學習模型。此外,還應設置合適的模型參數,目前存在網格搜索、隨機搜索、貝葉斯優化等多種調參算法[5],可以協助定義模型參數,進一步降低工作量。

本文針對海量日志數據的特點,結合CNN 和Bi-LSTM 提取時空序列特征的優勢,構建適用于日志異常檢測的CNN-BiLSTM 深度學習模型。通過解析日志鍵和日志參數,根據各自特點分別提取空間和時間序列特征,提高日志異常檢測準確率。對比傳統日志異常檢測方法和單核結構的深度學習模型,在HDFS 和WC_98day 數據集上進行實驗,驗證CNN-BiLSTM 模型的普適性。同時,通過消融實驗從檢測效果和模型收斂速度兩個方面出發,分別測評詞嵌入結構和全連接層結構對于CNN-BiLSTM模型的重要意義。

1 相關工作

1.1 傳統日志異常檢測方法

傳統日志分析方法對比如表1 所示,一般由開發人員根據相關領域知識或手動檢查,或編寫規則,或應用統計學分析、聚類等方法分析日志數據,但是傳統方法不僅存在高度依賴特征工程、普適性差等缺點,而且對處理海量數據、檢測復雜網絡攻擊缺少高效的解決方案。

表1 傳統日志異常檢測方法分析Table 1 Analysis of traditional log anomaly detection methods

1.2 深度學習方法

目前,深度學習在日志異常檢測領域的應用主要有以下3 個方面:

1)RNN 模型的應用研究。在諸多模型中,RNN以其時間序列強大的學習能力而受到關注:MENG等通過加入同義詞和反義詞訓練DLCE 詞向量,詞向量引入語義信息用以LSTM 順序檢測,并通過詞頻統計得到例如打開和關閉此類的量化關系用于定量檢測[6];YUAN 等利用LSTM 神經網絡提出一種無監督的在線日志異常檢測框架,并設計一種能夠動態調節歷史信息輸入長度的動態閾值算法。該算法可以根據最近的檢測事件決定輸入長度,在Los Alamos National 實驗室網絡安全日志數據集上的實驗結果表明,其達到F1 值約0.95 的優越效果[7];DU等基于雙向長短時記憶循環神經網絡(Bi-directional Long Short-Term Memory network,Bi-LSTM)構建根據任務分類的工作流模型,對日志異常實施在線檢測達到92%的正確率[8]。

2)CNN 模型的應用研究。CNN 以其在圖像視覺領域的卓越效果引起諸多研究者的注意:HASHEMI 等將解析器、向量化器和分類器集成為一個深度網絡學習模型,并采用字符級CNN 處理日志事件,在綜合單項目、多項目的數據集上實驗評估該模型的魯棒性,并通過提前異常檢測測試評估模型預測異常的能力,達到F1 值約為0.99 的優越性能[9];梅御東等使用CNN-Text 基于日志數據檢測軟件異常,在不同數據集上達到90%左右的準確率[10]。

3)基于注意力機制的模型。注意力機制不僅能并行計算,提高處理效率,而且可以解決日志鍵長距離上的梯度消失問題[11]:HUANG 等基于注意力機制分別設計了日志序列編碼器和參數值編碼器,用以捕獲日志中蘊含的語義信息,并通過不穩定的日志數據集實驗評估該方法的性能和魯棒性[12];GUO等構建基于多頭注意力的序列模型,將日志流作為模板事件序列進行處理,通過下一個事件的預測任務訓練模型進行日志異常檢測,在HDFS 數據集上不同注意力頭數的實驗F1 值均穩定在0.97 左右[13];NEDELKOSKI 等構建基于自注意力的編碼器模型,并使用系統切換時間等輔助信息增強訓練數據,通過密集的日志數據訓練使模型能夠更有效地區分正常和異常日志之間的差異,同時,在BGL 等公開數據集上和PCA 方法進行對比實驗,準確率達到約90%,F1 值約為0.67[14]。

上述研究面對海量日志數據分析深度學習普遍優于手工特征提取的傳統方法,但是依然存在不足,例如:將日志整體作為分析對象,忽視日志鍵和日志參數特征不同;單核模型偏重于處理時間序列或空間位置特征;模型普適性差等。因此,深度學習在日志異常檢測方面仍有較大的研究與提升空間。

本文分析日志數據的特征和傳統日志異常檢測方法的局限性,結合CNN 和Bi-LSTM 模型的優勢,構建CNN-BiLSTM 模型應用于日志異常檢測。

2 理論基礎

2.1 詞向量表示

深度學習模型的輸入只能是數值化的張量,Word2Vec 是目前自然語言處理領域常用的詞向量編碼方式,包含CBOW 和Skip-Gram 兩種訓練方式,其中CBOW 適合小規模語料,而Skip-Gram 在大規模語料上表現更佳。根據數據量大這一特點,日志編碼選擇Skip-Gram 方式,其結構中的詞嵌入層由包含線性變換的隱含層組成[15],通過根據當前詞預測上下文可能出現的詞,最大化日志訓練語料相關詞出現的概率,以學習語料之間的相關關系。

令W是對應的詞向量矩陣,C為單個數據長度,則W矩陣中的每一行為單個切分詞組的Nc維詞向量Mi:

其中:Xi為切詞后的單個詞組one-hot 編碼,第i位為1,其余位皆為0。

2.2 卷積神經網絡

文本卷積神經網絡(Text-CNN)提取文本主要特征以進行分類,不同于圖像的卷積過程,為能多角度提取特征和維護文本完整特征表達,Text-CNN 使用多種規格卷積窗口進行一維滑動,且卷積窗口寬度與詞向量長度相等。

如圖1 所示,Text-CNN 是只構建輸入層、卷積層、池化層、全連接層四層的卷積模型,其中Mi∈Wc是數據中第i個切分詞組對應的Nc維詞向量,卷積運算類似濾波器C∈Wh-c,該過程使用RELU 激活函數,將其應用于h個詞組的詞向量矩陣提取特征,如從Mi:i+h-1的窗口內提取特征Yi:

圖1 Text-CNN 特征提取過程Fig.1 Text-CNN feature extraction process

其中:b為偏置項;f為非線性函數。為防止訓練過程中過度依賴局部特征,同時避免過擬合和增強模型泛化能力,在反向傳播過程中使用Dropout 函數,使神經元激活值按照概率P隨機丟失,如式(3)所示:

其中:o是逐元素乘法運算符;r是Bernoulli 函數按照概率P隨機生成的0 或1。

通過多種規格的卷積窗口提取數據不同角度的空間特征,并經過池化層選取價值最高的特征向量。

2.3 雙向長短時記憶循環神經網絡

雙向長短時記憶循環神經網絡(Bi-LSTM)是在長短時記憶神經網絡的基礎上增加雙向輸入進行改進[16]。Bi-LSTM 不僅設置輸入門、遺忘門、輸出門以解決循環神經記憶網絡長期依賴缺失的問題,而且利用雙向輸入同時捕獲序列正反方向特征信息,從更多角度學習序列特征信息。

如圖2所示,Bi-LSTM 借鑒雙向RNN 輸入方式,將RNN 中的循環單元替換為帶有門控單元的LSTM 循環單元,等同于在序列兩端各構建單向LSTM,且都連接于同一層,這個結構提供輸出層輸入序列中完整的上下文信息,從正反兩個方向學習序列特征。

圖2 Bi-LSTM 特征提取過程Fig.2 Bi-LSTM feature extraction process

神經網絡正向更新為:

神經網絡反向更新為:

因此,正反雙向循環神經網絡層結合輸出為:

其中:t是時間序列;h對應下標時間的隱層向量;x對應下標時間的輸入;y對應下標時間的輸出;W表示對應下標輸入和隱層、隱層和隱層、隱層和輸出之間的權重矩陣;b為對應下標隱層或輸出層偏置向量;H為隱層sigmoid 激活函數。

3 CNN-BiLSTM 模型

如圖3 所示,基于深度學習進行日志異常檢測實際是序列預測任務[17],本節根據日志結構特點,結合CNN 和Bi-LSTM 模型的優勢構建CNN-BiLSTM模型應用于日志異常檢測。

圖3 日志異常檢測流程Fig.3 Procedure of log anomaly detection

3.1 模型結構

CNN 和Bi-LSTM 存在兩種融合結構:一種是并行處理結構,兩種模型提取特征向量后,拼接融合輸入分類器;另一種是先CNN 后Bi-LSTM 或先Bi-LSTM 后CNN的串行處理結構,特征疊加到同一向量進行表達。選擇融合方式需要深入分析日志特征。

日志格式各不相同,但都是由源代碼輸出語句生成[18],如源代碼中的日志打印語句為printf("Accepted password for %s from %s port %d ssh2 ",user,host,port),意圖打印使用安全外殼協議ssh2 從訪問主機名、IP 地址、端口接收到密碼,就會生成如Feb 28 04:48:54 combo sshd(pam_unix)[6741]:Accepted password for root from 112.64.243.186 port 2371 ssh2 的日志記錄,其中源代碼生成的固定內容稱為日志鍵或日志常量,隨系統狀態變化而生成的變量稱為日志參數,同一源代碼生成的日志記錄為相同類型。日志的基本特征可總結如下:

1)日志是具有一定格式的文本數據,日志內容可以分為常量的日志鍵以及變量的日志參數。

2)日志鍵決定日志生成順序,且由于部分任務時間跨度長、并發或并行執行的原因,其在較長的時間維度上與前后日志條目存在較強的相關性。

3)同一日志條目內日志參數之間存在關聯意義,不同日志條目之間的日志參數相關性較弱。

由上分析可知,日志鍵和日志參數特征存在較大的差異,需要分別處理。一方面,在并聯結構中,并行處理不僅有利于提高處理效率,而且卷積和循環神經結構互不影響,能夠使特征向量更純粹地表達日志鍵的長距離序列特征或日志參數的短距離特征信息;另一方面,在串聯結構中,日志鍵特征向量經過CNN 卷積結構后,只能保留卷積窗口長度內的時間序列特征,日志參數特征向量經過Bi-LSTM 后也會受到冗余的長距離依賴關系的影響,不利于短距離上的空間特征表達[19-20],而且較深的網絡結構也不利于日志淺層特征的表達。綜上,選擇并行的模型結構更有利于日志鍵和日志參數的特征表達。

CNN-BiLSTM 模型結構如圖4 所示,其主要由詞嵌入層、卷積-循環層、特征融合層、分類層四部分組成。模型主要參數如表2 所示。

圖4 CNN-BiLSTM 模型結構Fig.4 CNN-BiLSTM model structure

表2 CNN-BiLSTM 參數設置Table 2 CNN-BiLSTM parameters setting

詞嵌入層將解析后的日志鍵和日志參數通過Word2Vec 映射為向量矩陣,即將切分后的日志鍵和日志參數中的詞組映射為具有固定長度L的一列向量,則單個日志條目映射為N×L大小向量矩陣。在CNN-BiLSTM 模型實驗中,詞嵌入層輸出維度為50,即一條日志鍵或日志參數經詞嵌入層映射為10×50 的向量矩陣作為卷積-循環層輸入。

卷積-循環層使用卷積神經網絡提取日志參數的短距離序列特征,同時使用循環神經網絡提取日志鍵的時間序列特征。CNN-BiLSTM 模型卷積神經網絡使用寬為3、4 的卷積窗口各50 個,且卷積步長為2。為得到區分度明顯的特征,使用全局最大池化,單個日志條目經過最大池化層后得到長度為50 的輸出向量。雙向循環神經網絡隱層神經元各為25,即得到蘊含時間特征信息長度為50 的特征向量。

特征融合層主要是拼接卷積-循環層得到的兩種特征向量,并且為增強特征融合度和模型擬合能力,連接兩層使用tanh 激活函數的全連接神經網絡。根據卷積-循環層的輸出,CNN-BiLSTM 模型特征向量融合后會得到1×100 的融合特征向量。

分類層使用softmax 函數,給予預測序列概率分布判斷日志異常與否。在測試階段,當實際日志序列與分布概率最高的預測日志序列不同,即判斷為異常。

模型使用Adam 優化器,學習率為1e-5。為進行正則化和防止過擬合,全局使用值為0.5的5層Dropout。

3.2 復雜度分析

由于卷積神經網絡主要操作時間為各個卷積層上的卷積窗口滑動時間,層內相乘,層間累加,因此卷積神經網絡時間復雜度定義為其中:D是卷積層數;l是第l個卷積層;m是輸入向量維度;k是卷積步長;s是卷積核滑動維度;C是通道數即卷積核個數。CNN-BiLSTM 模型中使用兩種規格的卷積核各50 個,且窗口只進行一維滑動,因此,時間復雜度為

循環神經網絡主要操作時間是輸入向量在各個隱藏單元之間的映射運算時間,因為每個單元都與其他單元之間存在映射關系,所以循環神經網絡時間復雜度定義為O(nd2),其中:n為序列操作次數;d為隱藏單元數。CNN-BiLSTM 模型使用兩層全連接層實現模型特征融合,由于全連接層實現線性映射運算,因此全連接層時間復雜度為O(f1?f2+f2?f3+f3?1),其中:f1是輸入向量長度;f2、f3是全連接層神經元數。對于問題規模f=f1,各層神經元個數為常量,則時間復雜度為O(f)。

根據以上分析可知,CNN-BiLSTM 模型中卷積和循環為并行結構,全連接層映射為串行結構,因此,CNN-BiLSTM 模型整體時間復雜度為

相對 于CNN 和LSTM 模型,CNN-BiLSTM模型在兼顧兩種模型優勢的同時,其時間復雜度并未有較高提升,而是于合理時間范疇內趨于卷積和循環結構中較高的時間復雜度。關于CNN-BiLSTM 模型的空間復雜度,考慮到目前系統較高的硬件性能與計算能力,本文不作分析。

4 實驗驗證與分析

本節對CNN-BiLSTM 深度學習模型應用于日志異常檢測的性能進行驗證。實驗以主流用于日志異常檢測的CNN 和Bi-LSTM 深度學習模型為基準模型,并使用HDFS 和WC_day13 兩個數據集作為實驗數據集,以驗證CNN-BiLSTM 模型的準確率和普適性。實驗所涉及深度學習模型均基于編程框架keras 實現。

4.1 數據集分析與處理

實驗使用從Amazon EC2 平臺收集的公開Hadoop 日志的HDFS 數據集,以及包含1998 年世界杯賽官網92 天訪問信息的WC98_day 公開日志數據集。

HDFS 日志數據集通過200 多個Amazon EC2 節點上運行的基于Hadoop 的map-reduce 作業生成,共包含11 175 629 條日志信息,信息包括時間(年月日、時分秒)、源IP、數據大小等字段,根據Block 操作碼可以劃分為575 062 組操作序列,其中2.9% 被Hadoop 領域相關專家標記為異常,類型包括寫入異常等事件,常用于在線主成分分析研究使用[21],后被研究者應用于日志異常識別的深度學習模型訓練。

在HDFS 數據預處理過程中,首先刪除重復、空白數據,原11 175 629 條日志信息余11 173 720 條日志信息,之后基于標點符號、空格信息,利用正則表達式解析日志鍵和日志參數以及Block 標簽信息,并刪除不存在區分度的INFO、dfs、數字等字段,然后根據Block 標簽信息對應日志鍵和日志參數。

WC98_day 數據集用以驗證CNN-BiLSTM 模型的普適性,數據收集1998 年4 月26 日—1998 年7 月26 日的92 天世界杯期間賽事官網的1 352 804 107 次請求信息,數據記錄包括時間、用戶臨時ID、登錄協議、登錄狀態碼、登錄詳情等信息,其中約10%為異常日志。

4.2 評價方法與指標

為避免出現測試數據中預測樣本數據全為正常以致高準確率的現象,實驗選用準確率AAccurary、查準率PPrecision、召回率RRecall和F1值4個指標[22],計算公式如下:

其中:NALL是總樣本數;T是預測正確的樣本數;TP是正常且預測為正常的樣本數;FP是正常預測為異常的樣本數;FN是異常預測為正常的樣本數。

準確率可以直觀體現模型的準確性。查準率和召回率可以反映模型是否處于過擬合狀態:查準率較低說明模型偏向于輸出異常標簽,召回率較低說明模型偏向于輸出正常標簽;F1 值則綜合反映查準率和召回率兩個指標,其值越高說明模型擬合效果越好。

4.3 實驗分析

本節進行3 組對比實驗,驗證CNN-BiLSTM 深度學習模型檢測異常日志能力:基于HDFS 數據集對比SVM、CNN-BiLSTM、CNN 和Bi-LSTM 模型檢測效果的實驗;基于WC98_day 數據集的檢驗CNNBiLSTM、CNN 和Bi-LSTM 模型普適性的對比實驗;基于HDFS 數據集的CNN-BiLSTM 模型消融實驗。

實驗1基于HDFS 數據集對比SVM、CNNBiLSTM、CNN 和Bi-LSTM 模型檢測效果。通過檢測HDSF 日志數據集中的異常日志,并對比常用于海量日志異常檢測的兩種深度學習模型CNN 和Bi-LSTM,衡量CNN-BiLSTM 深度學習模型的檢測能力。HDFS 數據集中60%用于訓練數據,其他40%作為測試數據。考慮到數據不平衡問題,實驗過程中調試class_weight 設置為正常∶異常=0.930 9∶0.069 1 時,模型訓練效果較好。

為更客觀地衡量CNN-BiLSTM 模型檢測能力,如表3 所示,CNN 和Bi-LSTM 各模型超參數分別與CNN-BiLSTM 模型卷積和循環結構超參數相同,且輸入是Word2Vec 編碼后的相同詞向量,模型后同樣連接兩層全連接神經網絡。

表3 對比模型參數Table 3 Comparison model parameters

訓練使用K折交叉驗證方法,K值為5,最終得到各模型平均準確率、查準率、召回率、F1值指標如表4 所示。

表4 5 折交叉實驗結果對比Table 4 Comparison of 5-fold crossover experiment results

將4 種模型用于測試數據進行對比分析,結果如圖5 所示。可以看出,在超參數相同的情況下,CNN-BiLSTM 深度學習模型較單個CNN、傳統SVM方法準確率約提高0.14,其查準率和F1 值也處于領先水平,這說明CNN-BiLSTM 深度學習模型兼顧CNN 和Bi-LSTM 模型優勢,對比單核模型,性能提升顯著。但其召回率低于最高水平Bi-LSTM 模型約0.11,低于模型本身查準率約0.15,這是由于數據集中正常數據遠多于異常數據造成的影響,由此可見,訓練過程中CNN-BiLSTM 相比于對比模型更容易受到數據集不平衡的影響,更傾向于將異常樣本預測為正常樣本。

圖5 HDFS 日志異常檢測結果Fig.5 HDFS log anomaly detection result

實驗2基于WC98_day數據集檢驗CNN-BiLSTM、CNN 和Bi-LSTM 模型的普適性,以及使用欠采樣方法解決數據不平衡問題的對比實驗。CNN-BiL‐STM、CNN、Bi-LSTM 三種深度學習模型在保證公共超參數相同的情況下,在WC98_day 日志數據集上進行異常檢測實驗。數據集中欠采樣正常和異常數據各100 000 條,其中60%作為訓練數據,40%作為測試數據,class_weight 參數調整為正常∶異常=0.5∶0.5,得到各模型準確率、查準率、召回率、F1 值指標如圖6 所示。

圖6 WC98_day 日志異常檢測結果Fig.6 WC98_day log abnormal detection result

由實驗結果分析可知,從HDFS 數據集至WC98_day數據集的模型遷移實驗中,CNN-BiLSTM 模型依然保持較高的性能優勢,其準確率、召回率、F1 值三個指標分別高于次優模型CNN 為約0.04、0.05、0.01,同時模型自身召回率低于查準率0.04,但遠低于實驗1 中15%的差值,這說明過采樣、欠采樣等這類調整數據數量但不豐富數據特征的方法,能夠在一定程度上解決數據集不平衡問題。

此外,對比HDFS 和WC_98day 兩個數據集上3 個模型的實驗結果,結果表明,CNN 和CNNBiLSTM 模型在WC98_day 數據集的上準確率高于HDFS 數據集,WC98_day 相比于HDFS 數據集包含更多的文本文字特征,而HDFS 數據集日志參數包含更多的數值特征,由此可見,CNN 和CNN-BiLSTM模型更擅長提取文本特征,HDFS 數據集上的檢測效果受到丟棄的數值特征影響而降低。

實驗3基于HDFS 數據集的CNN-BiLSTM 模型消融實驗。在不影響CNN-BiLSTM 模型提取日志空間和時間序列特征能力的情況下,通過消融CNN-BiLSTM 深度學習模型部分結構,研究其對于模型的價值:

1)消融CNN-BiLSTM 模型詞嵌入層,將HDFS數據集中的訓練數據自然編碼后作為CNN-BiLSTM模型的輸入,實驗結果如圖7 所示。可以看出,詞向量CNN-BiLSTM 模型準確率、查準率、召回率、F1 值指標分別高于自然編碼CNN-BiLSTM 模型13%、8%、6%、13%,由此可見詞嵌入層對模型性能具有積極影響。根據訓練Loss(TrainLoss)和驗證Loss(ValLoss)變化趨勢,可以判斷詞向量CNN-BiLSTM模型在第6 次迭代就已經達到收斂平衡,而自然編碼CNN-BiLSTM 模型在第8 次達到收斂平衡,證明經過日志語料訓練Word2Vec 產生的詞向量相比于自然編碼更能凸顯日志語料特征,其在放大特征的同時亦保持良好語料間依賴關系,比較適合CNNBiLSTM 模型的輸入。

圖7 消融實驗結果(詞嵌入層)Fig.7 Ablation experiment result(word embedding layer)

2)消融CNN-BiLSTM 模型全連接層,分別設計兩層全連接層、無全連接層、四層全連接層3 種CNN-BiLSTM 模型,根據Loss 判斷其對模型收斂速度的影響,實驗結果如圖8 所示。可以看出,2 層全連接網絡CNN-BiLSTM 模型在第6 次迭代達到全局收斂,而無全連接層的CNN-BiLSTM 模型在第11 次迭代達到收斂,4 層全連接層在第7 次迭代會產生過擬合問題,且含有2 層全連接層網絡的CNN-BiLSTM深度學習模型準確率為0.91,高于無全連接網絡模型0.83 的準確率。實驗結果表明,合適的全連接網絡層數能夠提高模型的擬合能力與特征表達能力,且在一定程度上促進日志鍵時序特征與日志參數空間特征產生融合關系,而添加過深的全連接層網絡,容易在訓練過程中產生過擬合問題。

圖8 消融實驗結果(全連接層)Fig.8 Ablation experiment result(fully connected layer)

以上3 組實驗結果表明,對比同等深度學習模型,CNN-BiLSTM 深度學習模型在針對日志異常檢測任務中,不僅能夠提取日志時間和空間序列特征,達到領先的檢測水準,而且通過遷移模型至另一數據集的實驗證明,其在普適性方面優于單核模型,并在保證一定檢測能力的情況下,基本不需要特征工程工作,降低工作量的優勢明顯。另一方面,根據CNN-BiLSTM 模型兩種數據集的不同檢測效果對比,亦說明CNN-BiLSTM 模型比較適用于文本特征的學習與檢測。

5 結束語

本文結合CNN和Bi-LSTM構建雙核CNN-BiLSTM模型用于完成日志異常檢測任務,解決海量日志異常檢測模型普適性差、準確率低等問題。實驗結果表明,CNN-BiLSTM 模型相比于CNN 和Bi-LSTM模型,準確率、查準率、召回率和F1 值指標均有不同程度的提升,能夠在提高準確率的同時降低誤報率。后續將針對數據集不平衡使模型預測產生偏向的問題,從訓練數據角度進一步提高CNN-BiLSTM 模型性能,同時結合具體工作場景,在CNN-BiLSTM模型的基礎上研究多核模型在多源日志融合檢測方面的適用性,提高模型輔助解決系統異常問題的能力。

猜你喜歡
特征實驗檢測
記一次有趣的實驗
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
如何表達“特征”
做個怪怪長實驗
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
NO與NO2相互轉化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
主站蜘蛛池模板: 亚洲无线视频| 日本黄色不卡视频| 1024你懂的国产精品| 91精品久久久久久无码人妻| 国产精品三级专区| 性视频一区| 五月天婷婷网亚洲综合在线| 久久婷婷国产综合尤物精品| 午夜免费小视频| 婷婷六月在线| 国产欧美日韩在线一区| 亚州AV秘 一区二区三区| 无码AV高清毛片中国一级毛片| 国产精品自在拍首页视频8| 日日拍夜夜操| yjizz国产在线视频网| 免费国产福利| 日韩成人高清无码| 在线观看国产精品第一区免费| 热这里只有精品国产热门精品| 丝袜国产一区| 中文字幕在线日韩91| 国产精品久久自在自2021| 扒开粉嫩的小缝隙喷白浆视频| 午夜爽爽视频| 亚洲人成电影在线播放| 2020久久国产综合精品swag| 国产精品浪潮Av| 欧美日韩第三页| 97精品国产高清久久久久蜜芽| 亚洲欧美国产视频| 91外围女在线观看| 久久婷婷人人澡人人爱91| 国产一级α片| 999精品视频在线| 久久亚洲国产一区二区| 国产原创第一页在线观看| 一级在线毛片| 91精品专区| 国产成人精品2021欧美日韩| 国产波多野结衣中文在线播放| 综合色婷婷| 国产91视频观看| 亚洲成人动漫在线观看| 99精品国产电影| 亚洲欧美激情另类| 成人福利在线视频免费观看| 美女无遮挡拍拍拍免费视频| 国产美女免费| av手机版在线播放| 69国产精品视频免费| 欧美一区二区精品久久久| 久久久久久高潮白浆| jizz在线观看| 国内精品自在欧美一区| 精品人妻系列无码专区久久| 国产福利小视频在线播放观看| 狠狠干综合| 在线观看热码亚洲av每日更新| 亚洲三级色| 亚洲va在线∨a天堂va欧美va| 欧美精品H在线播放| 亚洲国产亚综合在线区| 久久永久免费人妻精品| 亚洲欧洲综合| 国产女人爽到高潮的免费视频| 性视频久久| 久久精品国产精品一区二区| 新SSS无码手机在线观看| 亚洲综合片| 成人精品免费视频| 亚洲天堂网视频| 夜夜操天天摸| 国产成人亚洲精品色欲AV| 成人精品视频一区二区在线| 日韩午夜福利在线观看| 欧美精品一区在线看| 日韩一级毛一欧美一国产| 婷婷亚洲最大| 色综合五月婷婷| 色婷婷成人| 日韩无码真实干出血视频|