郭旭萍,劉小芳,姚 蕊
(四川輕化工大學(xué) 計(jì)算機(jī)科學(xué)與工程學(xué)院,四川 宜賓 644000)
景區(qū)客流量預(yù)測(cè)常見(jiàn)的一種方式是利用差分自回歸移動(dòng)平均模型(ARIMA)進(jìn)行預(yù)測(cè),吳祥彬等[1]建立的ARIMA 模型預(yù)測(cè)了某城市地鐵客流量變化的趨勢(shì)。然而,這種方法只適用于處理平穩(wěn)時(shí)間序列,對(duì)于非平穩(wěn)的景區(qū)客流量時(shí)間序列,ARIMA 在預(yù)測(cè)時(shí)會(huì)受到一些限制,尤其在處理非線性因素、異常值、長(zhǎng)期趨勢(shì)以及復(fù)雜季節(jié)性等方面。隨著技術(shù)的不斷發(fā)展,基于機(jī)器學(xué)習(xí)的時(shí)間序列預(yù)測(cè)方法逐漸興起。陳昆等[2]提出一種ARIMA 與支持向量機(jī)(SVM)的組合模型對(duì)道路斷面交通流量進(jìn)行預(yù)測(cè)。然而,機(jī)器學(xué)習(xí)方法需要手動(dòng)設(shè)計(jì)和選擇適當(dāng)?shù)奶卣鳎以诓蹲綍r(shí)間序列數(shù)據(jù)中的長(zhǎng)期依賴(lài)關(guān)系方面存在一定困難。
基于深度學(xué)習(xí)的時(shí)間序列預(yù)測(cè)模型應(yīng)運(yùn)而生。這些模型中,循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)發(fā)揮了重要作用,特別是其變體--長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)(Long Short-Term Memory,LSTM)[3],在處理傳統(tǒng)RNN 中的梯度消失與梯度爆炸問(wèn)題方面表現(xiàn)出色。Bi 等[4]提出基于LSTM 的方法并用于黃山等旅游景區(qū)的客流量預(yù)測(cè)。然而,單一的LSTM 單元可能會(huì)面臨梯度消失問(wèn)題。卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)能夠通過(guò)不同大小的卷積核捕獲多尺度的特征,從而減少梯度消失的情況,與LSTM 結(jié)合后能夠應(yīng)用于許多場(chǎng)景,例如,在情感分析、實(shí)體識(shí)別和行為預(yù)測(cè)等領(lǐng)域[5-7]。在時(shí)間序列預(yù)測(cè)領(lǐng)域,應(yīng)用范圍更加廣泛。張文棟等[8]提出了一種綜合CNNLSTM 模型,用于提取與電力、空調(diào)和供暖等耦合特性相關(guān)的特征,提高了預(yù)測(cè)整體能源生成系統(tǒng)中負(fù)荷的準(zhǔn)確性。
但CNN 與LSTM 融合后,仍然存在一些問(wèn)題。例如,模型對(duì)原始數(shù)據(jù)特征的提取不夠精細(xì)。為了解決這些問(wèn)題,引入了時(shí)空歸一化模塊(Spatial and Temporal Normalization,ST-Norm)[9]。該模塊的引入能夠?qū)土髁繑?shù)據(jù)的高頻分量與局部分量進(jìn)行細(xì)化,加強(qiáng)數(shù)據(jù)特征的提取,同時(shí)更好地捕捉過(guò)去時(shí)間頻次對(duì)客流量的影響。通過(guò)將深度學(xué)習(xí)中的雙向長(zhǎng)短期記憶網(wǎng)絡(luò)(Bidirectional Long Short-Term Memory,BILSTM)[10]與CNN 相結(jié)合,并且引入注意力機(jī)制(AM)以提升預(yù)測(cè)精度,建立了一種新的景區(qū)客流量預(yù)測(cè)模型SCBANet,后續(xù)通過(guò)實(shí)驗(yàn)驗(yàn)證了模型的有效性。
SCBANet 模型包含ST-Norm、CNN、BILSTM、AM機(jī)制,模型框架結(jié)構(gòu)如圖1 所示。

ST-Norm 是一種新穎的時(shí)間歸一化和空間歸一化方法,可以從原始時(shí)間序列數(shù)據(jù)中提取高頻分量和局部分量,以此作為特征輸入到模型中,增強(qiáng)模型對(duì)序列數(shù)據(jù)的理解和泛化能力。CNN 有很好的特征提取能力,在特征提取中一直得到廣泛應(yīng)用。BILSTM 能夠全面捕捉上下文信息,在時(shí)間序列預(yù)測(cè)中得到了廣泛應(yīng)用。AM 能夠把時(shí)間序列數(shù)據(jù)過(guò)去的特征狀態(tài)加入到輸出結(jié)果中,更好地調(diào)整BILSTM 預(yù)測(cè)后的結(jié)果。綜上,本文建立了SCBANet 客流量預(yù)測(cè)模型。
時(shí)空歸一化機(jī)制包含時(shí)間歸一化與空間歸一化機(jī)制。時(shí)間歸一化(Time Normalization,TN)的目的是從輸入的客流量數(shù)據(jù)中準(zhǔn)確提取其高頻分量,景區(qū)客流量數(shù)據(jù)的高頻分量指的是客流量數(shù)據(jù)中包含的變化頻率較高的部分,它表示了客流量數(shù)據(jù)中快速變動(dòng)的部分,通常對(duì)應(yīng)于較短時(shí)間尺度上的波動(dòng)或噪聲。客流量數(shù)據(jù)的高頻分量計(jì)算如下:
式中,Zi,t表示全局與局部高低頻分量的乘積;表示在時(shí)間t 下第i 個(gè)樣本的輸入特征;表示在時(shí)間t 下第i 個(gè)樣本的局部低頻特征;E 表示取均值;σ表示標(biāo)準(zhǔn)差;是一個(gè)保持?jǐn)?shù)值穩(wěn)定性的小常數(shù);與分別是針對(duì)高頻分量的可學(xué)習(xí)參數(shù),用于對(duì)客流量數(shù)據(jù)的高頻分量進(jìn)行縮放和偏移,以便更好地保留和表達(dá)高頻特征。
空間歸一化(Spatial Normalization,SN)的目標(biāo)是細(xì)化景區(qū)客流量數(shù)據(jù)的局部分量,客流量數(shù)據(jù)的局部分量指的是客流量特定時(shí)間段內(nèi)的局部特征或?qū)傩裕菍?duì)客流量數(shù)據(jù)在不同時(shí)間段的局部變化進(jìn)行描述和分析的方法。通過(guò)分析局部分量,可以更好地理解客流量數(shù)據(jù)在不同時(shí)間段內(nèi)的趨勢(shì)、周期性、季節(jié)性以及其他特征。客流量數(shù)據(jù)的局部分量計(jì)算如下:
卷積神經(jīng)網(wǎng)絡(luò)是包含卷積運(yùn)算的一種特殊前饋神經(jīng)網(wǎng)絡(luò)。卷積神經(jīng)網(wǎng)絡(luò)一般由卷積層、池化層和全連接層構(gòu)成。前一層的輸出是后一層的輸入,前面幾層每一層進(jìn)行卷積(convolution)運(yùn)算或者池化(pooling)運(yùn)算,卷積實(shí)現(xiàn)特征檢測(cè),池化實(shí)現(xiàn)特征選擇。最后幾層是全連接的前饋神經(jīng)網(wǎng)絡(luò),進(jìn)行回歸預(yù)測(cè),經(jīng)過(guò)多次實(shí)驗(yàn)后,使用1D-CNN 的卷積層與池化層來(lái)提取景區(qū)客流量的局部特征信息。
卷積層通過(guò)應(yīng)用一系列可學(xué)習(xí)的濾波器(也稱(chēng)為卷積核)對(duì)輸入數(shù)據(jù)進(jìn)行卷積操作,從而提取輸入數(shù)據(jù)的局部特征,其卷積運(yùn)算過(guò)程如下:
式中,Ct是卷積后的輸出值,f 是激活函數(shù),這里使用ReLU 作為激活函數(shù),Xt是輸入向量,Wt是卷積核的權(quán)重矩陣,bt為卷積核的偏置。
池化層用于減少特征映射的空間尺寸,并保留重要的特征信息,選用最大池化方法,其公式表示為
LSTM 是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò),具有記憶能力和門(mén)控機(jī)制且適用于處理序列數(shù)據(jù)。傳統(tǒng)的RNN 在處理長(zhǎng)序列時(shí)容易出現(xiàn)梯度消失或梯度爆炸問(wèn)題,導(dǎo)致難以捕捉長(zhǎng)期依賴(lài)關(guān)系,而LSTM 通過(guò)引入門(mén)控機(jī)制,可以有效地維護(hù)和更新記憶狀態(tài),從而更好地處理長(zhǎng)期依賴(lài)問(wèn)題,并且LSTM 可以對(duì)輸入和輸出的門(mén)控進(jìn)行控制,使得模型能夠更靈活地控制信息的傳遞,適應(yīng)不同任務(wù)的需求,所以LSTM 在處理復(fù)雜序列時(shí)比傳統(tǒng)的RNN 表現(xiàn)更優(yōu),其單元結(jié)構(gòu)如圖2 所示。LSTM 的門(mén)控結(jié)構(gòu)組成具體包括遺忘門(mén)、輸入門(mén)和輸出門(mén)。

圖2 LSTM 單元結(jié)構(gòu)圖
LSTM 單元細(xì)胞更新過(guò)程如下:
1)決定從細(xì)胞狀態(tài)中丟棄哪些信息。這個(gè)決定是由一個(gè)稱(chēng)為“遺忘門(mén)層”的sigmoid 層做出的,會(huì)輸出一個(gè)介于0 和1 之間的數(shù)字,1 表示“完全保留此內(nèi)容”,0 表示“完全遺忘此內(nèi)容”,遺忘門(mén)的輸出結(jié)果由
所得式中,xt為t 時(shí)刻的輸入值;ht?1為t-1 時(shí)刻的細(xì)胞單元狀態(tài);bf為偏置項(xiàng);Wf為參數(shù)矩陣。
2)決定將在單元格狀態(tài)中存儲(chǔ)哪些新信息。分為兩部分:首先,輸入門(mén)中的sigmoid 層決定將更新哪些it;接下來(lái),tanh 層創(chuàng)建一個(gè)新候選值的向量并添加到狀態(tài)中。過(guò)程如下:
3)更新舊的細(xì)胞狀態(tài)Ct?1,進(jìn)入新的單元格狀態(tài)Ct,式中:ft與it分別表示遺忘門(mén)與輸入門(mén)的計(jì)算結(jié)果,計(jì)算公式為
4)基于單元格狀態(tài)決定輸出什么,輸出門(mén)的sigmoid 層決定輸出部分ot,然后把ot乘tanh(Ct),即可得到輸出ht,即
BILSTM 結(jié)構(gòu)是LSTM 的一種變種,它在LSTM 的基礎(chǔ)上增加了一個(gè)關(guān)鍵的特性,即雙向信息傳遞,從而可以更好地捕捉景區(qū)客流量數(shù)據(jù)的上下文信息,使得預(yù)測(cè)更精準(zhǔn)。
注意力機(jī)制是一種用于增強(qiáng)神經(jīng)網(wǎng)絡(luò)模型在處理序列數(shù)據(jù)時(shí)的能力的技術(shù)[11],其思想類(lèi)似于人類(lèi)在處理信息時(shí)的注意力機(jī)制:對(duì)于復(fù)雜的任務(wù),會(huì)更加關(guān)注與當(dāng)前任務(wù)相關(guān)的信息,而忽略無(wú)關(guān)緊要的信息。在神經(jīng)網(wǎng)絡(luò)中,注意力機(jī)制允許模型自動(dòng)學(xué)習(xí)對(duì)于當(dāng)前時(shí)刻最重要的輸入信息,使其能夠更有針對(duì)性地處理序列數(shù)據(jù)。AM 的計(jì)算過(guò)程分為三個(gè)階段:
1)計(jì)算查詢(xún)(輸出特征)與鍵(輸入特征)的相關(guān)性,公式為
式中,t={1,2,…,N},Wh是注意力機(jī)制的權(quán)重,ht是輸入向量,bh是注意力機(jī)制的偏置項(xiàng),其中Wh和bh在每層中都共享權(quán)重。
2)將上式結(jié)果歸一化,并使用Softmax 函數(shù)轉(zhuǎn)換成注意力得分at,
式中v 為可學(xué)習(xí)的參數(shù)向量,一般長(zhǎng)度固定。
3)對(duì)at值加權(quán)后得到最終關(guān)注值s,
首先,將獲取到的有關(guān)九寨溝景區(qū)2020 年上半年至2023 年上半年近三年的景區(qū)季節(jié)、溫度、風(fēng)速、客流量等數(shù)據(jù)進(jìn)行預(yù)處理[12],編碼后使用本模型進(jìn)行預(yù)測(cè);其次,使用不同的主流模型進(jìn)行實(shí)驗(yàn);最后通過(guò)評(píng)價(jià)指標(biāo)來(lái)驗(yàn)證本論文所提出模型的優(yōu)越性。
實(shí)驗(yàn)所需的日客流量數(shù)據(jù)采集自九寨溝景區(qū)官網(wǎng)每日公布的進(jìn)溝人數(shù)。采集的影響因素?cái)?shù)據(jù)包括季節(jié)、星期、最高溫度、最低溫度、天氣以及風(fēng)速。由于影響因素?cái)?shù)據(jù)為文本數(shù)據(jù),不可直接輸入到深度學(xué)習(xí)模型中,因此對(duì)這些數(shù)據(jù)做量化處理,例如天氣數(shù)據(jù):晴天和多云編碼為1,陰天和小雨編碼為2,中雨和中雪則編碼為3,大暴雨和大暴雪等惡劣天氣編碼為4。之后創(chuàng)建一個(gè)包含歷史客流量和相應(yīng)影響因素的數(shù)據(jù)集,這個(gè)數(shù)據(jù)集可以用于訓(xùn)練和測(cè)試預(yù)測(cè)模型。
將時(shí)間步長(zhǎng)設(shè)置為1,滑動(dòng)窗口設(shè)置為7 來(lái)進(jìn)行樣本的提取,并按照8:1:1 將九寨溝景區(qū)客流量數(shù)據(jù)數(shù)據(jù)劃分為訓(xùn)練集、驗(yàn)證集與測(cè)試集。實(shí)驗(yàn)是基于Python3.6 實(shí)現(xiàn)的,使用Tensorflow 庫(kù)中的Keras 模塊,模塊構(gòu)建方式為順序邏輯。將訓(xùn)練的epoch 設(shè)置為10,batch_size 設(shè)置為24,模型的優(yōu)化器使用Adam,模型的損失函數(shù)使用MSE,
評(píng)價(jià)標(biāo)準(zhǔn)對(duì)于理解模型的表現(xiàn)、對(duì)比不同模型或算法的效果,以及優(yōu)化模型的重要性至關(guān)重要。實(shí)驗(yàn)使用3 個(gè)評(píng)價(jià)指標(biāo),下面各式中:表示客流量預(yù)測(cè)值,yi表示客流量實(shí)際觀測(cè)值,n 表示客流量樣本數(shù)量。
(1)均方根誤差(RMSE)是預(yù)測(cè)值與真實(shí)值之間差異的平方和的平均值的平方根,用于衡量預(yù)測(cè)值與真實(shí)值之間的整體誤差,公式為
(2)平均絕對(duì)誤差(MAE)是預(yù)測(cè)值與真實(shí)值之間差異的絕對(duì)值的平均值,用于衡量預(yù)測(cè)值與真實(shí)值之間的平均誤差,公式為
(3)平均絕對(duì)百分比誤差(MAPE)是預(yù)測(cè)值與真實(shí)值之間差異的絕對(duì)百分比的平均值。它用于衡量預(yù)測(cè)值與真實(shí)值之間的平均百分比誤差,公式為
為了找到最佳的模型參數(shù)組合,在實(shí)驗(yàn)中對(duì)相關(guān)參數(shù)進(jìn)行了調(diào)整和選擇。
(1)LSTM 層的單元數(shù)
LSTM 層是模型的核心組件之一,它負(fù)責(zé)捕捉序列中的時(shí)間依賴(lài)關(guān)系。為了研究LSTM 層單元數(shù)對(duì)模型性能的影響,分別嘗試了不同的單元數(shù),包括32、64和128。其中,較小的單元數(shù)能夠減少模型的復(fù)雜性,而較大的單元數(shù)能夠增加模型的記憶容量。
(2)Dropout 率
Dropout 率是一種用于防止過(guò)擬合的正則化技術(shù),通過(guò)隨機(jī)地將一部分神經(jīng)元輸出置為0 來(lái)降低模型復(fù)雜性[13]。在實(shí)驗(yàn)中,嘗試使用不同的Dropout 率,包括0.2、0.3 和0.4,以研究Dropout 率對(duì)模型泛化能力的影響。
(3)卷積層參數(shù)
卷積層用于對(duì)輸入數(shù)據(jù)進(jìn)行初步特征提取,它的參數(shù)包括濾波器數(shù)目和卷積核大小。在實(shí)驗(yàn)中,嘗試了不同的濾波器數(shù)目和卷積核大小,例如濾波器數(shù)目為32 和64,卷積核大小為1 和3,以研究卷積層參數(shù)對(duì)模型性能的影響。
(4)學(xué)習(xí)率
學(xué)習(xí)率是控制模型參數(shù)更新的步長(zhǎng),較小的學(xué)習(xí)率可以使模型收斂得更穩(wěn)定,但訓(xùn)練時(shí)間可能較長(zhǎng)。在實(shí)驗(yàn)中,嘗試使用不同的學(xué)習(xí)率,包括0.001、0.01 和0.1,以尋找最佳的學(xué)習(xí)率。
(5)注意力機(jī)制參數(shù)
注意力機(jī)制在模型中起到了重要作用,它能夠自動(dòng)學(xué)習(xí)序列中不同時(shí)間步之間的重要性。在實(shí)驗(yàn)中,對(duì)注意力機(jī)制的參數(shù)進(jìn)行了調(diào)整,包括注意力層中的神經(jīng)元數(shù)目和激活函數(shù)的選擇。
綜上考慮,使用網(wǎng)格搜索的方法,通過(guò)指定參數(shù)的取值范圍,在給定的參數(shù)組合中進(jìn)行窮舉搜索,計(jì)算每組參數(shù)的損失函數(shù)值,最后選擇具有最佳性能的參數(shù)組合作為最優(yōu)模型。最終的模型參數(shù)選擇如表1 所示。

表1 模型參數(shù)
SCBANet 模型訓(xùn)練流程如圖3 所示,主要包含5個(gè)步驟:

圖3 SCBANet 模型訓(xùn)練流程圖
1)對(duì)輸入的時(shí)間序列進(jìn)行時(shí)空歸一化,對(duì)數(shù)據(jù)進(jìn)行預(yù)處理步驟,以便輸入到后續(xù)的網(wǎng)絡(luò)模型。
2)經(jīng)過(guò)歸一化后,時(shí)間序列被輸入到卷積神經(jīng)網(wǎng)絡(luò)中提取空間上的特征,捕捉時(shí)間序列中的局部模式和重要特征。
3)CNN 的輸出被輸入到BILSTM 中,通過(guò)前向和反向兩個(gè)LSTM 層,捕捉時(shí)間序列中的長(zhǎng)期依賴(lài)關(guān)系和時(shí)間相關(guān)性。
4)在BILSTM 的輸出上,引入注意力機(jī)制來(lái)進(jìn)一步提升預(yù)測(cè)性能。
5)經(jīng)過(guò)注意力機(jī)制的處理,得到的特征被輸入到輸出層進(jìn)行景區(qū)客流量的預(yù)測(cè)。
通過(guò)以上步驟,SCBANet 模型可以高效地從輸入的時(shí)間序列中提取特征,并通過(guò)雙向LSTM 和注意力機(jī)制進(jìn)行有效的預(yù)測(cè)。這使得該模型在客流量預(yù)測(cè)任務(wù)中表現(xiàn)出色。
為驗(yàn)證SCBANet 模型的有效性,進(jìn)行了一系列實(shí)驗(yàn)來(lái)比較其性能。在性能比較方面,選擇了一組基準(zhǔn)模型,包括ARIMA、SVM、RNN 和LSTM。此外,還進(jìn)行了消融實(shí)驗(yàn),通過(guò)與其他模型,如CNN、BILSTM、CNN+BILSTM 和CNN+BILSTM+AM 對(duì)比,來(lái)驗(yàn)證SCBANet模型中每個(gè)組成部分的有效性。
在基準(zhǔn)模型對(duì)比實(shí)驗(yàn)中,將SCBANet 模型與經(jīng)典的線性模型ARIMA、機(jī)器學(xué)習(xí)方法SVM、以及深度學(xué)習(xí)方法RNN、LSTM 進(jìn)行對(duì)比,可以充分驗(yàn)證其有效性。本實(shí)驗(yàn)將采用3.2 節(jié)所述均方根誤差(RMSE)、平均絕對(duì)誤差(MAE)、平均絕對(duì)百分比誤差(MAPE)評(píng)價(jià)指標(biāo)來(lái)評(píng)估SCBANet 模型性能。基準(zhǔn)模型實(shí)驗(yàn)對(duì)比如表2 所示。

表2 基準(zhǔn)模型實(shí)驗(yàn)對(duì)比
表2 顯示了3 種不同歷史時(shí)間窗口的基準(zhǔn)模型預(yù)測(cè)結(jié)果,將每個(gè)時(shí)間窗口的最優(yōu)結(jié)果加粗突出顯示。ARIMA 和SVM 受到線性關(guān)系的限制,無(wú)法捕捉到數(shù)據(jù)中的復(fù)雜非線性模式,從而導(dǎo)致預(yù)測(cè)的不準(zhǔn)確性,所以誤差與其他模型相比是最大的。RNN 和LSTM 都是循環(huán)神經(jīng)網(wǎng)絡(luò)模型,但是其性能隨著回溯窗口大小的增加而惡化或保持穩(wěn)定,而SCBANet 模型可以通過(guò)各個(gè)組件的綜合能力來(lái)獲取學(xué)習(xí)特征并且更好地進(jìn)行預(yù)測(cè)。從表2 中可以看到:SCBANet 模型表現(xiàn)的性能最好,并且隨著回溯窗口的增大,預(yù)測(cè)結(jié)果更好。在3 個(gè)評(píng)價(jià)指標(biāo)中,MAPE 的變化最為明顯,在預(yù)測(cè)未來(lái)一個(gè)月的周期中,SCBANet 比ARIMA(16.7 比1.01)下降93.95%,比SVM(31.4 比1.01)下降96.78%,比RNN(17.4 比1.01)下 降95.23%,比LSTM(42.5 比1.01)下 降97.63%。
消融實(shí)驗(yàn)通過(guò)逐步剔除或削弱系統(tǒng)中的組件或特性,評(píng)估它們對(duì)整體性能的影響,并揭示關(guān)鍵因素與系統(tǒng)工作原理。在人工智能領(lǐng)域,該方法常用于評(píng)估模型性能與魯棒性,幫助確認(rèn)重要組件并優(yōu)化系統(tǒng)設(shè)計(jì)。將SCBANet 模型的預(yù)測(cè)結(jié)果分別與CNN、BILSTM、CNN+BILSTM、CNN+BILSTM+AM 進(jìn)行比較,驗(yàn)證每一部分的有效性。消融實(shí)驗(yàn)結(jié)果對(duì)比如表3 所示。

表3 消融實(shí)驗(yàn)結(jié)果對(duì)比
從表3 中可以看到:CNN 的誤差結(jié)果最大,SCBANet 模型的各種誤差結(jié)果最小。在這5 種方法中,SCBANet 模型的性能表現(xiàn)最好,其RMSE 為0.270,MAE 為0.194,MAPE 為2.01,與引入AM 機(jī)制的CNN-BILSTM 相比,RMSE 下降了45.2%,MAE 下降了47.6%,MAPE 下降了34.5%。因此,在這5 種方法中,SCBANet 模型最能精準(zhǔn)預(yù)測(cè)九寨溝景區(qū)短期客流量,為景區(qū)管理者做出正確的決策提供參考。
將九寨溝一個(gè)月的歷史客流量數(shù)據(jù)輸入到SCBANet 模型中,取得了令人滿(mǎn)意的預(yù)測(cè)效果。未來(lái)一周預(yù)測(cè)客流量的MAPE 值如圖4 所示。由圖4 可知,MAPE 值穩(wěn)定保持在4%以下,表明SCBANet 預(yù)測(cè)模型能夠準(zhǔn)確地預(yù)測(cè)景區(qū)的客流量變化。

圖4 預(yù)測(cè)客流量的MAPE
同時(shí),將預(yù)測(cè)未來(lái)一周的客流量繪制出來(lái),如圖5所示。從圖5 中可以較明顯地看出:預(yù)測(cè)結(jié)果與實(shí)際觀測(cè)值非常吻合,擬合效果非常出色,這進(jìn)一步證實(shí)了SCBANet 模型在九寨溝景區(qū)客流量短期預(yù)測(cè)方面的優(yōu)越性。

圖5 預(yù)測(cè)未來(lái)一周的客流量
綜上所述,提出的基于SCBANet 模型的九寨溝景區(qū)客流量短期預(yù)測(cè)模型,巧妙地綜合了ST-Norm、CNN、BILSTM 和AM,以實(shí)現(xiàn)更高效的模型性能。該模型的核心流程包括數(shù)據(jù)預(yù)處理、時(shí)空歸一化、CNN 特征融合、BILSTM 長(zhǎng)期依賴(lài)捕捉以及注意力機(jī)制。在九寨溝景區(qū)客流量數(shù)據(jù)上,對(duì)SCBANet 模型進(jìn)行了詳細(xì)驗(yàn)證。結(jié)果表明,本模型在各項(xiàng)評(píng)價(jià)指標(biāo)中均表現(xiàn)出色,其中最小RMSE 為0.211,最小MAE 為0.187,而最小MAPE 僅為1.01。與其他模型相比,本模型的誤差下降幅度高達(dá)97.63%。對(duì)未來(lái)一周客流量進(jìn)行預(yù)測(cè),其MAPE 值均保持在4%以下。這些結(jié)果充分表明,SCBANet 模型能高度準(zhǔn)確地預(yù)測(cè)景區(qū)的短期客流量,在實(shí)際中能提高九寨溝景區(qū)管理的科學(xué)性和效率,有助于改善游客體驗(yàn),保障景區(qū)生態(tài)環(huán)境,提高安全性,為九寨溝的可持續(xù)發(fā)展和管理提供了有力支持,同時(shí)也為客流量預(yù)測(cè)方法的研究和應(yīng)用提供了有益的示范。未來(lái),還將進(jìn)一步探索更多的融合方式,以進(jìn)一步提升預(yù)測(cè)精度。