中圖分類號:P426.6 文獻標志碼:A 文章編號:2095-2945(2025)14-0072-04
Abstract:Whenshort-termandimminentrainfallafectsthegenerationofrunoffandthedistributionofwaterresources, accurateforecastingcanbringhugeeconomicbenefitstorelevantdepartments.Inordertoimprovetheacuracyofheavyrainfal forecast,anLAFsshortimminentheavyrainfallforecastmethodbasedonLSTM-Atentioncombinedwiththeaumulatoris proposed.Themodelfirstusesacubicpolynomialinterpolationmethodtogridtheactualobservationelementsoftheground station;Thenthedataisextractedandfusedthroughtheaccumulator;Finaly,theobtainedfeaturefactorsareusedasinputsto themodelformodelprediction.ThreatscoreTSandmeansquareerorareselectedasindicatorstocomprehensivelyevaluatethe performanceof theproposedmodel,andcomparedwithLSTMandConvLSTM.Theresultsshowthattheperformanceof the proposed model is better than the other two models,and its TS score is 2% 業 3% higher than that of the other two models,and 5% (2 higherthantheactualoperationalforecastlevelinthesameregion,indicatingthattheproposedmodelhascertainpracticalvalue.
Keywords:longshort-termmemorynetwork (LSTM);atentionmechanism;feed-forwardnetwork;short-termimminentheavy precipitation; accumulator
短時強降水引發的山洪、城市內澇和地質災害已屢見不鮮,精準的降水預報對于防洪、水資源管理、空中交管以及能源管理有重要的戰略意義。然而,降水的發生是一個隨機、復雜的非線性氣象過程,對時空具有依賴性。近年來,基于機器學習方法的理論與實踐迅猛發展,相關算法被廣泛應用于降水預報中。在張鵬程等發表的基于多層感知器的動態區域聯合短時降水預報方法中,通過實驗證實深度神經網絡可以快速的從數據中學習主要特征規律。長短期時間記憶網絡(Long-Short TermMemory,LSTM對時序序列具有較好的記憶能力,且保留長期依賴的能力。注意力機制是一種可以有效獲取良好結果的機制,在長短期記憶網絡上加入注意力機制,通過對中間層神經元分配不同的概率權重,使模型更加關注對降水發生影響較大的信息,減少甚至忽略對降水預報影響較小信息的關注,緩解了模型因長序列信息關注不足的問題,并有效改善基礎模型的擬合能力。在Attentionallisyouneed一文中利用類似網絡,極大地改善了基礎模型的非線性擬合能力,提升模型的擬合效率。故而通過在注意力層加入類似前饋神經網絡,進一步提升注意力層對非線性信息的捕捉能力,進一步提升模型的擬合能力。
1結合預提器的LSTM-Attention的短臨強降水預報方法
1.1數據源及評估指標
1.1.1 數據源
研究對象為廣西區域的2843個站點未來1h的累計降水量。實驗數據為廣西境內2843個站點在逐1h 的實況資料和雷達資料數據,時間范圍為2016年1月至2020年6月數據。站點的實況數據有: 3h 變壓 ?24h 變壓 ?24h 變溫、露點溫度、相對濕度、海平面氣壓以及累計降水量;而雷達資料為廣西境內10部多普勒天氣雷達基數據。并選取2016—2019年共計4132條數據作為訓練集,2020年作為測試集共計1744條。
1.1.2 評估指標
本文將以威脅分數TS、均方誤差(Mean SquareError,MSE)虛警率(FalseAlarmRate,FAR)探測率(ProbabilityOfDetection,POD)作為綜合評價模型優劣的指標,具體公式如式(1)—式(4)所示,式(1)具體參數細節見表1,式(4)中 n 為數據量, yi 表示在第 i 條數據的真實值,
為在第 i 條數據的預測值。


注: NA 為預報正確站點數, NB 為空報站點數, NC 為漏報站點數, ND 為無強降水的預報正確站點數, T 為設置的降水閥值,本文設置T為 10mm?h-1.
1.2LAFs的短臨強降水預報方法
1.2.1 長短期時間記憶網絡
由Hochreiter和Schmidhuber在1997年提出RNN的變體形式LSTM,一定程度上解決了RNN在學習過程中因信息長期滯后的弊端,并拓展了RNN部分存儲單元,其巧妙的設計門控邏輯單元結構,控制整個網絡信息的取舍與傳遞。具體結構如圖1所示(其中 ⑧ 表示乘積,
表示累加)。
1.2.2 注意力機制
注意力機制最初被引入機器翻譯領域,成為人工智能最受歡迎的組成部件之一。在自然語言處理、計算機視覺中,已作為神經網絡模型框架中基礎組成成分。由于注意力機制具有動態調整、自適應選擇相關特征的能力,在強降水預報中引入注意力機制,可以使基礎模型更加關注主要任務。其詳細步驟如下:信息經過式(5)一式(7)計算,得到所重新分配的權重信息。在 χt 時刻的特征序列 x ,可得相應的注意權重矩陣
。

式中:
均是可學習參數, a 表示權重值, x 為輸入數據,注意力層輸出 ? 由 a?x 決定。通過
構建整個輸出序列
。

1.2.3 預提器
為了給預報模型提供一個良好的數據,對數據進行了預處理。即通過自建預提器,將原始數據通過預提器處理得到較好的數據,使得模型有效預報信息具有更加好特征提取能力,其基本結構如圖2所示,預提器由卷積層、LSTM層以及層歸一化構成。首先將實況數據通過卷積層進行特征提取,后經過LSTM提取特征關聯信息,再與雷達數據殘差連接,進行融合,最后經過層歸一化,得到良好的數據集。
1.2.4LAFs模型流程
結合預提器的LSTM-Attention的短臨強降水預報方法(簡稱為LAFs)強降水預報模型(結構如圖3所示,圖3中AddLayerNor表示累加并做層歸一化),主要分為2個過程,第一階段,訓練數據經過本研究自建的預提器,為接下來的模型訓練提供良好的訓練樣本,再通過Attention,識別重要輸人信息(輸入門的作用),將該輸人存儲在一定時期狀態下,按照一定規則將其保留某些狀態(忘記門的作用),并在需要時提取它。再通過注意力機制,將對數據中的某些特征因子進行權重重載,關注更加需要關注的因子。第二階段,數據經過注意力機制層后,信息中的重要特征得到較好的權重分配,但由于降水數據本是一個隨機、非線性的信息,信息中會有一些特定因子擾動,故通過微調后的FeedForwards網絡,來進一步提高基礎模型在非線性條件下的擬合能力。


2LAFs模型結果評估與分析
為保證模型在訓練過程調節至最優結果,做以下工作:將數據切分為64批次,設置模型數據按批次訓練;訓練600輪次,優化器采用Adam,學習率利用WarmUp自動調節,并在模型每10輪次保存目前最優結果。在保證模型調節值最優情況下,得出本文提出模型對于降水量大于 10mm/h 的預測能力的TS為0.15左右,比目前實際業務預報水平(TS為0.1左右)具有較大幅度的提升。為進一步探究模型是否在較其他模型中性能最佳,本章節通過2種不同角度進行評估模型:同類模型對比實驗和消融實驗。
表2展示了本文模型和LSTM以及ConvLSTM模型在文中1.1.1構建的數據集上的實驗結果??梢钥闯?,無論是參數大小還是速度,無論TS、FAR、POD上還是MSE上,其中,LAFs模型在刻畫強降水預報準確性的TS評分中,分別比LSTM和ConvLSTM預報模型基礎上提高了 20.78% 和 19.26% FAR和POD也遠優于LSTM和ConvLSTM。而在模型預報精度的MSE評估指標上,LAFs模型比其他2個預報模型也提高了7% 以上。

進一步地,本文還考察了各模型在訓練過程中TS的變化情況(圖4(a))和損失函數數值變化情況(圖4(b))。從圖4(a)中可以看出,本文提出的LAFs模型無論是在前期還是在后期,其精度保持在比較模型中的最優,且該模型不會在訓練過程中出現大幅的抖動,保持較為平滑的增長最后趨于穩定。而在圖4(b)中,LAFs模型訓練過程中的損失函數數值相比于其余2個模型較為穩定的下降。

綜上,提出的LAFs模型在獨立樣本的測試中,該模型不僅在TS、FAR、POD和MSE等指標上與同樣本的LSTM和ConvLSTM模型具有更好的表現,在預報效果上也優于目前的業務預報水平。
3結論
為了提高強降水預測模型的精度,本文提出基于長短期記憶的注意力前饋的強降水預測模型。該模型主要通過對時間序列記憶訪問信息的LSTM、能深層次捕捉信息關聯性的注意力機制以及提升非線性條件下的擬合能力的FeedForwards。該模型在以廣西境內2843個站點的各種評估實驗中,得出以下結論。
1)在同等條件下,本文提出的模型在TS評分上比LSTM和ConvLSTM方法分別提高了 20.78% 、19.26% ,且優異于實際業務預報水平(0.1左右)。
2)本文提出的模型在POD、FAR、MSE和擬合效率評估上均為最優,表明模型對預報的精度、效率較好。
參考文獻:
[1]FANJL.Application ofDoppler weather radar in quantitative measurement of precipitation and short -term heavy precipitation forecast [D]. Chengdu Institute of Information Technology,2013.
[2] RAMANA R V,KRISHNA B,KUMAR S R, et al. Monthly rainfall prediction using wavelet neural network analysis [J].Water ResourcesManagement,2013,27(10): 3697-3711.
[3] HE X,GUAN H,QIN J.A hybrid wavelet neural network model with mutual information and particle swarm optimizationfor forecasting monthlyrainfall[J].Journal ofHydrology,2015,527(17) :88-100.
[4] SILVA M,CARVALHO L, DIAS M, et al. Complexity and predictability of daily precipitation in a semi-arid region:an application to Ceará,Brazil[J].Nonlinear Processesin Geophysics,2006,13(6):651-659.
[5]SHISHUTOSH,BARUA,NITIN,et al.Rainfall trend and its implications for water resource management within the Yarra River catchment,Australia[J].Hydrological Processes,2012.
[6] ZHANGFH,CAO Y,XUJ,et al.Application oflogisticdiscriminant model in heavy rainfall forecasting[J].Meteorological Monthly,2016,42(4):398-405.
[7]ZHANG J,YAO Y,CAO N. Prediction of whether precipitationbasedon decision tree [J]. Journal of Geomatics, 2017,42(5):107-109.
[8] ORTIZ-GARCIA E G, SALCEDO-SANZ S, CASANOVAMATEO C. Accurate precipitation prediction with support vector classifiers:A study including novel predictive variables and observational data [J]. Atmospheric Research, 2014,139(mar.):128-136.
[9] ZHANG P C,JIA Y Y.A dynamic area joint short-term precipitation forecast method based on multi-layer perceptrons [J]. Computer Applications and Software, 2018,35 (11):7.
[10] GREFF K,SRIVASTAVA R K,KOUTNiK J,et al. LSTM: A Search Space Odyssey [J]. IEEE Transactions on Neural Networks Learning Systems,2016,28(10):2222-2232.
[11] LIU JC,QIN X L,ZHU R Z. Position prediction of RFID moving objects based on LSTM-Attention [J]. Computer Science,2021,48(3):8.
[12]LI Y J.A direct method for estimating the number of hidden layer neurons in feedforward neural networks [J]. Chinese Jourmal of Computers,1999,22(11):5.
[13] VASWANI A,SHAZEER N,PARMAR N,et al. Attention is all you need[J].arXiv,2017:1706.
[14] HOCHREITER S, SCHMIDHUBER J. Long Short -Term Memory[J]. Neural Computation,1997,9(8):1735-1780.
[15] BAHDANAU D,CHO K,BENGIO Y. Neural machine translation by jointly learning toalign and translate[J]. Computer Science,2014,1409(407):1-15.
[16] JIANG Y Y, JIN B, ZHANG B C. Research progress of deep learning in the field of natural language processing [J].Computer Engineering andApplications, 2021,57 (22):14.
[17] LI Z J,FAN Y,WU X J. Research Review of Pretraining Technology for Natural Language Procesing [J]. Computer Science,2020,47(3):12.
[18] HUANG H X,LIU X Y,WANG R P. Application research ofattentionmechanism incomputervision [J]. Electronics World,2021(5):3.
[19] CHAUDHARI S,POLATKAN G,RAMANATH R,et al. An Attentive Survey of Attention Models[J]. 2019.