999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于圖卷積網(wǎng)絡(luò)的交通流預(yù)測方法綜述

2024-06-20 11:05:52葉寶林戴本岙張鳴劍高慧敏吳維敏
關(guān)鍵詞:深度學(xué)習(xí)

葉寶林 戴本岙 張鳴劍 高慧敏 吳維敏

摘要:近年來,基于深度學(xué)習(xí)的交通流預(yù)測方法一直是交通流預(yù)測領(lǐng)域的研究熱點.與傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)不同,適合處理非歐幾里得數(shù)據(jù)的圖卷積網(wǎng)絡(luò)在空間特征建模方面表現(xiàn)出了強(qiáng)大的能力,而反映路網(wǎng)空間特征的拓?fù)鋱D、距離圖、流量相似圖等正是典型的非歐幾里得數(shù)據(jù).因此,基于圖卷積網(wǎng)絡(luò)及其變體的交通流預(yù)測方法成為交通流預(yù)測領(lǐng)域的一個研究熱點,并取得了很多有吸引力的研究結(jié)果.本文對近年來基于圖卷積網(wǎng)絡(luò)的交通流預(yù)測模型進(jìn)行了分類和總結(jié).首先,從圖卷積網(wǎng)絡(luò)的基本定義出發(fā),結(jié)合空域圖卷積和譜域圖卷積的定義詳述了圖卷積的基本原理.其次,根據(jù)預(yù)測模型的網(wǎng)絡(luò)結(jié)構(gòu)特點,將基于圖卷積網(wǎng)絡(luò)的交通流預(yù)測模型分為“組合型”和“改進(jìn)型”兩大類,并對其中最具代表性的模型結(jié)構(gòu)進(jìn)行了詳細(xì)分析和討論.此外,對交通流預(yù)測領(lǐng)域中常用于模型性能對比的典型數(shù)據(jù)集進(jìn)行了綜述,并以其中一個真實數(shù)據(jù)集為例開展仿真測試,展示了4個基于圖卷積網(wǎng)絡(luò)交通流預(yù)測模型的預(yù)測性能.最后,基于當(dāng)前的研究現(xiàn)狀和發(fā)展趨勢,對基于圖卷積網(wǎng)絡(luò)的交通流預(yù)測方法研究領(lǐng)域中未來的研究熱點和難點進(jìn)行了開放性的討論和展望.

關(guān)鍵詞深度學(xué)習(xí);交通擁堵;圖卷積網(wǎng)絡(luò);交通流預(yù)測

中圖分類號TP181

文獻(xiàn)標(biāo)志碼A

0引言

隨著我國城市化進(jìn)程的不斷深入,交通擁堵問題日益凸顯.交通擁堵不僅會大幅增加日常的通勤時間,還會產(chǎn)生額外的能源消耗和碳排放.因此,如何緩解交通擁堵是很多大中城市亟待解決的問題.交通流預(yù)測可以根據(jù)實時監(jiān)測的交通數(shù)據(jù),預(yù)測未來一段時間內(nèi)的交通狀態(tài)信息.預(yù)測得到的交通狀態(tài)信息可以為交通管理部門的交通管控、調(diào)度和決策提供依據(jù)[1-2],提高公共交通資源的利用效率.目前,交通流預(yù)測已被廣泛應(yīng)用于城市路網(wǎng)交通流預(yù)測和交通態(tài)勢感知等,是提升路網(wǎng)通行效率的關(guān)鍵技術(shù)之一.

從本質(zhì)上來說,交通流預(yù)測是一個典型的時間序列預(yù)測問題.與一般的時間序列預(yù)測任務(wù)不同的是,一個節(jié)點的交通流量會受到其附近節(jié)點流量的影響,因此,交通流預(yù)測時還需要考慮不同節(jié)點之間的空間關(guān)系.此外,交通流預(yù)測還面臨著傳播時延性、多步預(yù)測誤差累計、突發(fā)異常事件干擾等諸多挑戰(zhàn).在早期的研究中,研究人員大多采用基于數(shù)理統(tǒng)計的方法構(gòu)建交通流預(yù)測模型.譬如歷史平均值(HistoricalAverage,HA)[3-4]、自回歸移動平均模型(AutoregressiveIntegratedMovingAverageModel,ARIMA)[5-7]、向量自回歸模型(VectorAutoregressiveModel,VAR)[8]等.這些方法通常要求數(shù)據(jù)滿足某些假設(shè),來使交通流預(yù)測模型發(fā)揮出較好的性能.但由于交通流量往往具有復(fù)雜多變的特點,這些預(yù)測模型在實際交通預(yù)測任務(wù)中的表現(xiàn)并不太理想.近年來,得益于人工智能技術(shù)的迅猛發(fā)展,基于機(jī)器學(xué)習(xí)的交通流預(yù)測方法的研究成為了一個熱門的研究方向.雖然與基于數(shù)理統(tǒng)計的方法相比,基于K-近鄰算法(K-NearestNeighbor,KNN)[9]和支持向量機(jī)(SupportVectorMachine,SVM)[10]等早期機(jī)器學(xué)習(xí)的方法可以建模更復(fù)雜的數(shù)據(jù),但需要非常細(xì)致的特征工程,在處理大規(guī)模數(shù)據(jù)時表現(xiàn)不佳.得益于深度學(xué)習(xí)在語音識別和圖像處理等諸多領(lǐng)域取得的重要進(jìn)展,越來越多的研究人員開始將深度學(xué)習(xí)方法應(yīng)用于交通流預(yù)測任務(wù)中.卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetwork,CNN)[11]、長短期記憶網(wǎng)絡(luò)(LongShort-TermMemory,LSTM)[12]及其變體門控循環(huán)單元(GatedRecurrentUnit,GRU)[12]是交通流預(yù)測領(lǐng)域中最常用、最具代表性的深度學(xué)習(xí)方法,這些方法將交通流預(yù)測的準(zhǔn)確性提升到了一個全新的高度.值得注意的是,LSTM和GRU主要用于時間序列預(yù)測,不能有效捕捉路網(wǎng)拓?fù)涞目臻g關(guān)聯(lián)關(guān)系.在完全失去空間特征信息的情況下,這些網(wǎng)絡(luò)對路網(wǎng)拓?fù)涞谋磉_(dá)能力將會受到嚴(yán)重限制.為了充分利用路網(wǎng)拓?fù)涞目臻g關(guān)聯(lián)關(guān)系,CNN被引入交通流預(yù)測領(lǐng)域,并與LSTM和GRU等時間序列模型結(jié)合起來共同提取交通流數(shù)據(jù)中隱含的時空特征信息[13-14].

然而,CNN最初是用于處理圖像、視頻等具有規(guī)則網(wǎng)格結(jié)構(gòu)的歐幾里得數(shù)據(jù),它使用一個具有固定形狀的卷積核進(jìn)行卷積.但對于不規(guī)則的“圖”來說,圖中相鄰節(jié)點間的關(guān)聯(lián)關(guān)系均是隨時間發(fā)生變化的,很難使用一個固定形狀的卷積核進(jìn)行卷積.因此,傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)無法有效地處理圖結(jié)構(gòu)的數(shù)據(jù).事實上,實際的道路網(wǎng)結(jié)構(gòu)更接近于不規(guī)則的“圖(graph)”而非規(guī)則的“圖片(image)”,使用CNN來建模路網(wǎng)的空間關(guān)聯(lián)關(guān)系無法很好地貼合實際路網(wǎng).在近幾年的研究中,圖卷積網(wǎng)絡(luò)(GraphConvolutionalNetwork,GCN)將傳統(tǒng)的卷積操作推廣到圖結(jié)構(gòu)的數(shù)據(jù)中,解決了CNN無法處理非歐幾里得數(shù)據(jù)的問題.由于GCN能夠更好地建模復(fù)雜路網(wǎng)的空間結(jié)構(gòu),越來越多的研究人員開始關(guān)注基于圖卷積網(wǎng)絡(luò)GCN的交通流預(yù)測模型[15],并取得了一系列振奮人心的研究結(jié)果.因此,本文系統(tǒng)地梳理了近年來國內(nèi)外有關(guān)基于圖卷積網(wǎng)絡(luò)的交通流預(yù)測模型,對該領(lǐng)域的研究現(xiàn)狀和未來發(fā)展趨勢進(jìn)行了深入探討和展望.考慮到現(xiàn)有最新研究成果均是在最基礎(chǔ)的圖卷積網(wǎng)絡(luò)上拓展而來,本文將基于圖卷積網(wǎng)絡(luò)的交通流預(yù)測模型分為“組合型”和“改進(jìn)型”兩大類,并重點分析和討論了其中一些典型模型和代表性方法的特色、優(yōu)勢和局限性,以期為該領(lǐng)域后續(xù)進(jìn)一步的研究提供一些可供借鑒和參考的思路.

本文其余章節(jié)的組織如下:第1節(jié)具體介紹了空域圖卷積和頻域圖卷積;第2節(jié)對基于圖卷積網(wǎng)絡(luò)GCN的交通流預(yù)測模型進(jìn)行了分類和總結(jié);第3節(jié)介紹了交通流預(yù)測領(lǐng)域常用的公開數(shù)據(jù)集;第4節(jié)結(jié)合具體的實例展示了基于圖卷積網(wǎng)絡(luò)GCN的交通流預(yù)測方法的預(yù)測性能;第5節(jié),對基于圖卷積網(wǎng)絡(luò)GCN的交通流預(yù)測方法研究領(lǐng)域未來的研究方向進(jìn)行了開放性的討論;第6節(jié)對全文進(jìn)行了總結(jié)和展望.

1圖卷積網(wǎng)絡(luò)

傳統(tǒng)的卷積操作通常只適用于對規(guī)則歐幾里得空間數(shù)據(jù)進(jìn)行卷積,而圖卷積將卷積操作推廣到了一般的圖結(jié)構(gòu)中.在目前的研究中,圖卷積主要有兩種計算方法:空域圖卷積方法[16]和基于圖傅里葉變換的頻域圖卷積方法[17].前者將圖中的頂點按照某種規(guī)則重新排列成特定的網(wǎng)格形式,使其可以直接在空間域上進(jìn)行卷積運(yùn)算,即空域圖卷積.后者則是利用卷積定理將卷積轉(zhuǎn)換至譜域進(jìn)行計算,即頻域圖卷積.

1.1空域圖卷積

空域圖卷積的通用框架主要有兩種:一種是消息傳遞神經(jīng)網(wǎng)絡(luò)(MessagePassingNeuralNetwork,MPNN)[18],它的出發(fā)點是節(jié)點之間的信息聚合,其核心是聚合函數(shù);另一種是混合卷積網(wǎng)絡(luò)(MixturemodelNetworks,MoNet)[19],它立足于圖的平移不變性,通過合適的映射函數(shù)將拓?fù)渖厦總€節(jié)點的局部結(jié)構(gòu)映射為相同大小的向量以便進(jìn)一步學(xué)習(xí)共享卷積核.消息傳遞神經(jīng)網(wǎng)絡(luò)(MPNN)對空域圖卷積聚合函數(shù)的一般架構(gòu)進(jìn)行了定義,利用聚合函數(shù)對各個節(jié)點的自身信息和周圍信息進(jìn)行聚合和更新.空域卷積過程被分解為消息傳遞與狀態(tài)更新兩個過程,可分別用消息傳遞函數(shù)Mt()與更新函數(shù)Ut()來表示.消息傳遞過程中,圖中節(jié)點隱含狀態(tài)htx通過傳遞的消息mt+1x進(jìn)行更新,具體更新公式如下:

式中:htx和hty分別表示節(jié)點x和節(jié)點y在第t步輸出的隱藏狀態(tài);exy表示連接節(jié)點x和節(jié)點y的邊上的特征;N(x)表示節(jié)點x的鄰居節(jié)點構(gòu)成的集合.雖然基于MPNN框架可以直接在空域進(jìn)行卷積,但面對龐大的圖數(shù)據(jù)時,基于MPNN框架的空域卷積方法需要占用龐大的計算資源.另外,平移不變性的缺失還會給圖卷積網(wǎng)絡(luò)的定義帶來困難.

考慮圖上的任意節(jié)點x和它的鄰域節(jié)點y∈N(x),MoNet利用圖上定義的偽坐標(biāo)系,將節(jié)點y映射為偽坐標(biāo)系下的d維向量u(x,y),以便學(xué)習(xí)共享卷積核函數(shù).MoNet[19]中定義了一個如式(3)所示的加權(quán)函數(shù):

式中:Θ表示可學(xué)習(xí)的參數(shù);wi()表示第i個權(quán)重函數(shù);n表示總的權(quán)重函數(shù)個數(shù).

利用構(gòu)建的核函數(shù)可為圖中各個節(jié)點獲得相同維度的向量表示:

式中:N(x)表示節(jié)點x的鄰居節(jié)點構(gòu)成的集合,f(y)表示y在函數(shù)f上的取值.基于式(4)計算的Di(x)f可得到在非歐幾里得域上的卷積空間推廣:

式中:g表示圖卷積核;*G表示圖卷積算子.

1.2頻域圖卷積

1.2.1圖信號的頻域處理

卷積定理是傅里葉變換的一個重要性質(zhì),它可以將時域上的卷積運(yùn)算變換到頻域上的乘積運(yùn)算,具體計算公式如下:

1.2.2切比雪夫多項式近似

在譜圖分析中,圖結(jié)構(gòu)的數(shù)據(jù)一般用其相應(yīng)的拉普拉斯矩陣表示.通過分析拉普拉斯矩陣及其特征值,可以得到對應(yīng)圖結(jié)構(gòu)的性質(zhì).圖的拉普拉斯矩陣被定義為L=D-A,其規(guī)范化形式是L=In-D-12AD-12∈RN×N,其中,A表示鄰接矩陣,In表示單位矩陣,D表示度矩陣,D∈RN×N為對角矩陣,Dii表示節(jié)點的度,Dii=∑jDij.拉普拉斯矩陣L可分解為L=U∧UT,其中,Λ=diag([λ0,…,λN-1])∈RN×N是一個對角矩陣,U是傅里葉基.以交通流量為例,假設(shè)圖上的信號為x∈Rt×N×N,由式(8)知信號的圖傅里葉變換為=UTx,其對應(yīng)的傅里葉反變換是x=U.作為一種卷積運(yùn)算,圖卷積利用在傅里葉域內(nèi)對角化的線性算子來代替經(jīng)典的卷積算子[20].在此基礎(chǔ)上,卷積核gθ對圖G上的信號x濾波表示為

2基于圖卷積的交通流預(yù)測模型

交通流數(shù)據(jù)本質(zhì)上是包含了時空信息的時間序列數(shù)據(jù).如何改進(jìn)預(yù)測模型,使其能夠從交通流數(shù)據(jù)中更高效、更準(zhǔn)確地提取時空特征,是交通流預(yù)測的重點研究內(nèi)容.采用圖結(jié)構(gòu)定義的道路交通網(wǎng)絡(luò),其節(jié)點的特征信息可以視為圖上的信號[20].為了充分利用交通路網(wǎng)的空間拓?fù)涮卣餍畔ⅲ梢栽诿總€時間步上采用圖卷積網(wǎng)絡(luò)來直接對路網(wǎng)空間特征信息進(jìn)行處理,從而更好地利用路網(wǎng)交通流數(shù)據(jù)在空間維度上的特征相關(guān)性,來提升交通流預(yù)測模型的性能.近年來,在基于圖卷積網(wǎng)絡(luò)(GCN)交通流預(yù)測模型的基礎(chǔ)上,已經(jīng)衍生出了許多基于圖卷積網(wǎng)絡(luò)改進(jìn)的交通流預(yù)測模型.這些改進(jìn)工作大致可以分成兩種:一種致力于構(gòu)建更加有效的圖結(jié)構(gòu),以更好地表示不同節(jié)點之間的空間依賴關(guān)系;另一種則側(cè)重于研究如何更有效地將GCN與其他神經(jīng)網(wǎng)絡(luò)相結(jié)合,以充分挖掘交通流數(shù)據(jù)中的時空關(guān)聯(lián)關(guān)系,提升交通流預(yù)測模型的性能.根據(jù)這兩種改進(jìn)思路,本文將基于GCN的交通流預(yù)測模型分為“改進(jìn)型”和“組合型”兩大類.其中:改進(jìn)型可細(xì)分為動態(tài)圖卷積網(wǎng)絡(luò)、多圖卷積網(wǎng)絡(luò)、自適應(yīng)圖卷積網(wǎng)絡(luò)3種;組合型可細(xì)分為時空圖卷積網(wǎng)絡(luò)、殘差網(wǎng)絡(luò)+圖卷積網(wǎng)絡(luò)、自編碼器+圖卷積網(wǎng)絡(luò)、注意力機(jī)制+圖卷積網(wǎng)絡(luò)、生成對抗網(wǎng)絡(luò)+圖卷積網(wǎng)絡(luò)、Transformer+圖卷積網(wǎng)絡(luò)、模式分解+圖卷積網(wǎng)絡(luò)7種.需要注意的是,不同的分類之間可能存在一定程度的交叉.下面將根據(jù)上述分類對具有代表性的模型的預(yù)測結(jié)果進(jìn)行詳細(xì)闡述.

2.1改進(jìn)型

相比于傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)(CNN),圖卷積網(wǎng)絡(luò)(GCN)能夠更好地建模路網(wǎng)中不同節(jié)點之間的空間關(guān)聯(lián)關(guān)系,是近年來交通流預(yù)測領(lǐng)域中最常用的神經(jīng)網(wǎng)絡(luò)之一.但圖卷積網(wǎng)絡(luò)中常用的預(yù)定義的靜態(tài)圖存在一些明顯的缺陷,導(dǎo)致其建模的空間關(guān)聯(lián)關(guān)系可能和實際情況存在一定偏差.首先,預(yù)定義的靜態(tài)圖假設(shè)不同節(jié)點之間的空間關(guān)聯(lián)關(guān)系是預(yù)先確定且不隨時間變化的,然而,實際路網(wǎng)中的空間關(guān)聯(lián)關(guān)系是隨時間變化的,靜態(tài)的圖結(jié)構(gòu)難以反映這種時變的空間關(guān)聯(lián)關(guān)系.此外,預(yù)定義的靜態(tài)圖主要是基于不同節(jié)點之間的距離構(gòu)建圖結(jié)構(gòu),并未考慮其他深層的空間關(guān)聯(lián)關(guān)系.這種單一的圖結(jié)構(gòu)所承載的信息較少,難以準(zhǔn)確地描述復(fù)雜路網(wǎng)中隱含的豐富拓?fù)浣Y(jié)構(gòu)信息.另外,由于設(shè)備故障等原因,真實數(shù)據(jù)集中經(jīng)常存在部分?jǐn)?shù)據(jù)缺失的問題.如果僅利用這些數(shù)據(jù)構(gòu)建圖結(jié)構(gòu),可能會丟失部分空間信息.針對上述缺陷,研究人員主要從動態(tài)圖卷積網(wǎng)絡(luò)、多圖卷積網(wǎng)絡(luò)和自適應(yīng)圖卷積網(wǎng)絡(luò)3個方向進(jìn)行改進(jìn).

2.1.1動態(tài)圖卷積網(wǎng)絡(luò)

在早期基于圖卷積網(wǎng)絡(luò)的交通流預(yù)測方法中,描述路網(wǎng)中不同節(jié)點之間空間關(guān)聯(lián)關(guān)系的結(jié)構(gòu)圖在訓(xùn)練過程中始終保持不變.但事實上,實際路網(wǎng)中不同節(jié)點之間空間關(guān)系是隨時間變化的,靜態(tài)的空間結(jié)構(gòu)圖不能很好地描述這種變化的空間拓?fù)浣Y(jié)構(gòu).為了解決該問題,Diao等[23]提出一種基于動態(tài)時空圖卷積(DGCNN)模型.在DGCNN模型中,實時交通數(shù)據(jù)被分解為一個依賴長期時空交通關(guān)系的、穩(wěn)定的全局節(jié)點嵌入,以及一個捕獲交通變化的局部節(jié)點嵌入.他們使用動態(tài)拉普拉斯矩陣估計器來感知交通流量的變化,并據(jù)此對路網(wǎng)空間關(guān)系的變化進(jìn)行動態(tài)建模.Zheng等[24]提出了一個動態(tài)時空相鄰圖卷積網(wǎng)絡(luò)(DSTAGCN).DSTAGCN是利用基于模糊神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)驅(qū)動模塊來學(xué)習(xí)交通圖的鄰接矩陣,可以更有效地挖掘交通數(shù)據(jù)之間潛在的和不確定的關(guān)聯(lián)關(guān)系.該模型也是第一個利用模糊神經(jīng)網(wǎng)絡(luò)來學(xué)習(xí)圖卷積方法中鄰接矩陣的模型.

動態(tài)圖卷積是基于注意力機(jī)制實現(xiàn)的,然而傳統(tǒng)注意力機(jī)制計算的注意力得分可能存在較大誤差.因此,Hu等[25]提出一種基于多注意力機(jī)制時空圖卷積網(wǎng)絡(luò)(MASTGCN)的交通流預(yù)測模型,用以實現(xiàn)對時空特征的動態(tài)調(diào)整.此外,隨著Transformer在交通流預(yù)測領(lǐng)域的廣泛應(yīng)用,基于傳統(tǒng)注意力機(jī)制的動態(tài)圖也面臨著巨大的挑戰(zhàn).相比于傳統(tǒng)的注意力機(jī)制,Transformer中的自注意力機(jī)制計算的注意力得分更加準(zhǔn)確.因此,一些研究者開始使用自注意力機(jī)制來代替?zhèn)鹘y(tǒng)的注意力機(jī)制構(gòu)建動態(tài)圖卷積網(wǎng)絡(luò).例如,Ma等[26]提出一種基于多頭自注意力機(jī)制時空信息圖卷積網(wǎng)絡(luò)(MSASTIGCN)的交通流預(yù)測方法.在該方法中,將傳統(tǒng)的注意力機(jī)制替換為多頭自注意力機(jī)制,使模型能夠更準(zhǔn)確地捕獲路網(wǎng)空間關(guān)系的動態(tài)變化,在一定程度上提高了模型的預(yù)測性能.

2.1.2多圖卷積網(wǎng)絡(luò)

在大多數(shù)基于單圖的圖卷積網(wǎng)絡(luò)中,相鄰節(jié)點之間的空間相關(guān)性是根據(jù)它們之間的距離定義的.但事實上,節(jié)點之間的距離并不能完全地代表它們之間的空間關(guān)聯(lián)關(guān)系.例如,距離較近的兩個節(jié)點之間可能并無直接的連接關(guān)系,距離較遠(yuǎn)的兩個節(jié)點之間的流量也可能存在某種相似性.單一的圖結(jié)構(gòu)難以充分地描述這些隱含的空間關(guān)聯(lián)關(guān)系.因此,一些研究人員使用多圖融合的思想,從不同的角度來更加全面地描述節(jié)點之間的空間關(guān)聯(lián)關(guān)系.例如,Lv等[27]提出一種基于時間多圖卷積網(wǎng)絡(luò)(T-MGCN)的交通流預(yù)測模型,并將研究重點放在建模更多可能的遙遠(yuǎn)節(jié)點之間的語義相關(guān)性上.為了更加有效地建模全局空間關(guān)聯(lián)關(guān)系,Lv等[27]不僅構(gòu)建了描述空間關(guān)聯(lián)關(guān)系的拓?fù)鋱D,也構(gòu)建了交通模式圖和功能圖.另外,為了提升模型的預(yù)測性能,該文還設(shè)計了一個門控循環(huán)單元(GRU)捕獲時間相關(guān)性.為了提高GCN捕獲節(jié)點間空間關(guān)聯(lián)關(guān)系的能力,Yang等[28]設(shè)計了一種可分解圖卷積結(jié)構(gòu)(FactorGCN).在GCN中,圖被廣泛用于表示實體之間的關(guān)聯(lián)關(guān)系.多數(shù)情況下,這種異構(gòu)的關(guān)系是交織在一起的.可分解圖卷積結(jié)構(gòu)FactorGCN則明確地解開了編碼在圖中的這種關(guān)系.該文先將一個原始的圖分解為多個子圖,每個子圖表示節(jié)點之間潛在的、分解的空間關(guān)聯(lián)關(guān)系.然后,在每個分解的潛在空間中分別聚合節(jié)點的特征以產(chǎn)生分離的特征,從而進(jìn)一步提高下游預(yù)測任務(wù)的性能.Yin等[29]提出一種基于多時間-多圖神經(jīng)網(wǎng)絡(luò)(MTMGNN)的地鐵客流預(yù)測模型.該模型采用了6種圖來表示不同模式下地鐵站不同站點間的空間連接.另外,針對復(fù)雜但有規(guī)律的地鐵客流波動特征,該文同時利用近期客流數(shù)據(jù)和長期客流數(shù)據(jù),并從長期客流數(shù)據(jù)中挖掘與人們出行習(xí)慣密切相關(guān)的慣性特征.Lee等[30]從路網(wǎng)中節(jié)點間的距離、方向、位置關(guān)系3個維度分別構(gòu)建空間關(guān)聯(lián)關(guān)系圖,并在此基礎(chǔ)上提出了一種基于多圖卷積網(wǎng)絡(luò)的交通流預(yù)測模型.仿真測試結(jié)果表明,該模型在解決復(fù)雜的城市路網(wǎng)長期交通流預(yù)測問題上具有一定優(yōu)勢.針對網(wǎng)約車需求預(yù)測問題,Geng等[31]將不同區(qū)域間的非歐幾里得相關(guān)性編碼為多個圖,然后使用多圖卷積對這些相關(guān)性進(jìn)行建模,并在此基礎(chǔ)上提出了一種基于時空多圖卷積網(wǎng)絡(luò)(ST-MGCN)的網(wǎng)約車需求預(yù)測模型.該模型可以更加充分地挖掘相鄰區(qū)域和非相鄰區(qū)域的空間相關(guān)性,提高了網(wǎng)約車需求預(yù)測的準(zhǔn)確性.針對交通流預(yù)測問題,Khaled等[32]提出一種帶有多圖卷積網(wǎng)絡(luò)的生成對抗網(wǎng)絡(luò)(TFGAN)模型.該文從空間相似性、相關(guān)性、空間距離3個不同的視角創(chuàng)建鄰接矩陣描述路網(wǎng)的空間關(guān)聯(lián)關(guān)系,并利用多個GCN、GRU、自注意力機(jī)制來學(xué)習(xí)路網(wǎng)中節(jié)點歷史流量序列的局部相關(guān)性.

2.1.3自適應(yīng)圖卷積網(wǎng)絡(luò)

現(xiàn)有的GCN一般利用拓?fù)潢P(guān)系,或是各種相似度量來定義物理或虛擬圖,并以此來衡量不同節(jié)點之間的空間相關(guān)性.這種圖一般由相關(guān)領(lǐng)域的專家基于一些先驗知識構(gòu)建,圖中的節(jié)點之間有著固定的邊緣連接,無法很好地貼合實際情況.因此,一些研究人員嘗試?yán)脭?shù)據(jù)驅(qū)動學(xué)習(xí)圖結(jié)構(gòu)的方式來實現(xiàn)圖的自動更新.例如,Wu等[33]提出的GraphWaveNet,通過構(gòu)造一個自適應(yīng)鄰接矩陣,保留了隱藏的空間依賴性.同時能夠從數(shù)據(jù)中發(fā)掘不可見的圖結(jié)構(gòu),而無需任何先驗知識的指導(dǎo).WaveNet的卷積層可表示為

Z=∑Kk=0PkfXWk1+PkbXWk2+kaptXWk3.(17)

式中:kapt為自適應(yīng)鄰接矩陣;Pkf,Pkb分別為正向和反向轉(zhuǎn)換矩陣.

Bai等[34]設(shè)計了一個DAGG模塊,可以從數(shù)據(jù)中自適應(yīng)地推斷隱藏的空間依賴關(guān)系.DAGG模塊首先為所有節(jié)點隨機(jī)初始化一個可學(xué)習(xí)的節(jié)點嵌入EA∈RN×demb,其中,每一行EA表示單個節(jié)點的嵌入,demb表示節(jié)點嵌入的維數(shù).然后,類似于求節(jié)點相似度來定義圖,通過將EA和ETA相乘來推斷每對節(jié)點之間的空間依賴性.結(jié)果表明,使用自適應(yīng)圖的模型比依賴單一靜態(tài)圖結(jié)構(gòu)的模型具有更加優(yōu)秀的性能.然而,一般的自適應(yīng)圖僅能在訓(xùn)練階段發(fā)揮作用,無法在測試階段利用測試數(shù)據(jù)自適應(yīng)地更新圖結(jié)構(gòu).由于交通數(shù)據(jù)經(jīng)常受到時間序列中的異常變化的影響,上述缺點可能會導(dǎo)致某些情況下預(yù)測的性能明顯下降.為了解決上述問題,Shin等[35]提出一種漸進(jìn)式圖卷積模型(PGCN).該模型通過學(xué)習(xí)圖節(jié)點之間的趨勢相似性,實現(xiàn)了構(gòu)造漸進(jìn)式鄰接矩陣對路網(wǎng)拓?fù)溥M(jìn)行漸進(jìn)式學(xué)習(xí).為了捕獲動態(tài)空間相關(guān)性,Wang等[36]提出一種時變圖卷積模型(TVGCN).他們設(shè)計了一個時變空間卷積模塊,可以在不需要任何先驗知識的情況下對復(fù)雜的路網(wǎng)拓?fù)浣Y(jié)構(gòu)進(jìn)行提取.TVGCN中構(gòu)建了靜態(tài)、動態(tài)兩種自適應(yīng)圖.一個圖以數(shù)據(jù)驅(qū)動的方式學(xué)習(xí)來捕獲交通節(jié)點之間的靜態(tài)空間相關(guān)性,而另一個圖用于自適應(yīng)地建模不同時間的動態(tài)空間相關(guān)性.在圖卷積網(wǎng)絡(luò)(GCN)的框架下,他們將這兩個圖分層組合在一起同時捕獲交通圖的靜態(tài)和動態(tài)空間相關(guān)性.谷振宇等[37]提出的STG-CRNN在預(yù)定義的距離圖、交通模式圖的基礎(chǔ)上結(jié)合自適應(yīng)圖構(gòu)建與現(xiàn)實路網(wǎng)更加貼合的圖結(jié)構(gòu),提升模型對空間相關(guān)的建模能力.

2.2組合型

交通流數(shù)據(jù)中包含了豐富的時間和空間信息,如何更有效地提取、利用這些時空信息是提高交通流預(yù)測精度的關(guān)鍵所在.在主流的深度學(xué)習(xí)方法中,由于GCN對非歐幾里得數(shù)據(jù)有較強(qiáng)的建模的能力,因此,常被用于捕獲路網(wǎng)中不同節(jié)點之間的空間相關(guān)性.然而,GCN對時間序列數(shù)據(jù)不敏感,難以捕獲某個節(jié)點的流量隨時間的變化關(guān)系.因此,GCN常會與CNN、循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)、Transformer等結(jié)合使用,以共同捕獲時空相關(guān)性.此外,一些研究人員還將GCN與注意力機(jī)制(AttentionMechanism)、生成對抗網(wǎng)絡(luò)(GAN)等結(jié)合以提高其捕獲空間相關(guān)性的能力.總的來說,有關(guān)組合型GCN的研究主要從時空圖卷積網(wǎng)絡(luò)、殘差網(wǎng)絡(luò)+圖卷積網(wǎng)絡(luò)、自編碼器+圖卷積網(wǎng)絡(luò)、注意力機(jī)制+圖卷積網(wǎng)絡(luò)、生成對抗網(wǎng)絡(luò)+圖卷積網(wǎng)絡(luò)、Transformer+圖卷積網(wǎng)絡(luò)、模式分解+圖卷積網(wǎng)絡(luò)7個方向展開.需要注意的是,2.1節(jié)中對圖結(jié)構(gòu)的改進(jìn)同樣可以應(yīng)用至本小節(jié)的模型中,對于此類改進(jìn),本文將不再展開分析.

2.2.1時空圖卷積網(wǎng)絡(luò)

如圖1所示,由于交通數(shù)據(jù)存在明顯的時序特征,許多時序預(yù)測模型和圖卷積相結(jié)合被應(yīng)用于交通預(yù)測問題.時空圖卷積網(wǎng)絡(luò)主要可分為兩類:基于RNN的時空圖卷積網(wǎng)絡(luò)和基于CNN的時空圖卷積網(wǎng)絡(luò).

1)基于RNN的時空圖卷積網(wǎng)絡(luò)

RNN是一個經(jīng)典的時序預(yù)測模型,曾被廣泛地應(yīng)用于各類時序預(yù)測任務(wù).但RNN在計算過程中存在大量的連乘操作,這會導(dǎo)致嚴(yán)重的梯度消失和梯度爆炸問題.不同于RNN,LSTM緩解了梯度消失和梯度爆炸問題.另外,LSTM中的門控機(jī)制可以有選擇性地將關(guān)鍵信息保存至記憶細(xì)胞中,大幅提高了建模長期時間依賴性的能力.因此,LSTM常與GCN共同組成時空圖卷積網(wǎng)絡(luò).例如,為了建模路網(wǎng)中交通流的時空相關(guān)性,Cui等[38]提出一種基于TGC(TrafficGraphConvolution)和LSTM的路網(wǎng)交通流預(yù)測模型.該模型的建模過程可描述為Ali等[39]提出一種用于城市人流預(yù)測的動態(tài)深度時空神經(jīng)網(wǎng)絡(luò)(GCN-DHSTNet)模型.該模型采用LSTM分別提取每小時的流量特征、每天的流量特征和每周的流量特征,利用GCN提取空間關(guān)聯(lián)關(guān)系來完成預(yù)測任務(wù).為了建模交通流數(shù)據(jù)中的正向和反向時間特征信息,張陽等[40]提出一種基于GCN-BiLSTM的短時交通流預(yù)測模型,其中,Bi-LSTM網(wǎng)絡(luò)可以同時從正向和反向提取交通流量數(shù)據(jù)中的時間特征信息,GCN網(wǎng)絡(luò)則用于挖掘交通流量數(shù)據(jù)中的空間特征信息.Zhang等[41]在LSTM中引入殘差連接并與圖卷積組合,提出一種基于殘差圖卷積長短時記憶網(wǎng)絡(luò)(RGC-LSTM)的短時流量預(yù)測模型.

GRU是RNN的另一種變體.與LSTM相比,GRU將3個控制門減少至2個,在保持預(yù)測精度基本相同的前提下,降低了模型的計算復(fù)雜度.因此,很多研究人員用GRU代替LSTM提取序列數(shù)據(jù)中的時間特征.例如,Zhao等[42]設(shè)計了一種基于時間圖卷積網(wǎng)絡(luò)(TemporalGraphConvolutionalNetwork,T-GCN)的交通流預(yù)測方法,該方法采用GRU與GCN聯(lián)合提取時空特征.Chen等[43]在其提出的時空圖神經(jīng)網(wǎng)絡(luò)(SpatialTemporalGraphNeuralNetwork,STGNN)中設(shè)計了一種具有位置級注意機(jī)制的圖神經(jīng)網(wǎng)絡(luò)層,以有效地聚集來自相鄰道路的空間關(guān)聯(lián)信息.另外,該模型使用GRU和Transformer分別捕獲局部和全局時間依賴性.Zhao等[44]提出一種基于GCN和雙向門控遞歸單元(BiGRU)的交通流預(yù)測模型實現(xiàn)多步交通流預(yù)測.BiGRU包含一個正向傳播GRU和一個反向傳播GRU,可以對交通時間序列數(shù)據(jù)同時進(jìn)行前向和后向建模,挖掘數(shù)據(jù)中隱藏的上下文信息,并捕獲交通時間序列的長期時間相關(guān)性.

2)基于CNN的時空圖卷積網(wǎng)絡(luò)

RNN及其變體雖然能有效地捕獲時間序列中的時間特征,但由于在RNN中下一時刻的輸出完全依賴于上一時刻的輸入,導(dǎo)致難以進(jìn)行并行化訓(xùn)練.為了能夠進(jìn)行并行化訓(xùn)練,通常采用CNN來提取時間特征.譬如,陳柘等[45]構(gòu)建了一種基于時間卷積神經(jīng)網(wǎng)絡(luò)(TemporalConvolutionalNetwork,TCN)和GCN的交通流預(yù)測模型,共同提取時空特征用于出租車需求預(yù)測.Yu等[46]提出一種新的時空圖卷積網(wǎng)絡(luò)(STGCN),由于同時包含有圖卷積和門控時間卷積,STGCN模型可以在提取空間特征的同時,有效地捕獲時間特征.由于STGCN模型完全由CNN組成,因此其訓(xùn)練速度明顯優(yōu)于基于RNN的時空圖卷積模型.另外,為了捕獲路網(wǎng)中動態(tài)變化的空間關(guān)聯(lián)性,Diao等[23]使用動態(tài)拉普拉斯矩陣估計器對原有的時空圖卷積網(wǎng)絡(luò)STGCN模型進(jìn)行了改進(jìn),提出一種動態(tài)圖卷積神經(jīng)網(wǎng)絡(luò)(DGCNN)模型.如圖2所示,在改進(jìn)的DGCNN模型中,拉普拉斯矩陣可以有效感知空間關(guān)聯(lián)性的動態(tài)變化.為了更精準(zhǔn)地捕獲數(shù)據(jù)中的時空依賴關(guān)系,Wu等[33]將圖卷積與擴(kuò)展因果卷積相結(jié)合,提出一種新的圖形神經(jīng)網(wǎng)絡(luò)體系結(jié)構(gòu)GWN(GraphWaveNet).圖神經(jīng)網(wǎng)絡(luò)模型GWN具有一個堆疊的擴(kuò)展1D卷積組件,其感受野隨著層數(shù)的增加呈指數(shù)增長,因此能夠處理長時間序列.該模型中的擴(kuò)張因果卷積結(jié)構(gòu)如圖3所示.

2.2.2殘差網(wǎng)絡(luò)+圖卷積網(wǎng)絡(luò)

在深度神經(jīng)網(wǎng)絡(luò)中,網(wǎng)絡(luò)的性能并非始終與網(wǎng)絡(luò)深度呈正相關(guān)關(guān)系.換句話說,如果只是簡單地增加網(wǎng)絡(luò)的深度,當(dāng)網(wǎng)絡(luò)深度超過某個閾值后,預(yù)測模型在訓(xùn)練集和測試集上的性能均有一定下降.這明顯不同于過擬合時預(yù)測模型在訓(xùn)練集上性能有所提升,但在測試集上的性能下降.直到2016年,He等[47]在圖像識別領(lǐng)域提出了殘差網(wǎng)絡(luò)以解決上述問題.殘差網(wǎng)絡(luò)可以使上一個殘差塊的信息傳遞到下一個殘差塊,提高信息的傳遞效率,并且避免了隨著網(wǎng)絡(luò)深度的增加出現(xiàn)的梯度消失問題和退化問題.Zhang等[41]將殘差引入LSTM提出殘差圖卷積長短時記憶(RGC-LSTM)模型用于交通預(yù)測.該模型具有參數(shù)少、計算量小、收斂速度快的優(yōu)勢.Zhao等[44]則在圖卷積層中加入殘差網(wǎng)絡(luò)(ResGCN),以解決深度卷積網(wǎng)絡(luò)的退化問題,其結(jié)構(gòu)示意如圖4所示,在ResGCN中還使用雙向門控遞歸單元(BiGRU)對交通時間序列數(shù)據(jù)進(jìn)行前向和后向建模.

2.2.3自編碼器+圖卷積網(wǎng)絡(luò)

由于自編碼器在預(yù)測任務(wù)上具有更加穩(wěn)定的表現(xiàn)且泛化效果好[48],因此,研究人員開始將自編碼器與圖卷積網(wǎng)絡(luò)結(jié)合起來解決交通流預(yù)測問題.譬如,Zhu等[49]提出一種帶有注意力機(jī)制的多圖卷積Seq2Seq模型(AMGC-Seq2Seq)用于共享汽車流量預(yù)測.在AMGC-Seq2Seq模型中的編碼器部分,他們利用LSTM網(wǎng)絡(luò)提取時間特征,再用多圖卷積網(wǎng)絡(luò)(M-GCN)提取空間關(guān)聯(lián)關(guān)系.然后,再使用一個LSTM網(wǎng)絡(luò)對提取的時空特征進(jìn)行融合,以實現(xiàn)對空間和時間關(guān)系的同時編碼.在解碼器中,一個單獨的LSTM被用于解碼由編碼器傳遞來的上下文向量,以獲得多步預(yù)測輸出.其結(jié)構(gòu)示意如圖5所示.另外,為了建模交通流中的時間關(guān)聯(lián)關(guān)系和空間關(guān)聯(lián)關(guān)系,Li等[50]將交通流量建模為在有向圖上進(jìn)行的擴(kuò)散過程,提出一種基于擴(kuò)散卷積循環(huán)神經(jīng)網(wǎng)絡(luò)(DCRNN)的交通流預(yù)測方法.DCRNN在利用擴(kuò)張卷積和GRU提取時空依賴的同時,加入自編碼器結(jié)構(gòu)來提升模型性能.在模型的訓(xùn)練階段,歷史交通序列被輸入到編碼器中,并得到隱藏狀態(tài).解碼器利用隱藏狀態(tài)和真實觀測值生成預(yù)測結(jié)果.在測試階段,首先使用訓(xùn)練階段獲得的最終狀態(tài)初始化解碼器.與訓(xùn)練階段不同的是,解碼器的輸入由真實的觀測值替換為預(yù)測值來實現(xiàn)多步預(yù)測.另外,為了解決訓(xùn)練和測試兩個階段中數(shù)據(jù)分布之間存在差異性的問題,DCRNN模型利用計劃采樣的方法對輸入數(shù)據(jù)進(jìn)行采樣處理.Guo等[51]提出一種用于速度預(yù)測的嵌入式圖卷積長短時記憶網(wǎng)絡(luò)(EGC-LSTM),將GCN和LSTM進(jìn)行融合提取時空特征,并引入注意機(jī)制計算特征權(quán)重來提高模型在時間維度上的可解釋性.為了進(jìn)一步提高預(yù)測準(zhǔn)確性,他們在模型中引入了自編碼器結(jié)構(gòu),并將輔助特征進(jìn)行one-hot編碼后輸入到解碼器部分.特征權(quán)重可以反映特征的重要性,間接實現(xiàn)了特征選擇;將特征權(quán)重傳遞到GCN-LSTM中,提高了模型的預(yù)測性能.

2.2.4注意力機(jī)制+圖卷積網(wǎng)絡(luò)

注意力機(jī)制最初被用于解決自然語言處理領(lǐng)域的相關(guān)問題[52],隨后被推廣到許多其他的相關(guān)任務(wù)中.在交通流預(yù)測模型中,注意力機(jī)制也常與各類神經(jīng)網(wǎng)絡(luò)配合使用.例如,葛宇然等[53]提出一種基于時空域聯(lián)合學(xué)習(xí)的動態(tài)分層網(wǎng)絡(luò)(JST-DHNet)模型,并采用注意力機(jī)制將通過兩種不同的時空學(xué)習(xí)模塊學(xué)到的整體時空特征和局部時空特征進(jìn)行了融合.Zhu等[49]在其提出的帶有注意力機(jī)制的多圖卷積Seq2Seq(AMGC-Seq2Seq)模型中,利用注意力機(jī)制對時空圖卷積網(wǎng)絡(luò)輸出的隱藏向量計算注意力分?jǐn)?shù),并將注意力用于解碼器以捕獲歷史信息中的重點內(nèi)容.Liu等[54]在其提出的基于多頭注意力機(jī)制的時空圖卷積網(wǎng)絡(luò)中,將自注意力定義為

2.2.5生成對抗網(wǎng)絡(luò)+圖卷積網(wǎng)絡(luò)

受博弈論中的零和博弈啟發(fā),Goodfellow等[57]將生成問題視為生成器和判別器這兩個網(wǎng)絡(luò)的對抗和博弈,并提出一種生成對抗網(wǎng)絡(luò)(GenerativeAdversarialNetwork,GAN).生成對抗網(wǎng)絡(luò)(GAN)由一個生成器和一個判別器組成,生成器通過在潛在空間中隨機(jī)采樣生成網(wǎng)絡(luò)輸入,并通過不斷訓(xùn)練使生成器的輸出逼近訓(xùn)練集中的真實樣本.判別器的輸入包括真實樣本和生成器的輸出,其目的是將生成器的輸出從真實樣本中區(qū)分出來.生成對抗網(wǎng)絡(luò)擅長無監(jiān)督學(xué)習(xí),且在多種生成模型中能夠生成最逼真的結(jié)果,是交通流預(yù)測研究常用的神經(jīng)網(wǎng)絡(luò)之一.例如,代亮等[58]提出一種基于梯度懲罰的Wasserstein生成對抗網(wǎng)絡(luò)(WGAN-GP)模型用于路網(wǎng)交通流預(yù)測.該模型通過構(gòu)建時間判別器和空間判別器分別從時間和空間兩個特征維度對生成數(shù)據(jù)進(jìn)行判別,從而引導(dǎo)生成器生成接近真實數(shù)據(jù)分布的預(yù)測數(shù)據(jù).Jin等[59]提出一種用于短時交通速度預(yù)測的PL-WGAN模型,其特點是采用一種如圖6所示的平行學(xué)習(xí)框架,構(gòu)建了一個融合時空注意力機(jī)制、GCN和GRU的混合模型捕獲交叉口和路網(wǎng)的時空特征信息.該方法將Wasserstein生成對抗網(wǎng)(WGAN)應(yīng)用于數(shù)據(jù)驅(qū)動交通建模,并通過在杭州的一個大規(guī)模區(qū)域網(wǎng)絡(luò)中的實測驗證了其有效性和可擴(kuò)展性.為了精確預(yù)測城市軌道交通網(wǎng)絡(luò)的短期客流,Zhang等[60]提出一種基于深度學(xué)習(xí)的時空圖生成對抗網(wǎng)絡(luò)(STG-GAN)預(yù)測模型.該模型構(gòu)建了一個由門控時間卷積網(wǎng)絡(luò)(TCN)和圖卷積網(wǎng)絡(luò)(GCN)構(gòu)成的生成網(wǎng)絡(luò),以捕獲交通路網(wǎng)結(jié)構(gòu)的時空依賴性并生成預(yù)測數(shù)據(jù).同時,也構(gòu)建了一個包含空間判別器和時間判別器的判別網(wǎng)絡(luò),以增強(qiáng)預(yù)測模型建模空間和時間約束的能力.

2.2.6Transformer+圖卷積網(wǎng)絡(luò)

2017年,Google的機(jī)器翻譯團(tuán)隊提出一種與循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)完全不同的Transformer模型,用于自然語言處理(NLP)任務(wù).由于具有很強(qiáng)的建模上下文信息的能力,Transformer模型在NLP任務(wù)中得到了廣泛的應(yīng)用,并逐步擴(kuò)展至其他時序預(yù)測相關(guān)的任務(wù)之中.Transformer模型的核心是多頭注意力機(jī)制.在交通流領(lǐng)域中,傳統(tǒng)的注意力機(jī)制主要用來計算不同特征間的權(quán)重,對路網(wǎng)的空間結(jié)構(gòu)圖(如拓?fù)鋱D、距離圖)進(jìn)行動態(tài)調(diào)整來實現(xiàn)動態(tài)圖卷積,以及對輸入流量數(shù)據(jù)進(jìn)行動態(tài)加權(quán)來得到研究中更為廣泛的門控機(jī)制.而多頭注意力機(jī)制可以使用多組注意力同時學(xué)習(xí)得到不同特征的最優(yōu)注意力權(quán)重.相較于傳統(tǒng)的RNN,Transformer模型通過考慮不同歷史時間步長的不同尺度的依賴關(guān)系,提升了模型對遠(yuǎn)距離時間特征建模的能力.例如,Xu等[61]通過聯(lián)合利用動態(tài)的有向空間依賴關(guān)系和長程時間依賴關(guān)系,提出一種新的時空Transformer(STTN)模型來提高長期交通流量預(yù)測的準(zhǔn)確性.他們設(shè)計了一個包含空間Transformer和時間Transformer的時空模塊.其中,空間Transformer利用空間多頭注意力機(jī)制建模不同模式(連通性、相似性等)的動態(tài)空間依賴性,時間Transformer則被用于建模多個時間步長下的長程時間依賴性.仿真實驗結(jié)果表明,與現(xiàn)有其他模型相比,STTN模型在處理長程時空依賴關(guān)系時更高效且可擴(kuò)展.隨著研究的深入,研究人員發(fā)現(xiàn)Transformer模型對近距離時間相關(guān)性不夠敏感.因此,為綜合利用RNN擅長建模近距離時間相關(guān)性和Transformer模型擅長建模長程時間相關(guān)性的優(yōu)勢,許多研究人員將RNN與Transformer模型或是將TCN與Transformer模型進(jìn)行融合,以同時捕獲數(shù)據(jù)中的近距離和遠(yuǎn)距離時間相關(guān)性.例如,Wang等[62]提出一種新的具有位置級注意機(jī)制(position-wiseattentionmechanism)的圖神經(jīng)網(wǎng)絡(luò),能動態(tài)地聚合來自相鄰道路的歷史交通流信息.為了更好地提取時間特征,他們同時使用RNN和Transformer模型來捕獲局部和全局的時間相關(guān)性.為了進(jìn)一步提高Transformer模型在處理交通流預(yù)測任務(wù)時的有效性,一些研究者對Transformer的結(jié)構(gòu)進(jìn)行了改進(jìn).譬如,針對Transformer模型適合處理的數(shù)據(jù)與典型時間序列數(shù)據(jù)之間存在較大差異、Seq2Seq和Transformer模型的結(jié)構(gòu)易導(dǎo)致累計誤差、Transformer模型不能兼容鄰接矩陣等問題,Yan等[63]提出一種TrafficTransformer模型,他們設(shè)計了一種特殊的編碼和特征嵌入來解決Transformer與交通流數(shù)據(jù)結(jié)構(gòu)不兼容的問題,并將Transformer模型的原始編碼器和解碼器結(jié)構(gòu)改進(jìn)為全局編碼器和全局-局部解碼器兩個組成部分,將多個全局編碼器和全局-局部解碼器塊堆疊起來,形成一個具有層次特征的深度預(yù)測網(wǎng)絡(luò).針對交通流預(yù)測問題,Guo等[64]提出一種基于時空注意力機(jī)制的圖神經(jīng)網(wǎng)絡(luò)(ASTGNN)模型.為了緩解Transformer模型中自注意力機(jī)制對局部時間特征不敏感的問題,該文設(shè)計了一種基于CNN實現(xiàn)的自注意力模塊提升局部時間特征感知能力,并構(gòu)建了一個帶有自注意力的動態(tài)圖卷積模塊捕獲動態(tài)空間相關(guān)性.劉起東等[65]在其基于時間感知Transformer的交通流預(yù)測方法中提出一種可以根據(jù)不同時間特征確定不同的注意力計算機(jī)制,從而更加精準(zhǔn)地捕獲不同時刻下流量的時空相關(guān)性.在基于Transformer的預(yù)測模型中,大多需要將多個相同的模塊進(jìn)行堆疊,以捕獲深層次的特征.這個特性使得基于Transformer的預(yù)測模型往往具有網(wǎng)絡(luò)參數(shù)多、網(wǎng)絡(luò)收斂速度慢的缺點.針對該問題,Bachlechner等[66]提出一種Rezero-Transformer模型.該文對Transformer的歸一化和殘差連接部分進(jìn)行了改進(jìn),改進(jìn)前和改進(jìn)后分別由式(32)和式(33)表示:

2.2.7模式分解+圖卷積網(wǎng)絡(luò)

經(jīng)驗?zāi)B(tài)分解(EmpiricalModeDecomposition,EMD)是Huang等[67]提出的一種信號處理方法,它可以自適應(yīng)地將原始時間序列分解為幾種不同的內(nèi)在模態(tài)函數(shù)(IMFs)和殘差.得到的IMFs和殘差序列具有特定的物理意義,代表原始時間序列的不同時間尺度特征.為了降低預(yù)測數(shù)據(jù)的維度以便更好地對時空相關(guān)性進(jìn)行建模,主成分分析(PrincipalComponentAnalysis,PCA)方法通過對數(shù)據(jù)進(jìn)行歸一化等操作將m維原始數(shù)據(jù)降為k維,然后對歸一化得到的數(shù)據(jù)計算協(xié)方差矩陣、特征值和特征向量,將特征值降序排列,并選擇最大的k個特征值及其對應(yīng)的特征向量.最后,使用這些特征向量構(gòu)造新的特征空間,并在新的特征空間上完成流量預(yù)測.借鑒EMD和PCA等方法通過對時間序列進(jìn)行分解得到不同時間尺度特征的思路,Chen等[68]提出一種基于EMD的多元時間圖卷積神經(jīng)網(wǎng)絡(luò)預(yù)測模型.該文先采用EMD方法對原始時間序列進(jìn)行分解,將得到不同尺度下的時間特征作為節(jié)點的初始特征生成圖模型.然后使用多頭注意機(jī)制來學(xué)習(xí)節(jié)點之間的隱藏依賴關(guān)系,并使用GCN網(wǎng)絡(luò)提取節(jié)點空間特征.最后使用一個TCN網(wǎng)絡(luò)為節(jié)點嵌入建立時間關(guān)系,以執(zhí)行多變量時間序列預(yù)測.Li等[69]設(shè)計了一個基于主成分分析(PCA)、圖卷積網(wǎng)絡(luò)(GCN)和長短期記憶網(wǎng)絡(luò)(LSTM)的主時空圖卷積網(wǎng)絡(luò)(PST-GCN)模型.具體來說,PCA首先對原始輸入數(shù)據(jù)進(jìn)行降維,然后構(gòu)建GCN網(wǎng)絡(luò)學(xué)習(xí)城市路網(wǎng)的拓?fù)浣Y(jié)構(gòu),以獲得路網(wǎng)中不同路段和節(jié)點間的空間相關(guān)性.另外,他們在PST-GCN模型中構(gòu)建了一個LSTM網(wǎng)絡(luò)用來捕獲路網(wǎng)中的時間相關(guān)性.

3公開數(shù)據(jù)集

自行采集寬范圍跨時空交通數(shù)據(jù)集的難度大、成本高.本節(jié)具體介紹了5個交通流預(yù)測領(lǐng)域常用于模型性能對比分析的公開數(shù)據(jù)集.

3.1PeMS

PeMS是一個大型的交通數(shù)據(jù)庫(http://pems.dot.ca.gov),數(shù)據(jù)由美國加州運(yùn)輸公司及其合作機(jī)構(gòu)提供.該數(shù)據(jù)集主要包含加州高速公路上各類車流量相關(guān)數(shù)據(jù).這些數(shù)據(jù)可以讓決策者對高速公路通行效率進(jìn)行統(tǒng)一、全面地評估,基于對高速公路網(wǎng)絡(luò)當(dāng)前狀態(tài)的了解做出運(yùn)營決策,分析擁堵瓶頸以確定潛在的補(bǔ)救措施,并做出更好的整體決策.該數(shù)據(jù)集由超過44681個檢測器每30s報告一次數(shù)據(jù),30s的數(shù)據(jù)完成編譯后,就會被聚合成5min的增量.該數(shù)據(jù)集包含有眾多交通效率評價指標(biāo),如流量、速度、延遲、車輛行駛里程(VMT)、車輛行駛小時(VHT)、行駛時間和年平均日交通流量(AADT).值得注意的是,PeMS有多個衍生子數(shù)據(jù)集,譬如PeMS-03、PeMS-BAY等.

3.2METR-LA

METR-LA數(shù)據(jù)集記錄了美國洛杉磯高速公路上207個監(jiān)測點的位置信息(包括檢測器間的距離和拓?fù)潢P(guān)系),以及各監(jiān)測點在2012年3月1日—6月30日共計4個月時間內(nèi)記錄的34272條交通速度數(shù)據(jù),且數(shù)據(jù)的采集時間間隔為5min.該數(shù)據(jù)集可通過其官網(wǎng)(https://www.metro.net)下載.

3.3滴滴蓋亞開發(fā)數(shù)據(jù)集

滴滴蓋亞開發(fā)數(shù)據(jù)集(https://gaia.didichuxing.com/)數(shù)據(jù)來自于滴滴“蓋亞數(shù)據(jù)開放計劃”,統(tǒng)計了網(wǎng)約車在成都、西安、海口等城市行駛中的所有傳感器數(shù)據(jù).該數(shù)據(jù)集包括的數(shù)據(jù)有:車輛平均速度、OD信息、軌跡信息、駕駛場景、POI檢索數(shù)據(jù)等.

3.4Urban數(shù)據(jù)集

Urban數(shù)據(jù)集(http://topis.seoul.go.kr/)記錄了韓國首爾江南區(qū)(Urban1)和麻浦區(qū)(Urban2)兩個區(qū)域的真實車流數(shù)據(jù).Urban1和Urban2是首爾交通流量最大的兩個地區(qū),且均具有高度復(fù)雜的城市交通網(wǎng)絡(luò).?dāng)?shù)據(jù)集的采樣周期為2018年4月1日至2018年4月30日.?dāng)?shù)據(jù)集主要是基于GPS采集的7萬多輛出租車的軌跡數(shù)據(jù),采樣時間間隔為5min.采集的交通流數(shù)據(jù)經(jīng)過數(shù)據(jù)預(yù)處理得到的是各鏈路的平均速度.

3.5NYCTaxi

NYCTaxi數(shù)據(jù)集包括了2009—2020年紐約黃色和綠色出租車行程記錄數(shù)據(jù),主要記錄了接送日期/時間、接送地點、行程距離、分項票價、費(fèi)率類型、付款類型和司機(jī)報告的乘客數(shù)量等信息.該數(shù)據(jù)集是一個學(xué)術(shù)界常用的出租車數(shù)據(jù)集.下載網(wǎng)址:https://www1.nyc.gov/site/tlc/about/tlc-trip-record-data.page.

4仿真案例

應(yīng)用基于圖卷積的短時交通流量預(yù)測模型解決交通流預(yù)測問題的主要步驟包括:數(shù)據(jù)預(yù)處理、模型訓(xùn)練及驗證、模型測試等.本節(jié)簡述了上述4個步驟的常用方法或具體過程,并以基于LSTM網(wǎng)絡(luò)的交通流預(yù)測方法和DCRNN網(wǎng)絡(luò)的交通流預(yù)測方法為參考基準(zhǔn),通過仿真對比分析展示了4種基于圖卷積神經(jīng)網(wǎng)絡(luò)的交通流預(yù)測方法在Urban1和Urban2兩個真實交通流數(shù)據(jù)集上的預(yù)測誤差.值得注意的是,參與對比的基于MGCN的交通流預(yù)測方法是筆者設(shè)計的.

4.1數(shù)據(jù)預(yù)處理

深度學(xué)習(xí)模型是通過數(shù)據(jù)進(jìn)行驅(qū)動的,數(shù)據(jù)集的好壞直接影響著模型的預(yù)測性能.從路網(wǎng)采集的原始數(shù)據(jù)中通常存在數(shù)據(jù)缺失和異常等問題,數(shù)據(jù)的缺失或異常將直接影響模型的預(yù)測精度.因此,在進(jìn)行模型訓(xùn)練前,往往需要對所采集的原始數(shù)據(jù)進(jìn)行預(yù)處理,以提高數(shù)據(jù)的完整性和真實性.對于缺失的數(shù)據(jù)往往使用數(shù)據(jù)補(bǔ)全的方法進(jìn)行處理,對于異常數(shù)據(jù)則常用數(shù)據(jù)剔除或高峰去噪等方法進(jìn)行處理.一般路網(wǎng)采集的原始數(shù)據(jù)的分布較為分散,并不滿足正態(tài)分布.因此,需對數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化和歸一化處理,方便模型對數(shù)據(jù)進(jìn)行高效學(xué)習(xí).在對數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化和歸一化后,將不同的數(shù)據(jù)集按6∶2∶2或按7∶1∶2的比例劃分為訓(xùn)練集、驗證集和測試集.

4.2模型訓(xùn)練、驗證及測試

首先,利用訓(xùn)練集來優(yōu)化模型參數(shù).更具體地說,將訓(xùn)練集輸入到構(gòu)建的預(yù)測模型中,利用模型輸出與真實值之間的誤差定義模型損失,并通過梯度下降法對模型參數(shù)進(jìn)行優(yōu)化.驗證集則主要用于對已經(jīng)訓(xùn)練好的模型進(jìn)行評價,篩選出在驗證集上泛化性更好的模型參數(shù).在交通流量預(yù)測研究領(lǐng)域,評價模型泛化能力的常用指標(biāo)包括:平均絕對誤差(MeanAbsoluteError,MAE)、平均絕對百分比誤差(MeanAbsolutePercentageError,MAPE)和均方根誤差(RootMeanSquaredError,RMSE).在驗證集上,利用上述3個評價指標(biāo)篩選出泛化性最佳的模型參數(shù),并在測試集上進(jìn)行預(yù)測.

4.3結(jié)果分析與討論

表1和表2分別展示了基于LSTM、DCRNN,以及4種圖卷積神經(jīng)網(wǎng)絡(luò)的交通流預(yù)測方法在Urban1和Urban2兩個真實交通流數(shù)據(jù)集上的應(yīng)用,預(yù)測步長分別為15、30和60min時的預(yù)測誤差.不難發(fā)現(xiàn),與兩種基準(zhǔn)方法相比,采用圖卷積網(wǎng)絡(luò)建模交通流量中空間關(guān)聯(lián)關(guān)系的方法具有更低的平均預(yù)測誤差.另外,圖7—8進(jìn)一步展示了預(yù)測步長為5min時,不同預(yù)測方法分別在1、2、3、6、9、12不同預(yù)測時長下的預(yù)測誤差.可以看出,在數(shù)據(jù)集Urban1和Urban2上,參與對比分析的交通流預(yù)測方法均能較好地擬合真實的交通流量.基于LSTM的交通流預(yù)測方法,僅將交通流數(shù)據(jù)當(dāng)作簡單的時間序列進(jìn)行處理,忽略了路網(wǎng)中不同節(jié)點間的復(fù)雜空間相關(guān)性.由于不同節(jié)點間的空間相關(guān)性對于長期預(yù)測是至關(guān)重要的,因此,雖然在預(yù)測步長較小時LSTM與其他預(yù)測方法之間的預(yù)測性能差距較小,但隨著預(yù)測步長的增加,它們之間的差距逐步擴(kuò)大.在上述幾種基于時空圖卷積建模的典型交通流預(yù)測方法中,從整體預(yù)測性能指標(biāo)上看,基于STGCN的方法稍遜于基于GraphWaveNet的方法.這可能是由于STGCN方法采用預(yù)定義方式對空間相關(guān)性進(jìn)行描述,但在其預(yù)定義的圖結(jié)構(gòu)中包含了一些不合理的空間信息描述,導(dǎo)致所定義的圖未能較好地契合道路實際空間結(jié)構(gòu).GraphWaveNet采用以數(shù)據(jù)驅(qū)動學(xué)習(xí)的方式來學(xué)習(xí)與真實路網(wǎng)更加契合的圖結(jié)構(gòu),解決了預(yù)定義圖存在的局限性.值得注意的是,基于多圖卷積網(wǎng)絡(luò)MGCN的交通流預(yù)測方法,也采用預(yù)定義的圖結(jié)構(gòu)且可能會引入一些不合理的空間相關(guān)性描述,但由于使用了多個圖卷積網(wǎng)絡(luò)GCN從不同的維度提取路網(wǎng)交通流中的空間特征,并將所提取的多個空間特征進(jìn)行了融合,這在一定程度上緩解了預(yù)定義的圖結(jié)構(gòu)中可能存在不合理描述的問題.因此,從3個預(yù)測誤差評價指標(biāo)上看,基于多圖卷積網(wǎng)絡(luò)MGCN整體上也優(yōu)于基于時空圖卷積網(wǎng)絡(luò)STGCN.由于路網(wǎng)的時空特征是復(fù)雜多變的,采用預(yù)定義或者數(shù)據(jù)驅(qū)動學(xué)習(xí)方式生成的靜態(tài)圖結(jié)構(gòu)難以對路網(wǎng)中不同節(jié)點間的空間相關(guān)性進(jìn)行有效建模.譬如,靜態(tài)圖無法有效刻畫路網(wǎng)中隨時間實時動態(tài)變化的空間特征.因此,基于靜態(tài)圖的交通流預(yù)測模型存在一定的局限性.為了解決該問題,基于多頭注意力機(jī)制的時空Transformer(STTN)模型利用時間多頭注意力和空間多頭注意力對路網(wǎng)的動態(tài)時空相關(guān)性進(jìn)行建模.因此,在6種基于典型深度神經(jīng)網(wǎng)絡(luò)的交通流預(yù)測方法中,基于STTN模型的交通流預(yù)測方法具有最優(yōu)越的預(yù)測性能.

5未來發(fā)展方向

近年來,基于圖卷積網(wǎng)絡(luò)的交通流預(yù)測方法成為了交通流預(yù)測領(lǐng)域中最熱門的研究方向之一.雖然圖卷積網(wǎng)絡(luò)廣泛應(yīng)用于交通流預(yù)測領(lǐng)域并取得了一些有吸引力的研究結(jié)果,但基于圖卷積網(wǎng)絡(luò)的交通流預(yù)測方法研究中還存在一些開放性的問題有待進(jìn)一步解決.因此,本節(jié)對圖卷積網(wǎng)絡(luò)及其在交通流領(lǐng)域未來的研究和發(fā)展方向進(jìn)行了開放性的討論,以期為該領(lǐng)域的研究人員提供一些可供參考和借鑒的研究視角.

5.1提取圖中更深層次的隱含信息

在一些基于圖卷積網(wǎng)絡(luò)GCN的交通流預(yù)測模型中,研究人員僅利用了不同節(jié)點之間的距離關(guān)系來構(gòu)建鄰接矩陣.顯然,這種構(gòu)建鄰接矩陣的方式不能夠充分挖掘交通圖中隱含的信息.與僅使用拓?fù)鋱D、距離圖的圖卷積網(wǎng)絡(luò)相比,多圖和超圖都是更加有效的新型圖卷積結(jié)構(gòu),可以對交通圖中更深層次的隱含信息進(jìn)行更加精細(xì)化的建模.例如,Lv等[27]在他們提出的基于時間多圖卷積網(wǎng)絡(luò)T-MGCN的交通流預(yù)測模型中分析了道路之間存在的兩種語義相關(guān)性(即歷史交通模式相關(guān)性和局部區(qū)域功能相似性),并使用多個圖對異構(gòu)的空間和語義相關(guān)性進(jìn)行編碼,然后,使用一個多圖卷積網(wǎng)絡(luò)來建模和融合不同圖所提取的空間特征信息并用于交通流預(yù)測.該研究結(jié)果表明,傳統(tǒng)的圖表示存在一定的局限性,無法表示多重關(guān)聯(lián),而超圖的引入則有利于表示和學(xué)習(xí)拓?fù)浣Y(jié)構(gòu)中的更深層次的相互關(guān)聯(lián)關(guān)系.考慮到路網(wǎng)中連接節(jié)點的邊,以及節(jié)點之間存在著復(fù)雜的相關(guān)性且相互作用,Chen等[43]提出了一種基于多范圍注意力雙分量圖卷積網(wǎng)絡(luò)的交通流預(yù)測方法.該方法構(gòu)建了一個節(jié)點圖和一個邊緣圖分別挖掘節(jié)點與節(jié)點之間的空間關(guān)聯(lián)關(guān)系,以及邊與邊之間的空間關(guān)聯(lián)關(guān)系,然后,使用一個帶有多范圍注意力機(jī)制的雙分量圖卷積網(wǎng)絡(luò)顯式地建模節(jié)點和邊的相互作用.這些研究都表明了交通圖中具有很多深層的隱含信息,如何更有效地利用這些信息是提高基于圖卷積網(wǎng)絡(luò)GCN交通流預(yù)測方法預(yù)測性能的關(guān)鍵所在.

5.2多源數(shù)據(jù)融合

事實上,城市中不同的交通工具是同時運(yùn)行的,它們在共同的時空場景下相互影響、相互補(bǔ)充,動態(tài)地構(gòu)成了完整的交通系統(tǒng).因此,來自不同交通工具的流量數(shù)據(jù)表面上是異構(gòu)的,但內(nèi)部具有隱含的相關(guān)性.此外,天氣、交通事故,以及很多外部因素也會對交通模式產(chǎn)生顯著影響.通過融合多源數(shù)據(jù)并進(jìn)行協(xié)同分析,可以找到這些數(shù)據(jù)與交通流量之間的相關(guān)性,并借此來提高模型的預(yù)測性能.例如,Chen等[71]利用多源城市數(shù)據(jù)(如POI、路網(wǎng)、事件、天氣等)構(gòu)建多源屬性圖,同時考慮靜態(tài)因素和動態(tài)因素(如空間距離、語義距離、道路特征、道路狀況和全球背景)來預(yù)測短時交通流.由于典型的單數(shù)據(jù)驅(qū)動模型并不普遍適用于異構(gòu)流量數(shù)據(jù),Wang等[72]提出一種用于多源流量預(yù)測問題的多任務(wù)超圖卷積網(wǎng)絡(luò)(MT-HGCN).該框架由一個主任務(wù)和一個相關(guān)任務(wù)組成,且兩個任務(wù)都基于超圖卷積網(wǎng)絡(luò)(HGCN)提取空間關(guān)聯(lián)關(guān)系.然后,構(gòu)建特征融合模塊拼接任務(wù),該模塊可以對相關(guān)性進(jìn)行建模并共享潛在特征,以提高主任務(wù)的性能.Zhang等[73]在進(jìn)行多區(qū)域上的客運(yùn)需求短期預(yù)測時,提出一種基于端到端多任務(wù)學(xué)習(xí)時間卷積神經(jīng)網(wǎng)絡(luò)(MTL-TCNN)的交通流預(yù)測方法.該方法設(shè)計了一個ST-DTW算法來量化兩個預(yù)測任務(wù)之間的時空相關(guān)性,提高了出租車需求預(yù)測的精度.因此,發(fā)掘更多可靠的數(shù)據(jù)來源,并建立這些數(shù)據(jù)與交通流量數(shù)據(jù)之間的相關(guān)性,也是提高模型預(yù)測性能的主要方法之一.

5.3小樣本預(yù)測

在處理大規(guī)模數(shù)據(jù)時,深度學(xué)習(xí)方法可以展現(xiàn)出非常優(yōu)秀的性能,但在實際應(yīng)用時,可能會存在數(shù)據(jù)采集不足、不同城市的數(shù)據(jù)質(zhì)量參差不齊等問題.另外,交通預(yù)測的輔助特征如天氣、異常狀況等采集的頻率遠(yuǎn)低于交通數(shù)據(jù)的采集頻率,這可能會使我們無法獲得足夠的訓(xùn)練數(shù)據(jù).而在訓(xùn)練數(shù)據(jù)較少時,基于深度學(xué)習(xí)方法的預(yù)測模型往往會產(chǎn)生明顯的性能下降,模型的泛化能力也難以滿足要求.因此,針對小樣本學(xué)習(xí)進(jìn)行優(yōu)化,是提高預(yù)測模型實際性能的重要途徑.彭云聰?shù)龋?4]將小樣本學(xué)習(xí)分為表征學(xué)習(xí)、數(shù)據(jù)擴(kuò)充、學(xué)習(xí)策略3種,為小樣本交通流預(yù)測提供了多種解決思路.通過表征學(xué)習(xí),可以將缺失或者稀疏的交通數(shù)據(jù)變換到特征域?qū)W習(xí).由于特征域具有更低的特征維度以及相關(guān)的語義信息,大大降低了預(yù)測模型的學(xué)習(xí)難度.遷移學(xué)習(xí)也是實現(xiàn)小樣本學(xué)習(xí)的重要方法之一,其基本思想是相似或者相近的任務(wù)之間具有共通性,其本質(zhì)是基于源域數(shù)據(jù)和目標(biāo)域數(shù)據(jù)之間共同的特征、關(guān)系以及模型參數(shù)共享等方式進(jìn)行遷移學(xué)習(xí),并將模型用于目標(biāo)類數(shù)據(jù)分類.就交通流預(yù)測而言,遷移學(xué)習(xí)旨在將數(shù)據(jù)豐富的城市或者區(qū)域遷移到數(shù)據(jù)稀疏的城市或者區(qū)域.例如,Wang等[75]通過對有歷史數(shù)據(jù)的交叉口進(jìn)行遷移學(xué)習(xí)完成對沒有歷史數(shù)據(jù)的交叉口的交通流量預(yù)測.但遺憾的是,目前的遷移學(xué)習(xí)模型均存在泛化能力不足的問題.因此,通過加強(qiáng)模型的小樣本學(xué)習(xí)能力來提高預(yù)測模型的實際性能,也是未來重要的研究方向之一.

5.4異常狀況交通流預(yù)測

在目前有關(guān)交通流預(yù)測的研究中,大多是針對日常情形下的交通流量建立預(yù)測模型,這些研究大多致力于通過更有效地提取時空特征來優(yōu)化模型,對其他影響因素考慮得相對較少.但事實上,極端天氣、交通事故等異常情況往往會對交通模式產(chǎn)生重大的影響.當(dāng)路網(wǎng)中出現(xiàn)此類異常情況時,通用的流量預(yù)測模型將難以提供準(zhǔn)確的預(yù)測結(jié)果.目前,已經(jīng)有研究人員致力于解決此類問題.例如,為了分析交通事故等異常事件對路網(wǎng)交通狀況的影響,Liu等[54]采用位置編碼的方式來檢測復(fù)雜交通情況下異常事件的發(fā)生,以探索異常事件對區(qū)域交通擁堵的影響.An等[76]提出一種基于模糊卷積神經(jīng)網(wǎng)絡(luò)(F-CNN)的交通流預(yù)測方法.該方法采用模糊方法來表示交通事故特征,先利用模糊推理機(jī)制從真實的交通流數(shù)據(jù)中生成交通事故信息并融入交通流特征信息中,再利用CNN提取數(shù)據(jù)中的特征信息,處理數(shù)據(jù)中的不確定性問題.但到目前為止,此類模型的泛化能力仍然相對較弱,其性能仍有很大的提升空間.因此,異常狀況下的交通預(yù)測也是有待進(jìn)一步開展深入研究的方向之一.

5.5時空同步建模

在大多數(shù)交通流預(yù)測模型中,時間與空間特征都是分別由不同的神經(jīng)網(wǎng)絡(luò)模塊提取,再將不同神經(jīng)網(wǎng)絡(luò)模塊的輸出進(jìn)行融合,以達(dá)到同時提取時間和空間特征的目的.然而,堆疊過多的神經(jīng)網(wǎng)絡(luò)可能會導(dǎo)致網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜、模型參數(shù)過多等問題,并降低了模型的可解釋性.對時空特征進(jìn)行同步建模,在提升模型預(yù)測準(zhǔn)確度的同時,還可以簡化網(wǎng)絡(luò)結(jié)構(gòu)、提升計算效率、增強(qiáng)模型可解釋性.有關(guān)時空同步建模的相關(guān)研究目前還相對較少.例如,Song等[77]在其提出的時空同步圖卷積網(wǎng)絡(luò)(STSGCN)中,設(shè)計了一種時空同步建模機(jī)制,使得該網(wǎng)絡(luò)能夠同步捕獲復(fù)雜的時間和空間相關(guān)性.Li等[78]在其提出的時空圖融合卷積神經(jīng)網(wǎng)絡(luò)STFGNN模型中,將空間圖ASG、時間圖ATG、時間連接圖ATC組合為一個融合圖ASTFG.融合圖ASTFG同時包含相鄰時間步長的異質(zhì)時空相關(guān)性.同時,該文還設(shè)計了一種新的時空融合圖模塊來同步捕獲時空依賴性用于交通流預(yù)測.結(jié)果表明,時空同步建模使得預(yù)測模型的性能獲得了進(jìn)一步提高.因此,時空同步建模也可以作為未來的研究內(nèi)容之一.

5.6長時交通流預(yù)測

長時交通流預(yù)測是指預(yù)測周期為半小時至數(shù)小時、一天,甚至更長的交通流預(yù)測.與短時交通流預(yù)測相比,長時交通流預(yù)測可以幫助管理者更好地做出決策、采取措施、統(tǒng)籌安排,對提高路網(wǎng)交通管理和服務(wù)水平有著重要的作用.在長時交通流預(yù)測領(lǐng)域,Peng等[79]提出一種基于強(qiáng)化學(xué)習(xí)動態(tài)圖卷積網(wǎng)絡(luò)的長時交通流量預(yù)測模型.他們利用路網(wǎng)的歷史流量數(shù)據(jù),設(shè)計了交通流量傳輸圖和交通流量概率圖來表示不同節(jié)點之間的流量轉(zhuǎn)移關(guān)系.針對實際應(yīng)用中可能存在的數(shù)據(jù)缺陷,他們還將動態(tài)圖生成模塊應(yīng)用于交通流量的長時預(yù)測任務(wù)來減少交通流量的預(yù)測誤差.然而,相比于短時交通流預(yù)測,長時交通流預(yù)測往往需要處理更復(fù)雜的時空依賴關(guān)系,且面臨著更多不確定性因素的干擾.另外,多步預(yù)測模型在進(jìn)行長時預(yù)測時,會出現(xiàn)嚴(yán)重的誤差累積問題,導(dǎo)致預(yù)測準(zhǔn)確性隨著預(yù)測時長的增加而快速下降.因此,如何繼續(xù)在現(xiàn)有研究工作基礎(chǔ)上提高長時交通流預(yù)測模型的準(zhǔn)確性,是未來的重要研究內(nèi)容之一.

5.7大規(guī)模圖網(wǎng)絡(luò)

隨著城市化進(jìn)程的不斷深入,城市道路交通網(wǎng)絡(luò)的規(guī)模愈發(fā)龐大.由于卷積是基于鄰居節(jié)點進(jìn)行的,對于某個節(jié)點進(jìn)行卷積操作時用到的鄰域節(jié)點的個數(shù)也會隨著路網(wǎng)規(guī)模的增加呈指數(shù)級增長.因此,在建模大規(guī)模圖網(wǎng)絡(luò)時,目前的圖卷積網(wǎng)絡(luò)模型也面臨著嚴(yán)峻的挑戰(zhàn).針對該問題,Hamilton等[80]在其提出的一個節(jié)點特征信息通用歸納框架GraphSAGE模型中使用分批量的訓(xùn)練方法,結(jié)合鄰居節(jié)點采樣的方法,將每次計算所需的節(jié)點數(shù)目控制在一定范圍之內(nèi).雖然GraphSAGE不能解決圖卷積網(wǎng)絡(luò)GCN難以有效解決大規(guī)模路網(wǎng)交通流預(yù)測的問題,但也為圖卷積網(wǎng)絡(luò)GCN在大規(guī)模數(shù)據(jù)集上應(yīng)用提供了一種可參考的思路.因此,如何設(shè)計更加高效的模型結(jié)構(gòu)以提高在大規(guī)模路網(wǎng)上利用圖卷積建模復(fù)雜空間相互關(guān)聯(lián)關(guān)系的效率,是未來交通流預(yù)測領(lǐng)域值得研究的方向之一.

6總結(jié)

交通流預(yù)測不僅是保障智能交通系統(tǒng)高效運(yùn)行的基礎(chǔ),也是提高路網(wǎng)利用率、緩解交通擁堵的重要方法.而圖卷積網(wǎng)絡(luò)則是目前交通流預(yù)測模型中使用最廣泛的神經(jīng)網(wǎng)絡(luò)之一.本文對近幾年基于圖卷積網(wǎng)絡(luò)的交通流預(yù)測模型進(jìn)行了全面的回顧與總結(jié).簡要回顧了交通流預(yù)測的發(fā)展歷史,介紹了圖卷積網(wǎng)絡(luò)誕生的背景、優(yōu)勢及基本原理.另外,收集了近年來交通流預(yù)測領(lǐng)域中基于圖卷積網(wǎng)絡(luò)的熱點模型,包括時空圖卷積網(wǎng)絡(luò)和圖卷積Transformer等,并對其進(jìn)行了分類和詳細(xì)討論.這些模型在交通流預(yù)測方面取得了一系列有價值的研究結(jié)果,為提升路網(wǎng)通行效率、解決交通擁堵問題提供了一些新的思路和方法.此外,還收集了交通流領(lǐng)域常用的一些公開數(shù)據(jù)集,并以其中一個真實數(shù)據(jù)集為例驗證了基于圖卷積網(wǎng)絡(luò)交通流預(yù)測模型的有效性以及相比于基準(zhǔn)模型的優(yōu)勢.最后,本文對基于圖卷積網(wǎng)絡(luò)的交通流預(yù)測方法未來可能的研究方向和挑戰(zhàn)進(jìn)行了開放式的討論.圖卷積網(wǎng)絡(luò)在交通流預(yù)測中的應(yīng)用前景廣闊,但仍存在一些挑戰(zhàn)和難點,如模型的可解釋性和對大規(guī)模數(shù)據(jù)的處理能力等.未來的研究可以聚焦于這些問題,進(jìn)一步探索更加高效和精確的交通流預(yù)測方法.

參考文獻(xiàn)

References

[1]

WangYB,YuXH,ZhangSY,etal.Freewaytrafficcontrolinpresenceofcapacitydrop[J].IEEETransactionsonIntelligentTransportationSystems,2021,22(3):1497-1516

[2]陸化普,孫智源,屈聞聰.大數(shù)據(jù)及其在城市智能交通系統(tǒng)中的應(yīng)用綜述[J].交通運(yùn)輸系統(tǒng)工程與信息,2015,15(5):45-52

LUHuapu,SUNZhiyuan,QUWencong.Bigdataanditsapplicationsinurbanintelligenttransportationsystem[J].JournalofTransportationSystemsEngineeringandInformationTechnology,2015,15(5):45-52

[3]PanB,DemiryurekU,ShahabiC.Utilizingreal-worldtransportationdataforaccuratetrafficprediction[C]//2012IEEE12thInternationalConferenceonDataMining.December10-13,2012,Brussels,Belgium.IEEE,2013:595-604

[4]SunYJ,ZhangGH,YinHH.Passengerflowpredictionofsubwaytransferstationsbasedonnonparametricregressionmodel[J].DiscreteDynamicsinNatureandSociety,2014,2014:1-8

[5]WilliamsBM,DurvasulaPK,BrownDE.Urbanfreewaytrafficflowprediction:applicationofseasonalautoregressiveintegratedmovingaverageandexponentialsmoothingmodels[J].TransportationResearchRecord:JournaloftheTransportationResearchBoard,1998,1644:132-141

[6]LeeS,F(xiàn)ambroDB.Applicationofsubsetautoregressiveintegratedmovingaveragemodelforshort-termfreewaytrafficvolumeforecasting[J].TransportationResearchRecord:JournaloftheTransportationResearchBoard,1999,1678:179-188

[7]WilliamsBM.Multivariatevehiculartrafficflowprediction:evaluationofARIMAXmodeling[J].TransportationResearchRecord:JournaloftheTransportationResearchBoard,2001,1776:194-200

[8]ZivotE,WangJ.Vectorautoregressivemodelsformultivariatetimeseries[M]//ZivotE,WangJH.ModelingFinancialTimeSerieswithS-PLUS.2nded.NewYork,NY:SpringerNewYork,2007:385-429

[9]VanLintJWC,VanHinsbergenC.Short-termtrafficandtraveltimepredictionmodels[J].ArtificialIntelligenceApplicationstoCriticalTransportationIssues,2012,22(1):22-41

[10]JeongYS,ByonYJ,Castro-NetoMM,etal.Supervisedweighting-onlinelearningalgorithmforshort-termtrafficflowprediction[J].IEEETransactionsonIntelligentTransportationSystems,2013,14(4):1700-1707

[11]MaXL,DaiZA,HeZB,etal.Learningtrafficasimages:adeepconvolutionalneuralnetworkforlarge-scaletransportationnetworkspeedprediction[J].Sensors,2017,17(4):818

[12]FuR,ZhangZ,LiL.UsingLSTMandGRUneuralnetworkmethodsfortrafficflowprediction[C]//201631stYouthAcademicAnnualConferenceofChineseAssociationofAutomation(YAC).November11-13,2016,Wuhan,China.IEEE,2017:324-328

[13]YaoHX,WuF,KeJT,etal.Deepmulti-viewspatial-temporalnetworkfortaxidemandprediction[J].ProceedingsoftheAAAIConferenceonArtificialIntelligence,2018,32(1):2588-2595

[14]LiuYP,ZhengHF,F(xiàn)engXX,etal.Short-termtrafficflowpredictionwithConv-LSTM[C]//20179thInternationalConferenceonWirelessCommunicationsandSignalProcessing(WCSP).October11-13,2017,Nanjing,China.IEEE,2017:1-6

[15]NagyAM,SimonV.Surveyontrafficpredictioninsmartcities[J].PervasiveandMobileComputing,2018,50:148-163

[16]NiepertM,AhmedM,KutzkovK.Learningconvolutionalneuralnetworksforgraphs[C]//InternationalConferenceonMachineLearning.PMLR,2016:2014-2023

[17]BrunaJ,ZarembaW,SzlamA,etal.Spectralnetworksandlocallyconnectednetworksongraphs[J].arXive-print,2014,arXiv:1312.6203

[18]GilmerJ,SchoenholzSS,RileyPF,etal.Neuralmessagepassingforquantumchemistry[C]//Proceedingsofthe34thInternationalConferenceonMachineLearning.August6-11,2017,Sydney,NSW,Australia.NewYork:ACM,2017:1263-1272

[19]MontiF,BoscainiD,MasciJ,etal.GeometricdeeplearningongraphsandmanifoldsusingmixturemodelCNNs[C]//2017IEEEConferenceonComputerVisionandPatternRecognition(CVPR).July21-26,2017,Honolulu,HI,USA.IEEE,2017:5425-5434

[20]HenaffM,BrunaJ,LeCunY.Deepconvolutionalnetworksongraph-structureddata[J].arXive-print,2015,arXiv:1506.05163

[21]KipfTN,WellingM.Semi-supervisedclassificationwithgraphconvolutionalnetworks[J].arXive-print,2016,arXiv:1609.02907

[22]LiuQH,ZhangR,WangYJ,etal.DailypredictionoftheArcticseaiceconcentrationusingreanalysisdatabasedonaconvolutionalLSTMnetwork[J].JournalofMarineScienceandEngineering,2021,9(3):330

[23]DiaoZL,WangX,ZhangDF,etal.Dynamicspatial-temporalgraphconvolutionalneuralnetworksfortrafficforecasting[J].ProceedingsoftheAAAIConferenceonArtificialIntelligence,2019,33(1):890-897

[24]ZhengQ,ZhangYY.DSTAGCN:dynamicspatial-temporaladjacentgraphconvolutionalnetworkfortrafficforecasting[J].IEEETransactionsonBigData,2023,9(1):241-253

[25]HuJ,ChenLY.Multi-attentionbasedspatial-temporalgraphconvolutionnetworksfortrafficflowforecasting[C]//2021InternationalJointConferenceonNeuralNetworks(IJCNN).July18-22,2021,Shenzhen,China.IEEE,2021:1-7

[26]MaYT,LanSY,WangWW,etal.Modelingofspatial-temporaldependencyintrafficflowdatafortrafficforecasting[J].SSRNElectronicJournal,2022.DOI:10.2139/ssrn.4142192

[27]LvMQ,HongZX,ChenL,etal.Temporalmulti-graphconvolutionalnetworkfortrafficflowprediction[J].IEEETransactionsonIntelligentTransportationSystems,2021,22(6):3337-3348

[28]YangYD,F(xiàn)engZL,SongML,etal.Factorizablegraphconvolutionalnetworks[C]//Proceedingsofthe34thInternationalConferenceonNeuralInformationProcessingSystems.December6-12,2020,Vancouver,BC,Canada.NewYork:ACM,2020:20286-20296

[29]YinD,JiangRH,DengJW,etal.MTMGNN:multi-timemulti-graphneuralnetworkformetropassengerflowprediction[J].GeoInformatica,2023,27(1):77-105

[30]LeeK,RheeW.DDP-GCN:multi-graphconvolutionalnetworkforspatiotemporaltrafficforecasting[J].TransportationResearchPartC:EmergingTechnologies,2022,134:103466

[31]GengX,LiYG,WangLY,etal.Spatiotemporalmulti-graphconvolutionnetworkforride-hailingdemandforecasting[J].ProceedingsoftheAAAIConferenceonArtificialIntelligence,2019,33(1):3656-3663

[32]KhaledA,ElsirAMT,ShenYM.TFGAN:trafficforecastingusinggenerativeadversarialnetworkwithmulti-graphconvolutionalnetwork[J].Knowledge-BasedSystems,2022,249:108990

[33]WuZH,PanSR,LongGD,etal.GraphWaveNetfordeepspatial-temporalgraphmodeling[J].arXive-print,2019,arXiv:1906.00121

[34]BaiL,YaoLN,LiC,etal.Adaptivegraphconvolutionalrecurrentnetworkfortrafficforecasting[J].AdvancesinNeuralInformationProcessingSystems,2020,33:17804-17815

[35]ShinY,YoonY.PGCN:progressivegraphconvolutionalnetworksforspatial-temporaltrafficforecasting[J].arXive-print,2022,arXiv:2202.08982

[36]WangYH,F(xiàn)angS,ZhangCX,etal.TVGCN:time-variantgraphconvolutionalnetworkfortrafficforecasting[J].Neurocomputing,2022,471:118-129

[37]谷振宇,陳聰,鄭家佳,等.考慮時空相似性的動態(tài)圖卷積神經(jīng)網(wǎng)絡(luò)交通流預(yù)測[J].控制與決策,2023,38(12):3399-3408

GUZhenyu,CHENCong,ZHENGJiajia,etal.TrafficflowpredictionbasedonSTG-CRNN[J].ControlandDecision,2023,38(12):3399-3408

[38]CuiZY,HenricksonK,KeRM,etal.Trafficgraphconvolutionalrecurrentneuralnetwork:adeeplearningframeworkfornetwork-scaletrafficlearningandforecasting[J].IEEETransactionsonIntelligentTransportationSystems,2020,21(11):4883-4894

[39]AliA,ZhuYM,ZakaryaM.Exploitingdynamicspatio-temporalgraphconvolutionalneuralnetworksforcitywidetrafficflowsprediction[J].NeuralNetworks,2022,145:233-247

[40]張陽,胡月,陳德旺,等.基于GCN-BiLSTM的短時交通流預(yù)測模型[J].武漢理工大學(xué)學(xué)報(交通科學(xué)與工程版),2023,47(5):802-806

ZHANGYang,HUYue,CHENDewang,etal.Short-termtrafficflowpredictionmodelbasedonGCN-BiLSTM[J].JournalofWuhanUniversityofTechnology(TransportationScience&Engineering),2023,47(5):802-806

[41]ZhangY,ChengT,RenYB,etal.Anovelresidualgraphconvolutiondeeplearningmodelforshort-termnetwork-basedtrafficforecasting[J].InternationalJournalofGeographicalInformationScience,2020,34(5):969-995

[42]ZhaoL,SongYJ,ZhangC,etal.T-GCN:atemporalgraphconvolutionalnetworkfortrafficprediction[J].IEEETransactionsonIntelligentTransportationSystems,2020,21(9):3848-3858

[43]ChenWQ,ChenL,XieY,etal.Multi-rangeattentivebicomponentgraphconvolutionalnetworkfortrafficforecasting[J].ProceedingsoftheAAAIConferenceonArtificialIntelligence,2020,34(4):3529-3536

[44]ZhaoW,ZhangSQ,ZhouB,etal.Multi-spatio-temporalfusiongraphrecurrentnetworkfortrafficforecasting[J].arXive-print,2022,arXiv:2205.01480

[45]陳柘,劉嘉華,趙斌,等.基于GCN和TCN的多因素城市路網(wǎng)出租車需求預(yù)測[J].控制與決策,2023,38(4):1031-1038

CHENZhe,LIUJiahua,ZHAOBin,etal.Multi-factortaxidemandforecastingforurbanroadnetworkbasedonGCNandTCN[J].ControlandDecision,2023,38(4):1031-1038

[46]YuB,YinHT,ZhuZX.Spatio-temporalgraphconvolutionalnetworks:adeeplearningframeworkfortrafficforecasting[J].arXive-print,2017,arXiv:1709.04875

[47]HeKM,ZhangXY,RenSQ,etal.Deepresiduallearningforimagerecognition[C]//2016IEEEConferenceonComputerVisionandPatternRecognition(CVPR).June27-30,2016,LasVegas,NV,USA.IEEE,2016:770-778

[48]DaiAM,LeQV.Semi-supervisedsequencelearning[J].AdvancesinNeuralInformationProcessingSystems,2015:3079-3087

[49]ZhuH,LuoY,LiuQ,etal.Multistepflowpredictiononcar-sharingsystems:amulti-graphconvolutionalneuralnetworkwithattentionmechanism[J].InternationalJournalofSoftwareEngineeringandKnowledgeEngineering,2019,29(11/12):1727-1740

[50]LiYG,YuR,ShahabiC,etal.Diffusionconvolutionalrecurrentneuralnetwork:data-driventrafficforecasting[J].arXive-print,2017,arXiv:1707.01926

[51]GuoJL,SongCY,ZhangH,etal.Multi-steptrafficspeedpredictionmodelwithauxiliaryfeaturesonurbanroadnetworksanditsunderstanding[J].IETIntelligentTransportSystems,2020,14(14):1997-2009

[52]KipfTN,WellingM.Variationalgraphauto-encoders[J].arXive-print,2016,arXiv:1611.07308

[53]葛宇然,付強(qiáng).基于時空聯(lián)合學(xué)習(xí)的城市交通流短時預(yù)測模型[J].計算機(jī)工程,2023,49(1):270-278

GEYuran,F(xiàn)UQiang.Short-timepredictionmodelforurbantrafficflowbasedonjointspatio-temporallearning[J].ComputerEngineering,2023,49(1):270-278

[54]LiuZC,ZhangR,WangC,etal.Spatial-temporalconv-sequencelearningwithaccidentencodingfortrafficflowprediction[J].IEEETransactionsonNetworkScienceandEngineering,2022,9(3):1765-1775

[55]HuangXH,YeYM,YangXF,etal.Multistepcoupledgraphconvolutionwithtemporal-attentionfortrafficflowprediction[J].IEEEAccess,2022,10:48179-48192

[56]GuoSN,LinYF,F(xiàn)engN,etal.Attentionbasedspatial-temporalgraphconvolutionalnetworksfortrafficflowforecasting[J].ProceedingsoftheAAAIConferenceonArtificialIntelligence,2019,33(1):922-929

[57]GoodfellowI,Pouget-AbadieJ,MirzaM,etal.Generativeadversarialnetworks[J].CommunicationsoftheACM,2020,63(11):139-144

[58]代亮,梅洋,錢超,等.基于生成對抗網(wǎng)絡(luò)的大規(guī)模路網(wǎng)交通流預(yù)測算法[J].控制與決策,2021,36(12):2937-2945

DAILiang,MEIYang,QIANChao,etal.Trafficflowforecastingalgorithmforlarge-scaleroadnetworkbasedonGAN[J].ControlandDecision,2021,36(12):2937-2945

[59]JinJC,RongDD,ZhangT,etal.AGAN-basedshort-termlinktrafficpredictionapproachforurbanroadnetworksunderaparallellearningframework[J].IEEETransactionsonIntelligentTransportationSystems,2022,23(9):16185-16196

[60]ZhangJL,LiHA,ZhangSX,etal.Aspatiotemporalgraphgenerativeadversarialnetworksforshort-termpassengerflowpredictioninurbanrailtransitsystems[J].InternationalJournalofGeneralSystems,2023,52(6):694-721

[61]XuMX,DaiWR,LiuCM,etal.Spatial-temporaltransformernetworksfortrafficflowforecasting[J].arXive-print,2020,arXiv:2001.02908

[62]WangXY,MaY,WangYQ,etal.Trafficflowpredictionviaspatialtemporalgraphneuralnetwork[C]//ProceedingsoftheWebConference2020.April20-24,2020,Taipei,China.NewYork:ACM,2020:1082-1092

[63]YanHY,MaXL,PuZY.Learningdynamicandhierarchicaltrafficspatiotemporalfeatureswithtransformer[J].IEEETransactionsonIntelligentTransportationSystems,2022,23(11):22386-22399

[64]GuoSN,LinYF,WanHY,etal.Learningdynamicsandheterogeneityofspatial-temporalgraphdatafortrafficforecasting[J].IEEETransactionsonKnowledgeandDataEngineering,2022,34(11):5415-5428

[65]劉起東,劉超越,邱紫鑫,等.基于時間感知Transformer的交通流預(yù)測方法[J].計算機(jī)科學(xué),2023,50(11):88-96

LIUQidong,LIUChaoyue,QIUZixin,etal.Time-awaretransformerfortrafficflowforecasting[J].ComputerScience,2023,50(11):88-96

[66]BachlechnerT,MajumderBP,MaoH,etal.ReZeroisallyouneed:fastconvergenceatlargedepth[C]//UncertaintyinArtificialIntelligence.PMLR,2021:1352-1361

[67]HuangNE,ShenZ,LongSR,etal.TheempiricalmodedecompositionandtheHilbertspectrumfornonlinearandnon-stationarytimeseriesanalysis[J].ProceedingsoftheRoyalSocietyofLondonSeriesA:Mathematical,PhysicalandEngineeringSciences,1998,454(1971):903-995

[68]ChenYW,DingFQ,ZhaiLB.Multi-scaletemporalfeaturesextractionbasedgraphconvolutionalnetworkwithattentionformultivariatetimeseriesprediction[J].ExpertSystemswithApplications,2022,200:117011

[69]LiN,JiaSC,LiQ.Trafficmessagechannelpredictionbasedongraphconvolutionalnetwork[J].IEEEAccess,2021,9:135423-135431

[70]ZhaoZ,ChenWH,WuXM,etal.LSTMnetwork:adeeplearningapproachforshort-termtrafficforecast[J].IETIntelligentTransportSystems,2017,11(2):68-75

[71]ChenL,ShaoW,LvMQ,etal.AARGNN:anattentiveattributedrecurrentgraphneuralnetworkfortrafficflowpredictionconsideringmultipledynamicfactors[J].IEEETransactionsonIntelligentTransportationSystems,2022,23(10):17201-17211

[72]WangJC,ZhangY,WangLX,etal.Multitaskhypergraphconvolutionalnetworks:aheterogeneoustrafficpredictionframework[J].IEEETransactionsonIntelligentTransportationSystems,2022,23(10):18557-18567

[73]ZhangKP,LiuZJ,ZhengL.Short-termpredictionofpassengerdemandinmulti-zonelevel:temporalconvolutionalneuralnetworkwithmulti-tasklearning[J].IEEETransactionsonIntelligentTransportationSystems,2020,21(4):1480-1490

[74]彭云聰,秦小林,張力戈,等.面向圖像分類的小樣本學(xué)習(xí)算法綜述[J].計算機(jī)科學(xué),2022,49(5):1-9

PENGYuncong,QINXiaolin,ZHANGLige,etal.Surveyonfew-shotlearningalgorithmsforimageclassification[J].ComputerScience,2022,49(5):1-9

[75]WangHQ,ZhangRQ,ChengX,etal.Hierarchicaltrafficflowpredictionbasedonspatial-temporalgraphconvolutionalnetwork[J].IEEETransactionsonIntelligentTransportationSystems,2022,23(9):16137-16147

[76]AnJY,F(xiàn)uL,HuM,etal.Anovelfuzzy-basedconvolutionalneuralnetworkmethodtotrafficflowpredictionwithuncertaintrafficaccidentinformation[J].IEEEAccess,2019,7:20708-20722

[77]SongC,LinYF,GuoSN,etal.Spatial-temporalsynchronousgraphconvolutionalnetworks:anewframeworkforspatial-temporalnetworkdataforecasting[J].ProceedingsoftheAAAIConferenceonArtificialIntelligence,2020,34(1):914-921

[78]LiMZ,ZhuZX.Spatial-temporalfusiongraphneuralnetworksfortrafficflowforecasting[J].ProceedingsoftheAAAIConferenceonArtificialIntelligence,2021,35(5):4189-4196

[79]PengH,DuBW,LiuMS,etal.Dynamicgraphconvolutionalnetworkforlong-termtrafficflowpredictionwithreinforcementlearning[J].InformationSciences,2021,578:401-416

[80]HamiltonWL,YingR,LeskovecJ.Inductiverepresentationlearningonlargegraphs[C]//Proceedingsofthe31stInternationalConferenceonNeuralInformationProcessingSystems.December4-9,2017,LongBeach,California,USA.NewYork:ACM,2017:1025-1035

Asurveyoftrafficflowpredictionbasedongraphconvolutionalnetworks

YEBaolin1,2DAIBenao1,2ZHANGMingjian1,2GAOHuimin2WUWeimin3

1SchoolofInformationScienceandEngineering,ZhejiangSci-TechUniversity,Hangzhou310018,China

2CollegeofInformationScienceandEngineering,JiaxingUniversity,Jiaxing314001,China

3InstituteofCyber-SystemsandControl,ZhejiangUniversity,Hangzhou310027,China

AbstractInrecentyears,deeplearninghasbeenahotresearchtopicintrafficflowprediction.Graphconvolutionalnetworksoutperformtraditionalconvolutionalneuralnetworksinspatialfeaturemodeling,inviewoftheirpowerfulcapabilitiesinprocessingnon-Euclideandatasuchastopologicalmap,distancemapandflowsimilaritymap.Therefore,graphconvolutionalnetworkanditsvariantshavebecomearesearchhotspotintrafficflowprediction,andmanyattractiveresearchresultshavebeenobtained.Thisarticleclassifiesandsummarizestrafficflowpredictionmodelsbasedongraphconvolutionalnetworksinrecentyears.First,thegraphconvolutioniselaboratedbycombiningthedefinitionsofspatialconvolutionandspectralconvolution.Second,inviewofthenetworkstructureofthepredictionmodel,thegraphconvolutionalnetworkbasedtrafficflowpredictionmodelsaredividedintotwomajorcategoriesofcombinedtypeandimprovedtype,eachofwhichareanalyzedanddiscussedindetailwithrepresentativemodelstructures.Inaddition,typicaldatasetscommonlyusedintrafficflowpredictionformodelperformancecomparisonarereviewed,andasimulationtestisconductedusingonerealdatasettodemonstratethepredictionperformanceoffourtrafficflowpredictionmodelsbasedongraphconvolutionalnetworks.Finally,thefutureresearchhotspotsandchallengesintrafficflowpredictionbasedongraphconvolutionalnetworksareprospected.

Keywordsdeeplearning;trafficcongestion;graphconvolutionalnetwork;trafficflowprediction

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開放實驗平臺構(gòu)建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學(xué)習(xí)的三級階梯
有體驗的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
主站蜘蛛池模板: 高清大学生毛片一级| 免费一级成人毛片| 免费中文字幕一级毛片| 国产理论最新国产精品视频| 伊人色综合久久天天| 日韩精品毛片人妻AV不卡| 欧美人人干| 久久国产精品77777| 国产精品美人久久久久久AV| 女人av社区男人的天堂| 国产麻豆福利av在线播放| 亚洲天堂精品视频| 欧美日本在线| 国产精品尤物在线| 久久久精品久久久久三级| 成人综合在线观看| 久久黄色小视频| 国产高清在线丝袜精品一区| 亚洲第一中文字幕| 午夜限制老子影院888| 亚洲国产天堂久久综合226114| 国产乱论视频| 制服丝袜一区二区三区在线| 不卡无码h在线观看| 国产成人高清亚洲一区久久| 国产在线一区视频| 成年A级毛片| 国产欧美在线视频免费| 国产XXXX做受性欧美88| 欧美国产日本高清不卡| 亚洲一区二区三区国产精华液| 影音先锋亚洲无码| 97在线公开视频| 国产成人精品一区二区| 免费无码AV片在线观看中文| 免费不卡在线观看av| 国产黄色视频综合| 国产精品hd在线播放| 欧美亚洲欧美区| 精品一区二区三区视频免费观看| 喷潮白浆直流在线播放| 色婷婷在线影院| 2021亚洲精品不卡a| 国产精品 欧美激情 在线播放| 亚洲成A人V欧美综合| 国产精品极品美女自在线网站| 久久黄色免费电影| www.99精品视频在线播放| 一区二区三区四区日韩| 国产黄色爱视频| 欧美精品xx| 国产波多野结衣中文在线播放| 成人无码一区二区三区视频在线观看| 亚洲永久视频| 第九色区aⅴ天堂久久香| www.99在线观看| 国产系列在线| 成人亚洲国产| 久久99蜜桃精品久久久久小说| 国产一在线| 国语少妇高潮| 国产91久久久久久| 亚洲欧美另类色图| 国产精品自在自线免费观看| 一级香蕉人体视频| 国产99视频精品免费视频7| 国产成人夜色91| 国产午夜小视频| 性色一区| 国产精品三级av及在线观看| 亚洲男人的天堂久久香蕉| AV老司机AV天堂| 国产激情第一页| 污视频日本| 欧美亚洲另类在线观看| 成年女人a毛片免费视频| 亚洲精品在线91| 激情在线网| 婷婷亚洲综合五月天在线| 女人18毛片水真多国产| 亚洲国产精品成人久久综合影院| 国产91色在线|