



































摘 要:針對混合動力汽車隊列行駛過程中工況的適應性問題,提出了一種基于KL(Kullback-Leibler)散度工況識別的分層控制方法。上層控制器利用車—車通信技術,獲取隊列中前車狀態信息,采用模型預測控制(MPC)算法,實現隊列縱向控制,并計算出最優跟車車速;下層控制器基于典型工況,離線求解需求功率的轉移概率矩陣,并通過Q-Learning算法訓練最優Q表嵌入整車模型中;在行駛中以固定時間長度在線更新轉移概率矩陣,采用KL散度進行工況識別,根據識別的工況類型,結合當前時刻車速、需求功率和電池荷電狀態(SOC),通過在線查表實現轉矩分配。結果表明:與未考慮工況識別策略相比,本策略的油耗降低了8.6%;與作為基準的動態規劃(DP)相比,增加了4.8%;在與DP油耗基本保持相同的前提下,該策略離線仿真時間縮短21%,不僅能夠在線應用,還能實時適應工況變化。
關鍵詞: 混合動力汽車;汽車隊列;工況識別;模型預測控制(MPC)算法; Q-Learning 算法; KL(Kullback- Leibler)散度
中圖分類號: U 461.8 文獻標識碼: A DOI: 10.3969/j.issn.1674-8484.2024.02.013
混合動力汽車(hybrid electric vehicle,HEV) 與傳統汽車相比具有降低油耗和排放的能力,與純電動汽車相比擁有更長的續駛里程,避免里程焦慮,因此受到廣泛關注[1]。另一方面,智能交通系統的快速發展也推動著智能網聯汽車的進步[2-3],為車輛巡航控制提供保障。因此,通常將智能跟車控制與混合動力汽車協同研究,以保證混合動力汽車隊列能獲得更好的通過性和燃油經濟性。對于混合動力汽車隊列,主要存在隊列間車輛的縱向控制和能量管理兩大問題。
車輛隊列行駛是智能交通系統的一個重要應用,能夠有效提高交通系統的安全性、提升交通效率、改善車輛的燃油經濟性。隊列控制的目的是使隊列中的車輛保持相近的速度和穩定的車間距。隊列縱向控制目前常用的方法主要包括比例積分微分(proportionintegration differentiation,PID) 控制、滑模控制、機器學習和模型預測控制(model predictive control,MPC) 等,由于MPC 在處理非線性多約束問題上具有優勢,所以常用來解決隊列間的控制問題。魯若宇[4]基于MPC 理論提出一種滿足隊列跟隨性、安全性和舒適性的控制策略,并驗證了不同單向通信拓撲車輛隊列的控制性能。羅捷[5] 提出一種分布式MPC 策略以解決通信拓撲切換下異質非線性車輛隊列協同控制問題。
混合動力汽車HEV 隊列控制相比于傳統車輛隊列,考慮隊列間的跟隨性的同時,又要涉及不同能量源的能量分配,故針對混合動力汽車HEV 隊列的能量管理,多采用分層框架,上層對隊列中各車的最優車速進行求解,下層根據目標車速進行能量管理,實現車輛的經濟行駛[6-9]。HU Xiaosong[10] 上層通過MPC 建立多速度規劃與跟馳模型,下層根據車速進行能量管理,最后與動態規劃(dynamic programming,DP) 結果對比,證明該方法能夠實現車隊協同并降低整體油耗。錢立軍[11] 將駕駛員誤差納入上層隨機MPC 中,下層通過自適應等效油耗最小策略優化兩種動力源間的功率分配。YIN Yanli[12] 針對HEV 隊列上層采用分布式MPC 根據前車位置和速度優化跟隨車目標車速,下層利用強化學習進行能量管理。TANG Xiaolin[13] 綜合考慮安全時距和車輛交通信息,上層采用MPC 算法實現車輛隊列的安全行駛,下層通過等效油耗最小策略進行能量管理,保證安全性的同時取得不錯的燃油經濟性。
現有能量管理策略大多是在某一固定工況的基礎上進行分析得到的,但汽車行駛過程中實際工況是復雜多變的,在進行能量管理時如果只選擇單一工況會有很大的局限性。因此,如果通過識別工況并選擇最為接近的固定工況作為能量管理策略的參考,則能夠進一步提升能量管理效果。
現有研究中通常使用K-means 聚類方法[14] 和模糊控制器[15] 進行工況識別,但聚類中心和隸屬度函數的確定通常取決于個人經驗。也有學者通過支持向量機[16]、神經網絡[17-18] 對工況進行識別,往往需要對樣本進行預處理且訓練時間較長。基于KL散度(Kullback-Leiblerdivergence) 的工況識別方法[19] 不受先驗知識的約束,簡化分類問題且能夠清晰快速的劃分工況類別,能做到在線實時應用,所以本文選擇該方法作為識別模型。同時不局限于單車的工況識別,將工況識別運用到隊列行駛過程中,進一步優化隊列的燃油經濟性。
綜上所述,本文以并聯式混合動力汽車為研究對象,提出一種基于KL 工況識別的混合動力汽車隊列分層控制策略,優化隊列中車輛行駛速度和燃油消耗。首先,上層模型預測控制MPC 算法在車一車通信(vehicle to vehicle,V2V) 的基礎上,通過獲得汽車車速和位置等信息求得后車最優跟車車速;其次,下層基于目標車速利用KL 散度實現工況識別;然后采用Q-Learning 進行能量管理;最后將仿真結果與動態規劃DP 進行對比,以驗證所提出的分層控制策略的適應性和燃油經濟性。
1 混合動力汽車模型描述
1.1 混合動力汽車結構
文章以并聯式混合動力汽車為研究對象,首先對其發動機、電動機和變速器等關鍵結構進行建模,如圖1 所示。動力系統等具體參數如表1 所示。
1.2 發動機靜態模型
建立發動機靜態模型,如圖2 所示。將發動機單位時間內燃油消耗體積(Vt )表示成其轉矩(Te) 與轉速(ne) 的函數,即
式中: ρ 為燃油密度; μ = 3 600、 τ = 9 550 為單位換算常數。通過查表得到發動機的燃油消耗率be 為
be = f (ne,Te). (2)
1.3 電動機模型
本文混合動力汽車(HEV) 只有一部電動機,兼顧發電機和電動機使用。若令Tm 為轉矩(Nm) ; nm 為轉速(r / min) ; ηm 為效率,則電機的功率(kW) 為:
電機的工作效率通過電機的轉速和轉矩進行查表得到;電機的效率模型如圖3 所示。
1.4 電池模型
本文不考慮的電池充放電過程的復雜性,忽略了電池內部溫度和電壓的變化。采用等效電池模型,通過等效模型計算電池功率和電池荷電狀態 (state ofcharge,SOC),如圖4 所示。
電池的計算公式為:
式中: Ebat 為電池電動勢; Esoc為電池終端電壓; I為電流;Rreq 為等效電阻; Pbat 為電池功率; Qbat 為電池容量。
1.5 車輛動力學模型
混合動力汽車縱向行駛時,針對車輛縱向動力學特性建立隊列內第i 輛車的縱向動力學模型,如下所示:
xi (t+1)= xi (t)+fi[xi(t), ui(t)]Δt, (8)
xi (t)= [si(t), vi(t)]T, (9)
式中: mi、 vi、si、Ai 分別為第i 輛車的整備質量、車速、位置和迎風面積; Fi 為第i 輛車的驅動力或制動力; ρair 為空氣密度; Cd 空氣阻力因數; f 為滾動阻力因數; θ 為坡度角。
2 上層車速控制模型
2.1 隊列通信拓撲結構
車輛隊列中通常使用拓撲結構描述各個車輛控制器節點間的信息傳輸和交通方式。隊列中的通信拓撲結構可以使用有向圖G ={V, E} 表示,其中V ={0,1,2,...,N}是有向圖中節點的集合,即隊列中車輛編號,E = VN×VN為隊列中車輛間信息的傳輸路線。本文建立了前車跟隨式(predecessor following,PF) 通信拓撲結構,相應的隊列模型如圖5 所示。
前車跟隨式(PF) 通信拓撲結構指跟隨車只能獲取前方一輛車的信息,無法獲取其他鄰域車輛的信息。隊列中領航車的可達集(Pi)PF 和第i 輛跟隨車的鄰域集(Oi)PF 分別為:
其中:“ \ ”表示“除了”、“排除”。
PF 通信拓撲結構相應的鄰接矩陣(APF)、Laplace矩陣(LPF) 和牽引矩陣(TPF) 分別為:
2.2 MPC 控制算法設計
在本研究中,隊列中采用固定車間時距控制兩車之間的距離,具體公式如下:
di*(t) = vi(t)th + li. (14)
式中:di*是t時刻第i輛車的車間期望安全距離;vi(t)為t時刻第i輛車的速度;th為車間時距;li為第i輛車的靜止間距。
為了實現更真實的車輛控制,在車輛動力學中考慮時滯影響,表示車輛需要一段時間后才能達到所要求的期望加速度。
式中: K = 1 為系統增益; τi 為時間常數,表明實際加速度以時間常數跟蹤期望加速度。
結合車輛動力學模型,可將隊列中的跟車系統模型使用狀態空間形式進行如下表達:
定義隊列中車輛的狀態變量為當前時刻車輛i 期望距離實際距離誤差Δs(t)、與前車速度誤差Δv(t)、加速度ai(t) 和速度vi(t),控制變量為期望加速度ades(t)。然后通過前向Euler 法得到系統離散狀態方程
式中: k 和k+1 分別為當前采樣時刻和下一采樣時刻,T為采樣周期。
編隊行駛過程中,要求車輛隊列與領航車盡量保持相同車速,同時前后兩車需要保持安全距離。文中采用PF 拓撲結構,故領航車車速即為前車車速。以前車車速、跟車距離和車輛加減速度為優化目標,得到預測時域內最優的加速度,傳給駕駛員模型,從而實現車輛下一時刻的車速控制。在模型預測控制MPC 策略中,目標函數如式所示:
式中: vi 表示車輛當前速度; vi-1 表示領航車目標車速;si-1 和si 表示第i-1 輛和第i 輛車的參考位置; L 表示車身長度; ai 為車輛加速度; ω1、ω2、ω3 為權重因數。
為了能夠滿足安全性要求,對優化函數進行約束:
模型預測控制MPC 目標函數中第1 項是實際車速與領航車車速的差值,目的是使車輛行駛速度盡可能與領航車車速保持一致,第2 項是對跟車距離進行優化,保證前后兩車之間有安全的跟車距離,第3 項是對車輛加速度進行優化,防止車輛頻繁加減速,提高燃油經濟性的同時保證乘坐舒適性。
最后又對車速和加速度范圍進行約束,保證優化的結果滿足物理約束。文章采用二次規劃方法求解目標函數,將求解得到的最優加速度傳給駕駛員模型,進而得到最優的行駛車速,保證車輛穩定行駛。
3 下層整車能量管理控制模型
3.1 離線需求轉移概率矩陣TPM
利用瞬態工況WLTC(global light vehicle testspecification,全球輕型車測試規范)、UDDS(urbandynamometer driving schedule,城市道路循環) 和穩態工況ECE_EUDC+1015 (ECE 為Economic Commissionof Europe,歐洲經濟委員會,EUDC 為extra urbandriving cycle,額外城市行駛工況) 作為典型工況,基于Markov 決策過程,建立需求功率轉移概率矩陣(transition probability matrix,TPM),為Q-Learning 算法離線訓練和工況在線識別做準備。
將需求功率Preq 以和車速v 分別以2 kW 和5 km/h進行離散化。
Preq∈{Preq,1, Preq,2, …, Preq,n}. (21)
v∈{v1, v2,…, vn}. (22)
根據最大似然估計法和最鄰近法可以得到需求功率TPM 的計算公式為:
其中: kij 表示從當前需求功率Preq i 轉移到下一時刻需求功率Preq j 時的次數,ki 表示Preq j 轉移的總次數。根據3 類典型工況數據( 見圖6),通過上述公式構建TPM。圖7 為3 種工況的轉移概率矩陣分布圖。
3.2 Q-Learning 算法流程
本文將車速v、需求功率Preq 和電池SOC 設置為狀態變量,電機轉矩Tm 設置為動作變量,同時綜合考慮車輛燃油經濟性和SOC 平衡,建立能量管理控制模型:
s = [v, Preq, SOC],a = [Tm],r(s, a) = Vfuel + Vele + β[SOC(t) - SOCref]2.(25)
式中: r(s,a) 為當前狀態s 采取動作a 的回報函數; Vfuel為發動機的燃油消耗體積; Vele 為電能的等效燃油消耗體積; β 為權重因數;SOCref 為電池SOC 的參考值。
Q-Learning算法是將狀態-動作的最小累計回報作為優化目標函數,可表示為:
式中:J為優化目標函數,Q*(s,a)為最優狀態-動作值函數; γ為折扣因子,γ ∈ [0,1]。
Q-Learning 算法作為強化學習的經典算法,算法的核心是根據設置的狀態變量和動作變量,采用ε-greedy 策略對所有可行動作進行評估,通過不斷的試錯,學習經驗,指導智能體選擇最優的動作,通過不斷更新Q 值直到收斂,訓練出最優的Q 表,最終達到全局最優策略[9],下文為基于Q-Learning 算法的偽代碼。
步驟1 : 離散狀態s、動作a,初始化學習率α、折扣因子γ 和Q(s,a) 表。
步驟2 : 給定初始狀態,根據ε-greedy 策略選擇狀態s下的動作a。
步驟3: 執行動作a 獲得回報r 和下一時刻狀態s’。
步驟4 : 利用公式(27) 更新Q 值。
Q(s,a) ← Q(s,a) + α[r + γminQ(s',a')-Q(s,a)]. (27)
步驟5 : 對訓練過程中每個輪次重復步驟2—步驟4,滿足終止條件后結束迭代,輸出最優控制策略。
3.3 混合動力汽車離線優化轉矩MAP 圖
通過3.1 節建立的狀態轉移概率模型進行Q-Learning 算法的迭代訓練,離線優化出不同狀態下對應的最優動作變量。圖8 以WLTC 工況為例,展示車速v = 30 km/h 和v = 70 km/h 時的發動機和電機的離線優化轉矩MAP 圖。
3.4 基于KL 散度的工況識別
工況識別部分主要分成2 部分,轉移概率矩陣的離線和在線計算,離線TPM 前文已有介紹。在隊列行駛過程中,每一輛車通采集車速信息,以固定時間長度更新在線TPM。
2 個狀態轉移概率矩陣P 與P′ 的KL 散度計算公式如下:
式中:2 個矩陣P 和P′,是N×N 的需求功率TPM;x和x+ 表示當前時刻與下一時刻的轉移概率。
在進行計算時,需要滿足P 和P′ 中的元素均大于零,通過下式構建等效矩陣:
式中: σ 是一個接近0 的常數,IE 是元素都為1 的矩陣P 同型矩陣。
散度KL 是一種用于量化2 個矩陣之間差距的指標。當2 個矩陣分布越相似時,散度KL 越小;通常將KL 散度用來衡量2 個矩陣之間的相似性。實時采集的車速數據來計算隨時間變化TPM,與典型工況下離線得到的TPM 進行比較,確定車輛行駛工況。以中國乘用車行駛工況(China light-duty vehicle test cyclepassengercar,CLTC-P) 工況( 圖9) 為例,在線更新時間長度設置為100 s,計算不同時間段的KL 值判斷是否需要進行更新。圖10 顯示了不同時間段分類情況。
3.5 混合動力汽車隊列在線優化過程
圖11 為基于KL 工況識別的混合動力汽車隊列分層控制流程圖。
混合動力汽車隊列行駛模型主要由上層控制器、駕駛員模型和下層控制器組成。在上層控制器中,領航車按照固定工況模擬實際道路行駛,跟隨車利用V2V 通信采集前車速度和位置等狀態信息,利用模型預測控制MPC 方法在線滾動優化求解最優跟車車速并傳遞給駕駛員模型,以實現跟隨車的跟車行駛。
下層控制器分成2 部分,工況識別模塊和能量管理模塊。工況識別模塊連續采集固定時間長度內的速度,本文選擇時間長度為100 s,在線計算隨時間變化的TPM,并通過計算離線和在線矩陣的散度KL 進行工況識別,選擇與實際工況相似度更高的離線優化后的Q 表。能量管理模塊是將基于典型工況數據離線優化的三維Q 表嵌入到車輛模型中,根據車速、需求功率和當前時刻SOC,根據離線優化的最優轉矩MAP圖,通過在線查表獲取實時最優發動機轉矩和電機轉矩,實現對車輛的控制。
4 混合動力汽車隊列在線仿真結果與分析
本文提出了一種混合動力汽車隊列分層能量管理策略,選擇3 輛車構成隊列,以CLTC-P 工況為仿真工況進行驗證。在該策略中,假設隊列中相鄰2 車的初始車間距為10 m,電池初始SOC 為0.6。隊列的仿真結果如圖12—圖14 所示。隊列中3 輛車在線路況識別模式結果如圖15 所示。圖16 和圖17 分別為隊列中各車輛的發動機、電動機輸出轉矩。圖16 顯示了隊列中3 輛混合動力汽車的SOC 變化軌跡。CLTC-P 工況下電池SOC 的變化見圖18。
從圖12a 和圖12b 可知:整個行駛過程車速跟蹤誤差集中在-2~2 km/h,領航車與跟隨車1 最大車速差為4.6 km/h,跟隨車1 與跟隨車2 之間最大速度相差4.3 km/h,表明所提出的控制策略能夠實現有效的車速跟隨。
從圖13a 和13b 可知:車輛的位移曲線始終未發生重疊,這意味著相鄰2 車一直保持有安全距離。在固定車間時距的情況下,跟隨距離隨著車速的變化而發生變化,但始終保持安全距離。結合圖13a 和13b,表明車輛在編隊行駛時具有良好的跟車安全性能。
從圖14 可知:3 輛車的加速度變化基本一致,都集中在 -1~1 m/s2 之間,起步最大加速度為2.14 m/s2,整個行駛過程中沒有較大波動,保證了乘坐舒適性。由圖15 可知:行駛過程中雖然每輛車車速接近,但工況識別結果仍然不同,導致不同車輛發動機和電動機的功率分配有所區別。
由圖16 和圖17 可知:在電量充足且需求功率較低的時候,會優先使用電動機驅動汽車行駛。同時當車輛在高速區間時,為了能夠充分降低燃油消耗量,車輛將會工作在純發動機或聯合驅動模式,充分利用發動機高效率區間。
由圖18 中可知:SOC 變化軌跡相似,結束時SOC值分別為0.583 5、0.586 6 和0.586 5,與設置的初始值基本相同,所以下層控制器使用Q-Learning(QL)算法能做到SOC 全局平衡。
為了驗證所提出控制策略的有效性,分別比較了有工況識別(KL-QL)、無工況識別(QL) 下的燃油消耗情況,同時以動態規劃(DP) 作為基準對燃油經濟性結果進行驗證。如表2 所示,采用有工況識別的隊列100 km 平均油耗為4.125 L,相較于DP 算法的3.938 L,油耗增加了4.8%,對比無工況識別的控制策略油耗減少了8.6%。
試驗結果表明,基于工況識別的Q-Learning 策略能實現較好的燃油經濟性。表3 仿真結果表明:Q-Learning 策略的離線仿真時間相比DP 減少21%,使用Q-Learning 策略的下層控制器在線仿真時間為396 s,能夠實現在線實時控制。
5 結 論
本文提出了一種混合動力汽車隊列分層控制優化策略,上層采用模型預測控制MPC 實現車隊的縱向控制,下層則利用Q-Learning 算法進行車輛的轉矩分配。建立基于KL(Kullback-Leibler) 散度的自適應工況識別模型。利用3 類典型工況獲得離線轉移概率矩陣TPM,然后根據車輛實際行駛車速,在線更新隨時間變化的TPM,實時判斷車輛行駛的工況類型。
仿真表明:基于工況識別的分層控制策略能實現隊列良好的車速跟隨性和維持電池荷電狀態SOC均衡。與無工況識別的策略相比,燃油經濟性提升8.6% ;與動態規劃DP 優化效果對比,燃油經濟性基本保持相同,同時在線計算時間大幅減少,能夠實時適應工況變化。
參考文獻(References)
[1] 孫超, 劉波, 孫逢春. 新能源汽車節能規劃與控制技術研究綜述[J]. 汽車安全與節能學報, 2022, 13(4): 593-616.
SUN Chao, LIU Bo, SUN Fengchun. Review of energysavingplanning and control technology for new energyvehicles [J]. J Auto Safety Energy, 2022, 13(4): 593-616.(in Chinese)
[2] ZAHNG Fengqi, HU Xiaosong, Langari R, et al. Energymanagement strategies of connected HEVs and PHEVs:Recent progress and outlook [J]. Prog Energy Combu Sci,2019, 73: 235-256.
[3] 胡云峰, 劉迪, 趙靖華, 等. 智能網聯環境下車輛能耗與排放優化控制的研究現狀與展望[J]. 中國公路學報,2022, 35(3): 1-14.
HU Yunfeng, LIU Di, ZHAO Jinghua, et al. Researchstatus and prospect of vehicle energy consumption andemission optimization control in intelligent networkenvironment [J]. China J Highway Transp, 2022, 35(3):1-14. (in Chinese)
[4] 魯若宇, 胡杰, 陳瑞楠, 等. 基于DMPC 的智能汽車協同式自適應巡航控制[J]. 汽車工程, 2021, 43(8): 1177-1186.
LU Ruoyu, HU Jie, CHEN Ruinan, et al. Cooperativeadaptive cruise control of intelligent vehicles based onDMPC [J]. Auto Engineering, 2021, 43(8): 1177-1186. (inChinese)
[5] 羅捷, 魯良葉, 何德峰, 等. 通信拓撲切換下車輛隊列分布式模型預測控制[J]. 控制理論與應用, 2021, 38(7):887-896.
LUO Jie, LU Liangye, HE Defeng, et al. Distributed modelpredictive control of vehicle platoons with switchingcommunication topologies [J]. Contr Theo Appl, 2021,38(7): 887-896. (in Chinese)
[6] 張毅, 裴華鑫, 姚丹亞. 車路協同環境下車輛群體協同決策研究綜述[J]. 交通運輸工程學報, 2022, 22(3): 1-18.
ZHANG Yi, PEI Huaxin, YAO Danya. Research reviewon cooperative decision-making for vehicle swarms ina vehicle-infrastructure cooperative environment [J]. J Transp Eng, 2022, 22(3): 1-18. (in Chinese)
[7] Ye Xin, LAI Fei, HUO Zhiwei. Energy managementstrategy design and simulation validation of hybrid electricvehicle driving in an intelligent fleet[J]. Electronics, 2019,8(12): 1516.
[8] 洪金龍, 高炳釗, 董世營, 等. 智能網聯汽車節能優化關鍵問題與研究進展[J]. 中國公路學報, 2021, 34(11): 306-334.
HONG Jinlong, GAO Bingzhao, DONG Shiying, et al.Key problems and research progress of energy savingoptimization for intelligent connected vehicles [J]. Chin JHighway Transp,2021, 34(11): 306-334. (in Chinese)
[9] 尹燕莉, 黃學江, 潘小亮, 等. 基于PID 與Q-Learning的混合動力汽車隊列分層控制[J]. 吉林大學學報( 工學版), 2023, 53(5): 1481-1489.
YIN Yanli, HUANG Xuejiang, PAN Xiaoliang, et al.Hierarchical control of hybrid electric vehicle platooningbased on PID and Q-Learning algorithm [J]. J Jilin Univ(Eng Tech Ed): 2023, 53(5): 1481-1489. (in Chinese)
[10] HU Xiaosong, ZHANG Xiaoqian, TANG Xiaolin, et al.Model predictive control of hybrid electric vehicles for fueleconomy, emission reductions, and inter-vehicle safety incar-following scenarios [J]. Energy, 2020, 196: 117101.
[11] 錢立軍, 陳健, 吳冰, 等. 考慮駕駛員操作誤差的混合動力汽車隊列生態駕駛控制[J]. 汽車工程, 2021, 43(07):1037-1045.
QIAN LiJun, CHEN Jian, WU Bing, et al. Eco-drivingcontrol for hybrid electric vehicle platoon considerationdriver operation error [J]. Auto Engineering, 2021, 43(07):1037-1045. (in Chinese)
[12] YIN Yanli, HUANG Xuejiang, ZHAN Sen, et al.Hierarchical model predictive control strategy based onQ-Learning algorithm for hybrid electric vehicle platoon[J]. Proc Inst Mech Eng, Part D: J Auto Eng, 2022:09544070221130826.
[13] TANG Xiaolin, DUAN Ziwen, HU Xiaosong, et al.Improving ride comfort and fuel economy of connectedhybrid electric vehicles based on traffic signals and realroad information [J]. IEEE Trans Veh Tech, 2021, 70(4):3101-3112.
[14] WANG Yichun, ZHANG Yuanzhi, ZHANG Caizhi, etal. Genetic algorithm-based fuzzy optimization of energymanagement strategy for fuel cell vehicles consideringdriving cycles recognition [J]. Energy, 2023, 263: 126112.
[15] 連靜, 常靜, 李琳輝, 等. 基于模糊在線識別的并聯混合動力客車自適應控制策略[J]. 北京理工大學學報, 2016,36(3): 264-270.
LIAN Jing, CHANG Jing, LI Linhui, et al. Adaptivecontrol strategy based on online fuzzy recognition forparallel hybrid electric bus [J]. J Beijing Univ Tech, 2016,36(3): 264-270. (in Chinese)
[16] SHI Qin, QIU Duoyang, HE Lin, et al. Support vectormachine-based driving cycle recognition for dynamicequivalent fuel consumption minimization strategy withhybrid electric vehicle [J]. Adva Mech Engi, 2018, 10(11):1-17.
[17] 劉靈芝, 張冰戰, 蔣通. 基于工況自適應的PHEV 等效燃油最小策略[J]. 汽車安全與節能學報, 2020, 11(3): 371-378.
LIU Lingzhi, ZHANG Bingzhang, JIANG Tong.Equivalent consumption minimization strategy for PHEVbased on driving condition adaptation [J]. J Auto SafeEnergy, 2020, 11(3): 371-378. (in Chinese)
[18] LIU Qifang, DONG Shiying, YANG Zheng, et al. Energymanagement strategy of hybrid electric vehicles based ondriving condition prediction [J]. IFAC-Papers Online,2021, 54(10): 265-270.
[19] YIN Yanli, HUANG Xuejiang, PAN Xiaoliang, et al.Hyperparameters of Q-Learning algorithm adapting to thedriving cycle based on KL driving cycle recognition [J].Int’l J Auto Tech, 2022, 23(4): 967-981.
基金項目 / Supported by : 四川省新能源汽車智能控制與仿真測試技術工程研究中心項目(XNYQ2022-003);城市軌道交通車輛系統集成與控制重慶市重點實驗室開放課題(CKLURTSIC-KFKT-212005);重慶市教委科學技術研究項目(KJQN202000734);重慶交通大學研究生科研創新項目(CYS23505)。