












【摘要】為了探尋轉(zhuǎn)彎和直行場景下駕駛員分心駕駛的內(nèi)在機理,通過駕駛模擬器搭建直行與轉(zhuǎn)彎虛擬場景,采集駕駛員不同駕駛狀態(tài)的駕駛績效和眼動信息數(shù)據(jù),并使用KNNImputer算法對設(shè)備在采集過程中缺失的數(shù)據(jù)進行插補處理;通過配對樣本T檢驗對時間長度為1 s、重疊率為75%的時間窗口提取的樣本數(shù)據(jù)進行顯著性差異分析并提取特征指標(biāo);基于該特征指標(biāo)集合,采用XGBoost分類器構(gòu)建不同場景下的認知分心識別模型。試驗結(jié)果表明:相比于直行場景,駕駛員在轉(zhuǎn)彎場景中瞳孔直徑變化頻率更小、掃視速度更高、注視時間百分比更大,腦力負荷更大;構(gòu)建的認知分心識別模型在直行場景下的準(zhǔn)確率達到91.30%,轉(zhuǎn)彎場景下的準(zhǔn)確率為83.28%,轉(zhuǎn)彎場景下認知分心行為危險程度更高,識別更加困難。
主題詞:轉(zhuǎn)彎場景 直行場景 認知分心 KNNImputer XGBoost
中圖分類號:U461.91" "文獻標(biāo)志碼:A" "DOI: 10.19620/j.cnki.1000-3703.20230972
A Study of Driver Cognitive Distraction Recognition in Turning
and Straight Driving Scenarios
Zeng Juan1,2,3, Xu Bo1,2,3, Wang Hao1,2,3, Zhang Hongchang1,2,3
(1. Hubei Key Laboratory of Modern Automotive Components Technology, Wuhan University of Technology, Wuhan 430070; 2. Hubei Collaborative Innovation Center for Automotive Components Technology, Wuhan University of Technology, Wuhan 430070; 3. Hubei Engineering Research Center of New Energy and Intelligent Connected Vehicles,
Wuhan University of Technology, Wuhan 430070)
【Abstract】In order to explore the underlying mechanisms of driver distraction in turning and straight driving scenarios, this study uses a driving simulator to create straight-driving and turning virtual scenarios. It also collects driving performance and eye-movement data of drivers in different driving states. The KNNImputer algorithm is employed to handle missing data during data collection. Then, a paired samples T test is used to analyze significant differences and extract significant difference feature indexes from sample data with a time window of 1 s length and 75% overlap. Based on these features, an XGBoost classifier is used to build cognitive distraction recognition models for different scenarios. The results show that compared with straight driving, drivers in turning scenarios have higher mental workload, indicated by lower pupil diameter change frequency, higher saccade speed and higher fixation duration percentage. The built cognitive distraction recognition model achieves an accuracy of 91.30% for straight-driving and 83.28% for turning scenarios. This suggests that cognitive distraction behavior in turning scenarios is more dangerous and harder to recognize.
Key words: Turning scenarios, Straight driving scenarios, Cognitive distraction, KNNImputer, XGBoost
1 前言
據(jù)美國國家公路安全管理局(National Highway Traffic Safety Administration,NHTSA)公布的數(shù)據(jù)[1],僅2021年美國本土有3 522人因分心駕駛而喪失生命。引發(fā)駕駛員認知分心的因素多為分神、交談等[2],分心駕駛所致的交通事故給社會和個人帶來巨大損失。因此,準(zhǔn)確識別監(jiān)測駕駛員認知分心狀況至關(guān)重要。
交通事故發(fā)生場景主要分為在城市道路和非城市道路,其中,城市道路為交通事故高發(fā)場景,高速道路事故發(fā)生率較低[3]。在城市道路中,多樣化的車載多媒體設(shè)備增加了駕駛體驗的同時,極易分散駕駛員的注意力[4],此時駕駛員腦力負荷增加,其保持車道行駛的能力降低[5-6]。在高速道路中,駕駛員使用藍牙通話、交談等分心駕駛會顯著降低掃視速度,但轉(zhuǎn)向盤轉(zhuǎn)角與轉(zhuǎn)向熵增大[7]。
道路形狀會顯著影響駕駛員的安全行駛能力[8]。據(jù)統(tǒng)計,彎道造成事故的可能性是直線行駛的1.74倍[9]。彎道駕駛中,駕駛員對視覺的需求增加[10],轉(zhuǎn)向行為和視覺追蹤在水平方向的變動性降低[11],使用視覺刺激或人工反應(yīng)執(zhí)行非駕駛相關(guān)任務(wù)的駕駛員在道路上的固定次數(shù)較少,持續(xù)時間較短,車道保持性能較差[12–14]。
因此,本文通過駕駛模擬器搭建城市道路中直線場景和多種典型轉(zhuǎn)彎場景,采集駕駛員駕駛績效和眼動數(shù)據(jù),根據(jù)統(tǒng)計學(xué)分析確定不同場景中認知分心的顯著性差異指標(biāo)與內(nèi)在機理。基于顯著性差異指標(biāo),構(gòu)建認知分心模型,通過對比試驗評估模型的有效性。
2 試驗方案
2.1 試驗環(huán)境
2.1.1 被試信息
本文試驗分3批進行,共招募45名被試者。為了避免被試者年齡、駕駛熟練程度等因素影響,選擇20~40歲駕駛員(均值為27.27歲,標(biāo)準(zhǔn)差為5.61歲),并要求被試者均具有至少5 000 km的駕駛經(jīng)驗。
由于人體腦力負荷隨者工作時間的增加而增大,高強度的腦力負荷會嚴(yán)重影響駕駛者的反應(yīng)能力[15]。為了減少被試個體因素對試驗的影響,要求被試者在試驗前保持充足的睡眠以及身心健康,無潛在疾病、聽覺和視覺障礙,且試驗期間不得飲酒和服用藥品。
2.1.2 試驗設(shè)備
使用3個不同方位的投影儀,將場景信息投影在車輛正前方的120°環(huán)幕上,駕駛模擬器采樣頻率為100 Hz。同時,配套Tobii公司生產(chǎn)的Tobii Pro Glasses2型號眼動儀,采樣頻率為50 Hz,試驗設(shè)備如圖1所示。
2.1.3 試驗場景
使用駕駛模擬器配套軟件SCANeR Studio搭建虛擬仿真場景,如圖2所示。本文設(shè)計雙向六車道,每條車道的寬度為3.75 m,分為直行和轉(zhuǎn)彎場景。直行場景包括直線路段、丁字路口直線行駛和十字路口直線行駛;轉(zhuǎn)彎場景包括左/右轉(zhuǎn)道路行駛、丁字路口和十字路口轉(zhuǎn)彎行駛。
為了使虛擬場景更加接近實際,各場景中均設(shè)有行人、車輛,每個場景出現(xiàn)2次。其中,行人在道路兩旁的人行道行駛,密度為2人/m;車輛包括道路正常行駛車輛和停止線內(nèi)等待紅路燈車輛,車流密度為50輛/km。直線道路場景行駛車速為60 km/h,轉(zhuǎn)彎道路場景行駛車速為30 km/h。被試車輛在中間車道行駛,在即將轉(zhuǎn)彎時需提前換道。
2.1.4 駕駛次任務(wù)
本文試驗的認知分心次任務(wù)為心算計算題,題目選擇復(fù)雜度相近的2位數(shù)加法、3位數(shù)與2位數(shù)減法。當(dāng)被試車輛到達設(shè)定位置時,副駕駛員會從算數(shù)題庫中隨機選擇一道題目,口述給被試者,要求被試者在5 s內(nèi)提供答案并進行相應(yīng)記錄。
2.2 缺失數(shù)據(jù)處理
由于采集數(shù)據(jù)時存在個別數(shù)據(jù)缺失,為了保證數(shù)據(jù)的完整性與可靠性,本文采用基于K-最近鄰算法(K-Nearest Neighbors,KNN)改進的KNNImputer方法,通過計算歐幾里德距離找到最臨近的n個樣本,使用樣本的均值填補缺失值。本文設(shè)置n=5。
3 特征指標(biāo)提取及分析
3.1 特征指標(biāo)提取
目前,多數(shù)研究[7,16-17]的特征指標(biāo)主要分為駕駛績效、眼動信息和生理信息。其中,駕駛績效指標(biāo)反映開車過程中車輛的穩(wěn)定性和安全性,包括橫縱向速度、車道偏移量等車輛參數(shù)[18]。該類指標(biāo)可通過車輛的傳感器獲取,而眼動信息通過特定設(shè)備,采集駕駛過程中駕駛員眼睛、頭部等變化信息,包括左右眼瞳孔直徑、掃視速度等眼部參數(shù),實現(xiàn)分心駕駛檢測[19];生理指標(biāo)用于量化研究者對人類/動物的行為和心理狀態(tài),通過檢測生理反應(yīng)了解心理和情感狀態(tài),包括腦電、皮電等生理數(shù)據(jù)信息[20],但腦電設(shè)備在采集數(shù)據(jù)時具有較強的入侵性,易產(chǎn)生不適反應(yīng)。
分心駕駛識別指標(biāo)體系分為單一指標(biāo)和融合指標(biāo)。單一指標(biāo)難以全面反映駕駛員分心駕駛的內(nèi)在機理變化,且搭建分心識別模型時存在指標(biāo)種類不足,導(dǎo)致模型分類效果較差。而融合指標(biāo)使用2類及以上的指標(biāo)進行融合,能夠反映駕駛員分心情況,分心識別模型的準(zhǔn)確率和可靠性均能提升[21]。
考慮到試驗設(shè)備笨重,對駕駛員的入侵性較強,本文采用的駕駛績效、眼動信息融合指標(biāo)為:
a. 駕駛績效指標(biāo),包括車輛速度(橫向、縱向)、車輛加速度(橫向、縱向)、油門踏板開度、轉(zhuǎn)向盤轉(zhuǎn)角和偏移車道中心線距離。
b. 眼動信息指標(biāo),包括注視點位置(X軸、Y軸、Z軸)、瞳孔直徑、掃視速度、掃視頻率、注視頻率、眨眼頻率和時長百分比(注視、掃視)。
為了削弱數(shù)據(jù)短期波動的影響,提高數(shù)據(jù)準(zhǔn)確性,本文采用滑動時間窗口處理數(shù)據(jù)。滑動時間窗口長度為1 s,窗口重疊率為75%,即時間窗口每隔0.25 s提取一條樣本數(shù)據(jù)。除注視頻率、時長百分比、掃視頻率和時長百分比以及眨眼頻率外的指標(biāo)計算均值和標(biāo)準(zhǔn)差,最終得到31個指標(biāo)。
3.2 特征指標(biāo)數(shù)據(jù)分析
特征指標(biāo)的顯著性差異反映了分心駕駛狀態(tài)與正常狀態(tài)的差異,指標(biāo)差異性越明顯,越有助于分心駕駛的識別。
本文使用配對樣本T檢驗,通過計算各場景中兩組樣本均值T分析數(shù)據(jù)顯著性差異。配對樣本T檢驗需滿足正態(tài)性假設(shè),采用K-S(Kolmogorsv-Smirnov)檢驗,計算經(jīng)驗分布和理論分布間距離,將其中的最大距離作為檢驗統(tǒng)計量。當(dāng)數(shù)據(jù)不滿足正態(tài)分布時,無法采用該方法進行顯著性分析,此時可選擇非參數(shù)檢驗方法。統(tǒng)計數(shù)據(jù)與原始假設(shè)間概率P判斷兩組數(shù)據(jù)的顯著性。顯著性水平閾值越低,要求越嚴(yán)格,常見的顯著性水平為0.05和0.01。選用Wilcoxon符號秩檢驗,顯著性水平α=0.05,各指標(biāo)在直行場景和轉(zhuǎn)彎場景的顯著性分析結(jié)果如表1所示。
由表1可知,當(dāng)駕駛員在直行場景中發(fā)生認知分心時,由于駕駛次任務(wù)的作用,使駕駛員腦力負荷增加,繼而表現(xiàn)出瞳孔直徑增大、掃視速度加快、注視頻率和注視持續(xù)時間減少,但駕駛員視線集中在道路中央,使車輛的車道保持能力增強。當(dāng)駕駛員在轉(zhuǎn)彎場景中發(fā)生認知分心時,駕駛員由于腦力負荷增加表現(xiàn)出瞳孔直徑增大、直徑波動變小、掃視速度增快、注視頻率和持續(xù)時間減少、眨眼頻率增加。在直行和轉(zhuǎn)彎場景下,駕駛員發(fā)生/未發(fā)生認知分心時,具有顯著性差異的指標(biāo)中,接近70%的指標(biāo)為共同指標(biāo),且指標(biāo)變化趨勢相同。
為了進一步探究相同指標(biāo)在不同場景中的差異性,對同一指標(biāo)在不同分心場景下的分心數(shù)據(jù)變化情況進行配對樣本T檢驗統(tǒng)計學(xué)分析,結(jié)果如表2所示。
由表2可知,眼動信息指標(biāo)有助于識別駕駛過程中的認知分心,而僅有較少的駕駛績效在此方面能夠表現(xiàn)出顯著性差異。這是因為認知分心為駕駛員大腦的內(nèi)部干擾,難以通過外部行為表現(xiàn)。
在不同場景中,駕駛員在直行和轉(zhuǎn)彎兩種不同道路場景中發(fā)生認知分心時,雖然有多數(shù)眼動指標(biāo)為同一指標(biāo),但其數(shù)值變化情況仍然存在顯著性差異。因此,為了在轉(zhuǎn)彎場景中提高分心駕駛的識別效果,同一指標(biāo)在不同場景中變化如圖3所示。
由圖3可知,在直行和轉(zhuǎn)彎場景中,發(fā)生分心時,駕駛員左、右眼瞳孔直徑增加,變化頻率降低。在轉(zhuǎn)彎場景中,駕駛員的瞳孔直徑變化頻率低于直線場景,表明駕駛員在轉(zhuǎn)彎場景中,發(fā)生認知分心時的腦力負荷更大。
不同場景中掃視速度情況見圖4,駕駛員發(fā)生認知分心時,掃視速度均值和標(biāo)準(zhǔn)差均高于未分心狀態(tài),且轉(zhuǎn)彎場景高于直行場景。表明駕駛員發(fā)生認知分心時,通過掃視獲得更多的環(huán)境信息,反映出駕駛員腦力負荷增加,同時,轉(zhuǎn)彎場景中腦力負荷高于直行場景。
不同場景注視時長百分比變化情況見圖5,各場景中,駕駛員認知分心狀態(tài)時的注視勢場百分比低于未分心狀態(tài),且轉(zhuǎn)彎場景低于直行場景,表明駕駛員發(fā)生認知分心時,腦力負荷增加,且轉(zhuǎn)彎場景負荷加劇。
因此,駕駛員發(fā)生認知分心時,由于腦力負荷增加,其瞳孔直徑增加、掃視速度提高、注視時長百分比降低,且轉(zhuǎn)彎場景中認知分心腦力負荷更大,行車更危險。
4 認知分心模型搭建與驗證
4.1 構(gòu)建XGBoost分類器模型流程
XGBoost(eXtreme Gradient Boosting)[22]基于梯度提升決策樹(Gradient Boosting Decision Tree,GBDT)算法逐步迭代多個弱分類器,集合成一種強分類器。XGBoost引入了正則化項,可以有效限制模型的復(fù)雜度,避免過擬合。當(dāng)梯度提升機(Gradient Boosting Machine,GBM)為負值時會停止分裂,而XGBoost會繼續(xù)分類至最大深度,再重新進行剪枝。所以XGBoost分類效果優(yōu)于單一模型。將數(shù)據(jù)集以7∶3劃分訓(xùn)練集和測試集,XGBoost重要參數(shù)如表3所示。
使用準(zhǔn)確率(Accuracy)A、精確率(Precision)P、召回率(Recall)R以及F1分數(shù)作為模型性能評估指標(biāo),分別繪制直行和轉(zhuǎn)彎場景下ROC圖,相關(guān)公式為:
[A=TP+TNTP+FP+TN+FNP=TPTP+FPR=TPTP+FN=TAF1=2P?RP+RF=FPFP+TN] (1)
式中:T為正例樣本中被正確預(yù)測的比例,F(xiàn)為負例樣本中被錯誤預(yù)測為正例的比例,TP為真陽性樣本數(shù),F(xiàn)P為假陽性樣本數(shù),TN為真陰性樣本數(shù),F(xiàn)N為假陰性樣本數(shù)。
4.2 模型結(jié)果與分析
為研究駕駛員在不同場景(直行/轉(zhuǎn)彎)下模型認知分心識別性能,通過試驗采集直行和轉(zhuǎn)彎場景中駕駛員發(fā)生和不發(fā)生認知分心時的數(shù)據(jù),最終本次試驗獲取的數(shù)據(jù)樣本情況如表4所示。
本文采用準(zhǔn)確率、精確率、召回率、F1值和ROC曲線下面積(Area Under Curve,AUC)等指標(biāo)對模型性能進行評估。其中,AUC越大,表明模型性能更佳。為了比較XGBoost算法分類性能,對比本文模型與支持向量機(Support Vector Machine,SVM)構(gòu)建的認知分心識別模型,最終測試集評估結(jié)果如表5所示,ROC圖如圖6所示。
由表5可知,在算法性能方面,相較于SVM算法,XGBoost算法在直行和轉(zhuǎn)彎場景中各評價指標(biāo)均表現(xiàn)優(yōu)異,模型準(zhǔn)確率分別提高了4.1百分點和15.11百分點,AUC值分別提高了3百分點和5百分點;在場景分析方面,直線場景的各評價指標(biāo)均優(yōu)于轉(zhuǎn)彎場景,這主要歸因于轉(zhuǎn)彎場景道路更加復(fù)雜,駕駛員在此場景中行駛時識別正常與分心駕駛指標(biāo)變化不明顯。同時,說明在轉(zhuǎn)彎場景中,模型對駕駛員的認知分心檢測相較于直行場景檢測更加困難。
5 結(jié)束語
本文探究了轉(zhuǎn)彎和直行場景中,駕駛員的認知分心的顯著性差異指標(biāo)與內(nèi)在機理,通過建立認知分心模型,為分心駕駛檢測和交通安全提供數(shù)據(jù)支撐。但由于試驗在駕駛模擬器上完成,駕駛分心識別模型在實際場景中的適應(yīng)程度仍需進一步研究。
參 考 文 獻
[1] National Highway Traffic Safety Administration. Distracted Driving in 2021: DOT HS 813 443[R]. U.S. Department of Transportation, 2023.
[2] 馬勇, 付銳. 駕駛?cè)艘曈X特性與行車安全研究進展[J]. 中國公路學(xué)報, 2015, 28(6): 82-94.
MA Y, FU R. Research Progress on Driver’s Visual Characteristics and Driving Safety[J]. China Journal of Highway and Transport, 2015, 28(6): 82-94.
[3] 史星彥. 基于典型場景的智能汽車主動制動/避障控制與實驗研究[D]. 天津: 天津職業(yè)技術(shù)師范大學(xué), 2020.
SHI X Y. Experimental Research on Active Braking/Obstacle Avoidance Control of Intelligent Vehicles Based on Typical Scenarios[D]. Tianjin: Tianjin Polytechnic Normal University, 2020.
[4] 韓西陽. 基于駕駛績效的駕駛員認知分心檢測方法研究[D]. 長沙: 湖南大學(xué), 2019.
HAN X Y. Research on Driver Cognitive Distraction Detection Method Based on Driving Performance[D]. Changsha: Hunan University, 2019.
[5] 吳紹斌, 劉雪婷, 孫洪武. 使用車載信息裝置對駕駛行為的影響研究[J]. 中國安全科學(xué)學(xué)報, 2018, 28(1): 14-19.
WU S B, LIU X T, SUN H W. Research on the Influence of the Use of on-Board Information Devices on Driving Behavior[J]. China Safety Science Journal, 2018, 28(1): 14-19.
[6] 劉卓凡, 周星池, 劉通, 等. 視覺分心程度對跟車運動狀態(tài)的影響[J]. 中國安全科學(xué)學(xué)報, 2022, 32(1): 58-64.
LIU Z F, ZHOU X C, LIU T, et al. The Effect of Visual Distraction on Following Vehicle Motion State[J]. China Safety Science Journal, 2022, 32(1): 58-64.
[7] 彭滿才. 分心駕駛下駕駛?cè)俗⒁饬Φ脑u價參數(shù)及模型研究[D]. 鎮(zhèn)江: 江蘇大學(xué), 2021.
PENG M C. Evaluation Parameters and Model of Driver’s Attention under Distracted Driving[D]. Zhenjiang: Jiangsu University, 2021.
[8] 張玉婷, 陳波佑, 張雙焱, 等. 抵近信控交叉口分心駕駛識別模型[J]. 交通運輸系統(tǒng)工程與信息, 2022, 22(1): 217-224.
ZHANG Y T, CHEN B Y, ZHANG S Y, et al. Distracted Driving Recognition Model at Approaching Signal-controlled Intersection[J]. Journal of Transportation Systems Engineering and Information Technology, 2022, 22(1): 217-224.
[9] LIU Z Q, REN S H, PENG M C. Identification of Driver Distraction Based on SHRP2 Naturalistic Driving Study[J]. Mathematical Problems in Engineering, 2021(1): 1-13.
[10] ERSAL T, FULLER H J A, TSIMHONI O, et al. Model-Based Analysis and Classification of Driver Distraction Under Secondary Tasks[J]. IEEE Transactions on Intelligent Transportation Systems, 2010, 11(3): 692-701.
[11] KOUNTOURIOTIS G K, SPYRIDAKOS P, CARSTEN O M J, et al. Identifying Cognitive Distraction Using Steering Wheel Reversal Rates[J]. Accident Analysis and Prevention, 2016, 96: 39-45.
[12] JEONG H, LIU Y. Effects of Non-Driving-Related-Task Modality and Road Geometry on Eye Movements, Lane-Keeping Performance, and Workload While Driving[J]. Transportation Research Part F: Traffic Psychology and Behaviour, 2019, 60: 157-171.
[13] 肖書影, 張志清, 李詩蕓, 等. 駕駛?cè)藦澋婪中膶π熊嚢踩挠绊慬J]. 武漢理工大學(xué)學(xué)報(交通科學(xué)與工程版), 2021, 45(2): 213-218.
XIAO S Y, ZHANG Z Q, LI S Y, et al. Effect of Driver’s Curve Distraction on Driving Safety[J]. Journal of Wuhan University of Technology (Transportation Science and Engineering), 2021, 45(2): 213-218.
[14] 張志清, 付金秀, 肖書影, 等. 彎道分心駕駛對行車安全風(fēng)險的影響研究[J]. 重慶交通大學(xué)學(xué)報(自然科學(xué)版), 2022, 41(5): 51-56.
ZHANG Z Q, FU J X, XIAO S Y, et al. Research on the Influence of Distracted Driving on Driving Safety Risks on Corners[J]. Journal of Chongqing Jiaotong University (Natural Science Edition), 2022, 41(5): 51-56.
[15] 史盛慶. 不同腦負荷下駕駛執(zhí)行過程動作量化分析研究[D]. 北京: 北京工業(yè)大學(xué), 2014.
SHI S Q. Quantitative Analysis of Driving Execution Process Under Different Brain Loads[D]. Beijing: Beijing University of Technology, 2014.
[16] 廖源. 基于多源信息融合的駕駛員分心監(jiān)測研究[D]. 北京: 清華大學(xué), 2015.
LIAO Y. Research on Driver Distraction Monitoring Based on Multi-Source Information Fusion[D]. Beijing: Tsinghua University, 2015.
[17] 徐磊. 基于人體節(jié)律性生理信號的駕駛分心研究[D]. 長沙: 湖南大學(xué), 2017.
XU L. Research on Driving Distraction Based on Human Rhythmic Physiological Signals[D]. Changsha: Hunan University, 2017.
[18] MCDONALD A D, FERRIS T K, WIENER T A. Classification of Driver Distraction: A Comprehensive Analysis of Feature Generation, Machine Learning, and Input Measures[J]. Human Factors, 2020, 62(6): 1019-1035.
[19] 李坤宸, 曹龍. 駕駛分心檢測方法綜述[J]. 汽車實用技術(shù), 2021, 46(2): 102-104.
LI K C, CAO L. Review of Driving Distraction Detection Methods[J]. Practical Technology for Automobile, 2021, 46(2): 102-104.
[20] 馬艷麗, 顧高峰, 高月娥, 等. 基于駕駛績效的車載信息系統(tǒng)操作分心判定模型[J]. 中國公路學(xué)報, 2016, 29(4): 123-129.
MA Y L, GU G F, GAO Y E, et al. Operation Distraction Judgment Model of Vehicle Information System Based on Driving Performance[J]. China Journal of Highway and Transport, 2016, 29(4): 123-129.
[21] 張輝, 錢大琳, 邵春福, 等. 模擬駕駛環(huán)境下駕駛?cè)朔中臓顟B(tài)判別[J]. 中國公路學(xué)報, 2018, 31(4): 43-51.
ZHANG H, QIAN D L, SHAO C F, et al. Discrimination of Driver’s Distracted State in Simulated Driving Environment[J]. China Journal of Highway and Transport, 2018, 31(4): 43-51.
[22] CHEN T, GUESTRIN C. XGBoost: A Scalable Tree Boosting System[C]// Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. San Francisco California USA: ACM, 2016: 785-794.
(責(zé)任編輯 瑞 秋)
修改稿收到日期為2023年11月28日。