中圖分類號:TP399 文獻標志碼:A
0 引言
科目三駕駛人考試作為駕駛技能評估的最終實踐環節,其評估體系的技術先進性與評判客觀性直接影響道路交通安全生態構建[1]。如何在保證考試過程行車安全的前提下,實現考試評判的標準化、考試流程的智能化、考試管理的精細化成了當前駕考行業探討的熱點。雖然科目三考試系統開展了大量的技術引進2,但考試體系依然面臨評估過程主觀,隨車考官對操作細節評分標準不一;人機混同操作,存在人為干預考試的風險,影響考試公平;考試管理效率低,大量的人工干預難以保證考試的效率,拉高考試的成本等問題。
針對上述問題,本文設計了一套基于智能駕駛技術和行為識別技術協同融合的智能化科目三考試系統,通過行為識別技術對駕駛人駕駛行為進行識別,實現駕駛人駕駛技術的自動化評判,通過智能駕駛技術保障考試過程的行車安全,同時實現對駕駛人安全意識的自動化評判。
1智能化科目三駕駛人考試中的難點
當前科目三駕駛人考試在智能化進程中面臨顯著的“人機協同困境”,盡管部分標準化考核項目(如燈光操作、直線行駛)已實現自動化評判,但在考生駕駛行為評估、安全意識考核及行車風險防控等核心環節,隨車安全員仍承擔不可替代的監管職能[1.3]。這種“人機混考”模式暴露出3重考評矛盾:人工經驗與機器判斷的決策沖突、主觀評價與客觀標準的量化矛盾、實時干預與系統延時的響應矛盾。
智能化考試系統的核心就是通過有效的技術手段,構建全流程無人化考評體系,解決現有科目三考試系統“人機混考”的現象,突破考核過程對人工干預的路徑依賴,實現從人工干預向算法驅動的轉型。然而,系統性技術瓶頸分析表明,當前技術體系仍存在以下亟待突破的核心問題。
1.1 駕駛行為的語義解析
如何通過多模態感知技術精準識別駕駛動作(如轉頭觀察、擋位切換等),并實現駕駛動作的標準化評判?,F行考核標準要求考生在動態駕駛場景中完成復雜操作,其評判依據高度依賴隨車安全員對考生操作時序與空間軌跡的主觀經驗。現行的考試系統雖通過車內攝像頭與車載傳感器采集駕駛過程數據,但駕駛員視覺、觸覺以及車輛動力學信號的融合處理缺乏統一語義框架,導致轉頭觀察、換擋操作等關鍵動作的時序特征難以精準解譯;另外,現有算法依然停留在“動作是否存在”層面,無法解析動作質量(如觀察視線的持續時間、擋位切換的平順性),缺乏動作質量的差異化評判[4]
1.2安全意識的量化評估
如何建立客觀量化的安全駕駛行為評價模型,替代主觀經驗判斷。安全駕駛意識的考核涉及道路安全駕駛法律法規及道路風險的預判,其評價標準具有強主觀性與模糊性,現有考試系統無法動態解析考生對道路參與者行為意圖的預判能力,僅能通過縱橫向車距等離散參數進行間接推斷(如是否保持安全車距等)。
1.3道路駕駛的動態風險防控
如何發現并防范道路駕駛的安全風險,確保考試過程的安全可控。由于考生并不是具備完全駕駛能力的駕駛人,駕駛行為的不確定性及交通環境動態變化進一步疊加了道路駕駛的安全風險,而安全員在考試過程中的干預邏輯依據自身駕駛習慣,很有可能引發“過度干預”或“處置滯后”的風險,給考試監管帶來了極大的不確定性。
2 系統設計
針對上述難點,本文基于自動駕駛和行為識別技術,結合科目三考試業務場景,構建了智能化考試系統架構。
智能化考試系統,以傳統科目三考試系統為基礎,通過“車內外多模態感知一智能決策一執行干預—自動化評判\"4大核心模塊,構建“駕駛行為解析 + 駕駛意圖識別 + 風險動態防控”的無人化考評體系。系統框架如圖1所示。
圖1系統架構設計

感知層主要進行多元數據的采集與融合,分為車內感知單元和車外感知單元。其中,車內感知單元通過多個不同視角的攝像頭,進行考生考試過程中駕駛動作的識別與解析;車外感知單元通過激光雷達、毫米波雷達、車載攝像頭、高精定位模塊等,實現道路要素構建,識別道路駕駛的潛在風險
決策層主要進行駕駛行為的分析、安全駕駛意識的評估和道路駕駛碰撞風險的管控。通過不同角度的攝像頭進行考試駕駛動作的完整拼接,并結合科目三考試內容進行語義解釋,對不符合要求的動作進行打分;根據考生的駕駛行為,結合當前車輛狀態(如車速、方向盤角度等),評估考生的駕駛安全意識;基于融合的感知和定位數據,對本車進行軌跡預測,并計算與其他道路使用者的碰撞概率,進行風險干預策略設計。
執行層主要進行自動化評判和安全保障。自動化評判模塊根據決策層的信號,對考生考試過程的考核項自進行打分,并生成相關評判報告:執行層的安全保障模塊主要是對車輛進行制動。
應用層主要進行人機系統交互??忌膫€人信息、考核項目的情況須在考試頁面進行展示,同時系統應該提供相應的語音提醒,如“開始考試”等。
3 系統實現
系統基于“感知—決策一—執行—交互\"4層架構,聚焦硬件部署、關鍵技術(功能)實現2大核心環節,構建滿足科目三考試場景下對駕駛行為解析、意圖預測及動態風險防控需求的軟硬件體系,確保從硬件集成到軟件運行、從功能開發到場景適配的鏈路貫通。
3.1 硬件部署
感知層是系統的“眼睛”,須覆蓋車內駕駛員行為與車外道路環境的全要素感知。表格所示為詳細的硬件情況。車內感知單元采用4個攝像頭,分別采集考生頭部、肢體動作的視頻流,通過以太網接入系統;車外感知單元的毫米波雷達輸出為控制器局域網(ControllerAreaNetwork,CAN)信號,通過CAN轉網設備轉換成以太網信號接入系統,其余設備均通過以太網接入系統。具體硬件部署如表1所示。
決策層是系統的“大腦”,須完成駕駛行為解析、意圖預測及風險管控的實時計算,硬件設計須滿足高算力與低延遲要求,由于系統集成了多路攝像頭和雷達,且須實時進行目標感知融合、行為識別、軌跡預測和碰撞檢測等計算,因此選用NVIDIAJetson AGXOrin+RTX 3060 的邊緣終端方案。
執行層是系統的“手腳”,須實現自動化評分指令輸出與緊急安全干預,須保證硬件的高可靠性與精準控制。執行層屬于成熟模塊化系統,其中自動化評判對于算力的要求不高,常規RK3399終端即可滿足需求;緊急安全的干預采用外接輔助制動裝備的方式實現,在副駕安裝制動裝置,并與主駕駛位制動踏板聯動,通過232串口與系統連接,在接收到制動指令后實施制動。
應用層主要依托考試系統實現,無特殊要求。
表1系統硬件部署

3.2關鍵技術實現
智能科目三考試系統的功能實現主要集中在感知層、決策層,應用層主要是一些人機交互功能的開發,本文不作贅述。感知層的行為識別與障礙物檢測技術已相對成熟,當前難點集中于多源感知數據的融合。決策層須根據行為識別結果和目標融合的結果,分別進行駕駛技術的考評、駕駛安全意識的考核和道路駕駛安全的保障。
3.2.1 感知數據融合的實現
感知數據的融合分為車內數據的融合和車外數據的融合,車內各攝像頭僅針對駕駛員特定肢體(如手部、頭部)進行監測,并不涉及多個傳感器對同一部位的描述,因此首先進行時間同步,再基于時序進行空間范圍的描述即可。
車外多傳感器的融合難點在于對同一目標物的多模態描述差異:激光雷達輸出目標物位置(xlidar,ylidar,zlidar )、目標物速度( vxlidar,vylidar,vzlidar )、目標物尺寸
)、目標物類別
)等;雙目相機輸出目標物位置( xcam,ycam )、目標物速度( vxcam,vycam )、目標物尺寸
)、目標物類別(20
)、車道線描述( y=ax2+bx+c )等;毫米波雷達輸出的信息主要包括目標物距離( rradar )、目標物速度( vradar )、目標物方位( θradar )等。
目標級融合的核心在于解決多傳感器觀測是否指向同一真實目標的問題。由于傳感器類型差異,激光雷達提供3D幾何信息,毫米波雷達提供速度,攝像頭提供類別,因此須通過相似度量化計算關聯度,最終實現目標物狀態的融合[5-6] O
首先定義激光雷達和毫米波雷達目標物的相似關聯度指標S:
Sij=ω1?Spos+ω2?Svel+ω3?Sconf
其中, Spos 表示位置相似度, Spos (20 =
為位置誤差經驗值,取 0.5m : Svel 表示速度相似度,
σvel 為速度誤差經驗值,取 0.5m/s Sconf 表示置信度,Sconf=cradar?clidar,cradar 和 clidar 分別表示毫米波雷達和激光雷達目標感知的置信度, cradar 取經驗值0.8, clidar 取經驗值1; ω1,ω2,ω3 分別為權重,且滿足 ω1+ω2+ @=1。
通過同樣的方法將激光和毫米波融合后得到的目標物與相機目標進行關聯匹配,篩選高相似度目標(相似度閾值 Sth=0.7 ),最終通過幀列跟蹤法(連續3幀以上關聯成功)確認目標物存在,將其輸出給決策層。
3.2.2駕駛員行為預測和目標物軌跡預測的實現
駕駛員的行為預測,基于融合層輸出的時間序列空間動作信息,通過邏輯判斷其是否符合科目三考試規范。例如,當車輛完成路口轉彎時,若系統未檢測到駕駛人轉頭觀察動作,則可判定該駕駛行為不符合考核要求。此部分僅須在現有考試系統中擴展邏輯計算模塊即可實現。
目標物的軌跡預測,基于車外感知層融合的目標物信息(位置、速度、類別等),結合其歷史運動狀態擬合軌跡方程,預測未來3~5s的運動路徑[7],具體如下:
(1)分別建立目標物軌跡標準方程。
X=[x,y,x,vx,vy,vz,l,w,h]r
目標物歷史軌跡方程為和 τ 時間內方程為:

(2)在線修正。
根據目標物的歷史位置信息和速度信息,擬合出可能的軌跡路線,給出初始 τ 時間內的預測軌跡,并結合未來10幀數據進行修正,形成預測軌跡的在線修正。
(3)安全評估。
對比考生與目標物(如前車)的跟車距離、變道時機等,判斷是否符合安全駕駛要求(如未保持合理跟車距離則標記違規),實現駕駛安全意識類評判;計算目標物與本車未來軌跡的交點,若存在碰撞可能則觸發制動信號至執行層,實現道路安全風險的動態保障。
4結語
本文針對安全員隨車帶來的一系列考試監管、公平性等方面的問題,提出了“考試評判 + 行車安全”的智能化考試解決方案,利用行為識別和智能駕駛技術的協同融合,實現考生駕駛技術、安全意識的自動化評判以及考試過程的安全保障,實現了考試全流程的自動化考評和行車安全的保障,為下一代科目三駕駛人考試系統提供了參考。
參考文獻
[1]王秋鴻,鞏建國.新形勢下機動車駕駛人考試員管理對策研究[J].汽車與安全,2023(2):90-94.
[2]吳美娟.智能輔助駕駛系統在駕駛培訓中的應用[J].電子技術,2023(11):324-325.
[3]潘紅麗,陳三清.基于Android的駕考練習App設計與實現[J].無線互聯科技,2022(24):92-94,102.
[4]張鐵監.大數據與深度學習技術在駕駛員培訓中研究與應用[J].長江信息通信,2023(7):135-137.
[5]唐勝景,王太巖,趙剛練,等.面向目標跟蹤的多傳感器數據融合研究綜述[J].空天防御,2024(4):18-29.
[6]呂強,劉海軍,鐘琿,等.一種主被動雷達目標跟蹤測量數據融合方法[J].現代防御技術,2024(4):108-116.
[7]高凱,劉欣宇,胡林,等.基于稀疏注意力的時空交互車輛軌跡預測[J].汽車工程,2025(5):809-819.
(編輯戴啟潤)
Research on the intelligent Subject 3 driving examination system
YE Tao’,ZHU Yanglin2 (1.Nanjing Duolun Technology Co., Ltd., Nanjing , China; 2.Automotive Engineering Research Institute of Nanjing Automotive Group Co., Ltd., Nanjing 21Oooo, China)
Abstract:To addressthe issues of significant subjective bias,numerous regulatory blind spots,and high labor costs caused byon-board safetyoffcers in Subject3driving examination,an intelligent Subject3driving examinationsystem proposed.Byanalyzing the technical botlenecksand challenges in constructing such a system,acollaborative integration ofbehavior recognitionand intellgent driving technologies is introduced to achieve automated evaluationof candidates’driving skilsand safetyawareness,as wellassafety assurance during the test process.A“test evaluation (204號 + driving safety”intelligent system is designed,which systematically eliminates regulatoryblind spotsand questions aboutfairnessassociated with manual invigilation,providing a theoretical frameworkand practicalpath forthe nextgeneration Subject 3 driving test system.
Key words:intelligent driving;behavior recognition; driving examination; Subject 3;intelligent system