中圖分類號:U462.3 收稿日期:2025-05-12
DOI:10.19999/j.cnki.1004-0226.2025.08.004
Research on Low-computational-power Vehicle Data Desensitization Technology Based on Mobilenetv1-YOLOv4
Zhu ZhanglinglLiu Peng2Wang Yixuan2 Wang Houzheng1Liu Yixuan2He Ting1 1.Anhui Pusi Standard Technology Co.,Ltd.,Wuhu 241ooo,China 2.CATARC Automotive Test Center(Wuhan)Co.,Ltd.,Wuhan 430056,China
Abstract:Withtherapiddevelopmentofintellgentandconnectedvehicles,anincreasingnumberofvehiclesareequippedwith advanceddriverassistancesystems thatrelyonextealsensorssuchascamerasandlidarforroadenvironmentperceptionanddriving decision-making.isprocssivolvesalageamountofextealinteractieifoationtransmsioaingeicledatauityissuesincreasinglyprominent.Toensuredriingsafety,extealpersonalinformationthatcanotbecollectedwithpersonalcosetand transmitedovertheetworkuchasicenseplatesandacsustbeonyiedncludingdeletingimagesthacontainiiable naturalpersosoaplingpartialcontouringproesingtoacialifomationineimags.Tddresstisisue,tispaperrosesa low-computational-powervehicledata desensitization methodbasedonMobilenetv1-YOLOv4.This methodcombinessuper-resolution enhancementreconstructiontechnologyforimageenhancement,enablingdesensitizationofboth externalfacesandvehiclelicense platesatlowomputatioalcosts.Iomplexenvionments,teodelcanstllmaitainhighdetectionacuracyandeal-tiepefor mance.Theimplementationof tisresearchnotonlycomplieswiththerequirementsofthe“SeveralProvisionsontheManagementof AutomotiveDataSecurity”andthenatioalstandardGB/T4464-2024“GeneralRequirementsforAutomotiveData”,butalsohasimportant practical significance for protecting personal privacy and enhancing the security of automotive data.
Key words:Object detection; YOLOv4;Image enhancement;Anonymization processing
1前言
隨著智能網聯汽車的飛速發展和高階自動駕駛技術的廣泛應用,車輛已不再僅是一個交通工具,更是一個移動的數據中心,涉及大量的數據采集與傳輸。這一過程中,數據安全問題日益凸顯,尤其是對車外個人信息的保護,如車牌和人臉信息,已成為關注焦點。為應對這一挑戰,《汽車數據安全管理若干規定》和國家標準GB/T44464—2024《汽車數據通用要求》明確指出,對于無法征得個人同意收集并通過網絡傳輸的車外個人信息,必須進行匿名化處理。這包括刪除含有能夠識別自然人的畫面,或對畫面中的人臉信息等進行局部輪廓化處理。此舉旨在確保行車安全的同時,保護個人隱私不受侵犯。然而,如何在車端低算力成本下兼顧目標檢測精度與實時性要求,部署高效的脫敏檢測算法,成為了一個重要的研究任務。這不僅需要算法本身的優化和創新,還需要在硬件限制和實時性要求之間找到平衡點。
隨著人工智能技術的飛速演進,基于深度學習的目標檢測算法已徹底重塑計算機視覺領域的技術格局,成為目標檢測任務的絕對主流方向。相較于傳統依賴人工設計特征(如HOG、SIFT等)的檢測方法,深度學習算法通過構建多層神經網絡結構,能夠從原始圖像數據中自動學習層次化的特征表示,從低級的邊緣、紋理信息到高級的語義特征,實現對復雜場景下目標的精準捕捉與定位。
針對智能網聯汽車車端數據脫敏的核心需求,本研究提出一種基于深度學習目標檢測的車外人臉與汽車號牌信息匿名化處理方法。該方法以YOLOv4模型[1]為基礎框架,創新性地將其原始主干網絡替換為輕量級MobileNetv12網絡,通過深度可分離卷積顯著降低模型參數量與運算成本,實現車端低算力環境下的高效部署;同時,為解決復雜交通場景中小目標(如遠距離人臉、模糊車牌)檢測精度不足的問題,引入超分辨率增強重建技術對原始圖像進行預處理,提升小目標區域的細節特征清晰度,進而增強模型對車外人臉與汽車號牌的精準定位能力,最終通過對檢測到的敏感區域進行實時匿名化處理,確保在滿足法規要求的前提下,兼顧目標檢測的精度與實時性,為智能網聯汽車的車外數據安全防護提供技術支撐。
2國內外研究進展
2.1目標檢測綜述
在計算機視覺領域,確定圖像中所含目標的類別及其位置的問題被稱為目標檢測。與圖像分類不同,目標檢測任務需要對每個目標實例進行識別。因此,目標檢測本質上是一種基于實例的視覺任務。在深度學習廣泛應用于計算機視覺領域之前,目標檢測主要依靠手工設計的機器學習特征來實現[3]。
當前目標檢測領域的方法主要分為兩大類:基于區域提議的方法和基于分類的方法。其中,基于區域提議的方法以R-CNN、FasterR-CNN[4]等為代表;基于分類的方法則涵蓋YouOnlyLookOnce(YOLO)、Single ShotDetector(SSD)[5]等算法。
2.2卷積神經網絡應用綜述
卷積神經網絡(ConvolutionalNeuralNetwork,CNN)[6]是一類深度神經網絡模型,專門用于處理具有網格結構的數據(如圖像、視頻、音頻等)。其核心特征在于通過卷積操作提取數據的局部特征一一借助滑動窗口(卷積核)對輸人數據進行局部感知,能夠高效捕捉數據中的空間相關性。同時,CNN通常包含池化層(用于降維并保留關鍵特征)激活函數(引入非線性特性)及全連接層(用于完成最終的分類或回歸任務)等結構。憑借在圖像數據處理方面的卓越性能,CNN已成為計算機視覺領域的基礎性技術,廣泛應用于圖像分類、目標檢測、圖像分割、人臉識別等諸多任務中。
Rosenblat等[7]提出了單層感知器模型,該模型在MP模型的基礎上增加了學習能力,但單層感知器網絡無法處理線性不可分問題;Zhang等[8]提出了首個二維CNN——移位不變人工神經網絡(shift-invariantANN);Lecun等9]則構建了用于手寫郵政編碼識別的CNN,并首次引人“卷積\"這一術語,該模型成為LeNet的原始版本;Aloysius等[10]按時間脈絡梳理了深度學習的框架體系;Rawat等[11]聚焦于CNN在圖像識別中的應用進行了綜述;Liu等[12]也針對用于圖像識別的CNN展開討論。這些綜述大多側重于CNN在特定場景下的應用,但缺乏從更為宏觀、通用的視角對CNN進行考量。
2.3YOLO算法發展綜述
YOLO(YouOnlyLookOnce)算法是目標檢測領域極具影響力的單階段檢測算法,其核心特點是將目標檢測任務轉化為一個端到端的回歸問題,通過單次神經網絡前向傳播即可同時完成目標的定位(邊界框預測)和分類,極大提升了檢測速度,滿足實時檢測需求。
Redmon等[13]提出的 You OnlyLook Once(YOLO)方法是首個基于回歸的單階段目標檢測方法。在此基礎上,Redmon等[14]進一步提出了YOLOv2(You OnlyLookOnceversion2),該版本通過移除全連接層與最后一個池化層、引入錨框機制進行邊界框預測,并設計了名為DarkNet-19的新型基礎網絡架構。
Chun等人[15]提出的通過對先驗框進行重新聚類,后再基于最佳分數值的先驗框對目標進行檢測,可以顯著提升模型在復雜環境,例如遮擋環境下的目標檢測。陳文玉等人[16在空間金字塔結構中融入軟池化操作,通過融合多重感受最大程度保留細節信息,從而高效提取小目標特征;并且引入坐標注意力機制與采用新的KI-oULoss作為邊界框損失函數,能顯著提升算法對小目標的檢測精度。
2.4數據脫敏技術綜述
數據脫敏(DataMasking)是一種數據安全技術,指通過對原始數據中的敏感信息(如個人身份信息、商業機密等)進行修改、替換、混淆或隱藏,在保持數據格式、結構及業務可用性的同時,防止敏感信息被未授權訪問或泄露的過程。其核心特點是保留數據的“形式有效性”(即處理后的數據仍能符合原有格式規范,可用于測試、開發、培訓等場景),但去除或掩蓋了數據的“真實敏感性”。
目前常用的數據脫敏技術有替換(Replacement)、加密(Encryption)、屏蔽(MaskingOut)等技術。替換(Re-placement)是指用外觀真實且與原始數據類型一致的隨機值替換數據庫中現有敏感數據的技術。經過替換處理后的數據可能與原始數據存在關聯,也可能完全無關。該技術的顯著優勢在于,即便完成替換操作,數據的格式與呈現形式仍能保持不變。加密方法(Encryp-tion)[17]則需要數據通過算法進行處理。由于加密后的數據會包含特殊字符,其呈現形式與原始數據存在明顯差異。基于密鑰的加密技術需通過密鑰才能還原數據,這意味著一旦密鑰落入未授權者手中,他們便能輕易解密數據。此外,加密技術因存在諸多局限性,在多數場景下并不優于其他數據脫敏技術。屏蔽(MaskingOut)是指用特定字符(如X或*替換數據中的部分敏感內容。在對數據進行合理屏蔽時,需注意避免掩蓋關鍵信息一若關鍵信息被誤屏蔽,整個字段將失去使用價值。
3數據集構建
3.1開源數據集
為提升模型對復雜場景下人臉檢測的精準度與魯棒性,本文選用國際公認的人臉檢測基準數據集Wider-Face作為模型訓練與驗證的核心數據支撐。該數據集包含32203張高質量人臉圖像,涵蓋393703個精確標注的人臉實例,其核心優勢在于場景覆蓋的全面性。數據集按事件類型劃分為61個類別(如街頭、集會、運動等),包含不同光照條件(強光、逆光)動態背景(車流、人群)及極端視角(俯拍、側視)的復雜樣本,這些樣本可針對性地提升模型對非理想狀態人臉的識別能力。通過在該數據集上進行訓練,模型可充分學習人臉在尺度變化、姿態擾動、遮擋干擾下的不變性特征,顯著增強對車外復雜交通場景中遠距離行人、側臉、戴口罩/墨鏡等特殊狀態下人臉的檢測精度。
3.2自采數據集
為系統性提升模型在真實道路環境下對不同畸變、多視角及多分辨率目標的檢測精度,并增強其魯棒性與跨場景泛化能力,本文構建了大規模、多維度的真實車端自采數據集,通過覆蓋復雜變量的場景設計與嚴格的數據篩選流程,確保訓練樣本的多樣性與代表性。具體而言,數據采集環節選取8款主流智能網聯車型,涵蓋轎車、SUV、MPV等多元品類,品牌包括蔚來、理想、小鵬、小米、特斯拉、長安深藍、嵐圖、極氪等,以模擬不同廠商攝像頭硬件參數的差異(光學畸變率、鏡頭焦距、分辨率)。
采集車輛分別以靜止狀態及 30km/h,60km/h,90 km/h,120km/h 五種速度工況采集動態場景,覆蓋城市主輔干道、高架快速路、商圈密集區、學校周邊、高速公路等典型交通場景,并同步納入白天強光、夜晚低照度及雨霧等惡劣天氣條件,完整復現實際行車中的光照變化、運動模糊及環境干擾。采集周期歷時2個月,累計行駛里程超 5000km ,原始圖像采集量達50萬張;經人工篩選與去重處理(剔除相似度 gt;85% 的冗余樣本),最終保留5萬張高質量標注數據,包含不同車型攝像頭因安裝角度(前視、側視、環視)導致的視角差異、鏡頭畸變(如魚眼攝像頭桶形畸變、長焦鏡頭枕形畸變)及分辨率動態變化(從 720P 至 4K 不等)的真實樣本,如圖1所示。
圖1多視角圖像采集

該自采數據集通過硬件異構性(多品牌傳感器特性)場景復雜性(全路況 + 全天氣)、目標多樣性(動態速度 + 尺度變化)的三維度設計,可有效彌補開源數據集在車端實際部署場景中的局限性,有效提升模型對車外人臉、車牌等敏感目標的跨場景檢測魯棒性與泛化能力。
4脫敏目標檢測模型與訓練
4.1YOLOv4檢測模型
本文選定MobileNetv1-YOLOv4作為核心目標檢測算法架構,通過輕量化特征提取與高精度檢測網絡的深度融合,實現車端低算力環境下敏感目標(人臉、車牌)的高效檢測。該架構的優勢在于:MobileNetv1的深度可分離卷積設計將標準卷積分解為\"逐通道濾波 + 跨通道融合”,使模型計算量降低約 90% ,參數量減少 70% 以上,顯著提升了運算速度;而相比YOLOv3,YOLOv4的技術增強進一步保障了檢測精度——通過Mosaic數據增強技術融合多尺度樣本,提升網絡對復雜場景的魯棒性;模型采用CIoU_Loss損失函數優化邊界框回歸,加速預測框收斂速度并提高定位準確度。二者的結合實現了“精度-效率”的平衡。
YOLOv4網絡首先將輸入圖像填充并調整至 416× 416的尺寸,隨后通過主干網絡CSPDarknet53提取出13×13、26×26 及 52×52 三種不同尺度的特征圖,分別對應大、中、小目標的檢測需求。這些特征圖接著送入SPP模塊和PANet網絡以增強特征提取與融合效果,最后由YoloHead完成預測并輸出結果,其網絡結構如圖2所示。
MobileNetV1是面向移動端的輕量級深層神經網絡,其通過采用深度可分離卷積進行特征提取:將標準卷積分解為兩步,先以單通道卷積核對輸入各通道單獨卷積(輸入輸出通道數一致),再通過逐點卷積提升維度,如圖3所示。
圖2YOLOv4網絡結構圖

圖3深度可分離卷積

Mobilenetv1采用 3×3 大小的卷積核,其通過采用深度可分離卷積,網絡運算量與參數量減少約為標準卷積的1/9~1/8,Mobilenetv1的基本結構如圖4所示。
圖4標準卷積與深度可分離卷積結構圖

MobileNetV1網絡總計28層,具體結構如下:第一層為標準卷積( 3×3 ,步長2)進行下采樣,隨后堆疊13個深度可分離卷積塊(共26層,部分深度卷積含步長2下采樣),接著通過 7×7 平均池化層壓縮特征,最后根據任務類別數連接全連接層與Softmax輸出概率。性能對比顯示,MobileNetV1準確率較VGG16僅下降 1% ,卻比GoogleNet高 0.8% ;而參數量和計算量方面,GoogleNet分別為其1.6倍和2.7倍,VGG16更是達到32倍和27倍。
將 YOLOv4 的主干網絡CSPDarknet53替換為Mo-bileNetV1,并將其輸出的最后三個尺度特征層直接接入原YOLOv4的SPP與PANet模塊;同時,為進一步降低計算成本,將PANet中的所有標準卷積替換為深度可分離卷積,形成MobileNetV1-YOLOv4輕量化網絡結構,如圖5所示。
4.2FSRCNN超分模型
針對部分車型攝像頭分辨率較低導致小目標檢測精度不足的問題,采用基于FSRCNN超分辨率網絡對低分辨率圖像進行增強重建。該網絡通過“收縮-映射-擴展-反卷積\"的緊湊結構設計,可在極小算力成本下(參數量僅為傳統方法的1/10)提升圖像細節特征(如人臉五官、車牌字符邊緣等),進而增強模型對遠距離、低清狀態下車外人臉與汽車號牌的敏感區域定位精度。
圖5Mobilenetv1-YOLOv4網絡結構圖

FSRCNN網絡首先使用 d 個 5×5 卷積核對輸入圖像進行初始特征提取;接著通過 s 個 1×1 卷積核對提取到的低分辨率特征進行降維處理,以降低后續計算復雜度;隨后,通過 Ωm 個串聯的 3×3 卷積核構成的映射層進行非線性特征變換;之后,再利用 d 個 1×1 卷積核將特征維度升維至與初始特征提取階段一致;最終,使用1個 9×9 卷積核通過反卷積操作將特征圖上采樣至目標高分辨率尺寸,完成圖像重建。
網絡預測的高分辨率圖片與真實高分辨率圖片之間,采用均方誤差作為損失函數,公式如下:

其中 θ={W1,W2,W3,B1,B2,B3} 是所有濾波器的權值與偏置,為模型學習需優化的參數。經過FSRCNN超分辨率網絡對圖像進行增強可以顯著提升圖像紋理特征,如圖6所示。
圖6圖像增強重建前后對比

4.3模型訓練
為適配MobileNetV1-YOLOv4模型的訓練需求,實驗環境配置如下:硬件采用Windows10系統,搭載13thGenIntelCorei9-13900KCPU、NVIDIAGeForceRTX3090GPU(24GB顯存)及128GB運行內存;軟件基于Python3.8.20和PyTorch2.4.1框架搭建。訓練階段統一將輸入圖像分辨率調整為 960×960 ,設置訓練總輪次為100epoch、批處理大小(Batch-size)為32,并通過啟用自動優化器及數據增強策略(含Mosaic、隨機翻轉、色彩抖動等)提升模型的泛化性能與收斂效率,訓練結果如圖7所示,橫軸和縱軸分別表示迭代次數(step)損失(loss)。
圖7模型訓練結果

MobileNetV1-YOLOv4模型在測試中展現出優異的綜合性能:精確率達 99.3% ,召回率為 92.5% , mAP@0.5 和 mAP@0.5:0.95 分別達到 96.4% 和 83.9% ,表明其在目標檢測準確性和復雜場景適應性上表現突出,可滿足實際應用需求。同時,相較于原始YOLOv4模型,該輕量化模型的平均檢測幀率提升 40% ,顯著增強了實時性,更適配車端低算力環境。模型在測試集上可對人臉與汽車號牌進行準確的識別,如圖8所示。
圖8人臉與汽車號牌識別

在完成人臉與汽車號牌的精準識別后,系統可進一步對敏感區域實施多層次脫敏處理,以實現數據安全與隱私保護的雙重目標。具體而言,針對識別出的人臉區域,可采用純色塊覆蓋(如統一灰色或黑色色塊)高斯模糊(通過調整模糊半徑控制模糊程度)或馬賽克處理(按預設網格尺寸進行像素化)等方式,有效降低面部特征的可識別性,如圖9所示。
圖9圖像脫敏處理

5結語
a.本文提出了一種面向低算力環境的汽車數據脫敏處理方法。該方法創新性地引入基于MobileNetV1-YOLOv4的輕量化目標檢測網絡,通過深度優化網絡結構設計,在保證人臉、汽車號牌等敏感目標檢測精度的前提下,顯著降低了模型參數量與運算復雜度,有效減小了車端算力成本。相較于原始 YOLOv4 模型,該輕量化方案的平均檢測幀率提升約 40% ,實現了高實時性與低資源消耗的平衡。
b.本文提出了多數據集融合訓練方法以提升模型魯棒性與泛化能力。其中,自采數據集通過硬件異構性、場景復雜性、目標多樣性的三維度設計,系統性構建了貼近真實車端部署場景的樣本庫。該融合策略有效彌補了開源數據集在車載場景適應性上的局限性,使模型對車外動態人臉、車牌等敏感自標的跨場景檢測能力顯著增強。
c.本文提出針對低分辨率圖像的增強方案,通過引入基于FSRCNN(快速超分辨率卷積神經網絡)的超分模型,實現圖像紋理細節特征的顯著提升。有效恢復遠距離拍攝或低清狀態下的圖像高頻信息,大幅提升了模型對人臉與汽車號牌的檢測精度。
參考文獻:
[1]BochkovskiyA,WangCY,Liao HYM.Yolov4:Optimal speed and accuracyofobjectdetection[J].ArXivPreprint ArXiv:2OO4.10934, 2020.
[2]SandlerM,HowardA,ZhuM,etal.Mobilenetv2:Inverted residuals andlinear bottlenecks[C]//Proceedingsof the IEEE conference on computer visionand pattern recognition,2018:4510-4520.
[3]Everingham M,Van Gool L,WilliamsC KI,et al.The pascal visual object classes(voc)challenge[J].International Journal of Computer Vision,2010,88(2):303-338.
[4]LeeJ,Bang J,Yang SI.Object detection with sliding window in imagesincludingmultiple similarobjects[C]//2O17international conferenceon information and communication technology convergence (ICTC).IEEE,2017:803-806.
[5]LiuW,AnguelovD,Erhan D,etal.Ssd:Single shot multibox detector[C]//European conference on computer vision.Cham:Springer InternationalPublishing,2016:21-37.
[6]LiZ,Liu F,YangW,etal.A surveyofconvolutional neural networks:analysis,applications,and prospects[J].IEEE Transactions On Neural Networks And Learning Systems,2021,33(12): 6999- 7019.
[7]Rosenblatt F.The perceptron:a probabilistic model for information storage and organization in the brain[J].Psychological Review, 1958,65(6):386.
[8]ZhangW,TanidaJ,ItohK,etal.Shift-invariantpatternrecognition neural network and its optical architecture[C]//Proceedings of annual conference of theJapan Society ofApplied Physics,1988:564.
[9] Lecun Y,Boser B,Denker J S,et al.Backpropagation applied to handwritten zipcode recognition[J].Neural Computation,1989,1 (4):541-551.
[10]Aloysius N,Geetha M.A review on deep convolutional neural networks[C]//2017 international conference on communication and signal processing(ICCSP).IEEE,2017:0588-0592.
[11]Rawat W,Wang Z.Deep convolutional neural networks for image classification:A comprehensive review[J].Neural Computation, 2017,29(9):2352-2449.
[12]Liu Q,Zhang N,YangW,etal.A review of image recognition with deep convolutional neural network [C]//International conference on intelligent computing.Cham:Springer International Publishing, 2017:69-80.
[13]RedmonJ,Divvala S,GirshickR,etal.You only look once:Unified,real-time object detection[C]//Proceedings of the IEEE conference on computer vision and pattern recognition,2O16:779-788.
[14]RedmonJ,FarhadiA.YOLO9ooo:better,faster,stronger[C]//Proceedings of the IEEE conference on computer vision and pattern recognition,2017:7263-7271.
[15]Chun L Z,Dian L,ZhiJY,et al.YOLOv3:face detection in complex environments[J]. International Journal of Computational Intelligence Systems,2020,13(1):1153-1160.
[16]陳文玉,趙懷慈,劉鵬飛,等.基于改進YOLOv3的車輛檢測算法 [J].控制與決策,2024(4):1151-1159.
[17]Mining W ID.Data mining:Concepts and techniques[J]. Morgan Kaufinann,2006,10(559-569): 4.
作者簡介:
朱張玲,女,1984年生,工程師,研究方向為汽車標準、認證和測試。劉鵬(通訊作者),男,1996年出生,工程師,研究方向為智能網聯汽車信息安全、數據安全及圖像視覺領域。