999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

目標(biāo)檢測算法及其在無人駕駛領(lǐng)域應(yīng)用研究

2021-06-16 05:29:16張舒瑞
電子制作 2021年4期
關(guān)鍵詞:分類深度檢測

張舒瑞

(江蘇省新海高級中學(xué),江蘇連云港,222000)

0 引言

無人駕駛作為當(dāng)今人工智能領(lǐng)域的頭號研究目標(biāo),其廣闊的應(yīng)用前景使其受到世界各國的強(qiáng)烈關(guān)注。人們對于無人駕駛的遐想早已在19世紀(jì)20年代便初現(xiàn)端倪,那時(shí)因?yàn)檫€不存在人工智能的概念,人們將無人駕駛的定義僅僅局限于用無線電對其進(jìn)行操控。直到半個(gè)世紀(jì)過后,智能駕駛邏輯算法的問世方才突破此領(lǐng)域中的瓶頸,從而對實(shí)現(xiàn)無人駕駛邁出關(guān)鍵性的一步。無人駕駛最受爭議的部分就是安全問題,而安全問題大部分基于對路況和突發(fā)情況的判斷,這時(shí)讓汽車擁有獨(dú)立的“思想”就尤為重要,其中目標(biāo)檢測算法更為關(guān)鍵,只有擁有了成熟的目標(biāo)檢測算法才可以讓無人駕駛這一技術(shù)達(dá)到更安全的保障[1]。而深度學(xué)習(xí)技術(shù)則推動(dòng)了目標(biāo)檢測算法的不斷進(jìn)步,使無人駕駛技術(shù)在商用領(lǐng)域取得了重大進(jìn)展和突破。

1 目標(biāo)檢測技術(shù)

目標(biāo)檢測屬于計(jì)算機(jī)視覺中的一個(gè)子問題。目標(biāo)檢測技術(shù)主要目的是找出圖像中感興趣的物體,包含物體的定位和分類兩大任務(wù),即同時(shí)確定物體的類別和物體的位置。因此目標(biāo)檢測任務(wù)可分為兩個(gè)子任務(wù):目標(biāo)分類和目標(biāo)定位。目標(biāo)分類任務(wù)負(fù)責(zé)判斷輸入圖像或所選擇圖像區(qū)域中是否有感興趣類別的物體出現(xiàn),輸出一系列帶分?jǐn)?shù)的標(biāo)簽表明感興趣類別的物體出現(xiàn)在輸入圖像或所選擇圖像區(qū)域中的可能性[2]。目標(biāo)定位任務(wù)負(fù)責(zé)確定輸入圖像或所選擇圖像區(qū)域中感興趣類別的物體的位置和范圍,輸出物體的包圍框、或物體中心、或物體的閉合邊界等,通常使用方形包圍盒,即Bounding Box用來表示物體的位置信息。目標(biāo)檢測示意圖如圖1所示。

圖1 目標(biāo)檢測示意圖

■1.1 目標(biāo)分類任務(wù)

圖像分類主要采用統(tǒng)計(jì)機(jī)器學(xué)習(xí)中的有監(jiān)督學(xué)習(xí)方法,通過主動(dòng)的喂給計(jì)算機(jī)關(guān)于某些特定標(biāo)簽的數(shù)據(jù),并建立模型、策略、算法的統(tǒng)計(jì)機(jī)器學(xué)習(xí)三要素[3],實(shí)現(xiàn)對物體的識別過程。經(jīng)典的二分類方法主要使用Logistic Regression進(jìn)行圖像分類,其算法流程如下:

首先需要將圖像數(shù)據(jù)進(jìn)行預(yù)處理,圖像在計(jì)算機(jī)中以三原色的方式存儲(chǔ),通過數(shù)據(jù)的拼接將單一圖片由[p_x,p_y,3]轉(zhuǎn)變?yōu)閇p_x*p_y*3,1]的一維向量。同時(shí)為每一個(gè)訓(xùn)練數(shù)據(jù)指定其標(biāo)簽,即物品的分類結(jié)果。

其次,在機(jī)器學(xué)習(xí)領(lǐng)域中,邏輯斯蒂回歸(Logistic Regression)可以用來實(shí)現(xiàn)分類操作,它可以看做一個(gè)沒有隱藏層的簡單神經(jīng)網(wǎng)絡(luò)。通過建立線性部分WTX+b,其中W為各節(jié)點(diǎn)的權(quán)重、b為偏置,并對線性部分的計(jì)算結(jié)果添加非線性的激活函數(shù)Sigmoid,從而實(shí)現(xiàn)對數(shù)據(jù)的更高維度的擬合,比如二次項(xiàng)等。最終建立的預(yù)測模型為[4]:

隨后,在建立了模型的基礎(chǔ)上,指定模型擬合評價(jià)的策略即損失函數(shù),該部分用來衡量參數(shù)W和b對模型擬合的效果。

最后,制定優(yōu)化損失函數(shù)的算法,較為常用的方法是梯度下降法。通過不斷更新參數(shù),從而實(shí)現(xiàn)模型的最優(yōu)化,最終得到參數(shù)W和b。

圖2 邏輯回歸算法示意

圖3所示的貓分類就是典型的分類算法,通過將圖像進(jìn)行預(yù)處理和向量化,輸入到模型中,最后模型的輸出結(jié)果就是圖片為貓的置信度。

圖3 圖片分類示意圖

■1.2 目標(biāo)定位任務(wù)

目標(biāo)定位即準(zhǔn)確的輸出目標(biāo)所在的位置,二維的物體可以使用輸出目標(biāo)的所在區(qū)域的(x,y)方框來實(shí)現(xiàn)。目標(biāo)定位任務(wù)所要預(yù)測的結(jié)果是一個(gè)連續(xù)的點(diǎn),因此可將其看作一個(gè)典型的回歸任務(wù)。

圖4 目標(biāo)定位坐標(biāo)

將其看做回歸問題,我們需要預(yù)測出(x,y,w,h)四個(gè)參數(shù)的值,從而得出方框的位置。

基于傳統(tǒng)的機(jī)器學(xué)習(xí)算法進(jìn)行分類和回歸問題時(shí),當(dāng)圖片輸入維度較大時(shí),會(huì)導(dǎo)致參數(shù)數(shù)量的劇增,尤其是傳統(tǒng)算法普遍使用全連接的方法,只能使用較淺的層次進(jìn)行學(xué)習(xí)。在此基礎(chǔ)上,逐漸發(fā)展而來的卷積神經(jīng)網(wǎng)絡(luò)、反向傳播等算法降低了參數(shù)量和參數(shù)計(jì)算的復(fù)雜度,從而實(shí)現(xiàn)了更深層次的模型,從而可以模擬更復(fù)雜的模型,實(shí)現(xiàn)更高的精度。

2 深度學(xué)習(xí)與卷積神經(jīng)網(wǎng)絡(luò)

■2.1 深度學(xué)習(xí)的概念

深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的子集,主要使用人工神經(jīng)網(wǎng)絡(luò)來妥善解決計(jì)算機(jī)網(wǎng)絡(luò)視覺效果、自然語言處理、自動(dòng)語音辨識等等關(guān)鍵問題。

深度學(xué)習(xí)器由若干處理層組成,每層包含至少一個(gè)處理單元,每層輸出為數(shù)據(jù)的一種表征,且表征層次隨處理層次增加而提高。深度的定義是相對的。針對某具體場景和學(xué)習(xí)任務(wù),若學(xué)習(xí)器的處理單元總數(shù)和層數(shù)分別為M和N,學(xué)習(xí)器所保留的信息量或任務(wù)性能超過任意層數(shù)小于N且單元總數(shù)為M的學(xué)習(xí)器,則該類學(xué)習(xí)裝置為嚴(yán)格的或是狹義的深度學(xué)習(xí)裝置,其對應(yīng)的設(shè)計(jì)、訓(xùn)練以及使用方式集合為嚴(yán)格的或是狹義的深度學(xué)習(xí)。

■2.2 深度學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò)

卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一類包括卷積運(yùn)算且有著深度內(nèi)部結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò),是深度學(xué)習(xí)的代表算法之一。卷積神經(jīng)網(wǎng)絡(luò)有著表征學(xué)習(xí)能力,通過疊加深層次的網(wǎng)絡(luò),能夠擬合較為復(fù)雜的模型。

深度學(xué)習(xí)的概念起源于人工神經(jīng)網(wǎng)絡(luò),本質(zhì)上是指一類對具有深層結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)進(jìn)行有效訓(xùn)練的方法。神經(jīng)網(wǎng)絡(luò)是一種由許多非線性計(jì)算單元(或稱神經(jīng)元、節(jié)點(diǎn))組成的分層系統(tǒng),通常網(wǎng)絡(luò)的深度就是其中不包括輸入層的層數(shù)。

卷積神經(jīng)網(wǎng)絡(luò)用于通過將原始圖像通過層轉(zhuǎn)換為類分?jǐn)?shù)來識別圖像。CNN的靈感來自視覺皮層。每當(dāng)我們看到某些東西時(shí),一系列神經(jīng)元被激活,每一層都會(huì)檢測到一組特征,如線條,邊緣。高層次的層將檢測更復(fù)雜的特征,以便識別我們所看到的內(nèi)容。

深度學(xué)習(xí)CNN模型進(jìn)行訓(xùn)練和測試,每個(gè)輸入圖像將通過一系列帶有卷積核,Pooling,全連接層(FC)的卷積層并通過Softmax函數(shù)對目標(biāo)的概率值的對象進(jìn)行分類。

卷積神經(jīng)網(wǎng)絡(luò)分為多層結(jié)構(gòu):

(1)輸入層(即訓(xùn)練數(shù)據(jù)):輸入圖層或輸入體積是具有以下尺寸的圖像:[寬x高x深]。它是像素值的矩陣。

圖5 RGB矩陣

(2)卷積層:卷積是從輸入圖像中提取特征的第一層,Conv層的目標(biāo)是提取輸入數(shù)據(jù)的特征。卷積通過使用小方塊輸入數(shù)據(jù)學(xué)習(xí)圖像特征來保持像素之間的關(guān)系。

圖6 卷積

(3)Stride:Stride是輸入矩陣上的像素移位數(shù)。 當(dāng)步幅為1時(shí),我們將濾波器移動(dòng)到1個(gè)像素。 當(dāng)步幅為2時(shí),我們一次將濾鏡移動(dòng)到2個(gè)像素,以此類推。

(4)Padding(填充):有時(shí)卷積的滑動(dòng)幅度不一定適合輸入圖像。我們有兩種選擇:用零填充圖片(零填充)以使其適合;刪除濾鏡不適合的圖像部分。

圖7 步幅

(5)激活函數(shù)(ReLu):ReLU代表整流線性單元,用于非線性操作。輸出是?(x)=max(0,x)ReLU的目的是在我們的卷積操作中引入非線性。 因?yàn)椋F(xiàn)實(shí)世界的真實(shí)模型往往是復(fù)雜的非線性模型。

還可以使用其他非線性函數(shù),例如tanh或sigmoid代替ReLU。大多數(shù)數(shù)據(jù)科學(xué)家使用ReLU,因?yàn)镽eLU的性能明顯比其他兩個(gè)更好。

(6)池化層:池化層部分將減少圖像太大時(shí)的參數(shù)數(shù)量。空間池化也稱為子采樣或下采樣,它降低了每個(gè)圖片映射的維度,但保留了重要信息。空間池化可以是不同類型的:最大池化;平均池化;總和池化。

圖8 空間池化

(7)全連接層:我們稱之為FC層,我們將矩陣展平為矢量并將其饋入神經(jīng)網(wǎng)絡(luò)的全連接層。

在圖9中,特征映射矩陣將被轉(zhuǎn)換為矢量(x1,x2,x3,...)。通過全連接層,我們將這些功能組合在一起以創(chuàng)建模型。最后我們通過一個(gè)激活功能,如softmax或sigmoid,將輸出分類為貓,狗,汽車,卡車等。

圖9 全連接

圖10就是通過卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行圖像分類的過程。

圖10 圖片分類

上述神經(jīng)網(wǎng)絡(luò)的尾部展開,也就說CNN前面保持不變,對CNN的結(jié)尾處作出改進(jìn):加了兩個(gè)頭:“分類頭”和“回歸頭”,這樣就能實(shí)現(xiàn)一個(gè)主干網(wǎng)絡(luò)進(jìn)行多目標(biāo)學(xué)習(xí),即classification + regression模式。

圖11 目標(biāo)分類 + 位置檢測

3 數(shù)據(jù)準(zhǔn)備與模型訓(xùn)練

本論文采用PASCAL VOC 數(shù)據(jù)集,共使用20類目標(biāo)分類,包含person、car、bicycle、bus等關(guān)鍵目標(biāo),樣例數(shù)據(jù)如圖12所示。

圖12 voc數(shù)據(jù)樣例

標(biāo)簽文件采用xml格式的標(biāo)注文件,數(shù)據(jù)標(biāo)注樣例如圖13所示。

圖13 voc數(shù)據(jù)標(biāo)注樣例

本文主要采用YoloV3算法,YOLOv3算法的主體結(jié)構(gòu)是一個(gè)龐大的卷積神經(jīng)網(wǎng)絡(luò)[5],YOLOv3原理圖如圖14所示。YOLOv3網(wǎng)絡(luò)的輸入層接收416×416的輸入圖像,網(wǎng)絡(luò)中有代碼體現(xiàn)出來的網(wǎng)絡(luò)層次共計(jì)252層(統(tǒng)計(jì)包括用于構(gòu)建res_block塊的add層)。從第0層到75層被統(tǒng)稱為darknet-53的部分共含有53層卷積層以及23層殘差層。這一部分網(wǎng)絡(luò)結(jié)構(gòu)不是對darknet-19的簡單加深,而是引入了殘差網(wǎng)絡(luò)的跳層連接思想[6],從76到105層是YOLOv3的特征交互和輸出層,這一部分舍棄了全連接層轉(zhuǎn)而通過連續(xù)的1×1和3×3卷積核實(shí)現(xiàn)局部特征交互,作用類似于全連接層,但全連接層實(shí)現(xiàn)的是全部像素的全局特征交互。

圖14 YOLOv3原理圖

神經(jīng)網(wǎng)絡(luò)訓(xùn)練部分程序如圖15所示。

圖15 模型訓(xùn)練部分程序

神經(jīng)網(wǎng)絡(luò)訓(xùn)練完成后,在測試集上對算法的性能進(jìn)行測試,并最終對網(wǎng)絡(luò)實(shí)時(shí)視頻檢測性能進(jìn)行測試。采取的思路是先捕獲實(shí)時(shí)視頻流,從中依次截取出每一幀圖像,再調(diào)用訓(xùn)練好的YOLOv3網(wǎng)絡(luò)的單張圖像檢測的函數(shù)對每幀圖像檢測目標(biāo)。單張圖像檢測部分程序如圖16所示。

圖16 圖片檢測驗(yàn)證代碼截圖

4 應(yīng)用領(lǐng)域及展望

隨著圖像分類精度在某些領(lǐng)域達(dá)到了超越人類的水平,其應(yīng)用價(jià)值也得到了廣泛的認(rèn)可從而應(yīng)用在諸多領(lǐng)域。無人駕駛汽車在行駛過程中需要對周圍的物體進(jìn)行精確的識別,從而區(qū)分哪些是障礙物、哪些是行人,同時(shí)需要對行車指示牌等進(jìn)行精確的劃分,從而為駕駛決策提供支持。可以預(yù)見,高精度的圖像分類技術(shù)將廣泛應(yīng)用在無人駕駛領(lǐng)域中。總之,通過將深度學(xué)習(xí)算法運(yùn)用于無人駕駛中的目標(biāo)檢測算法,將會(huì)大大提升目標(biāo)檢測精度及進(jìn)一步加速無人駕駛技術(shù)的成熟。并結(jié)合其他傳感技術(shù),增強(qiáng)無人駕駛汽車的感知能力,這也就大大增加了無人駕駛汽車的安全性能,只有這樣才能夠推動(dòng)無人駕駛技術(shù)的盡快落地運(yùn)行。

本文通過對目標(biāo)檢測算法的闡述,并運(yùn)用傳統(tǒng)機(jī)器學(xué)習(xí)算法和深度學(xué)習(xí)方法進(jìn)行訓(xùn)練和驗(yàn)證,對目標(biāo)檢測算法進(jìn)行了原理和實(shí)際驗(yàn)證。在訓(xùn)練過程中,存在著數(shù)據(jù)歸一化、過擬合等問題,后續(xù)將對參數(shù)初始化、正則化等有助于提高訓(xùn)練速度、防止過擬合的問題展開研究,從而實(shí)現(xiàn)更好的對圖像數(shù)據(jù)進(jìn)行分類。

猜你喜歡
分類深度檢測
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
分類算一算
深度理解一元一次方程
分類討論求坐標(biāo)
深度觀察
深度觀察
深度觀察
數(shù)據(jù)分析中的分類討論
主站蜘蛛池模板: av大片在线无码免费| 国产精品人人做人人爽人人添| 国内精品久久久久鸭| 40岁成熟女人牲交片免费| 人妻91无码色偷偷色噜噜噜| 欧美福利在线播放| 一区二区午夜| 亚洲最猛黑人xxxx黑人猛交 | 亚洲AV无码乱码在线观看代蜜桃| 久久鸭综合久久国产| 精品国产免费人成在线观看| 欧美视频在线不卡| 制服丝袜在线视频香蕉| 国产污视频在线观看| 免费毛片全部不收费的| 精品亚洲国产成人AV| 国产不卡一级毛片视频| 91口爆吞精国产对白第三集| 99福利视频导航| 久久国产精品无码hdav| 91色在线视频| 日韩精品成人在线| 色综合色国产热无码一| 成人午夜亚洲影视在线观看| 亚洲成综合人影院在院播放| AV不卡在线永久免费观看| 亚洲国产精品国自产拍A| 麻豆精品在线播放| 精品久久人人爽人人玩人人妻| 国产欧美日韩精品第二区| 一区二区理伦视频| 国产成人免费手机在线观看视频 | 伊在人亚洲香蕉精品播放| 本亚洲精品网站| 日本www色视频| 久久免费视频播放| 国产黄网站在线观看| 精品国产Av电影无码久久久| 久久久久国色AV免费观看性色| 亚洲欧美日韩成人高清在线一区| 国产浮力第一页永久地址| 人妻21p大胆| 2020国产精品视频| 久青草免费视频| 夜色爽爽影院18禁妓女影院| 热这里只有精品国产热门精品| 2019国产在线| 扒开粉嫩的小缝隙喷白浆视频| 丁香五月婷婷激情基地| 伊人色综合久久天天| 日韩精品无码免费专网站| 久久综合亚洲色一区二区三区| 日韩av高清无码一区二区三区| 青草视频在线观看国产| 色135综合网| 日韩福利在线视频| 国产女同自拍视频| 色婷婷色丁香| 精品久久久久久成人AV| 色视频国产| 精品久久综合1区2区3区激情| 国产极品美女在线| 免费不卡视频| 国产免费福利网站| 99久久精品视香蕉蕉| 亚洲美女视频一区| 国产精品观看视频免费完整版| www.99在线观看| 一级成人a做片免费| 青青久在线视频免费观看| 91国内视频在线观看| 日韩激情成人| 无码国产伊人| 99在线视频网站| 色哟哟精品无码网站在线播放视频| 欧美激情第一区| 久久精品一卡日本电影| 97国内精品久久久久不卡| 91成人在线观看视频| 看你懂的巨臀中文字幕一区二区 | 大香伊人久久| 亚洲成人一区二区三区|