易禮智
(湖南工程職業技術學院, 湖南 長沙 410151)
在智能化發展的引領下,智能汽車領域正在呈現一種突飛猛進的態勢。在智能小車視覺檢測中,需要進行相關智能裝置內部特征提取和歸納總結以及整理,將特征信息進行分級上傳,獲取目標物體。本文在卷積神經網絡基礎上進行深度學習拓展,將卷積神經網絡中的卷積層的每個單位元素進行像素單位相乘,實現目標信息的特征提取;整體串聯其中的多段卷積神經網絡,收集信息數據,并且配置大型池化層將收集結果進行展示,以實現對相關設備裝置的視覺檢測,能夠適應智能小車視覺檢測的環境差異。相較于智能小車視覺檢測代表性檢測方法-幀間差分法步驟更簡便,傳遞圖像與數據信息性能更佳,視覺檢測連接更加順暢。
智能小車作為汽車行業在信息化時代的產物,必然有其存在的意義。智能小車的運行構想是將預編完成的程序系統裝置智能小車中,并且對其下達一個在一定區域范圍內進行活動的指令,在上述區域內部,智能小車能夠通過自動化啟動系統完成小車的啟動,在此期間不需要人為進行干涉與管理,在科學探索與無人駕駛汽車中具有重要的研究意義。
除此之外,部分相關研究學家將智能小車作為人員出行的工具,極大程度上幫助了部分有駕駛障礙的人群進行出行活動。并且智能小車能夠顯示當時時間、運行速率、行駛路程等,及時進行相關周圍環境數據的檢測,及時記錄在案。同時,該智能小車在運行過程中能自我觀察光源,并根據光源所折射出的方向進行暫時性躲避,還能夠根據周圍光照情況及時躲避障礙,其中內部安裝的遠程信息傳輸系統能夠將智能小車所處環境以及觀測信息進行精確傳輸,在部分設置較為先進的系統中,能夠實現全景圖像傳播。
要進行智能小車視覺檢測,首先要對相應的智能裝置進行檢測,以此來佐證進行智能小車檢測的正確性。根據傳統智能裝置進行檢測,大致方式都是首先對裝置進行檢測區域的劃分,根據劃分情況進行候選區域的生成,再將此候選區域內部的條件以及系統結構進行詳細分析,最終確定該區域內部的運行算法,例如在智能裝置內部劃分智能指令窗口的彈出。此外,還要進行相關智能裝置的內部特征提取,內部特征是能否進行該智能裝置視覺檢測的基礎,能夠對后續檢測結構產生決定性影響,例如該智能裝置的HOG系統以及SIFT處理設備等。另外,還要時刻注意對相關數據信息進行歸納總結,并將內部系統進行整理,再通過相應特征信息將該智能裝置的特征進行分級上傳,以此來實現對目標物體的透徹分析,在智能裝置中常見的分類設備包括SVM處理器以及Ada Boost系統。
幀間差分法是作為一種智能小車視覺檢測的代表性檢測方法,其主要運行機制包括對智能小車所檢測到的至少2個幀率圖像進行觀察,并根據所觀測到的幀率差值進行計算,將所得到的差值帶入首個幀率圖像中,得出差值圖像,該圖像實質是將2個幀率圖像的灰度參數進行相減。然后再將提取圖像的背景以及隔離圖像所展示的前景結合起來,在此過程中,所出現的前景圖像是幀率閾值高于平均像素幀率的檢測對象。其基本流程如圖1所示。

圖1 幀間差分法
采用上述方式進行智能小車的視覺檢測,在檢測過程中所要進行的計算相對比較簡單,并且運算數值與數量較小。此外,在外部環境較為昏暗的情況下依然能夠進行信息數據的精確采集,出現智能小車發生搖擺情況下的拍照情況也能具備良好的抓拍像素。另外,在周圍環境與拍攝目標呈現靜止狀態時,具有去除背景板的優勢,且此時得出的數據信息較為精確,受外界影響較小。但是上述視覺檢測方式存在一定的漏洞與天然缺陷,例如只能作用于相對平穩的攝像頭,在運動的攝像頭裝置下無法正常作業,此外,對于靜態物體不能快速精確定位。
從上述分析可知,幀間差分法不適用于進行智能小車的視覺檢測,因此必須依次為突破口進行深度學習,通過深度學習的方式才能進行智能小車的視覺檢測。卷積神經網絡作為一種極具代表性的深度學習方式,能夠適應智能小車視覺檢測的環境差異,在此基礎上進行深度學習的拓展,將現有比較合適的視覺檢測方式作用于智能小車,在后續檢測階段,對智能小車的視覺檢測區域增加額外的空間。
卷積神經網絡作為一種極具代表性的深度學習方法,能夠通過一種較為直觀網絡形式實現深度歇息前饋,并且此種類型較為特殊,在實戰操作中的步驟相較于幀間差分法更為簡便,在圖像與數據信息的傳遞過程中也具備極佳的性能。再者,將該種深度學習方式載入智能檢測流程中,能夠使得視覺檢測的連接過程更加順暢。該神經網絡主要由卷積層、績效函數層、信息處理層以及全檢連接層等構成。卷積神經網絡的結構示意圖如圖2所示。
在進行智能小車的視覺檢測時,最為重要是通過與卷積層的結合程度實現的,且卷積層在卷積神經網絡中占有絕對位置,因此在深度學習中,必須根據卷積層才能進行智能小車的視覺特征數據信息提取。
在卷積層所構成的內部結構中,可以將其當作一個卷積核來應對,并且該卷積核內部呈現奇數分布,核中的每個單位元素進行像素單位的相乘,然后將所得出的數據信息進行匯總,以此類推,在完成所有卷積核內部的數據處理后,就能得出該卷積神經網絡對目標信息的特征提取,將原有卷積核數據圖像檢測為5×5卷積核,卷積核大小為3×3卷積核,內部卷積步驟長度為1,因此可以得出滿足卷積神經網絡的特征公式,該公式如下:

根據上述卷積神經網絡結構圖得知,在該網絡構建中能夠組成任意形式的多種神經網絡結構模型,即在進行智能小車所處的任何復雜環境,采用上述深度學習方式能夠將視覺檢測的檢測方式進行橫向拓展,滿足智能小車的日常工作需求。在進行智能小車的視覺探索過程中,首先可以根據20世紀初期的YannLeCun教授所提出的LeNet-5模型進行智能小車的視覺檢測。該種方法的檢測構層一共有7層,并且這種方式是能夠進行卷積神經網絡實現目標的智能識別。
除此之外,2012年Alexnet研究學家通過對卷積神經網絡進行深度挖掘,最終得出lmageNet ILSVRC圖像,進一步將深度學習拓展到智能裝置的視覺檢測中,其中最具影響力的檢測方式為VGGNet,該檢測方式內部包含許多不同級別的神經網絡結構,根據對深度學習的掌控力度進行11~18層等不同的劃分方式,并且將其中的多段卷積神經網絡(3×3)進行整體串聯,達到收集信息數據的目的,并且配置大型池化層將收集結果進行展示,以實現對相關設備裝置的視覺檢測。
在進行設備裝置的視覺檢測過程中,通常可以將用于檢測的框架模型分為2種:一種是檢測結果較為準確但是檢測速率較慢的兩階段視覺檢測框架;另外一種則是檢測結果出入較大但是檢測速率較快的一階視覺檢測框架。其中兩階段檢測框架首先采用內部區域分選法進行潛在信息數據的收集、分類,然后運用篩選算法將所收集的圖像進行框架分隔,放入深度學習方式中進行目標視覺圖像的輸出。而在一階檢測框架中,不需要在檢測過程中進行區域的分隔,直接將整體圖像作為一塊區域進行快速計算,構建出一個S×S的卷積神經網絡結構,從而根據結構中的信息進行視覺檢測。
本文通過對深度學習中的視覺檢測方法進行闡述,結合智能小車在運行過程中所遇到的問題進行分析,根據卷積神經網絡結構在其內部安裝信息化檢測系統。智能小車的視覺檢測為無人駕駛汽車與避障技術提供了思路和保障。