999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于雙目相機與嵌入式GPU 的SLAM 系統(tǒng)設(shè)計*

2021-01-24 14:27:16佘黎煌童文昊孫健偉許洪瑞
科技創(chuàng)新與應(yīng)用 2021年4期
關(guān)鍵詞:嵌入式系統(tǒng)

佘黎煌,童文昊,孫健偉,許洪瑞

(東北大學 計算機科學與工程學院,遼寧 沈陽 110000)

引言

隨著人工智能理論方法的快速發(fā)展應(yīng)用,以及自動駕駛技術(shù)、VR/AR 領(lǐng)域、機器人定位導航方面等人工智能技術(shù)的發(fā)展。如何在嵌入式系統(tǒng)中使用FPGA 和GPU等高性能邊緣技術(shù),成為嵌入式系統(tǒng)技術(shù)發(fā)展應(yīng)用的重要內(nèi)容之一。因此,在高校的嵌入式系統(tǒng)課程中為本科生開展目前流行的嵌入式GPU 應(yīng)用技術(shù)介紹,不僅是嵌入式系統(tǒng)課程與時俱進的必要課程內(nèi)容,也可以為學生今后就業(yè)和深造提供重要嵌入式高性能邊緣計算的重要基礎(chǔ)。

本系統(tǒng)基于Nvidia Jetson TX2 的ARM+GPU 嵌入式平臺,該平臺類似傳統(tǒng)的PC 機中處理器搭載GPU 顯卡的模式,但是在可靠性和功耗等方面有著極大的優(yōu)化,適合于嵌入式系統(tǒng)的應(yīng)用。其中ARM 核心嵌入式操作系統(tǒng)運行和系統(tǒng)管理,開發(fā)的架構(gòu),GPU 負責繁雜的計算,極大的拓展了嵌入式技術(shù)的能力范圍。本文將以嵌入式GPU 和雙目攝像頭為主要硬件,以雙目SLAM 和目標識別運算為示例來展示嵌入式GPU 的性能。

SLAM 技術(shù)是無人智能機器必備技術(shù),它使用光學傳感器,以設(shè)備自身為中心對周圍環(huán)境進行建圖,并且確定自身位置。SLAM 技術(shù)有多重,其中雙目SLAM 效果優(yōu)秀,代價是運算量很高。

同時我們注意到,智能設(shè)備的任務(wù)往往是有特定目標的,如無人駕駛車需要識別出什么位置有車輛,什么位置有人,紅綠燈在哪等等。所以我們將目標識別也加入到我們的系統(tǒng)中,形成能夠目標識別的SLAM 建圖系統(tǒng)。

1 雙目建圖原理

1.1 雙目測距模型

雙目攝像頭測距的方案有很多種,既有將兩個攝像頭豎直放置也有水平放置。在本例中使用的是模仿人類雙眼的平行成像模式,兩個攝像頭平行成像。如圖1、圖2所示。

兩側(cè)攝像頭的成像CMOS 焦點處分別為Cl和Cr,Pl和Pr為攝像頭最外側(cè)外鏡片頂點,P 為成像物體。由于對于已知的攝像機兩個成像交點處的距離為定值其在生產(chǎn)時就已經(jīng)確定并且是已知的量,其距離為L。而每個攝像頭都有其固定的焦距為D。對于物體發(fā)射光線同外側(cè)鏡片交點處與光軸的距離分別定義為xl和xr對于這兩者差值的絕對值為視差值。根據(jù)這些已知的參量使用簡單的三角形相似原理就能得出攝像機和P 點間的距離Y。

從公式中可直觀的看出對于雙目攝像頭成像影響較大的有視差和焦距,可以通過改變焦距來提高遠處物體的測距能力,這一點類似于使用不同焦距的攝像頭拍攝不同距離的物體。而對于視差無法控制時,盡量距離物體較近以獲得更好的測距效果[1]。

圖1 雙目測距模型

圖2 雙目測距數(shù)學模型

1.2 雙目立體視覺模型

雙目立體視覺是基于仿生的雙目視覺系統(tǒng),其原理可以看為雙目測距原理在空間三個維度上的推廣,三維立體的成像即在空間坐標系中確定一物體在X Y Z 三個維度上分別獲得攝像頭與物體間的距離信息,基于此信息建立起整個物體的在空間中的立體信息。如圖3 所示。

圖中Or和Ol則為平行入射光線同相機鏡頭最外側(cè)鏡片交點。f 為焦距,P 點為空間中的要在相機內(nèi)成像的點。Pl(Xl,Yl),Pr(Xr,Yr)為目標點P 在兩個相機內(nèi)所成的像。類似于雙目測距的原理,得到如下公式[2]。

圖3 雙目立體視覺模型

定義D=Xl-Xr為視差,由三角測量原理可以用以下公式計算出P 點的三維坐標。

對于單獨一個點的情況根據(jù)以上公式可以得到其空間坐標,而對于一個實際物體的建圖則涉及到對應(yīng)點的匹配。需要使用特征點匹配算法。

1.3 雙目視覺建模原理

通過雙目攝像頭獲取了左右攝像機拍攝的兩張不同方位的照片,使用SIFT 算法進行特征點匹配,能夠得到匹配圖,算法能夠自動匹配圖中相似的點、線、面,從這些匹配點看,SIFT 算法提取的特征點大部分都是圖像中物體結(jié)構(gòu)的輪廓,這些點反映了這一物體的整體結(jié)構(gòu),能夠幫助計算機理解空間位置。通過計算點在空間中相對相機的位置,將其標注在3D 建圖中,進一步得到由點云構(gòu)成的3D 建圖。

2 深度學習目標識別

本項目使用TensorFlow 深度學習框架和訓練完成的圖像識別訓練集,在嵌入式GPU 和深度學習加速器的幫助下,能夠做到對每一幀畫面實時識別,其識別原理如下。

機器學習的原理就是對輸入進行解析,將提取出的信息乘上參數(shù),累加后得出結(jié)果,而參數(shù)的確定就是訓練過程,通過大量的輸入和結(jié)果糾正,程序自行對參數(shù)進行調(diào)整。最終得到訓練完成的機器學習網(wǎng)絡(luò)。

圖4 設(shè)計架構(gòu)

本文選用SSD 算法。它采用多層卷積的方式,用不同大小的卷積核對圖像卷積,將輸入圖像以不同的規(guī)格劃分為多個區(qū)塊并強化特征信息,之后采取池化,將多個子矩陣以取平均壓縮,最終得到一個高度凝練的矩陣,以這種方式將圖像矩陣快速縮小并且提取、壓縮出主要特征信息,值得注意的是,在卷積與池化的過程中必然有信息損失,這些信息損失會導致較小或不清晰物體丟失,或者識別邊界不準確。最后再采取全連接的方式分配神經(jīng)元進行加權(quán)求和、判斷置信區(qū)間,得到結(jié)果。

3 設(shè)計架構(gòu)(見圖4)

我們選用如下硬件搭建系統(tǒng):

(1)NVIDIA 的嵌入式 GPU 開發(fā)板 Jetson TX2,它集成了8 核CPU、GPU 等電路,單精度浮點運算性能為2.8Tflops,雙精度為1.4Tflops 而功耗僅有20W,能在低功耗下情況下提供高計算力。此外,它提供了靈活的驅(qū)動和接口,既可以直接使用熟悉設(shè)備,也可以自己編寫強化技能,非常利于教學。

(2)ZED 雙目攝像機,它能夠高清高幀率地傳輸圖像,且其生產(chǎn)公司提供了豐富的庫、工具集和接口,能夠快速計算深度信息,方便其他程序調(diào)用。

(3)載具,我們使用自己搭建的小車作為平臺,配有舵機、蓄電池等,受ROS 系統(tǒng)控制,能滿足中低速平穩(wěn)運動的需要。

軟件方面,我們在jetson TX2 開發(fā)板上運行的系統(tǒng)是NVIDIA 公司定制的Ubuntu 系統(tǒng)JetPack OS,它優(yōu)化了系統(tǒng)對GPU 和深度學習的支持。使用ZED 官方工具軟件進行建圖,TensorFlow 作為深度學習框架,ROS 系統(tǒng)對小車進行控制。

4 系統(tǒng)建立及測試

4.1 系統(tǒng)安裝

JetPack OS 的安裝需要一臺Ubuntu 系統(tǒng)的PC 主機輔助,將它們連在同一路由器下,并使用官方提供的數(shù)據(jù)線將TX2 與PC 相連,運行官網(wǎng)下載的SDK Manager 刷機工具,跟隨指引完成刷機安裝。進入系統(tǒng)后,桌面操作與Ubuntu 無異。

4.2 ZED 相機驅(qū)動安裝

進入ZED 相機官網(wǎng),下載Nvidia Jetson 專有版本的ZED SDK,這是官方提供的ZED 相機驅(qū)動工具,用以下指令運行下載的.run 文件即可安裝成功。(其中zed_sdk_file 指的是run 文件所在文件夾,zed_sdk 指的是下載的.run 文件全名)

cd ~/ zed_sdk_file

chmod +x zed_sdk

./zed_sdk

4.3 TensorFlow 安裝與測試

由于TX2 是ARM+GPU 的結(jié)構(gòu),所以我們安裝的版本實際上是TensorFlow-GPU。我們使用如下指令安裝:

pip3 install --extra-index-url https://developer.download.nvidia.com/compute/redist/jp/v42 tensorflow-gpu==1.13.1+nv19.3 --user

如果網(wǎng)絡(luò)狀態(tài)良好,沒有報錯,則安裝完成。在終端輸入以下代碼進行測試,如果最后看到輸出"hello,world"則說明安裝成功。

python3

import tensorflow as tf

hello=tf.constant("hello,world")

sess=tf.Session()

print(sess.run(hello))

4.4 API 安裝

API 是一些預(yù)先定義的函數(shù),官方提供了ZED Python API 和 TensorFlow Object Detection API,前者提供ZED 相機的調(diào)用函數(shù),后者是深度學習的函數(shù)庫。二者代碼均在GitHub 下載。

4.5 其他軟件

如果JetPack OS 的安裝順利的話,系統(tǒng)中已經(jīng)帶有其他所需的軟件,但是我們了解到,部分情況下,這些軟件沒有安裝成功,就需要手動安裝,包括cuDNN、OpenCV和CUDA 等。

4.6 測試

我們用終端指令啟動建圖程序和目標識別程序,

./ZED oolEDfu

python3 object_detection_zed.py

可以在屏幕上看到實時3D 建圖與計算出的相機移動軌跡(如圖5 所示),以及實時目標識別的結(jié)果,同時在系統(tǒng)中,可以調(diào)整算法精度,以適應(yīng)不同場合。

圖5 建圖結(jié)果

5 結(jié)束語

經(jīng)測試,使用嵌入式GPU 與雙目攝像頭結(jié)合的方式,能夠?qū)崿F(xiàn)對載具經(jīng)過的空間進行實時構(gòu)建3D 模型并對自身定位,同時對當前攝像頭內(nèi)的物體進行實時識別。這套系統(tǒng),結(jié)合尋路避障程序,可以實現(xiàn)自主巡航建圖的無人車,進入人類無法進入的空間進行自主勘探或工作。

猜你喜歡
嵌入式系統(tǒng)
Smartflower POP 一體式光伏系統(tǒng)
WJ-700無人機系統(tǒng)
ZC系列無人機遙感系統(tǒng)
北京測繪(2020年12期)2020-12-29 01:33:58
基于PowerPC+FPGA顯示系統(tǒng)
半沸制皂系統(tǒng)(下)
TS系列紅外傳感器在嵌入式控制系統(tǒng)中的應(yīng)用
電子制作(2019年7期)2019-04-25 13:17:14
嵌入式系統(tǒng)通信技術(shù)的應(yīng)用
電子制作(2018年18期)2018-11-14 01:48:16
搭建基于Qt的嵌入式開發(fā)平臺
連通與提升系統(tǒng)的最后一塊拼圖 Audiolab 傲立 M-DAC mini
嵌入式軟PLC在電鍍生產(chǎn)流程控制系統(tǒng)中的應(yīng)用
主站蜘蛛池模板: 欧美日韩亚洲国产| h视频在线播放| 男人天堂亚洲天堂| 日本人妻一区二区三区不卡影院| 另类欧美日韩| 9cao视频精品| 欧美在线精品怡红院| 欧美色亚洲| 97视频在线观看免费视频| 国产精品毛片在线直播完整版 | 亚洲免费人成影院| av在线手机播放| 久久综合丝袜长腿丝袜| 亚洲一区毛片| 国产白浆视频| 亚洲欧美日韩高清综合678| 99精品国产自在现线观看| 青青草国产在线视频| 国产91在线|中文| 奇米影视狠狠精品7777| 国产成人精品高清不卡在线| 91亚洲免费视频| 亚洲天堂成人在线观看| 久久美女精品国产精品亚洲| 国产成年女人特黄特色毛片免| 九色免费视频| 久久精品国产国语对白| 国产一区成人| 亚洲国产日韩欧美在线| 国产成人无码AV在线播放动漫| 免费jjzz在在线播放国产| 狠狠色香婷婷久久亚洲精品| 亚洲伊人久久精品影院| 欧美在线视频不卡| 2019年国产精品自拍不卡| 婷婷综合缴情亚洲五月伊| 国产va在线观看免费| 国产精品专区第1页| 国产精品白浆无码流出在线看| www.av男人.com| 99精品免费在线| 國產尤物AV尤物在線觀看| 久久精品国产亚洲麻豆| 国产精品99在线观看| 国产性精品| 一区二区无码在线视频| 国产不卡一级毛片视频| 99视频有精品视频免费观看| 老司机久久精品视频| 久久久久夜色精品波多野结衣| 亚洲无码在线午夜电影| 久久精品无码专区免费| 欧美a级在线| 在线永久免费观看的毛片| 亚洲第一国产综合| 人妻丰满熟妇αv无码| 亚洲欧美自拍视频| 亚洲成a∧人片在线观看无码| 一级毛片在线播放| 午夜国产精品视频黄| 在线播放精品一区二区啪视频| 日本欧美视频在线观看| 久久精品国产精品青草app| 区国产精品搜索视频| 制服丝袜亚洲| 性做久久久久久久免费看| 波多野结衣中文字幕一区二区| 亚洲AⅤ综合在线欧美一区| 亚洲a免费| 国产爽妇精品| 久久久久亚洲精品成人网| 一级毛片在线免费看| 亚洲成人黄色在线| 在线国产三级| 最新精品久久精品| 九九热精品视频在线| 欧美精品导航| 日本高清成本人视频一区| 思思热精品在线8| 女人18一级毛片免费观看| 午夜国产小视频| 国产区福利小视频在线观看尤物|