999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

結(jié)合CNN和WiFi指紋庫的室內(nèi)定位算法①

2020-07-25 01:47:04曹建榮武欣瑩呂俊杰楊紅娟
關(guān)鍵詞:模型

曹建榮,張 旭,武欣瑩,呂俊杰,楊紅娟

1(山東建筑大學(xué) 信息與電氣工程學(xué)院,濟(jì)南 250101)

2(山東省智能建筑技術(shù)重點(diǎn)實(shí)驗(yàn)室,濟(jì)南 250101)

1 引言

基于WiFi的指紋庫室內(nèi)定位技術(shù)是室內(nèi)定位領(lǐng)域中的重點(diǎn)研究?jī)?nèi)容之一.指紋庫室內(nèi)定位技術(shù)主要包含確定性算法、概率型算法、人工神經(jīng)網(wǎng)絡(luò)3個(gè)主要研究方向.傳統(tǒng)的基于指紋庫的室內(nèi)定位方法主要是指:離線階段先使用濾波方法(高斯濾波等)再使用均值求出指紋庫;在線階段使用確定性算法(K近鄰等)或概率型算法(貝葉斯概率等)進(jìn)行指紋匹配.隨著科技的不斷發(fā)展,各行各業(yè)對(duì)室內(nèi)定位精度的要求越來越高[1].傳統(tǒng)的室內(nèi)定位技術(shù)難以突破定位精度的瓶頸,而深度學(xué)習(xí)在圖像和語音處理等方面的成熟應(yīng)用使一些學(xué)者把深度學(xué)習(xí)引入基于WiFi的室內(nèi)定位領(lǐng)域中,并做了較多的研究[2,3].Nowicki M等人利用深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network,DNN)有效降低本地化系統(tǒng)成本,證明了堆疊自動(dòng)編碼器可以有效地減少特征空間及實(shí)現(xiàn)穩(wěn)定和精確的分類[4].Yu 等人利用深度卷積神經(jīng)網(wǎng)絡(luò)(Deep Convolutional Neural Network,DCNN)和頻譜圖自動(dòng)學(xué)習(xí)無線信道指紋特征,從圖像層次表明譜圖DCNN模型能夠用于指紋識(shí)別,其無線信道分類準(zhǔn)確率為96.46%[5].Zhang等人首先采用4層深度神經(jīng)網(wǎng)絡(luò),使用堆疊去噪自動(dòng)編碼器(Stacked Denoising Autoencoder,SDA)學(xué)習(xí)可靠特征,然后用隱馬爾可夫模型(Hidden Markov Model,HMM)的精細(xì)定位器來平滑基于DNN的粗定位器的初始定位估計(jì)[6].眾多研究成果表明,基于深度學(xué)習(xí)的室內(nèi)定位算法在定位精度上有顯著提高.

許多研究者都是通過使用復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)和長時(shí)間調(diào)節(jié)網(wǎng)絡(luò)參數(shù)尋求最優(yōu)匹配結(jié)果.這無疑增加了前期離線階段數(shù)據(jù)采集、訓(xùn)練調(diào)整的難度、在線階段匹配的時(shí)間,同時(shí)對(duì)硬件也提出了更高要求[7].本文提出了一種基于較少數(shù)據(jù),簡(jiǎn)單計(jì)算的匹配算法,即用CNN算法完成初步定位后,再結(jié)合傳統(tǒng)指紋庫進(jìn)一步確定精度的算法.該方法整體使用的數(shù)據(jù)量和計(jì)算復(fù)雜度相對(duì)較小,時(shí)效性較好,且定位精度進(jìn)一步提高.

2 算法的基本原理

2.1 算法基本流程

本文提出的算法包括離線指紋庫建立和在線定位計(jì)算兩個(gè)階段.離線階段時(shí),首先從服務(wù)器的數(shù)據(jù)庫中獲取AP 接收到的全部信息,并預(yù)處理數(shù)據(jù);然后基于預(yù)處理的RSSI數(shù)據(jù)訓(xùn)練CNN網(wǎng)絡(luò)模型,得到符合定位精度的CNN定位模型;最后計(jì)算已處理的RSSI數(shù)據(jù),完成指紋庫的建立.在線階段時(shí),首先通過CNN定位模型初步預(yù)測(cè)待測(cè)點(diǎn)位置,得到最接近某個(gè)參考點(diǎn)的位置信息.然后結(jié)合傳統(tǒng)指紋路徑庫中的數(shù)據(jù),經(jīng)過距離比例計(jì)算進(jìn)一步縮小預(yù)測(cè)范圍,最終得到較高精度的待測(cè)點(diǎn)坐標(biāo).

2.2 原始數(shù)據(jù)預(yù)處理

2.2.1 數(shù)據(jù)獲取

為保證獲取的數(shù)據(jù)更接近實(shí)際情況,本文的數(shù)據(jù)直接從定位系統(tǒng)中實(shí)時(shí)存儲(chǔ)定位信息的數(shù)據(jù)庫中獲取.離線階段,首先獲取未處理的UDP報(bào)文,完成UDP報(bào)文的校驗(yàn)、長度驗(yàn)證和舍棄不完整數(shù)據(jù);其次拆分標(biāo)準(zhǔn)UDP報(bào)文的關(guān)鍵字.關(guān)鍵字包含4個(gè),分別為上傳此UDP報(bào)文的AP 物理地址、時(shí)間戳、發(fā)送UDP報(bào)文內(nèi)容的終端MAC地址及當(dāng)前時(shí)刻的RSSI值;最后存入數(shù)據(jù)庫中以備后用.

2.2.2 CNN模型數(shù)據(jù)處理

假設(shè)在被測(cè)區(qū)域中存在U個(gè)參考點(diǎn)和V個(gè)AP,則V個(gè)AP在第j個(gè)參考點(diǎn)處構(gòu)成的一個(gè)RSSI值向量rj可表示為:

利用已處理的訓(xùn)練樣本數(shù)據(jù),把在每一個(gè)參考點(diǎn)處采集的M個(gè)RSSI值向量值整理為如下形式:

其中,j取值為[1,U],且j為整數(shù).r(M,V)表示第V個(gè)AP在第j個(gè)參考點(diǎn)采集得到的第M個(gè)RSSI值.M值的選擇取決于獲取的數(shù)據(jù)量,且M值為正整數(shù)的平方.V的取值根據(jù)被測(cè)區(qū)域中實(shí)際使用AP的數(shù)量.

為簡(jiǎn)化后期計(jì)算,此處對(duì)上述Rj矩陣做形式和內(nèi)容兩方面變換.首先對(duì)Rj矩陣中每一個(gè)AP 獲取得到的M個(gè)數(shù)據(jù)(即Rj矩陣中的每一列)均變形,變成的矩陣形式.如本文選擇V值為3,即變換后會(huì)形成3個(gè)矩陣,分別為Aj,1、Bj,2、Cj,3√;然后添√加一個(gè)新的子矩陣Dj,4,使Rj矩陣大小變?yōu)榫仃嘍j,4統(tǒng)一填寫相同值,這樣既可以保證數(shù)據(jù)形式一致,也不會(huì)對(duì)數(shù)據(jù)√內(nèi)容造√成影響.新的Rj矩陣大小由原來的3×M變?yōu)榧碦j矩陣的形式為:

其中,矩陣Aj,1、Bj,2、Cj,3、Dj,4分別為以下形式:

經(jīng)過上述變換,在某個(gè)參考點(diǎn)處來自3個(gè)AP的不同RSSI值就可以通過Rj矩陣表示在一張灰度圖片上.在權(quán)衡數(shù)據(jù)量能夠充分體現(xiàn)RSSI值動(dòng)態(tài)變化和計(jì)算耗時(shí)兩個(gè)問題的基礎(chǔ)上,本文在訓(xùn)練CNN模型時(shí),選擇輸入圖片像素大小有16×16、28×28、36×36三種.

2.3 卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練

CNN模型一般由卷積層、池化層、全連接層3部分組成.不同的CNN模型通過對(duì)上述3部分的結(jié)構(gòu)組合,參數(shù)修改等途徑解決不同的問題.

從2.2節(jié)中可知,所用訓(xùn)練和測(cè)試的數(shù)據(jù)均為一張張二維的、代表著一個(gè)個(gè)具體待測(cè)點(diǎn)的指紋灰度圖片,這與使用CNN算法進(jìn)行字符識(shí)別類似,即本文待測(cè)點(diǎn)處的位置編號(hào)與字符識(shí)別中的數(shù)字類別類似.因此以字符識(shí)別的兩層卷積(Convolution)、兩層池化(Pooling)、隨機(jī)失活、兩層全連接層(Fully Connected)的CNN模型為基礎(chǔ),通過改變卷積層數(shù)量、卷積核大小、激活函數(shù)以選擇性能最佳CNN模型參數(shù),進(jìn)一步保證在后續(xù)參與定位時(shí),定位精度的提高.圖1為所使用的CNN模型的基本結(jié)構(gòu).

以28×28的圖像為例,在第一層卷積層中,首先使用32個(gè)5×5的卷積核,2×2的最大池化(步長=1)對(duì)圖像操作,形成32個(gè)14×14的特征圖;然后再使用64個(gè)5×5卷積核,2×2的最大池化(步長=1)操作,形成7×7×64的特征圖;接著變換數(shù)據(jù)格式,生成1×(7×7×64)的數(shù)據(jù)用于分類.使用的ReLU、Elu[8]兩種激活函數(shù)如下所示.

ReLU激活函數(shù):

Elu激活函數(shù):

ReLU激活函數(shù)是分段線性函數(shù),屬于單側(cè)抑制函數(shù).它使神經(jīng)元具有了稀疏激活性;Elu激活函數(shù)存在負(fù)值,可以將激活單元的輸出均值向0 推近,具有批量歸一化的效果,而且減少了計(jì)算量.

為了防止訓(xùn)練過擬合和訓(xùn)練出的模型相對(duì)簡(jiǎn)潔,在全連接層后添加Dropout層,并取值為0.5.訓(xùn)練模型使用反向傳播算法訓(xùn)練整個(gè)網(wǎng)絡(luò).訓(xùn)練CNN模型能夠找到代表參考的類與位置信息的非線性映射關(guān)系[9],即當(dāng)相鄰迭代之間的損失函數(shù)下降到閾值以下或者滿足迭代次數(shù)時(shí),網(wǎng)絡(luò)達(dá)到穩(wěn)定則保存網(wǎng)絡(luò)參數(shù),停止訓(xùn)練;否則,從新的訓(xùn)練樣本集中選擇輸入繼續(xù)訓(xùn)練.通過多次訓(xùn)練后得出效果最好的CNN模型,形成基于卷積神經(jīng)網(wǎng)絡(luò)的指紋庫模型.

2.4 指紋庫數(shù)據(jù)處理

指紋庫形成的基礎(chǔ)是能夠測(cè)出在定位點(diǎn)處具有代表性的RSSI值.現(xiàn)實(shí)中同一參考點(diǎn)處的RSSI值不同的原因主要有兩個(gè),分別為隨時(shí)間、空間小范圍內(nèi)動(dòng)態(tài)變化和信道傳輸錯(cuò)誤出現(xiàn)偶然異常值.針對(duì)這兩個(gè)問題,本文提出了基于限幅加權(quán)的濾波方法用于確定傳統(tǒng)指紋庫的指紋.對(duì)所有獲取得到的數(shù)據(jù),做以下3步處理:首先使用 2δ準(zhǔn)則對(duì)處理的數(shù)據(jù)做限幅處理,去除因偶然因素引起的極端值;然后使用自然斷點(diǎn)分類(Jenks Natural Breaks)[10],得到若干代表性分類和有界終端點(diǎn)集合;最后對(duì)這些數(shù)據(jù)加權(quán),得到某AP在此點(diǎn)最具代表性的RSSI值.

具體步驟如下:

Step 1.計(jì)算高斯分布的標(biāo)準(zhǔn)差,篩選出符合 2δ原則的集合?n;

其中,i∈[1,n],且i為整數(shù),xi為原始數(shù)據(jù),n、u0、σ分別為原始數(shù)據(jù)的總量、平均值、標(biāo)準(zhǔn)差.

Step 2.自然斷點(diǎn)分類法與K 均值聚類在一維數(shù)據(jù)聚類分析中意義是一樣的.從數(shù)據(jù)集本身出發(fā),按照類內(nèi)方差最小,類間方差最大的原則,對(duì)數(shù)據(jù)迭代和移動(dòng)聚類.其中最主要的是確定聚類數(shù)量k值和使用方差擬合優(yōu)度(Goodness of Variance Fit,GVF)算法判斷分類效果好壞.

其中,i∈[1,N],j∈[1,k],i、j∈Z;yi、N、ue、α分別表示集合 ?n中的第i個(gè)數(shù)據(jù)、數(shù)據(jù)數(shù)量、平均值、方差;yij、Nj、uj、β表示把集合 ?n分成K類后,第j類中的第i個(gè)數(shù)據(jù)、第j類中數(shù)據(jù)的數(shù)量、第j類中數(shù)據(jù)的平均值、k類方差的和.

GVF 用于判定不同分類的分類效果好壞.在一定范圍內(nèi),GVF值越大,其分類效果越好,分類結(jié)果越具有代表性.一般經(jīng)驗(yàn)值指出,GVF>0.7 就可以接受分類結(jié)果.

通過Step 2,把集合 ?n劃分成了k類小集合{Θ1,Θ2,···,Θn},以及(k+1)個(gè)各類的邊界點(diǎn)組成的集合{t1,t2,···,tk+1}.

Step 3.對(duì)計(jì)算出的{Θ1,Θ2,···,Θn}中的各類數(shù)據(jù)做加權(quán)處理,得到此參考點(diǎn)處某一個(gè)AP的最終RSSI值.

其中,j∈[1,k],j∈Z.R(u,v)為第U考點(diǎn)的第V個(gè)AP最終值,wj為第j據(jù)的權(quán)值,函數(shù)F()為概率分布函數(shù),用于計(jì)算各類出現(xiàn)的概率.

通過以上3個(gè)步驟計(jì)算每一個(gè)參考點(diǎn)所有AP值序列,最終得到指紋庫 Ψ.

為防止因信道重疊導(dǎo)致RSSI值在傳輸過程中出現(xiàn)誤差和保證RSSI值動(dòng)態(tài)變化的完整性[11],V值一般取為3.

限幅加權(quán)的濾波方法最終目的是在保留了指紋自身的特征后,最大限度地去除異常數(shù)據(jù).根據(jù)實(shí)際處理大量數(shù)據(jù)后,無效數(shù)據(jù)約占中數(shù)據(jù)的5%,使用 2δ準(zhǔn)則,能夠直接去除來自異常情況、小概率出現(xiàn)的無效數(shù)據(jù).通過使用GVF算法和類內(nèi)數(shù)據(jù)加權(quán)計(jì)算出最具代表性的指紋點(diǎn)的RSSI值.以上3個(gè)步驟,能夠從參與定位的開始就保證了數(shù)據(jù)的有效性.通過使用限幅加權(quán)的濾波方法能夠保證參與整體定位的數(shù)據(jù)的有效性和提高最終的定位精度,能夠有效減少或避免在線定位時(shí)結(jié)果畸變.

2.5 在線定位

在線階段定位共有4個(gè)步驟,主要完成CNN模型的結(jié)果與傳統(tǒng)指紋庫指紋的結(jié)合計(jì)算.4個(gè)步驟如下:

Step 1.預(yù)處理獲取的實(shí)時(shí)數(shù)據(jù),然后使用CNN模型預(yù)測(cè)得到位置序號(hào)對(duì)應(yīng)坐標(biāo)點(diǎn)C(Xc,Yc).3個(gè)AP在某一時(shí)刻獲取的數(shù)據(jù)經(jīng)過2.4節(jié)中的Step1 初步去除異常數(shù)據(jù)后,得到包含實(shí)時(shí)數(shù)據(jù)矩陣H.

Step 2.實(shí)時(shí)矩陣H中的每一組數(shù)據(jù)均與指紋庫Ψ中的所有指紋做歐式距離計(jì)算,以最小歐式距離值對(duì)應(yīng)的指紋為此組數(shù)據(jù)的接近指紋,最終形成接近指紋庫 Ψ′.

Step 3.統(tǒng)計(jì)出接近指紋庫 Ψ′同接近指紋數(shù)量排三位的接近指紋,找到對(duì)應(yīng)的坐標(biāo)點(diǎn)集合 Γ((Xa,Ya)、(Xb,Yb)、(Xd,Yd)).計(jì)算出其各坐標(biāo)點(diǎn)到C(Xc,Yc)的距離la、lb、ld及距離之和ls.

Step 4.計(jì)算出待測(cè)點(diǎn)的最終預(yù)測(cè)位置(Xf,Yf),計(jì)算公式如下:

3 實(shí)驗(yàn)結(jié)果分析

3.1 實(shí)驗(yàn)設(shè)置

根據(jù)被測(cè)面積大小和AP的個(gè)數(shù)合理劃分參考點(diǎn)的位置.本實(shí)驗(yàn)選取面積為14.4 m×8.6 m的實(shí)驗(yàn)教室,以28個(gè)2 m×2 m的網(wǎng)格頂點(diǎn),作為訓(xùn)練CNN模型的指紋庫參考點(diǎn);以112個(gè)1 m×1 m的網(wǎng)格頂點(diǎn)作為傳統(tǒng)指紋庫參考點(diǎn).被測(cè)區(qū)域示意圖如圖2(小圓點(diǎn)、大圓點(diǎn)分別為1 m×1 m和2 m×2 m的網(wǎng)格參考點(diǎn))所示.在選取參考點(diǎn)時(shí),CNN模型指紋庫的參考點(diǎn)位置和傳統(tǒng)指紋庫的參考點(diǎn)位置應(yīng)完全不重合.

圖2 被測(cè)區(qū)域示意圖

移動(dòng)終端信號(hào)的接收能力、所在高度、移動(dòng)終端和AP 朝向[12]等因素均會(huì)引起RSSI值得變化.因此在3個(gè)AP 收集數(shù)據(jù)時(shí),使用5種不同型號(hào)的移動(dòng)終端,分別距地面垂直距離為1 m、1.5 m、2 m的高度以及4個(gè)朝向發(fā)射數(shù)據(jù),盡可能保證每一個(gè)參考點(diǎn)數(shù)據(jù)的完整性.

本文設(shè)定CNN模型指紋庫參考點(diǎn)的個(gè)數(shù)為28,所以用于訓(xùn)練得數(shù)據(jù)集也應(yīng)當(dāng)包括28類.每一個(gè)參考點(diǎn)訓(xùn)練集和測(cè)試集圖片數(shù)量分別為28×300、28×100 張,且訓(xùn)練集和測(cè)試集的數(shù)據(jù)均來源于對(duì)28個(gè)參考點(diǎn)的均勻采樣.每張圖片中包含3個(gè)AP在此參考點(diǎn)處采集的共3×14×14 (以28×28的圖片輸入為例)個(gè)RSSI值,使用Python 等軟件搭建仿真實(shí)驗(yàn)平臺(tái).

3.2 實(shí)驗(yàn)結(jié)果及分析

通過1.2.2節(jié)的數(shù)據(jù)預(yù)處理過程,可以獲得CNN模型訓(xùn)練使用16×16、28×28、36×36三種格式的圖片.這3種輸入圖片的本質(zhì)區(qū)別在于包含RSSI值的多少.圖片越大,其相應(yīng)的訓(xùn)練時(shí)間就會(huì)越長.圖3左側(cè)為用于CNN模型訓(xùn)練的,格式大小28×28的某參考點(diǎn)預(yù)處理的圖片,右側(cè)是其局部放大圖的截圖.圖3左側(cè)圖像數(shù)據(jù)的4部分內(nèi)容分別對(duì)應(yīng)3個(gè)AP采集的此參考點(diǎn)的RSSI值矩陣和填補(bǔ)的空白值矩陣;圖3右側(cè)圖像為左側(cè)圖中某一個(gè)AP采集的數(shù)據(jù)放大圖,可以看出,此AP采集的某參考點(diǎn)的RSSI值是動(dòng)態(tài)變化的.圖4為指紋庫中的某點(diǎn)數(shù)據(jù)預(yù)處理的過程結(jié)果圖.圖4中五角形點(diǎn)、三角形點(diǎn)、小圓點(diǎn)分別代表3個(gè)AP在被第一步限幅之后的數(shù)據(jù),大圓點(diǎn)代表第二步分類后的各類邊界點(diǎn),各AP在此參考點(diǎn)處的最終RSSI值如圖4中各類線所示.

圖3 某參考點(diǎn)采集數(shù)據(jù)成像圖及局部圖

圖4 某參考點(diǎn)指紋庫數(shù)據(jù)處理過程圖

根據(jù)CNN模型設(shè)置,采用不同卷積核大小、激活函數(shù)等得到訓(xùn)練的時(shí)間、準(zhǔn)確率如表1所示,網(wǎng)絡(luò)損失收斂圖如圖5所示.

表1 不同參數(shù)性能比較

通過表1的數(shù)據(jù)可以看出,當(dāng)輸入數(shù)據(jù)包含信息增加,其訓(xùn)練準(zhǔn)確率越高.但是測(cè)試集并未隨之增加而顯著提高;對(duì)于同一批數(shù)據(jù),準(zhǔn)確率會(huì)隨著卷積核模板的規(guī)格增加也呈現(xiàn)上升的趨勢(shì).

圖5是以28×28的圖像、5×5卷積模板為例,分別在ReLU、Elu 兩個(gè)激活函數(shù)下的網(wǎng)絡(luò)損失收斂圖.結(jié)合表1的數(shù)據(jù)可以看出,在相同的數(shù)據(jù)基礎(chǔ)上,Elu 比ReLU少約200輪訓(xùn)練達(dá)到最佳收斂值,而且訓(xùn)練效果相當(dāng).

圖5 ReLU、Elu激活函數(shù)下網(wǎng)絡(luò)收斂圖

考慮到在實(shí)際應(yīng)用中采集的數(shù)據(jù)數(shù)量和匹配時(shí)間周期兩個(gè)主要因素,本文最終選取Elu激活函數(shù)、28×28的輸入數(shù)據(jù)、5×5的卷積模板的CNN模型,并在此模型下保存最佳訓(xùn)練參數(shù).

本文通過實(shí)驗(yàn)得到的定位誤差累計(jì)分布圖如圖6所示,其中橫坐標(biāo)表示定位誤差值,縱坐標(biāo)表示定位誤差的累積比例.圖6中CNN1-JK曲線為本文算法結(jié)果;CNN1 曲線為只使用本文算法中的CNN模型得到的結(jié)果;CNN2模曲線是以本文CNN模型為基礎(chǔ),提高了分類精度(112類)的算法結(jié)果;G-K曲線為使用高斯濾波結(jié)合K近鄰算法得到的結(jié)果.

從圖6中可以看出,從CNN1和CNN2模型的結(jié)果中可以看出,增加3倍分類精度后,定位誤差并沒有成比例顯著降低,但是CNN2模型前期訓(xùn)練的訓(xùn)練耗時(shí)卻是CNN1模型的兩倍到三倍;在單純考慮累積誤差時(shí),本文算法結(jié)果與CNN2模型結(jié)果相比,累積誤差約在0.75 m 之后本文算法體現(xiàn)出定位精度優(yōu)勢(shì);本文算法結(jié)果與傳統(tǒng)的G-K算法結(jié)果相比,明顯的提高了定位精度.通過實(shí)驗(yàn)結(jié)果對(duì)比發(fā)現(xiàn),本文的算法誤差有近50%在0.5-1 m 內(nèi),約90%均小于1.5 m,相比于同類型單純的卷積神經(jīng)網(wǎng)絡(luò)和傳統(tǒng)算法,準(zhǔn)確度比較高,誤差穩(wěn)定性較好.

圖6 定位誤差累計(jì)分布函數(shù)圖

圖7為測(cè)試點(diǎn)測(cè)試的實(shí)際結(jié)果.區(qū)域I-IV分別是待測(cè)點(diǎn)在大圓點(diǎn)連線中心點(diǎn)、與大小圓點(diǎn)重合、小圓點(diǎn)連線中心點(diǎn)、一般位置的預(yù)測(cè)結(jié)果(三角形點(diǎn)為實(shí)際位置、五角形點(diǎn)為預(yù)測(cè)位置).實(shí)驗(yàn)結(jié)果大部分均在0.5-1.5 m之間,實(shí)際結(jié)果與圖6的誤差累積結(jié)果基本相同,精度在可控范圍內(nèi).

圖7 典型實(shí)際定位數(shù)據(jù)結(jié)果示意圖

本文算法利用CNN模型能夠較好地學(xué)習(xí)RSSI的波動(dòng)特性的特點(diǎn),首先使用CNN模型預(yù)測(cè)粗略位置,再配合傳統(tǒng)指紋庫指紋簡(jiǎn)單計(jì)算確定最終定位.選擇以字符識(shí)別的CNN模型為基礎(chǔ),更符合指紋定位的數(shù)據(jù)特點(diǎn);使用限幅加權(quán)的濾波方法,從數(shù)據(jù)參與定位的源頭上減少了因異常值引起的定位即便問題的出現(xiàn).整體上一方面可以提高定位范圍準(zhǔn)確性,防止發(fā)生RSSI值局部畸變而導(dǎo)致整體定位錯(cuò)誤;另一方面整體使用數(shù)據(jù)量較少,定位速度較快.

4 結(jié)論

將深度學(xué)習(xí)應(yīng)用在室內(nèi)定位領(lǐng)域中提高定位精度有著重要的意義.本文提出一種卷積神經(jīng)網(wǎng)絡(luò)結(jié)合傳統(tǒng)指紋庫的室內(nèi)定位算法.首先利用卷積神經(jīng)網(wǎng)絡(luò)模型,根據(jù)實(shí)時(shí)輸入信號(hào)強(qiáng)度指示RSSI數(shù)據(jù)預(yù)判出待測(cè)點(diǎn)的初步位置,再結(jié)合傳統(tǒng)指紋庫中的指紋點(diǎn),確定出精確度更高的最終預(yù)測(cè)位置.實(shí)驗(yàn)結(jié)果表明,在時(shí)效性達(dá)到要求的前提下,誤差在1 m 以內(nèi)的定位精度約為65%,誤差在1.5 m 以內(nèi)的定位精度約為85%,定位精度高于傳統(tǒng)的基于指紋庫的定位方法,且誤差較為穩(wěn)定.

猜你喜歡
模型
一半模型
一種去中心化的域名服務(wù)本地化模型
適用于BDS-3 PPP的隨機(jī)模型
提煉模型 突破難點(diǎn)
函數(shù)模型及應(yīng)用
p150Glued在帕金森病模型中的表達(dá)及分布
函數(shù)模型及應(yīng)用
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 精品少妇人妻一区二区| 国产精品分类视频分类一区| av大片在线无码免费| 亚洲中字无码AV电影在线观看| 精品国产乱码久久久久久一区二区| 亚洲视频在线网| 久久久久国色AV免费观看性色| 亚洲欧美在线综合一区二区三区| 四虎永久在线精品国产免费| 在线观看精品自拍视频| 91激情视频| 98超碰在线观看| 波多野结衣无码中文字幕在线观看一区二区 | 免费观看成人久久网免费观看| 成人在线欧美| 精品国产污污免费网站| 波多野结衣AV无码久久一区| 亚洲第一视频区| 99精品这里只有精品高清视频| 国产在线啪| 99re精彩视频| 五月婷婷丁香色| 天天激情综合| 精品国产香蕉伊思人在线| 亚洲综合亚洲国产尤物| 国产情侣一区二区三区| 片在线无码观看| 无码AV动漫| 国产成人毛片| 亚洲va在线∨a天堂va欧美va| 久99久热只有精品国产15| 国产免费好大好硬视频| 国产精品99r8在线观看| 伊人AV天堂| 欧美一级高清片欧美国产欧美| 欧美日韩v| 亚洲视频在线观看免费视频| 四虎永久在线精品国产免费| 国产在线观看人成激情视频| 激情无码视频在线看| 超薄丝袜足j国产在线视频| 久久男人资源站| 欧美色99| 亚洲成人网在线观看| 久久情精品国产品免费| 亚洲欧美国产五月天综合| 亚洲精品波多野结衣| 五月激情综合网| 久久精品一品道久久精品| a亚洲视频| 亚洲码在线中文在线观看| 久久99国产综合精品1| 国产成人综合久久| 全色黄大色大片免费久久老太| 亚洲视频黄| 欧美成人免费| 亚洲精品无码成人片在线观看| 免费高清毛片| 免费看a毛片| 亚洲一区二区三区香蕉| 五月激情婷婷综合| 欧美精品成人一区二区在线观看| 无码区日韩专区免费系列| 毛片在线播放网址| 波多野结衣一区二区三视频| 国产精品刺激对白在线| 亚洲精品视频免费| 在线观看国产黄色| 免费亚洲成人| 9啪在线视频| www.91在线播放| 久久成人18免费| 国产浮力第一页永久地址| 在线永久免费观看的毛片| 欧美亚洲一二三区| 在线播放真实国产乱子伦| 在线国产你懂的| 亚洲第一国产综合| 韩日无码在线不卡| 热这里只有精品国产热门精品| 欧美成人综合在线| 精品综合久久久久久97超人|