999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于TCN-BIGRU的可見光通信和IMU融合室內定位方法

2025-04-20 00:00:00梁汪洋賈子彥姜煜堯
無線互聯科技 2025年6期

摘要:傳統可見光室內定位方法在動態環境中定位精度和穩定性不足,單純依賴慣性測量單元(Inertial Measurement Unit, IMU)IMU定位存在累積誤差問題。文章提出一種基于交叉注意力機制TCN-BIGRU的可見光與IMU融合定位方法。該方法融合了IMU傳感器數據與可見光通信的接收信號強度特征,以可見光測量值和IMU傳感器數據的時刻差值作為主要和輔助特征,有效彌補了單一傳感器的局限性,通過自適應門控機制充分發揮兩者優勢實現互補。實驗結果證實了該算法的有效性,平均定位誤差僅為2.35 cm,相比僅使用可見光信號強度的定位,精度提升了15.77%。

關鍵詞:室內定位;可見光通信;慣性測量單元;交叉注意力機制

中圖分類號:TN929.12 文獻標志碼: "A

0 引言

在過去10年里,室內定位技術成為日常生活不可或缺的一部分,廣泛應用于機器人和行人導航等領域。常見的定位方式包括慣性導航或小型信標,如Wi-Fi、藍牙、UWB。盡管Wi-Fi和藍牙易于部署,但難以實現厘米級精度;UWB雖精度高,但成本較高。隨著光通信技術的發展,可見光定位(Visible Light Positioning, VLP)技術逐漸展現出較好的應用潛力[1],但其存在遮擋和多徑效應等問題。與之相關的慣性導航系統也會隨時間累積產生誤差,影響長期定位精度。為此,本文提出一種基于深度學習的可見光與IMU傳感器融合方案,采用時分多址技術對LED燈進行調制[2],以提高信號穩定性。實驗結果表明,該方法平均定位誤差為2.35 cm,相比單一源定位精度提升了15.77%。

1 室內定位系統的建立

1.1 定位模型

1.2 可見光信號信道原理

1.3 基于可見光和IMU融合定位系統

可見光和IMU融合定位系統結構如圖2所示,可見光通信和IMU融合定位系統中包括離線數據集建立和在線定位測試階段,其中包括2個接收模塊、融合特征數據的建立、神經網絡的搭建和優化以及利用訓練好的網絡模型進行定位預測。

室內定位系統中,可見光通信信號強度是指接收端PD的實際接收功率。慣性測量單元通過慣性定律獲取載體運動信息,主要包括加速度計、陀螺儀和磁力計3個傳感器。理想情況下這3個傳感器構成正交三軸直角坐標系,但實際因制造工藝問題會產生誤差,如零偏和標度因子等[3],導致3個傳感器的九軸難以達到完全正交。

2 準備階段

2.1 數據集的建立

2.2 模型框架

基于TCN-BIGRU的可見光通信和IMU融合定位模型在進行室內定位預測時,其模型結構包括可見光、IMU和位置特征的輸入層、時間卷積網絡層[4]、雙向循環控制單元層[5]、自適應融合層、交叉注意力機制層[6]、全連接層和輸出層。融合定位模型預測結構如圖4所示。

步驟1:讀取并劃分數據,劃分為訓練集、驗證集和測試集。可見光特征數據輸入時間卷積網絡、IMU特征數據輸入雙向循環控制單元網絡,位置特征輸入交叉注意力機制中。步驟2:處理VLC信號與IMU數據,提取特征。步驟3:通過自適應融合層融合特征。步驟4:拼接融合特征與位置特征,計算注意力分數。步驟5:輸出預測結果。

3 實驗結果與分析

3.1 實驗環境搭建

為了驗證算法模型的可行性和定位效果,構建了2 m×2 m×2.8 m的實際場景,安裝了4個功率均為3 W的LED燈作為可見光錨節點,其具體坐標分別為:LED1(0.6 m, 0.6 m, 2.8 m)、LED2(0.6 m, 1.4 m, 2.8 m)、LED3(1.4 m, 1.4 m, 2.8 m)、LED4(1.4 m, 0.6 m, 2.8 m)。接收端采用S1123-01型硅光電二極管作為光電檢測器和WT9011DCL作為IMU器件。在2 m×2 m的地面區域內,以10 cm×10 cm的間隔進行采集點的劃分。接收端在實驗場中按照預定軌跡,分別以0.1 m/s和0.25 m/s的速度移動。

在每個網格交叉點,記錄可見光通信信號強度和IMU九軸數據,通過時間戳和接收端速度確保數據的時空一致性。接收端在移動平面上的移動軌跡大致如圖5所示。

3.2 實驗結果與分析

對采集到的數據進行預處理后,按照8∶1∶1的比例劃分為訓練集、驗證集和測試集。利用融合定位模型對采集到的融合特征差值數據進行訓練和測試,以獲取接收端在各采集點的定位預測位置(x′tn,y′tn)。測試集采用與訓練集不同的數據以驗證定位預測的準確性。實驗結果的定位誤差空間分布情況如圖6(a)所示。

從圖6(a)可以看出,絕大多數點的定位誤差控制在10cm以內。經多次實驗,如圖6(b)所示,TBs-F為自注意力機制TCN-BIGRU模型[7],由于其利用位置特征指導特征提取的能力不如交叉注意力機制,因此平均定位誤差為2.67 cm。TBC-r代表本文算法僅在單源可見光差值數據上的效果,因缺乏其他傳感器的數據支持,誤差相對較大,平均定位誤差為2.79 cm。而對于CNN-GRU模型,其定位平均誤差為7cm。TBC-F為本文提出的交叉注意力機制的TCN-BIGRU算法,其平均定位誤差為2.35 cm,其中90%的定位誤差都在5 cm以內。表1為不同算法的誤差對比。

3.3 定位性能對比實驗

在神經網絡訓練和優化完成后,對系統在二維平面的定位效果進行實際測試,接收端以0.2 m/s的速度移動,記錄2條測試路徑的數據。將融合差值數據預測結果與僅基于可見光通信信號強度的差值數據預測結果進行對比。實驗結果如圖7—8所示。

從圖7—8可以看出,融合定位的估計位置更接近真實位置,且定位誤差普遍低于單一源的定位誤差。具體而言,路徑1的融合定位平均誤差為4.9 cm,單一源定位平均誤差為5.8 cm;路徑2的融合定位平均誤差為6.0 cm,單一源定位平均誤差為6.9 cm。2個測試路徑的最大定位誤差均未超過20 cm。綜上所述,采用交叉注意力機制的TCN-BIGRU融合定位算法相比其他算法,定位精度有較為明顯提升,且優于單一源的定位精度。

4 結語

本文提出了一種基于交叉注意力機制TCN-BIGRU的可見光通信和IMU融合定位算法,該算法結合了可見光通信信號強度和慣性測量單元傳感器的數據。實驗使用了4個LED作為錨節點,在接收端安裝有光電二極管以捕獲可見光的通信信號強度和利用IMU來捕捉接收端的姿態信息。研究結果表明,在一個尺寸為2 m×2 m×2.8 m的實驗空間內,該模型定位誤差平均為2.3 cm,與僅使用可見光和其他模型相比,定位精度有了一定提高,符合大多數室內應用場景的定位服務要求。

參考文獻

[1]陳靜, 劉旋, 鄭杰.可見光室內定位技術研究進展[J].電訊技術,2024(3):478-487.

[2]JIE L, MAIT B P. Adaptive M-PAM for multiuser MISO indoor VLC systems[EB/OL].(2017-02-06)[2025-01-15]. https://ieeexplore.ieee.org/document/7841567.

[3]黃鳳榮, 劉慶璘, 高敏, 等.基于PRCNN-Attention魯棒零速檢測的行人慣性導航方法[J].中國慣性技術學報,2023(6):547-554.

[4]COLIN L, REN V, AUSTIN R, et al. Temporal convolutional networks: a unified approach to action segmentation[EB/OL].(2016-08-29)[2025-01-15]. https://arxiv.org/abs/1608.08242v1.

[5]CHAO L, YUAN H, XINYU L, et al. BiGRU network for human activity recognition in high resolution range profile[EB/OL].(2019-09-23)[2025-01-15].http://zcgw.jskjwx.org/web/Detail.html?_id=AXLbBsUQjs8_ycCHAXsr.

[6]牛國臣, 王曉楠.基于交叉注意力的多任務交通場景檢測模型[J].北京航空航天大學學報,2024(5):1491-1499.

[7]李加笑.基于誤差修正的RF-TCN-SA超短期風電功率預測模型[D].西安:西安理工大學,2023.

(編輯 沈 強編輯)

Fusion indoor localization method for visible light communications and IMU based on TCN-BIGRU

LIANG Wangyang, JIA Ziyan JIANG Yuyao

(Jiangsu University of Technology, Changzhou 213001, China)

Abstract: Traditional visible light indoor localization methods are insufficient in terms of localization accuracy and stability in dynamic environments, and there is also the problem of cumulative error when relying solely on IMU localization. This study proposes a visible light and IMU fusion localization method based on the cross-attention mechanism TCN-BIGRU. The method fuses the IMU sensor data with the received signal strength characteristics of visible light communication, takes the moment difference between the visible light measurements and the IMU sensor data as the main and auxiliary characteristics, effectively compensates for the limitations of a single sensor, and realizes complementarity by giving full play to the advantages of both through the adaptive gating mechanism. The experimental results confirm the effectiveness of the algorithm, and the average positioning error is only 2.35 cm, which improves the accuracy by 15.77% compared with the positioning using only visible light signal strength.

Key words: indoor localization; visible light communications; inertial measurement units; cross-attention mechanisms

主站蜘蛛池模板: 99精品久久精品| 国产欧美日韩免费| 久久人体视频| 香蕉久久国产超碰青草| 久久9966精品国产免费| 欧美日本激情| 亚洲无码视频喷水| 国产精品久久久久婷婷五月| 日韩精品久久久久久久电影蜜臀| 日韩精品资源| 免费播放毛片| 国产成人精品高清在线| 久久久久亚洲精品成人网| 欧美日韩激情| 99热6这里只有精品| 亚洲av无码人妻| 国产精品中文免费福利| 91网站国产| 久久福利网| 国产一级妓女av网站| 中美日韩在线网免费毛片视频| 国产网站在线看| 999国产精品永久免费视频精品久久 | 欧美天堂在线| 国产成人a毛片在线| 亚洲成人动漫在线| 自慰高潮喷白浆在线观看| 亚洲综合片| 亚洲啪啪网| 亚洲综合在线最大成人| 国产黄色免费看| 91综合色区亚洲熟妇p| 亚洲视频在线青青| 永久免费精品视频| 久久五月天综合| 亚洲欧美精品一中文字幕| 亚洲无码视频喷水| 国产又粗又猛又爽视频| 久久鸭综合久久国产| 五月天香蕉视频国产亚| 波多野结衣第一页| 99久久精品久久久久久婷婷| 久久综合伊人 六十路| 露脸真实国语乱在线观看| 亚洲人成网站日本片| 亚洲日本中文字幕乱码中文| 欧美视频在线播放观看免费福利资源 | 亚洲精品大秀视频| 91亚洲精品国产自在现线| 欧美日本视频在线观看| 色噜噜狠狠狠综合曰曰曰| 老色鬼欧美精品| 久草视频中文| 国产小视频在线高清播放| 色综合久久88| 国产精品3p视频| 成人亚洲国产| 无码中文字幕乱码免费2| 永久免费无码成人网站| 人妻91无码色偷偷色噜噜噜| 欧美性猛交一区二区三区| 中国美女**毛片录像在线 | 日韩一区二区在线电影| 精品国产网站| 无码国产偷倩在线播放老年人| 91精品日韩人妻无码久久| 日韩国产一区二区三区无码| 精品国产三级在线观看| 久久天天躁狠狠躁夜夜2020一| 国模极品一区二区三区| 91精品最新国内在线播放| 亚洲高清中文字幕| 久久这里只精品国产99热8| 性喷潮久久久久久久久| 毛片三级在线观看| 免费又黄又爽又猛大片午夜| 国产永久免费视频m3u8| 天天激情综合| 国产精品流白浆在线观看| 亚洲毛片网站| 免费观看无遮挡www的小视频| 欧美精品1区2区|