999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于網絡重構的改進GhostNet一維信號辨識研究

2025-02-15 00:00:00余航陳燁燁李捍東
軟件工程 2025年2期

摘 要:觸覺傳感器采集的一維觸覺數據能夠用于識別并區分物體的特征,進而實現對物體類別的分類。文章以輕量級卷積神經網絡GhostNet為基礎框架,提出了一種改進的復合損失函數,以提升模型的分類性能。為進一步適應一維觸覺數據的特性,研究對GhostNet模型進行了結構上的改進,使其能夠高效處理一維數據。同時,研究將改進后的GhostNet與GRU(GatedRecurrentUnit)網絡相結合,構建了GhostNet-GRU (GhostNetwork-GatedRecurrentUnit)網絡結構。實驗結果表明,采用復合損失函數后,網絡精度提高了1.85%,并且與殘差網絡ResNet相比,網絡精度提高了3.42%,證明了所提出改進網絡結構的有效性和實用價值。

關鍵詞:一維觸覺數據;損失函數;GhostNet;GRU;網絡融合

中圖分類號:TP391 文獻標志碼:A

0 引言(Introduction)

觸覺識別[1]作為人機交互的重要組成部分,近年來在智能系統領域受到了廣泛關注。盡管深度學習技術在圖像和語音識別領域已取得顯著進展,但是觸覺感知仍面臨著諸多挑戰,這些挑戰主要源于觸覺數據的高維性和時間序列的復雜性。本文針對一維的時間序列觸覺數據進行算法改進,旨在為觸覺識別技術的進步注入新的活力并產生積極影響。

我國在觸覺識別技術方面的研究和應用正在穩步推進,其中基于嵌入式AI的主動激勵式觸覺信號辨識技術[2]的表現尤為突出。該技術將輕量級神經網絡部署到嵌入式系統中,在運算資源有限的情況下,實現對4種物體共9種狀態的分類辨識。

本研究采用GhostNet[3]作為核心的輕量級卷積神經網絡,對復合損失函數進行了改進,并通過融合門控循環單元(GRU)以優化時間序列數據處理。該方法不僅精簡了網絡參數,而且在物體分類識別任務中提高了準確率,為觸覺識別技術的迭代升級開辟了新途徑。

1 理論介紹(Theoryintroduction)

1.1 GhostNet網絡模型

GhostNet是一種輕量級卷積神經網絡,其核心思想是使用Ghost模塊生成更多的特征圖,但不會增加額外的計算成本;通過應用一系列線性變換(比如普通的卷積操作),并對這些變換進行一些微小的修改來“生成”更多的特征圖。這種設計旨在提供與標準卷積神經網絡相似的表現,同時減少計算的復雜度和模型規模。本文以GhostNet網絡模型為核心,將其應用于一維觸覺數據的特征提取,并探索其在物體分類任務中的應用潛力。

1.2 GhostNet網絡結構

Ghost模塊的核心思想是分成兩步生成所需要的特征圖,第一步是使用較少的卷積核進行標準卷積操作,生成一組基本的特征圖。這一步的操作可以確保捕獲輸入數據的基本特征,其公式表示如下:

G =X*W +b (1)

其中:G 是生成的基本特征圖,X 是輸入數據,W 是卷積核的權重,b 是卷積操作的偏置項,* 表示卷積操作。

第二步是利用Ghost模塊執行一系列計算成本較低的操作,如線性變換、平均池化、深度卷積等,從而生成額外的特征圖。這些額外增加的特征圖并不會帶來計算量的增加,因此被稱為Ghost特征圖,其公式表示如下:

Oi =O(Gi;θi ) , i=1,…,m-g (2)

其中:Oi 是通過廉價操作生成的第i 個額外特征圖;Gi 是第i個基本特征圖;O 是廉價操作,如使用深度卷積、線性變換、平均池化等;θi 是廉價操作的參數;m -g 表示需要額外生成的特征圖的數量。

將G 個基本特征圖和m -g 個通過廉價操作生成的特征圖合并起來,則形成最終的特征圖輸出,其公式表示如下:

F=[G1,…,Gg ,O1,…,Om-g] (3)

1.3 GRU網絡結構

GRU是一種被廣泛使用的循環神經網絡[4](RNN)架構,通常被用來處理時間序列數據。GRU 結構通過引入更新門(UpdateGate)和重置門(ResetGate)來調節信息流,能夠解決循環神經網絡梯度消失的問題,從而增強模型在處理長序列數據時的能力。其中,更新門可以決定有多少過去的信息需要被保留到當前時刻,并通過一個sigmoid激活函數確保輸出值為0~1,其公式表示如下:

zt=σ(Wz·[ht-1,xt]+bz ) (4)

其中:zt 是時間步t的更新門的向量,σ 是sigmoid激活函數,Wz 是更新門的權重矩陣,ht-1 是前一時間步的隱藏狀態,xt是當前時間步的輸入,bz 是更新門的偏置向量。

重置門控制允許多少過去的信息被遺忘,以便更專注于當前更重要的信息,其公式表示如下:

rt=σ(Wr· [ht-1,xt ]+br ) (5)

GRU通過這些門控機制有效地平衡了新輸入信息與過去信息的更新,極大地提高了模型的信息利用效率,從而顯著提升了模型處理時間序列數據的能力。

1.4Softmaxloss

Softmaxloss也稱為交叉熵損失或對數損失,是用于分類問題的常見損失函數,在神經網絡中扮演著重要的角色[5]。然而,其基于每個樣本僅歸屬一個類別的假設,在某些情況下可能區分不出來,特別是當類別中由于類間相似性而出現局部重疊時,Softmaxloss無法很好地處理多標簽的分類任務問題,很難區分不同類別之間的深度特征圖。

1.5Centerloss

Centerloss被稱為中心損失函數,旨在提高特征表示的判別性,與Softmaxloss不同的是,它縮短了類樣本之間的距離,能更好地區分樣本的特征。這使得同一類別的樣本在特征空間更加密集。然而,即便采用了Centerloss,也可能會出現樣本在特征之間局部重合的問題。

1.6 復合損失函數

在使用觸覺傳感器采集數據時,環境的變化和受傳感器噪聲的影響,會導致數據本身存在一定的差異。為了提升模型對觸覺行為的識別能力,可以通過增強類內的緊湊性來聚集相似的觸覺行為。同時,不同的觸覺行為和物體表面特征存在細微但關鍵的區別,通過拉大這些類別間的距離,可以使分類邊界更加明確,進而提高模型的分類辨識能力。因此,本研究在模型中引入了復合損失函數,以實現對觸覺數據更準確的分類和識別。

1.6.1 前向傳播改進

在一個一維觸覺數據集 {(xi,yi ) }Ni=1 中,xi 是特征向量,yi 是對應的類別標簽,共有C 個類別。對于每個類別j,定義一個類中心cj,中心損失函數(CenterLoss)針對每個樣本xi 最小化它與它的類中心cj之間的距離。通過增加一個類間距離項Linter ,增大不同類別的中心距離,其公式表示如下:

其中:m 是一個預設的邊界值,旨在確保不同類別的中心之間的距離至少為m。復合損失函數可以描述為

L =Lsoftmax +λ1Lcenter+λ2Linter (7)

其中:Lsoftmax 是傳統的SoftmaxLoss,Lcenter是相應的中心損失函數,λ1 和λ2 是用于平衡不同損失項貢獻的權重系數。

1.6.2 反向傳播改進

在使用SDG(隨機梯度下降)時,類中心的更新是對每個類別中心梯度的計算,對于包含了類間距離的復合損失函數來說,類中心的更新不僅需要考慮最小化類間距離,而且需要考慮最大化類間距離,對于類別為j 的類中心cj,由中心損失函數Lcenter 計算得到梯度,其公式表示如下:

對于類間距離增加項Lcenter 的梯度,可以表示為對每一對類中心(ci,cj)之間的距離,當距離小于預設的邊界m 時,對梯度調整為

其中,1(· ) 是指示函數,其值在條件滿足時為1,否則為0。

在SDG的更新規則下,對于類中心cj的更新公式表示為

c(new) j =cj-η(λ1 ?cjLcenter+λ2 ?cjLinter) (10)

其中:η 是學習率,在模型與復合損失函數結合后,訓練過程中通過前向和反向傳播不斷更新損失參數和網絡參數,確保模型能夠有效學習和適應數據特性。

2 模型介紹(Modelintroduction)

2.1 算法結構

本文基于GhostNet提出了一種一維信號的辨識算法,通過觸覺傳感器采集的數據特性在“1.6”小節中已有描述。基于數據特性,本研究對損失函數進行了改進,使用復合損失函數提高模型對不同物體的辨識能力。GhostNet模型的一維GhostModule原理圖如圖1所示。針對觸覺數據的一維結構特性,在模型設計時,將所有二維卷積替換為一維卷積,當stride=1和stride=2時,得到的改進一維GhostBlock如圖2所示。ULLAH等[6]通過對比一維信號在卷積核逐層遞增和遞減兩種情況下的表現,發現卷積核逐層遞減的神經網絡的參數遠小于卷積核逐層遞增的神經網絡的參數,但在精度上,卷積核逐層遞減的神經網絡與卷積核逐層遞增的神經網絡并沒有明顯的區別。

因此,本文在設計卷積核時采取了逐層遞減的方式,即64—64—32—16。一維GhostNet網絡架構如圖3所示。

2.2 網絡融合

首先,使用GhostNet的結構對輸入的一維時間序列數據進行特征提取。其次,將GhostNet處理后的特征傳遞給GRU網絡,這是因為GRU能夠有效地處理時間序列數據。最終,我們構建了融合模型GhostNet-GRU,其網絡架構如圖4所示。

3 數據采集與處理(Datacollectionandprocessing)

本次實驗選取的物體都是日常生活中常見的物品,使用加速度傳感器作為觸覺傳感器來提高觸覺反饋。具體選取的物體包括番茄、蘋果、木塊、泡沫和雞蛋。其中,番茄的表面光滑,內部含水量高,質地較軟,在觸覺實驗中易受壓力而變形;蘋果的外表比較光滑,內部脆弱且含有較多的水分,相較于番茄硬度較高,提供了與番茄不同的觸覺反饋;木塊的質地堅硬,結構穩定,表面略帶粗糙,其堅硬的特性和不同的紋理差異為觸覺實驗提供了不同觸覺反饋;泡沫質地輕盈、多孔,壓縮性高,在被壓變形后可以迅速恢復原樣;雞蛋的外殼堅硬,但承受一定壓力后會破碎,其內部的流動性也為觸覺實驗提供了獨特的反饋。

采集完數據后,由于環境變化和存在傳感器噪聲,因此需要對采集的數據進行濾波處理,本次實驗采用的是中值濾波。中值濾波是一種典型的非線性濾波技術,特別適合去除噪聲干擾,而且還能保持數據的邊緣信息不被模糊。在中值濾波過程中,先設定一個濾波窗口,窗口中包含的數據數量設置為N 。對于每一個新的數據點,濾波器都會考慮當前點及其前后的共N 個數據點。濾波器的任務是將這N 個數據點按數值大小進行排序,然后選取中間的值作為輸出,以此減少隨機噪聲的影響。觸覺傳感器采集的原始數據和經過中值濾波后的數據對比圖如圖5所示。從圖5中可以發現噪聲點明顯減少,這種中值濾波處理數據的方法可以幫助模型學習和提取有用的特征而不被噪聲干擾。

4 實驗分析(Experimentalanalysis)

4.1 改進損失函數分析

本次實驗通過觸覺傳感采集了5種常見的物體,分別為番茄、蘋果、木塊、泡沫、雞蛋。每種物體采集了200個數據,共計1000個數據,隨機抽取70%的數據作為訓練集,剩余的30%作為測試集。分別將Softmaxloss、Centerloss和復合損失函數引入改進模型,并通過混淆矩陣對3種損失函數下的模型性能進行對比(圖6)。

分析圖6中的混淆矩陣,我們發現在測試集中,相較于使用Softmaxloss和Centerloss,使用復合損失函數時出現的誤判次數最少,并且在物體識別率上表現出了最高的準確率,特別是在對木塊和泡沫的識別上表現尤為突出。因此可以得出結論,使用改進后的復合損失函數后,模型的辨識準確率有所提高。

4.2 模型對比分析

4.2.1 實驗評價標準

平均精度均值(meanAveragePrecision,mAP)是一個評估分類模型性能的指標,它計算了模型在所有類別上的平均分類檢測性能,其計算如下:

其中:N 表示類別的總數,p(k)表示樣本分類的精度,k 表示樣本個數,Δr(k)是相應的召回率增量,m 是類別的數量。mAP可以直觀地評價模型的分類檢測性能。

4.2.2 改進模型對比

基于采集的數據,改進后的模型能夠更好地處理時間序列數據,對各類物體識別的mAP值如表1所示。

實驗結果表明,改進后的模型對各類物體的識別準確率都有提升,特別是木塊和泡沫的mAP值最高,分別達到了0.966與0.950。

4.2.3 與其他模型對比

常見的數據特征提取方法有LeNet(LeNet-5)[7] 和ResNet[8],不同模型的識別率對比圖如圖7所示。

從圖7中可以清晰地觀察到,改進后的GhostNet-GRU模型在處理一維時間序列數據方面表現出顯著的優勢,特別是在識別木塊、蘋果和泡沫時,展現了較高的識別準確率。實驗結果有效地證明了本研究構建網絡結構的有效性和實用價值。

不同網絡模型的參數如表2所示。由表2可知,在與LeNet模型大小相近的情況下,改進的GhostNet-GRU展現出更低的損失率;與ResNet相比,在模型參數更少的情況下,GhostNet-GRU表現出更高的效率和性能。這一實驗結果表明了GhostNet-GRU結構在效率和性能上的雙重優勢。在擁有較少模型參數的同時,其在測試集上也展現了更優的損失表現。

5 結論(Conclusion)

本文以輕量級神經網絡GhostNet模型為核心,通過將其與復合損失函數和GRU 結構相結合,提出了一種GhostNet-GRU模型架構。該模型適用于處理一維時間序列數據,對于識別和分類各種物體有更高的效率,并且能夠在運算資源有限的情況下,快速且準確地對物體進行分類識別。為了進一步驗證模型的效果并優化其性能,我們計劃將模型應用于嵌入式系統,繼續對識別算法進行深入研究,并對系統進行持續改進,旨在實現更高的操作效率和更低的能耗,最終將先進的人工智能技術更廣泛地應用于日常生活和工業實踐,發揮其巨大的潛力與價值。

參考文獻(References)

[1]PATELRV,ATASHZARSF,TAVAKOLIM.Hapticfeedbackandforce-basedteleoperationinsurgicalrobotics [J].ProceedingsoftheIEEE,2022,110(7):1012-1027.

[2]劉聶天和.基于嵌入式AI的主動激勵觸覺瞬態信號特征辨識研究[D].貴陽:貴州大學,2023.

[3]HANK,WANGYH,XUC,etal.GhostNetsonheterogeneousdevicesviacheapoperations[J].Internationaljournalofcomputervision,2022,130(4):1050-1069.

[4]ZHUTL,LIAOYX,TAOZ.Predictinggoogle’sstockpricewithLSTMmodel[J].Proceedingsofbusinessandeconomicstudies,2022,5(5):82-87.

[5]HUG,SHENGGL,WANGXF,etal.CCNNet:anovellightweightconvolutionalneuralnetworkanditsapplicationintraditionalChinesemedicinerecognition[J].Journalofbigdata,2023,10(1):114.

[6]ULLAHI,HUSSAINM,QAZIEUH,etal.AnautomatedsystemforepilepsydetectionusingEEGbrainsignalsbasedondeeplearningapproach[J].Expertsystemswithapplications,2018,107:61-71.

[7]LECUNY,BOTTOUL,BENGIOY,etal.Gradient-basedlearningappliedtodocumentrecognition[J].ProceedingsoftheIEEE,1998,86(11):2278-2324.

[8]HEK M,ZHANGX Y,RENSQ,etal.Deepresiduallearningforimagerecognition[C]∥IEEE.ProceedingsoftheIEEE:2016IEEEConferenceonComputerVisionandPatternRecognition.Piscataway:IEEE,2016:770-778.

作者簡介:

余 航(1998-),男(漢族),貴州,碩士生。研究領域:電子信息。

陳燁燁(2000-),女(漢族),貴州,碩士生。研究領域:電子信息。

李捍東(1966-),男(漢族),貴州,教授,博士。研究領域:電子信息,計算機控制,嵌入式。本文通信作者。

主站蜘蛛池模板: 玖玖精品视频在线观看| 久久久黄色片| 亚洲熟妇AV日韩熟妇在线| 又爽又黄又无遮挡网站| 国产中文一区a级毛片视频| 在线播放国产99re| 久久这里只有精品2| 精品欧美日韩国产日漫一区不卡| 国产又爽又黄无遮挡免费观看| 亚洲国产AV无码综合原创| 欧美日一级片| 国产一级一级毛片永久| 亚洲熟女偷拍| 国产原创演绎剧情有字幕的| 91在线一9|永久视频在线| 日韩二区三区| JIZZ亚洲国产| 熟妇丰满人妻| 国产在线拍偷自揄观看视频网站| 最新国语自产精品视频在| 久久综合一个色综合网| 久久香蕉国产线看观看亚洲片| 精品三级在线| 国产日韩久久久久无码精品| 国产精品私拍在线爆乳| 孕妇高潮太爽了在线观看免费| 国产日本欧美在线观看| 亚洲最新网址| 国产欧美日韩精品第二区| 日韩国产欧美精品在线| 97国产成人无码精品久久久| 成人午夜精品一级毛片| 国产内射一区亚洲| 国产精品高清国产三级囯产AV| 一区二区三区四区精品视频| 欧美a在线看| 国产免费怡红院视频| 丝袜无码一区二区三区| 亚洲娇小与黑人巨大交| 久久久黄色片| 无码高潮喷水专区久久| 中文字幕乱码中文乱码51精品| 国产精品伦视频观看免费| 大学生久久香蕉国产线观看| 国内嫩模私拍精品视频| 亚洲,国产,日韩,综合一区 | 中文字幕va| 国产精品va| 国产全黄a一级毛片| 国产成a人片在线播放| 无码内射在线| 又爽又大又光又色的午夜视频| 欧美成人一级| 久久99精品久久久久纯品| 亚洲精品桃花岛av在线| AV熟女乱| 成年人国产网站| 欧美丝袜高跟鞋一区二区| 99久久国产综合精品2023| 国产精品一区在线麻豆| 久久综合色天堂av| 91精品国产麻豆国产自产在线| 伊人丁香五月天久久综合| 国产欧美日韩免费| 综合久久五月天| 深夜福利视频一区二区| 波多野结衣视频网站| 欧美日韩中文字幕在线| 夜夜操天天摸| 国产97视频在线观看| 在线欧美国产| 91久久偷偷做嫩草影院| 国产成人高清精品免费| av在线5g无码天天| 国产亚洲美日韩AV中文字幕无码成人| 欧美一级高清视频在线播放| 国产亚洲欧美日本一二三本道| 国产高清在线精品一区二区三区| 国产簧片免费在线播放| 99视频精品全国免费品| 99热这里只有精品免费国产| 欧美一级在线|