999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于大數(shù)據(jù)的深度卷積神經(jīng)網(wǎng)絡(luò)冗余參數(shù)優(yōu)化算法

2022-08-12 01:54:22姜寧
現(xiàn)代信息科技 2022年7期
關(guān)鍵詞:深度優(yōu)化

姜寧

(延安大學(xué) 數(shù)學(xué)與計算機科學(xué)學(xué)院,陜西 延安 716000)

0 引 言

大數(shù)據(jù)具有4V 特性,其變化速度快,模式多,價值高。由于大數(shù)據(jù)存在4V 的特性,傳統(tǒng)的分類方法和處理平臺很難實現(xiàn)對海量數(shù)據(jù)的有效處理。近年來,并行技術(shù)、特征選取和分類等技術(shù)的不斷發(fā)展,為大數(shù)據(jù)的處理開辟了新的思路。DCNN 在特征選擇、泛化、近似等方面都有很好的應(yīng)用,也是當今分類技術(shù)的一個重要領(lǐng)域。雖然基于DCNN 的深度學(xué)習(xí)技術(shù)已經(jīng)在海量數(shù)據(jù)的分類中取得了巨大突破,但是如何有效減少網(wǎng)絡(luò)訓(xùn)練時間和空間復(fù)雜性仍是一個亟待解決的問題。DCNN 中存在大量的冗余參數(shù),在設(shè)計過程中會產(chǎn)生大量的時間和硬件開銷。冗余參數(shù)優(yōu)化是一種較為有效地降低冗余參數(shù)的方法,由于該方法能夠很好地實現(xiàn)數(shù)據(jù)壓縮,以此來保證數(shù)據(jù)的完整性,同時又能很好地抑制數(shù)據(jù)的過度擬合,引起人們的廣泛關(guān)注。為此,文章提出一種基于大數(shù)據(jù)的深度卷積神經(jīng)網(wǎng)絡(luò)冗余參數(shù)優(yōu)化算法。

1 基于大數(shù)據(jù)的深度卷積神經(jīng)網(wǎng)絡(luò)模型構(gòu)建

針對大數(shù)據(jù)的特征提出一種基于大數(shù)據(jù)的深度卷積神經(jīng)網(wǎng)絡(luò)模型,該模型首先對分類器進行訓(xùn)練,通過判斷其與對象數(shù)據(jù)之間的相似性來確定目標數(shù)據(jù)的位置。借助分類器對各種對象進行判別,無須經(jīng)常在線更新,從而極大地降低了網(wǎng)絡(luò)上反復(fù)更新、學(xué)習(xí)所帶來的計算量增多的現(xiàn)象。基于大數(shù)據(jù)的深度卷積神經(jīng)網(wǎng)絡(luò)模型如圖1所示。

圖1 基于大數(shù)據(jù)的深度卷積神經(jīng)網(wǎng)絡(luò)模型

從圖1可以看出,在深度卷積神經(jīng)網(wǎng)絡(luò)的非線性變換中,模型僅需兩種數(shù)據(jù),一種作為目標數(shù)據(jù),一種作為查詢數(shù)據(jù)。該模型的主要工作是對兩組數(shù)據(jù)進行相似性的計算,并利用相似度對兩組數(shù)據(jù)進行訓(xùn)練?;诖髷?shù)據(jù)的深度卷積神經(jīng)網(wǎng)絡(luò)模型主要由三個層次組成,分別是輸入層、隱藏層和輸出層:

(1)輸入層。輸入層的功能是把最小的數(shù)據(jù)矢量合并為一個矢量(即輸入的數(shù)值)。

(2)隱藏層。與普通神經(jīng)網(wǎng)絡(luò)相似,它的隱藏層輸出是由權(quán)重矩陣、偏置項以及輸入層向隱藏層輸入的。

(3)輸出層。輸出層的卷積神經(jīng)元數(shù)目與詞典長度相等,而每一個神經(jīng)元的數(shù)值則表示下一個單詞的發(fā)生概率。

加權(quán)矩陣是一種基于深度卷積神經(jīng)網(wǎng)絡(luò)的新方法,它代表了輸入層到輸出層的直接邊界加權(quán)矩陣。采用直接連線可以減少一半的迭代數(shù),否則可以把權(quán)重矩陣設(shè)為0。在訓(xùn)練深度卷積神經(jīng)網(wǎng)絡(luò)時,采用正向傳播和逆向傳播兩種方式對加權(quán)進行更新。不斷重復(fù)更新過程,直至整個網(wǎng)絡(luò)中出現(xiàn)最小的漏洞。通過不斷的優(yōu)化與更新,最終獲得相應(yīng)的矢量數(shù)據(jù)。

2 基于大數(shù)據(jù)的深度卷積神經(jīng)網(wǎng)絡(luò)冗余參數(shù)優(yōu)化

在大數(shù)據(jù)時代,數(shù)據(jù)數(shù)量以幾何倍數(shù)增長。除了重要的數(shù)據(jù)之外,大量的數(shù)據(jù)都是未經(jīng)處理的。同時,數(shù)據(jù)的分散性也使得數(shù)據(jù)的采集工作變得異常困難。數(shù)據(jù)冗余是數(shù)據(jù)庫的一個重要特點,為了改善大量冗余數(shù)據(jù)占用網(wǎng)絡(luò)存儲空間而影響整體網(wǎng)絡(luò)運行效率的問題,提出了基于大數(shù)據(jù)的深度卷積神經(jīng)網(wǎng)絡(luò)冗余參數(shù)優(yōu)化方法。

2.1 大數(shù)據(jù)劃分

在冗余數(shù)據(jù)數(shù)量較大特性的基礎(chǔ)上,對數(shù)據(jù)進行了分類、提取、分析以及對訪問過程的判定。根據(jù)大數(shù)據(jù)集的特殊集合對三類集(即術(shù)語集、邊界集、殘差集)進行大數(shù)據(jù)分割。其中術(shù)語集是對概念信息的描述,邊界集是對實體運算和基礎(chǔ)概念之間關(guān)系的描述,而殘差集是對實體運算的描述。利用邊界權(quán)法將剩余的殘差集轉(zhuǎn)化為帶有邊權(quán)的無向圖,可以實時反映訪問邊界的訪問數(shù)量。利用多層次分割法對海量數(shù)據(jù)進行分割,并將一組單詞復(fù)制到相應(yīng)的分割模塊中。可以將海量數(shù)據(jù)劃分為不同的數(shù)據(jù)集合,當權(quán)重過大時,可以對其進行分割。在加權(quán)過小的情況下,可以將數(shù)據(jù)劃分為多個重復(fù)的集合,以此完成大數(shù)據(jù)的劃分。

2.2 冗余參數(shù)壓縮

大數(shù)據(jù)間具有較高的相似度,數(shù)據(jù)結(jié)構(gòu)中的基本單位包含大量的數(shù)據(jù)屬性,這些數(shù)據(jù)屬性具有極高的相似度,為數(shù)據(jù)的冗余差分壓縮奠定了基礎(chǔ)。在數(shù)據(jù)性質(zhì)相近的情況下,相同的數(shù)據(jù)結(jié)構(gòu)單元具有相同的基本單元,這種極為相似的數(shù)據(jù)很難通過合并而構(gòu)成大數(shù)據(jù)集合。

假設(shè)大數(shù)據(jù)中存在種屬性,計算種屬性數(shù)據(jù)集合的冗余參數(shù)熵,公式為:

其中,表示種屬性中某個數(shù)據(jù)出現(xiàn)頻率最高的標志,表示數(shù)據(jù)個數(shù)。

在不同的數(shù)據(jù)集中,使用不同的模板構(gòu)建一組相似的數(shù)據(jù),并將其與其他數(shù)據(jù)進行比對,確保在不同的數(shù)據(jù)集中,各數(shù)據(jù)間的相似度達到某種程度。熵越小,數(shù)據(jù)集之間的相似度越高,由此完成冗余參數(shù)壓縮。

2.3 冗余參數(shù)優(yōu)化

為了優(yōu)化冗余參數(shù),利用深度卷積神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練參數(shù)。在深度卷積神經(jīng)網(wǎng)絡(luò)中,有兩種訓(xùn)練參數(shù)的方法:梯度下降和隨機梯度下降。在具有大量數(shù)據(jù)的情況下,該方法存在訓(xùn)練迭代率較低,導(dǎo)致存儲空間不足等問題。隨機梯度下降方法能夠迅速地進行訓(xùn)練,但由于資料的缺乏,容易造成過度擬合。為此,文章提出了一種批量隨機梯度下降算法。

批量隨機梯度下降算法是一種將兩種算法相結(jié)合的新方法,它能有效地提高模型的學(xué)習(xí)效率,減小每次迭代方差的影響。在批量隨機梯度下降算法中,學(xué)習(xí)速率和動量是兩個參數(shù),通過調(diào)整學(xué)習(xí)速率可以有效地避免過度擬合,通過設(shè)定動量可避免在最低處發(fā)生畸變。

為了在冗余參數(shù)優(yōu)化后提高參數(shù)的可用效率,提出一種基于批量的隨機梯度下降方法,用以訓(xùn)練該模型,使該模型的損失函數(shù)達到最大值。模型訓(xùn)練的目的就是要發(fā)現(xiàn)其與預(yù)期的差異,在輸出結(jié)果與期望值不符的情況下,可以反求各層的輸入與輸出之差,并將其分配到各單位。為了減小分析的誤差,采用批量隨機梯度下降算法對各層次的參數(shù)進行精細調(diào)整。

根據(jù)平均排隊長度,判斷擁擠程度與擁擠概率之間的關(guān)系。阻塞程度可用以下公式來表示:

其中,l表示在時間內(nèi)數(shù)據(jù)隊列的緩沖長度,表示時間內(nèi)數(shù)據(jù)包到達速率的平均值,表示物理緩存長度。

首先,按照(2)的定義,在隊列排隊狀態(tài)下,所有到達的報文都將被拋棄,在此情況下,丟棄概率為1,而在隊列排隊狀態(tài)為空的情況下,丟棄概率則為0。在不存在擁擠的情況下,若將最小值和最大值映射到平均排隊長度,則會導(dǎo)致數(shù)據(jù)包丟失。在平均隊列超過75%的情況下,網(wǎng)絡(luò)中存在著擁擠現(xiàn)象。為了解決擁擠現(xiàn)象,使用隊列緩沖區(qū)進行解決。對最小值和最大值進行了優(yōu)化。

其次,網(wǎng)絡(luò)中的數(shù)據(jù)包容量受到限制。平均分組的處理時間與節(jié)點的分組處理速率和業(yè)務(wù)分組的平均分組速率相等。

最后,在排隊快速飽和時,業(yè)務(wù)節(jié)點的數(shù)據(jù)包處理速度趨于與節(jié)點的上行率相近,也就是說,在出現(xiàn)擁塞時,可以將節(jié)點的平均報文處理速度看作是節(jié)點的出現(xiàn)率。通過對每個回合的平均排隊長度進行調(diào)節(jié),降低了數(shù)據(jù)丟失概率的計算次數(shù)。

通過確定平均隊列長度,能夠完成冗余參數(shù)優(yōu)化。

3 實驗

為了驗證基于大數(shù)據(jù)的深度卷積神經(jīng)網(wǎng)絡(luò)冗余參數(shù)優(yōu)化算法研究的合理性,進行實驗驗證分析。

3.1 實驗環(huán)境

實驗硬件包括一個工作攻擊節(jié)點、七個任務(wù)攻擊節(jié)點,所有節(jié)點的CPU 均為AMD,內(nèi)存為16 GB,通過1 Gbps 以太網(wǎng)連接攻擊節(jié)點。在Opnet 仿真環(huán)境中模擬網(wǎng)絡(luò)路由節(jié)點兩端的寬帶鏈路,人為制造網(wǎng)絡(luò)擁塞現(xiàn)象。使用YB-CA266型號存儲服務(wù)器存儲相關(guān)數(shù)據(jù),利用System x3650M3 型號備份服務(wù)器備份相關(guān)數(shù)據(jù),通過Windows 7 處理機處理相關(guān)數(shù)據(jù)。

3.2 實驗數(shù)據(jù)分析

選取7 個數(shù)據(jù)集,總大小為10 GB,這7 個數(shù)據(jù)集分別為#1、#2、#3、#4、#5、#6、#7,這7 個數(shù)據(jù)集的大小分別是2 GB、1 GB、0.5 GB、1.5 GB、1 GB、2 GB、2 GB。

3.3 實驗結(jié)果與分析

對比分析冗余參數(shù)優(yōu)化、非優(yōu)化兩種情況下網(wǎng)絡(luò)存儲空間的大小,結(jié)果如表1所示。

表1 兩種情況下參數(shù)所占網(wǎng)絡(luò)存儲空間大小

由表1可知,當數(shù)據(jù)集為#1 時,優(yōu)化后的冗余參數(shù)比非優(yōu)化的冗余參數(shù)所占網(wǎng)絡(luò)存儲空間小2 GB;當數(shù)據(jù)集為#2時,優(yōu)化后的冗余參數(shù)比非優(yōu)化的冗余參數(shù)所占網(wǎng)絡(luò)存儲空間小6 GB;當數(shù)據(jù)集為#3 時,優(yōu)化后的冗余參數(shù)比非優(yōu)化的冗余參數(shù)所占網(wǎng)絡(luò)存儲空間小4 GB;當數(shù)據(jù)集為#4 時,優(yōu)化后的冗余參數(shù)比非優(yōu)化的冗余參數(shù)所占網(wǎng)絡(luò)存儲空間小6 GB;當數(shù)據(jù)集為#5 時,優(yōu)化后的冗余參數(shù)比非優(yōu)化的冗余參數(shù)所占網(wǎng)絡(luò)存儲空間小14 GB;當數(shù)據(jù)集為#7 時,優(yōu)化后的冗余參數(shù)比非優(yōu)化的冗余參數(shù)所占網(wǎng)絡(luò)存儲空間小10 GB。由此可知,優(yōu)化后的冗余參數(shù)所占網(wǎng)絡(luò)存儲空間較小。

為了進一步驗證基于大數(shù)據(jù)的深度卷積神經(jīng)網(wǎng)絡(luò)冗余參數(shù)優(yōu)化算法研究的有效性,對比分析冗余參數(shù)優(yōu)化、非優(yōu)化兩種情況下參數(shù)的可用效率,對比結(jié)果如圖2所示。

由圖2可知,對于優(yōu)化的冗余參數(shù),參數(shù)可用效率最高可達92%,最低為80%;對于非優(yōu)化的冗余參數(shù),參數(shù)可用效率最高可達50%,最低為32%。由此可知,優(yōu)化后的冗余參數(shù)具有較高的參數(shù)可用效率。

圖2 兩種情況下參數(shù)可用效率

4 結(jié) 論

為了彌補傳統(tǒng)方法存在的不足,提出了基于大數(shù)據(jù)的深度卷積神經(jīng)網(wǎng)絡(luò)冗余參數(shù)優(yōu)化算法。通過所構(gòu)建的深度卷積神經(jīng)網(wǎng)絡(luò)模型進行參數(shù)訓(xùn)練,并對冗余參數(shù)進行優(yōu)化。由實驗結(jié)果可知,冗余參數(shù)優(yōu)化后所占網(wǎng)絡(luò)存儲空間較小,參數(shù)可用效率較高。在后續(xù)的研究進程中,為了進一步優(yōu)化網(wǎng)絡(luò)存儲空間,需要對冗余參數(shù)進行消減,使網(wǎng)絡(luò)參數(shù)能夠適應(yīng)不同的環(huán)境需求,在保證網(wǎng)絡(luò)擁塞控制效果的同時,降低算法計算的復(fù)雜程度。

猜你喜歡
深度優(yōu)化
超限高層建筑結(jié)構(gòu)設(shè)計與優(yōu)化思考
民用建筑防煙排煙設(shè)計優(yōu)化探討
關(guān)于優(yōu)化消防安全告知承諾的一些思考
一道優(yōu)化題的幾何解法
由“形”啟“數(shù)”優(yōu)化運算——以2021年解析幾何高考題為例
深度理解一元一次方程
深度觀察
深度觀察
深度觀察
深度觀察
主站蜘蛛池模板: 免费一级大毛片a一观看不卡| 91久久国产热精品免费| 亚洲天天更新| 国产视频一二三区| 色噜噜久久| 伊人91视频| 国产玖玖视频| 精品撒尿视频一区二区三区| 国产精品香蕉在线| 午夜无码一区二区三区在线app| 美女免费精品高清毛片在线视| 国产中文一区二区苍井空| 性视频一区| 亚洲日本精品一区二区| 亚洲成a人片| 乱人伦中文视频在线观看免费| 国产成人凹凸视频在线| 午夜色综合| 亚洲欧美在线精品一区二区| 先锋资源久久| 国产日本欧美在线观看| 日韩高清欧美| 在线国产欧美| 国产超薄肉色丝袜网站| 国产精品.com| 青青青亚洲精品国产| 亚洲人在线| 精品国产aⅴ一区二区三区| 亚洲av无码久久无遮挡| 欧洲精品视频在线观看| 亚洲欧美综合在线观看| 国产精品女主播| 亚洲日韩Av中文字幕无码| 伊人婷婷色香五月综合缴缴情| 国产区在线观看视频| 亚洲人成色77777在线观看| 91精品免费久久久| 国产亚洲精品自在久久不卡| 996免费视频国产在线播放| 在线一级毛片| 亚洲日韩国产精品无码专区| 国产美女精品在线| 亚洲综合九九| 日本不卡视频在线| 99热国产这里只有精品无卡顿"| 国产91小视频在线观看| 国产成人免费视频精品一区二区| 国产男人的天堂| 日韩欧美国产另类| 91丝袜美腿高跟国产极品老师| 在线亚洲天堂| 色爽网免费视频| 久久精品国产国语对白| 人妻无码中文字幕第一区| 无码人中文字幕| 久无码久无码av无码| 国产又大又粗又猛又爽的视频| 精品99在线观看| 国产精品久久精品| 国产情精品嫩草影院88av| 人妻无码AⅤ中文字| 亚洲狠狠婷婷综合久久久久| 国产免费高清无需播放器| 免费高清毛片| 亚洲第一区在线| 一级福利视频| 亚洲国产中文在线二区三区免| 无码aⅴ精品一区二区三区| 国产一区二区色淫影院| V一区无码内射国产| 国产日韩精品一区在线不卡| 国产极品美女在线观看| 亚洲天堂网在线观看视频| 国产在线91在线电影| 曰AV在线无码| 青青青国产视频| 亚洲综合天堂网| 99在线视频网站| 欧美成a人片在线观看| 精品国产成人a在线观看| 在线精品亚洲一区二区古装| 在线观看无码a∨|