999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于混沌天牛群算法優(yōu)化的神經網絡分類模型

2022-05-19 13:38:04王麗陳基漓謝曉蘭徐榮安
科學技術與工程 2022年12期
關鍵詞:分類模型

王麗, 陳基漓,2*, 謝曉蘭,2, 徐榮安

(1.桂林理工大學信息科學與工程學院, 桂林 514004; 2.廣西嵌入式技術與智能系統(tǒng)重點實驗室, 桂林 514004)

隨著大數(shù)據時代的快速發(fā)展,人們對于獲取的數(shù)據要求越來越高,越來越多的學者專注于如何從海量的數(shù)據中提取有效信息并將其進行分類處理。經典的分類模型有很多,常見的有支持向量機(support vector machine, SVM)、K近鄰(K-nearest neighbor, KNN)、決策樹和神經網絡分類模型,學者們通過對這些分類模型的研究,提出了各種優(yōu)化方法,如利用智能算法優(yōu)化SVM[1-2],多種分類模型組合分類[3]、動態(tài)分類[4-5]等。傳統(tǒng)的反向傳播 (back-propagation,BP)神經網絡[6]是一種多層前饋神經網絡,由于BP神經網絡的權值和閾值[7]是初始化時隨機生成的,導致BP神經網絡在訓練時易陷入局部最優(yōu),其穩(wěn)定性較差等問題。為了克服這些缺點,許多學者在BP神經網絡中引入群智能算法對其進行改進。Xu等[8]采用人工蜂群算法 (artificial bee colony, ABC)優(yōu)化BP神經網絡后對磁流變阻尼器進行半主動控制,提高了算法的計算效率和精度;李琪等[9]利用粒子群優(yōu)化算法(particle swarm optimization,PSO)優(yōu)化BP神經網絡,根據實際工況建立PSO-BP鉆井機械鉆速預測模型并進行模型評價,結果表明該模型具有良好的預測精度。但是它們存在許多缺點,如ABC算法局部搜索能力弱,算法性能受種群數(shù)量和limit控制參數(shù)影響較大;PSO算法尋優(yōu)精度低,在迭代后期無法保持種群的多樣性,從而陷入局部最優(yōu)。

Jiang等[10]提出了基于天牛搜尋食物原理的天牛須搜索(beetle antennae search,BAS) 算法。天牛須搜索算法與粒子群優(yōu)化算法、遺傳算法(genetic algorithm,GA)等都是元啟發(fā)式智能優(yōu)化算法,PSO和GA通過種群尋優(yōu),而BAS算法在尋優(yōu)過程中只有一個天牛個體,BAS 算法簡單,參數(shù)少,容易實現(xiàn),不會被過多的初始條件所約束,并且適用于求解更為復雜的非線性優(yōu)化問題。Fan等[11]將BAS算法與比例-積分-微分(proportion integral differential,PID)策略相結合,設計了BAS-PID控制器,大大提高了電液位置伺服控制系統(tǒng)的性能,有效抑制了系統(tǒng)的干擾信號;趙輝等[12]提出了將A*算法與BAS算法相結合的BAS-A*全局規(guī)劃方法,用于農業(yè)機器人的路徑規(guī)劃,在縮短路徑長度和降低累計轉折點數(shù)量方面驗證了所提方法的有效性。Cai等[13]利用BAS良好的初始參數(shù)加快Elman神經網絡訓練,建立BAS-Elman神經網絡模型,驗證了該模型應用于隧道工程爆破震動速度預測的可行性。然而,標準的天牛須搜索算法仍存在局部搜索能力不夠理想,且單個個體搜索極易在迭代過程中陷入局部最優(yōu),不能找到全局最優(yōu)值的問題,因此,BAS算法的尋優(yōu)精度還有一定的提升空間。

針對BP神經網絡和天牛須搜索算法的缺點,提出一種改進天牛須搜索算法優(yōu)化的BP神經網絡分類模型,利用優(yōu)化后的IBAS算法得到的最優(yōu)解作為BP神經網絡的權閾值進行分類訓練。基于此,以改進的天牛須搜索及反向傳播神經網絡(improved beetle antennae search and back propagation neural network,IBAS-BPNN)分類模型的分類正確率最佳為優(yōu)化目標,與其他6種分類模型比較多個數(shù)據集的分類效果,驗證分類模型的有效性和準確性。

1 相關方法

1.1 BP神經網絡

BP神經網絡模型簡單,在網絡性能和理論方面都已經十分成熟,因此常被用于各種預測模型中。BP神經網絡模型拓撲結構包括三個層次,分別是輸入層、隱含層和輸出層[14],該網絡的主要特點是信號正向傳播,誤差反向傳播,這也是BP神經網絡的學習過程。非線性映射是BP神經網絡重要的能力,可以使映射關系之間不需要用數(shù)學方程來表示,BP神經網絡中可以存儲和學習大量的輸入-輸出對,只要為BP神經網絡提供足夠的樣本進行訓練和學習,就能夠完整地描述輸入空間到輸出空間的非線性轉換。典型的BP神經網絡結構如圖1[15]所示。

在BP神經網絡中,輸入層神經元的個數(shù)為輸入樣本數(shù)據的維數(shù),即樣本的屬性個數(shù);輸出層神經元個數(shù)為預測的節(jié)點數(shù),即輸出的標簽數(shù);采用單層隱含層,隱含層神經元個數(shù)依據式(1)[16]得到范圍,再通過比較不同個數(shù)的網絡收斂誤差來確定。

(1)

式(1)中:I為輸入層神經元個數(shù);H為隱含層神經元個數(shù);O為輸出層神經元個數(shù);a為[0,10]之間的整數(shù)。

搜索算法的空間維度為

K=IH+HO+H+O

(2)

在BP神經網絡進行訓練之前,隨機初始化網絡的權閾值,開始進入正向傳播階段。在正向傳播過程中,輸入層的各個神經元接收需要處理的信息,并將其傳送給隱含層,隱含層的各個神經元則負責處理這些信息,將處理后的信息傳送給輸出層,輸出層則把處理結果輸出給外界;計算輸出值與實際值之間的誤差,如果誤差不滿足精度要求,則進入誤差反向傳播階段。在誤差反向傳播階段,利用梯度下降法不斷修正各層連接的權值和閾值,將誤差從輸出層轉移回到隱含層和輸出層的過程。循環(huán)往復這個過程,直到BP神經網絡訓練次數(shù)達到預設的最大迭代次數(shù)或輸出的誤差降低到目標值為止。

1.2 天牛須搜索算法

天牛須搜索算法的原理[17]:當天牛在尋找食物時,并不能清楚地知道食物具體所處位置,這時,食物的氣味就相當于一個函數(shù),天牛根據左右觸角所接收的食物氣味的強弱來確定搜索方向,即天牛的左右觸角可以采集自身附近兩點的氣味值。如果天牛右邊觸角接收到的氣味強度大于左邊,則天牛下一步就會朝右飛去尋找食物,反之則朝左飛,最終找到全局氣味最大點,就可以有效的找到食物。

在BAS 算法中,由于天牛個體的觸須有著敏銳的感知能力,可以使該個體快速確定下一步的移動方向,不會無規(guī)則的盲目地移動,不僅降低了算法運算量,還提高算法收斂速度,從而達到尋找最優(yōu)解的目的[18]。BAS算法流程如下。

步驟1隨機地確定一個天牛須朝向作為搜索方向,確定算法的空間維度K。

(3)

式(3)中:dir為初始單位向量,表示天牛朝向;rand(K,1)為隨機函數(shù);K為空間維度。

步驟2初始化天牛坐標及其初始位置的適應度值,天牛質心的初始坐標由[-1,1]的隨機數(shù)組成。

步驟3確定天牛左右觸須在空間中的坐標位置。

(4)

式(4)中:t為迭代次數(shù),t=0,1,…,N,其中N為最大迭代次數(shù);d0為天牛左右須之間的距離;xt、xleft和xright分別為天牛在第t次迭代時天牛質心的坐標、天牛左邊觸須的位置坐標、天牛右邊觸須的位置坐標。

步驟4計算天牛左右觸須的適應度值。f(·)函數(shù)為適應度函數(shù),即計算f(xleft)和f(xright)的氣味強度。

(5)

式(5)中:f(xleft)為天牛左邊觸須的適應度值;f(xright)為天牛右邊觸須的適應度值。

步驟5迭代更新天牛的位置。

xt+1=xt-Stdirsigh[f(xleft)-f(xright)]

(6)

式(6)中:St為第t次迭代時天牛行進的步長;sign(·)為符號函數(shù)。

1.3 SMOTE過采樣

SMOTE[19]算法是基于隨機過采樣算法的一種改進方案,它的基本思想是分析少數(shù)類樣本信息,采用隨機線性插值的方法在近鄰少數(shù)類樣本之間手動增加新的少數(shù)類樣本個數(shù),再將合成的新樣本添加到數(shù)據集中,從而達到數(shù)據平衡的狀態(tài),SMOTE算法步驟如下。

步驟1利用歐氏距離計算少數(shù)類中的每一個樣本到該類中其他所有少數(shù)類樣本之間的距離,得到k個近鄰,按正序排列,一般k的取值為5。

步驟2根據少數(shù)樣本與多數(shù)樣本間的不平衡比設置采用倍率N。對于每一個少數(shù)類樣本x,從其K近鄰中隨機選擇xn個樣本進行隨機線性插值,構造新的少數(shù)類樣本。線性插值計算公式為

xnew=x+rand(0,1)|x-xn|

(7)

式(7)中:xnew為生成的新樣本。

步驟3將新生成的樣本與原始訓練集合并,產生新的訓練集。

2 IBAS-BPNN分類模型

2.1 IBAS算法

2.1.1 天牛種群尋優(yōu)

標準天牛須搜索算法中,只有一個天牛個體尋優(yōu),因此算法收斂速度快,但在更為復雜的函數(shù)優(yōu)化問題中,由于每次迭代天牛個體都是隨機的朝著某個方向移動,不能保證每次天牛位置更新后它的適應度值更優(yōu),且BAS的搜索空間存在一定的局限性,尋優(yōu)精度就會大大降低,算法性能下降,不易找到最優(yōu)解。因此,采用天牛種群進行尋優(yōu),通過使用n只天牛同時朝n個方向進行移動,可以擴大算法的搜索空間,從而可以提高算法在復雜空間中的尋優(yōu)能力,增加天牛找到更優(yōu)位置的可能性。天牛種群可以用矩陣表示為

X=[x1,x2,…,xn]T

(8)

xi=[xi,1,xi,2,…,xi,k]

(9)

式中:xi中的每個值表示每只天牛對應的問題維度,i=0,1,…,n,n為天牛的種群規(guī)模;K為問題維度。對應的天牛適應度值可表示為

FX=[fx1,fx2,…,fxn]T

(10)

fxi=[fxi,1,fxi,2,…,fxi,K]

(11)

式中:FX中的每個值表示n只天牛對應的適應度值;fxi中的每個值表示每只天牛對應的問題維度的適應度值。

2.1.2 Logistic混沌映射

隨著迭代次數(shù)的增加,天牛個體的多樣性將會逐漸減少,到迭代后期,算法易陷入局部最優(yōu)。而混沌搜索能夠以一定的規(guī)律不重復地遍歷所有狀態(tài),其搜索能力優(yōu)于隨機搜索。采用Logistic混沌擾動機制優(yōu)化算法,以其遍歷全局的優(yōu)點對種群進行混沌優(yōu)化,使得天牛能夠跳出局部最優(yōu),提高算法全局搜索能力和尋優(yōu)精度。Logistic混沌映射表達式為

Xt+1=Xtμ(1-Xt)

(12)

式(12)中:μ為Logistic的控制參數(shù),μ∈[0,4];t為迭代次數(shù);Xt為天牛在第t次迭代時天牛質心的坐標;Xt+1為天牛在第t+1次迭代時,天牛質心的坐標;當μ=4,Xt∈[0,1]時,Logistic映射工作處于混沌狀態(tài)。

將當前最優(yōu)得到的天牛位置映射到Logistic方程的定義域[0,1]中,生成混沌變量,再將混沌變量逆映射到函數(shù)解空間中,對個體進行混沌擾動,通過貪婪規(guī)則比較擾動后得到的適應度值與最優(yōu)天牛位置的適應度值的大小確定是否更新天牛位置。貪婪規(guī)則表達式為

(13)

式(13)中:bestX為當前最優(yōu)天牛位置。

2.1.3 自適應步長因子更新

標準的天牛須搜索算法步長因子與迭代次數(shù)呈負相關,迭代次數(shù)逐漸增加,天牛的步長則逐漸縮短。一般來說,步長因子的大小會影響算法的搜索能力和尋優(yōu)效果,當天牛步長因子的取值較大時,算法的全局搜索能力較強,更易跳出局部最優(yōu),但是在迭代后期,算法的收斂速度慢,尋優(yōu)精度低;反之,當天牛步長因子的取值較小時,算法的局部搜索能力越強,能夠有更高的尋優(yōu)精度,但算法易陷入局部最優(yōu)解。為了平衡算法的全局搜索和局部搜索能力,借鑒文獻[20]中的步長更新公式對BAS算法進行改進,提高其步長因子的自適應性,改進的天牛步長因子計算公式為

St+1=Ste-(t/gen)

(14)

式(14)中:gen為總迭代次數(shù);

由式(14)可以看出,天牛移動步長隨著迭代次數(shù)的增加呈指數(shù)型衰減,迭代初期,步長的取值較大,有利于保證算法的全局搜索能力;后期找到全局最優(yōu)位置后轉為局部搜索,此時步長轉為較小的值。因此,算法的收斂速度和尋優(yōu)精度都得到了較大的提升。

2.2 設計適應度函數(shù)

在IBAS-BPNN分類模型中,將網絡輸出層的實際輸出值與期望值之間的均方誤差(mean square error,MSE )作為適應度值,具體計算公式為

(15)

2.3 IBAS算法的時間復雜度分析

算法的時間復雜度是檢驗算法性能的重要指標,它是指執(zhí)行當前算法所消耗的時間,也稱為算法的漸進時間復雜度。

T(n)=Op[f(n)]

(16)

式(16)中:T(n)為算法執(zhí)行時間;n為數(shù)據規(guī)模的大小;f(n)為每行代碼執(zhí)行次數(shù)之和;Op為正比例關系。

在BAS中,只有一個天牛個體,且算法只在初始天牛位置和迭代過程了計算了適應度值,當算法維度為k,算法迭代次數(shù)為gen時,其時間復雜度為Op(kgen)。在改進的混沌天牛群算法中,天牛種群數(shù)為N′,算法迭代和天牛種群尋優(yōu)為雙重循環(huán)結構,時間復雜度為Op(N′kgen)。

2.4 IBAS-BPNN分類模型的建立

IBAS-BPNN分類模型通過IBAS算法不斷調整神經網絡權值和閾值,使適應度值達到最小。適應度值最小時的權值和閾值就是最優(yōu)的權值和閾值,再將優(yōu)化后得到的最優(yōu)權值和閾值應用于BP神經網絡中進行訓練,最后對測試樣本進行分類預測。IBAS-BPNN分類模型的具體算法步驟如下。

步驟1處理數(shù)據集,確定網絡結構,初始BP神經網絡的權值和閾值,將BP神經網絡訓練得到的均方誤差作為適應度值。

步驟2定義種群規(guī)模及最大迭代次數(shù),隨機生成初始天牛種群。

步驟3計算天牛質心的適應度值,全局最優(yōu)值bestX及其適應度值f(bestX)。

步驟4根據當前天牛的質心位置確定天牛各觸須的坐標,并計算其適應度值。

步驟5根據式(6)得到天牛下一步的預更新位置。在n個反饋個體中與bestX進行比較,比較當前最佳個體的適應度值和f(bestX)的大小。

步驟6如果當前最佳個體的適應度值小于f(bestX),對當前解進行Logistic混沌優(yōu)化,產生新解,根據貪婪規(guī)則公式,確定是否進行位置更新。否則更新天牛步長。

步驟7判斷是否達到當前最大迭代次數(shù),若是,則停止算法迭代,返回IBAS算法的全局最優(yōu)解bestX,否則跳轉至步驟4繼續(xù)優(yōu)化。

步驟8BP神經網絡將IBAS算法得到的最優(yōu)天牛個體位置bestX作為新的權值和閾值,對測試集進行預測分析,輸出分類結果。

IBAS-BPNN分類模型的構建步驟如圖2所示。

圖2 IBAS-BPNN分類模型流程圖Fig.2 Flow chart of IBAS-BPNN classification model

3 實驗

在MATLAB 2018a平臺上進行仿真實驗,運行環(huán)境為Intel RCoreTM i3-8100 CPU,3.60 GHz主頻以及16 GB內存,操作系統(tǒng)是Windows 10。仿真實驗分為IBAS算法在基準函數(shù)上的測試和IBAS-BPNN分類實驗兩個部分。

3.1 IBAS算法的性能分析

3.1.1 測試函數(shù)

在仿真測試中選取3個基準函數(shù)F1、F2、F3[21](表1)驗證IBAS算法的性能,并將仿真結果與標準的BAS,天牛群搜索算法(beetle swarm antennae search algorithm,BSAS)[22],天牛群優(yōu)化算法(beetle swarm optimization algorithm,BSO)[23],人工蜂群算法(ABC),PSO進行對比。算法的參數(shù)設置為:最大迭代次數(shù)為1 000,初始步長S=1,種群數(shù)Pop=8,須長d=2,每個函數(shù)的搜索維度D=30。

表1 基準函數(shù)Table 1 Benchmark function

3.1.2 IBAS的結果與分析

每種算法獨立運行30次,將實驗結果的最優(yōu)值Best、平均值Mean和標準差STD作為算法精度和魯棒性的評價指標,實驗結果如表2所示。然后,通過對比結果,比較和分析了算法的性能。為了能更直觀地反映算法的性能,各個算法在函數(shù)F1~F3上的收斂曲線分別如圖3所示。

表2 不同算法的實驗結果對比Table 2 Comparison of experimental results of different algorithms

圖3 不同算法在函數(shù)F1~F3上的適應度值收斂曲線對比Fig.3 Comparison of fitness value convergence curves of different algorithms on function F1~F3

從表2可以看出,IBAS算法在不同的基準函數(shù)上都有較好的尋優(yōu)能力,相較于其他5種算法,其尋優(yōu)精度得到了很大的提升,且標準差小,表明該算法的實驗結果較穩(wěn)定,魯棒性好。從圖3可以看出,IBAS算法在函數(shù)F1~F3上的收斂速度明顯比其他5種算法更快,尋優(yōu)效果更好。因此,IBAS算法達到了預期的效果,具有一定的優(yōu)越性。

3.2 IBAS-BPNN分類實驗結果與分析

3.2.1 數(shù)據集

美國加州大學歐文分校(University of California Irvine)提供了專門用于機器學習的UCI數(shù)據庫。選取UCI數(shù)據庫中的Iris、Wine、Heart、Mammographic Mass(MM)、Seeds、Wireless Indoor Localization(WIL)6組均衡數(shù)據集和Haberman’s Survival(HS)、Breast Cancer Wisconsin(BCW)、Blood Transfusion Service Center(BTSC)、Diabetes、Wilt、Balance Scale(BS)、Car Evalution(CE)7組非均衡數(shù)據集作為實驗數(shù)據。其中,每種數(shù)據集隨機抽取70%作為訓練集,30%作為測試集。這13組數(shù)據集的樣本數(shù)、屬性數(shù)、類別數(shù)、類分布數(shù)和隱層神經元數(shù)如表3所示。

(1)處理非均衡數(shù)據集。HS等7組數(shù)據集中各類別的樣本數(shù)量比存在嚴重不平衡問題。如果某類樣本的數(shù)量太少,則此類樣本所提供的信息就會非常少,分類模型就會缺乏充足的信息對該類訓練樣本進行學習和分析,其預測結果的準確率就會降低,從而降低整個分類模型的預測精度。為解決上述問題,采用SMOTE過采樣算法處理這7組數(shù)據集。

(2)數(shù)據標準化處理。由于數(shù)據集中各特征屬性的量綱不同,如果直接使用原始屬性值進行分析,就會導致數(shù)值較高的特征屬性的作用尤其突出,而數(shù)值較低的特征屬性的作用就不太明顯。為了平衡數(shù)據集中各特征屬性的權重,去除各屬性的單位限制,將其轉化為無量綱的純數(shù)值,采用mapminmax函數(shù)對輸入數(shù)據進行歸一化處理,將所有數(shù)據轉化為[0,1]區(qū)間的數(shù),mapminmax函數(shù)的表達式為

x′i=(xi-xmin)/(xmax-xmin)

(17)

表3 數(shù)據集信息Table 3 Dataset information

式(17)中:x′i為歸一化的樣本數(shù)值;xmin為樣本數(shù)據的最小值;xmax為樣本數(shù)據的最大值。

3.2.2 評價指標

評價指標是針對分類模型性能優(yōu)劣的一個定量指標。從分類正確率和Kappa系數(shù)兩個方面對實驗性能進行評價。正確率是最常見的評價指標,通常來說,正確率越高,分類模型越好,正確率Accuracy的計算公式為

(18)

式(18)中:T為全部樣本被正確分類的樣本數(shù),即實際為i類且被分類模型劃分為i類的樣本數(shù)之和;Nsample為樣本總數(shù),每類樣本數(shù)的總和。

Kappa系數(shù)是用在統(tǒng)計學中評估一致性的一種方法,它可以用來作為分類的一項評價指標,其理論上的取值范圍是[-1,1],在實際應用中,一般將其取值范圍設定為[0,1]。Kappa系數(shù)的值越接近1,表示該分類模型的一致等級越高,其分類越準確。Kappa系數(shù)等級分類如表4所示。Kappa系數(shù)的計算公式為

(19)

表4 Kappa系數(shù)等級劃分Table 4 Kappa coefficient classification

式(19)中:Po為總體樣本的分類精度,即全部測試樣本被正確分類的數(shù)量/全部測試樣本數(shù)量;Pe為SUM(第i類真實樣本數(shù)×第i類預測出來的樣本數(shù))/全部測試樣本總數(shù)的平方。

3.2.3 實驗結果與分析

為驗證本文模型的分類效果,選取BPNN、BAS-BPNN、PSO-BPNN、SVM、KNN和決策樹ID3分類模型6個分類模型與IBAS-BP分類模型進行對比,其中BPNN、BAS-BPNN、PSO-BPNN都是神經網絡分類模型。訓練過程中,針對同一數(shù)據集,將算法的模型參數(shù)設置為相同的值,其中,神經網絡迭代次數(shù)設置為3 000,學習率設置為0.01,天牛須迭代次數(shù)為100,種群數(shù)為5,天牛初始步長為1,步長因子為0.95。分別對11組實驗數(shù)據進行30次實驗,以30次實驗的分類正確率和Kappa系數(shù)作為評價指標,實驗結果如表5~表7所示。

表5 基于不同分類模型的均衡數(shù)據集的分類正確率Table 5 Classification accuracy of balanced datasets based on different classification models

表6 基于不同分類模型的非均衡數(shù)據集的分類正確率Table 6 Classification accuracy of unbalanced datasets based on differentclassification models

表7 基于不同分類模型的Kappa系數(shù)Table 7 Kappa coefficients based on different classification models

為了能夠更直觀地觀察和研究7種分類模型在13種UCI數(shù)據集上的分類效果,采用簇狀圖的方式展示各分類模型的分類正確率,如圖4所示。

圖4 數(shù)據集平均正確率Fig.4 Average accuracy of each datasets

如表5、表6所示,從分類正確率來看,IBAS-BPNN在數(shù)據集Iris、Wine、seeds、HS、BCW和BS上的最佳分類正確率都達到了100%,在13組數(shù)據集上的預測平均值較BPNN提高了7.5%,較BAS-BPNN提高了7.43%,較PSO-BPNN提高了8.45%,較SVM提高了6.94%,較KNN提高了25.62%,較ID3提高了11.03%,有效提高了分類模型的分類精度。從魯棒性來看,IBAS-BPNN在13組數(shù)據集上的平均標準差較BPNN降低了1.25%,較BAS-BPNN降低了1.13%,較PSO-BPNN降低了1.66%,較SVM降低了0.95%,較KNN降低了2.4%,較ID3降低了1.35%,雖然在數(shù)據集BTSC中的標準差不是最小的,但整體上IBAS-BPNN的標準差更小,預測結果更穩(wěn)定,其泛化性更強。

從圖4可以看出,所提出的IBAS-BPNN分類模型對13組數(shù)據集進行訓練后得出的正確率都明顯優(yōu)于其他6種分類模型的分類效果。在均衡數(shù)據集中,KNN的分類效果最差,IBAS-BPNN最優(yōu);在非均衡數(shù)據集中,IBAS-BPNN分類模型進行分類的正確率優(yōu)于其他6種模型,尤其是經過SMOTE算法處理后的數(shù)據集HS。數(shù)據集BCW、BTSC和Wilt在分類模型上的分類正確率差距較小。

總的來說,無論是在小規(guī)模數(shù)據集還是大規(guī)模數(shù)據集上,無論是在均衡數(shù)據集還是非均衡數(shù)據集上,IBAS-BPNN模型的分類正確率都是最優(yōu)的,無論是比較分類正確率的最優(yōu)值、最差值,還是平均值,IBAS-BPNN的準確率都高于其他6種分類模型。

從表7可以看出,在各數(shù)據集中,所提出的IBAS-BPNN分類模型的Kappa系數(shù)明顯高于其他6種分類模型,表明該分類模型的分類正確率更高。其中,IBAS-BPNN分類模型的Kappa系數(shù)在數(shù)據集Iris、Wine、seeds、WIL、HS、BCW、BS上Kappa系數(shù)超過了0.9,甚至接近1,屬于幾乎一致的等級。雖然其Kappa系數(shù)在數(shù)據集Heart、MM、BTSC、Diabetes和Wilt上較低,但也優(yōu)于其他分類模型。在非均衡數(shù)據集HS和BTSC中,其他分類模型的Kappa系數(shù)取值在0~0.2,屬于分類正確率極低的等級。在13組數(shù)據集上的Kappa系數(shù)平均值比BPNN提高了0.17%,比BAS-BPNN提高了0.16%,比PSO-BPNN提高了0.19%,比SVM提高了0.22%,比KNN提高了0.55%,比ID3提高了0.19%。SVM分類模型對部分非均衡數(shù)據集分類的Kappa系數(shù)非常低,尤其在數(shù)據集Wilt中的Kappa系數(shù)為0,說明SVM對非均衡數(shù)據集的分類效果與IBAS-BPNN相比更差。KNN分類模型除了在BCW中的Kappa系數(shù)較高外,整體都比較低,說明KNN的分類效果較差,遠低于IBAS-BPNN分類模型的分類正確率。

總的來說,IBAS-BPNN在均衡數(shù)據集上和通過SMOTE算法處理后的非均衡數(shù)據集上的Kappa系數(shù)等級好,其分類效果好,正確率高。

4 結論

提出了一種自適應步長因子的混沌天牛群算法用于優(yōu)化BP神經網絡的權值和閾值,建立IBAS-BPNN類模型,減小了天牛須搜索算法陷入局部極值的概率,使得算法的重復性和穩(wěn)定性得到很大提高,增強了天牛須搜索算法的全局尋優(yōu)能力。為了驗證所提分類模型的有效性,從UCI數(shù)據庫中選取了6組均衡數(shù)據集和7組非均衡數(shù)據集進行訓練和測試。得出如下結論。

(1)分類結果表明該模型的分類正確率高,分類效果好。

(2)實驗證明,該方法能夠有效地對分類數(shù)據集進行分類,克服了傳統(tǒng)BP神經網絡的一些固有缺陷。然而,仍需進一步縮短IBAS算法的運行時間和提高其尋優(yōu)性能,以及提高IBAS-BPNN分類模型在對更多數(shù)據集進行分類預測時的分類精度。

猜你喜歡
分類模型
一半模型
分類算一算
垃圾分類的困惑你有嗎
大眾健康(2021年6期)2021-06-08 19:30:06
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
分類討論求坐標
數(shù)據分析中的分類討論
教你一招:數(shù)的分類
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: 人妻出轨无码中文一区二区| 午夜色综合| 国产精品网曝门免费视频| 色香蕉影院| 国产69精品久久久久孕妇大杂乱| 亚洲精品午夜天堂网页| 热思思久久免费视频| 91无码网站| 中文字幕 91| 人人艹人人爽| 亚洲成aⅴ人片在线影院八| 亚洲毛片一级带毛片基地| 国产内射一区亚洲| 91精品啪在线观看国产91九色| 欧美日韩成人在线观看| 国产成人福利在线视老湿机| 精品伊人久久久久7777人| 美女被操91视频| 国产日本视频91| 丰满少妇αⅴ无码区| 秋霞午夜国产精品成人片| 日本人又色又爽的视频| 亚瑟天堂久久一区二区影院| 亚洲AV色香蕉一区二区| 久久鸭综合久久国产| аⅴ资源中文在线天堂| 日日拍夜夜嗷嗷叫国产| 日韩精品一区二区深田咏美| 国产玖玖视频| 永久毛片在线播| 欧美激情第一欧美在线| 重口调教一区二区视频| 国产精品xxx| 亚洲无码不卡网| 国产精品第一区在线观看| 超碰免费91| 欧日韩在线不卡视频| 国产97视频在线观看| 亚洲天堂成人| 日本高清视频在线www色| 免费高清a毛片| 亚洲aⅴ天堂| 成人精品视频一区二区在线| 国产美女精品人人做人人爽| 日本人妻一区二区三区不卡影院| 亚洲精品综合一二三区在线| 国产成人综合久久精品尤物| 国产簧片免费在线播放| 制服丝袜无码每日更新| 91精品国产综合久久香蕉922| 日韩在线观看网站| 国产91全国探花系列在线播放| 久久婷婷六月| 性欧美精品xxxx| 日韩欧美国产中文| 久久黄色毛片| 亚洲成在线观看| 国产精品无码影视久久久久久久| 亚洲精品自在线拍| 在线观看欧美国产| 四虎在线观看视频高清无码 | 亚洲欧美在线精品一区二区| 99精品视频在线观看免费播放| 精品久久人人爽人人玩人人妻| 在线国产91| 免费高清自慰一区二区三区| 成人在线亚洲| 国产精品免费p区| 国产伦精品一区二区三区视频优播| 欧美中文字幕在线视频 | 亚洲欧洲免费视频| 一本大道无码高清| 婷婷六月激情综合一区| 激情五月婷婷综合网| 精品一区二区三区四区五区| 九九久久精品国产av片囯产区| 亚洲天堂视频在线免费观看| 88av在线看| 欧美日韩中文国产va另类| 国产不卡一级毛片视频| 欧美啪啪视频免码| 欧美亚洲一区二区三区导航 |