999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

線性分類器與神經網絡在數據處理方面的應用

2020-09-28 07:05:41陳琦軒余華云
電腦知識與技術 2020年16期
關鍵詞:機器學習

陳琦軒 余華云

摘要:在機器學習誕生之時起,線性回歸分類器便體現出優越的性能,然而,隨著時代的進步,每類訓練樣本數量增大,線性分類器的速度變得很慢,也凸顯了線性分類的一個致命弱點:對大樣本數據束手無策。即當用于訓練的樣本數量大于樣本的維數時,線性分類器會無法工作。解決的辦法之一是對分類器作局部化處理從而對數據進行篩選,避免大樣本數據問題的出現。然而,隨著神經網絡的興起,對于大樣本數據的處理,也有了更多的新興的處理辦法。

關鍵詞:機器學習;線性回歸分類器;局部化處理;神經網絡;大樣本數據

中圖分類號:TP391? ? 文獻標識碼:A

文章編號:1009-3044(2020)16-0198-02

1局部線性回歸分類器

在機器學習領域中,分類的目的是指將具有相似特征的對象聚集在一起。而一個線性分類器會透過特征的線性組合來做出分類決定,以達到此種目的。對象的特征通常被描述為特征值,而在向量中則描述為特征向量。

1.1 Softmax線性回歸

Softmax是除SVM(支持向量機)外,另一種常見的線性分類模型,是邏輯回歸推廣的一種形式。

Softmax作為線性分類器的一種,可以從兩個方面來研究它:評分函數,也有人稱之為目標函數(score function)和損失函數(loss function)。

1.1.1 Score function

Score function: f(xi;W;b)=Wxi+b。

Softmax的評分函數與多類別支持向量機是一樣的,都是“線性分類器”的一種,既然都是線性分類器,其計算目標的公式必定是經典的線性公式。其中,Softmax對目標的解釋:轉換為概率分布。分類器將目標向量看成是沒有歸一化處理的對數概率分布。經過轉化以后得到相對應類的概率。例如,三個數字1、2、3,取max每次都會取到3,但是把它們映射成三個概率,取到3的概率最大,但也有取到其他兩個數的可能,三個概率和為1,這就是Softmax值。即分類器會對線性運算產生的目標向量進行相應的轉化:通過特定函數將當前樣本對各個類的評分轉換成當前樣本相對應其相對類的概率,這個概率就是模型的輸出。這也是Softmax命名的緣由。因為線性運算的結果在某些情況下不具備很好的解釋性,因此在輸出之前“對目標進行轉化”(比如將目標轉化為概率)是一種很常見的做法。

1.1.2 Loss function

通過以下公式來計算模型在樣本xi上的loss:

Li[=-log(efyi∑jefj])

這種損失的計算方式稱之為交叉熵,與多類別支持向量機的折葉損失不同,這是由于兩者對評分的解釋不一樣。Softmax的損失函數是希望正確的概率越高越好。

下面,在Jupyter Notebook中用Softmax分類器來處理下面模型。該數據集來源于斯坦福公開課程。數據圖形如下所示:

既然是線性分類器,就有線性公式y=wx+b。初始化w以及b。線性分類器只需要做簡單的乘法,就可得到各個類別的目標。用損失函數來計算損失,即預測結果和真實結果的差值。理想情況下希望正確的類要比其他類有更高的評分,這樣損失就會很低。如果正確類的評分低,則損失就會很高。量化這種數據的方法有很多。在這個例子中用前面提到的交叉熵損失。

正確類別的概率值[efyi∑jefj]越大,Li函數的值就會越小,損失就會很小,即得到的結果與期待的目標結果差距很小。若正確類別的概率值越小,Li函數的值就會越大,那么損失就會很大。那么得到的結果就與目標數值差距較大。

得到了單個樣本的損失,又知道訓練樣本的容量,就可以計算出每個樣本的平均損失:1/N∑iLi。

由目標矩陣score計算得出訓練樣本所對應各個類別的概率值。通過softmax函數,把三個分數映射為三個概率。然后將得到的矩陣中的值進行?log運算。得到了一個一維數組,其中每個元素都是相應訓練樣本的正確類別的概率。之后計算完整的損失。

由此得到的loss會很大,需要減小loss的值。當導數為0的時候,會出現極值點。于是損失(loss)對目標(score)求導,根據鏈式求導法則得到?loss/?score=?loss/?prob*?prob/?score。這里損失由正確類別的概率值決定,而正確類別的概率值由各個類別分數共同決定,所以求得應分別是對三個分數的導數,最后損失loss對各個分數的導數為Pk?1(k=yi)。現在得到了?loss/?score,我們想得到的是?loss/?w(w為權重),而?loss/?w=?loss/?score*?score/?w。最后對權值和偏置進行更新。重復此過程10000次,得到的損失結果如下圖所示:

可以發現從很早開始損失就沒有變化了。打印出精度。

結果精確度為0.54,這不是一個令人滿意的結果。這也說明線性分類器在處理大量非線性數據時并不能很好的擬合數據曲線。

2 BP神經網絡

之前已經介紹了Softmax的工作原理:將分數轉換為概率,然后得到預測結果,把預測結果拿來和期待的目標結果作比較,并通過損失函數算出預測結果與目標結果的偏差。把每個訓練樣本都重復這樣的步驟,最后再綜合所有的損失并得到平均損失。然后通過修改權值和偏置來使這個損失降低。

而神經網絡的不同之處,就是在結構上增加了一層數據層,稱之為隱藏層。

神經網絡中的每個神經元的結構都是相同的:每個神經元接受多個輸入信號,對輸入信號進行線性運算:output=wx+b=∑i wixi+b。

數據經過輸入層傳到隱含層,在隱含層會經過激勵函數f(一般為非線性函數)的處理后再傳輸到輸出層,在輸出層也會經過與在隱含層相同的激勵函數f的處理,最后得出結果,正向傳播結束。計算出結果與期待值誤差后再反向傳播并借用誤差更新權值,上一層的輸出作為下一層的輸入。而這個非線性激勵函數f,也是神經網絡為什么能夠處理非線性數據的原因。

下面繼續在jupyter notebook中用bp神經網絡的方法去擬合上面的函數曲線。因為增加了一層數據層即我們的隱藏層,所以相比于線性處理初始化的一組權重和偏置,我們要增加一組,即初始化兩組權重和偏置。并使用ReLu函數作為隱藏層神經元的激勵函數。函數表達式為ReLu(x)=max{0,x},取0和自變量x之中的的最大值。與softmax線性分類器的操作原理基本一致:想得到?score/?output的權重以及?score/?output的偏置,先計算損失對分數的導數?loss/?score。這里由鏈式求導法則可以求出損失對各層權重的導數和損失對偏置的導數。然后通過反向傳播來更新各層的權重和偏置。跟線性處理一樣我們迭代10000次,看看損失。

相較于Softmax處理的結果,迭代10000次后損失率已經降低到了一個很低的水準。最后打印出精度:

最后的精度也比Softmax高出很多,可以說bp神經網絡更好的擬合了數據曲線。結果讓人非常滿意。

3結語

由這個實驗我們可以看出,在特定情況下對于非線性數據集,神經網絡往往比線性處理器有更好的處理效果,能更好的擬合數據曲線。但線性分類模型的作用依然不可忽略,它是非線性分類模型的基礎,很多非線性模型都是從線性分類模型的基礎上演化而來,并且在機器學習并不漫長的歷史進程中,線性分類模型也在實踐中證明過自己的作用。無論是線性分類還是神經網絡,在人工智能日益影響我們生活的今天,只會發揮越來越重要的作用。

參考文獻:

[1]WidrowB,Lehr M A.30 years of adaptive neural networks:perceptron,Madaline,andbackpropagation[J].Proceedings of the IEEE, 1990,78(9):1415-1442.

[2] 于秀麗. 對神經網絡學習算法的研究[D].天津:河北工業大學, 2003.

[3] 張鈴.支持向量機理論與基于規劃的神經網絡學習算法[J].計算機學報,2001,24(2):113-118.

[4] 趙薇,黃敬雯,靳聰,等.基于卷積神經網絡的聲學場景分類算法研究[J].中國傳媒大學學報(自然科學版),2019,26(2):24-30.

[5] 劉彩紅.BP神經網絡學習算法的研究[J].西安工業大學學報,2012,32(9):723-727.

[6] 許建生,盛立東.基于改進的支持向量機和BP神經網絡的識別算法[C]//第八屆全國漢字識別學術會議論文集.紹興,2002:84-89.

[7] 陳永義,俞小鼎,高學浩,等.處理非線性分類和回歸問題的一種新方法(I)——支持向量機方法簡介[J].應用氣象學報,2004,15(3):345-354.

[8] 李錦繡. 基于Logistic回歸模型和支持向量機(SVM)模型的多分類研究[D].武漢:華中師范大學, 2014.

[9] 王琳. 支持向量機及相關理論研究[D].大連:遼寧師范大學, 2010.

[10] 陶卿,曹進德,孫德敏.基于支持向量機分類的回歸方法[J].軟件學報,2002,13(5):1024-1028.

【通聯編輯:梁書】

猜你喜歡
機器學習
基于詞典與機器學習的中文微博情感分析
基于網絡搜索數據的平遙旅游客流量預測分析
時代金融(2016年27期)2016-11-25 17:51:36
前綴字母為特征在維吾爾語文本情感分類中的研究
科教導刊(2016年26期)2016-11-15 20:19:33
下一代廣播電視網中“人工智能”的應用
活力(2016年8期)2016-11-12 17:30:08
基于支持向量機的金融數據分析研究
基于Spark的大數據計算模型
基于樸素貝葉斯算法的垃圾短信智能識別系統
基于圖的半監督學習方法綜述
機器學習理論在高中自主學習中的應用
極限學習機在圖像分割中的應用
主站蜘蛛池模板: 国产成人精品在线| 2019年国产精品自拍不卡| 色视频国产| 无码免费视频| 国产成人喷潮在线观看| 国产拍揄自揄精品视频网站| 99ri精品视频在线观看播放| 一本视频精品中文字幕| h网址在线观看| 欧美精品aⅴ在线视频| 黄色国产在线| 伊人狠狠丁香婷婷综合色| 精品色综合| 国产精品va免费视频| 亚洲色图另类| 欧美中出一区二区| 少妇人妻无码首页| 亚洲大学生视频在线播放| 久久综合九色综合97婷婷| 五月综合色婷婷| 伊人久久青草青青综合| 成人精品免费视频| 国产成人精品高清不卡在线 | 亚洲欧洲自拍拍偷午夜色| 精品国产美女福到在线不卡f| 精品天海翼一区二区| 色老头综合网| 欧美乱妇高清无乱码免费| 亚洲天堂久久新| 久久狠狠色噜噜狠狠狠狠97视色| 成人欧美日韩| 欧美视频二区| 欧美日韩国产成人高清视频| 国产嫖妓91东北老熟女久久一| 91无码视频在线观看| 黄色污网站在线观看| jijzzizz老师出水喷水喷出| 好紧太爽了视频免费无码| 最新亚洲av女人的天堂| 中文字幕永久在线观看| 亚洲欧美成人综合| 香蕉伊思人视频| 色婷婷色丁香| 日本www色视频| 久久国产精品麻豆系列| 亚洲熟女中文字幕男人总站| 一级高清毛片免费a级高清毛片| 久久综合丝袜日本网| 高清久久精品亚洲日韩Av| 亚洲欧美自拍一区| 成人在线综合| 91在线视频福利| 91精品免费高清在线| 亚洲国产精品一区二区第一页免| 欧美精品1区| h视频在线观看网站| 亚洲黄色视频在线观看一区| 国产成人综合欧美精品久久| 永久天堂网Av| 国产精品无码作爱| 国产在线拍偷自揄拍精品| 青草视频久久| 精品人妻AV区| 亚洲精品无码AV电影在线播放| 日韩一区二区在线电影| 欧美日韩中文字幕在线| 久久久久久久久亚洲精品| 色综合热无码热国产| 欧美不卡二区| 日韩成人午夜| 欧美日韩亚洲综合在线观看| 国产精品美女免费视频大全| 国精品91人妻无码一区二区三区| 亚洲中文字幕国产av| 91久久精品日日躁夜夜躁欧美| 亚洲av无码成人专区| 亚洲无线一二三四区男男| 99热6这里只有精品| 亚洲精品成人片在线播放| 凹凸国产熟女精品视频| 91欧洲国产日韩在线人成| 国产亚洲日韩av在线|