趙一
(廣東海洋大學數學與計算機學院 廣東省湛江市 524088)
因傳統的神經網絡,如卷積神經網絡(Convolutional Neural Networks, CNN) 輸入和輸出都是互相獨立的,所以需要使用特殊的方法把輸入和輸出緊密結合。而循環神經網絡(Recurrent Neural Network, RNN)是需要之前的序列信息才能夠使其任務繼續進行下去的神經網絡,所有的RNN 都具有一種重復神經網絡模塊的鏈式結構。在標準RNN 神經網絡模型中,這個重復的結構模塊以一種非常簡單的結構,即輸入層、隱藏層和輸出層。RNN 網絡只有一個單元,其更新過程是不停地乘以同一套權重,故而會發生梯度消失現象和梯度爆炸現象[1]。而LSTM 方法,是為了解決長期以來問題而專門設計出來的,LSTM 同樣是一種鏈式結構,但是它不同于單一神經網絡層,因為LSTM 方法中重復的模塊擁有一個不同的結構,其有四個特殊的構建組成,它們分別是單元狀態、遺忘門、輸入門、輸出門。LSTM 方法中網絡改進思路是針對RNN 隱藏層單一結構對短期輸入信息非常敏感的原因進行了改進,LSTM 方法是在RNN 網絡中增加了一個元胞狀態,使得經過其的輸入信息能夠選擇性的長期保存。LSTM 方法的關鍵問題有三個,即第一控制長期狀態,第二控制即時狀態輸入到長期狀態中,第三控制是否把長期狀態作為當前輸出結果。
因此,我們研究團隊提出了一種自適應度調節的遺傳算法優化方法,該方法把需要傳入LSTM 模型中的全連接層數和神經元個數作為染色體上的基因,代入到改進的遺傳算法……