999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學(xué)習(xí)的自適應(yīng)游戲劇情生成系統(tǒng)研究

2019-12-05 08:35:54吳宇晗朱峙成王榮杰劉佳瑋陳麗芳
智能計算機與應(yīng)用 2019年5期
關(guān)鍵詞:深度學(xué)習(xí)

吳宇晗 朱峙成 王榮杰 劉佳瑋 陳麗芳

摘 要:為了使游戲玩家從擁有固定文本的文字游戲中體驗新鮮感,提出采用深度學(xué)習(xí)Seq2Seq模型,根據(jù)已有文本產(chǎn)生新的符合劇情的文本,增加游戲的趣味性和交互性。本文構(gòu)建深度學(xué)習(xí)Seq2Seq模型,并編寫Python代碼實現(xiàn)了文本生成模型的仿真,對生成詞與原文本之間的評價標準進行了對比分析,以自創(chuàng)的游戲驗證了該方法的有效性。該論文的研究成果,是對自適應(yīng)文本生成系統(tǒng)研究的有益嘗試和補充,具有一定的應(yīng)用價值。

關(guān)鍵詞: Seq2Seq;LSTM 神經(jīng)網(wǎng)絡(luò);深度學(xué)習(xí);文本生成

【Abstract】 In order to make game players experience novelty from text games with fixed-text, a deep learning Seq2Seq model is put forward, which can generate new scenario text based on existing text to increase the interesting and interactive nature of the game. The paper constructs a deep learning Seq2Seq model and writes Python code to simulate the text generation model. Besides, the paper also compares and analyzes the evaluation criteria between the generated words and the original text. The effectiveness of the method is verified by the self-created game. The research result is a beneficial trial and supplement to the research of adaptive text generation system , which has certain application value.

【Key words】 ?Seq2Seq; LSTM neural network; deep learning; text generation

0 引 言

互聯(lián)網(wǎng)的飛速發(fā)展使人類的學(xué)習(xí)、工作、生活更加豐富多彩,人們在忙碌的學(xué)習(xí)工作之余,就有相當一部分年輕人會將玩游戲作為娛樂休閑方式之一。在數(shù)以千計的手游中,大多存在著劇情重復(fù)、模式既成、套路固定等缺乏新意等問題,玩家逐漸摸索出一些固有套路后,就會對相似的游戲失去興趣,雖然一些游戲進行了創(chuàng)新嘗試,在游戲內(nèi)部添加隨機元素,但實際上仍然是程序事先設(shè)計好的“隨機性”,因而也削弱了游戲的新奇挑戰(zhàn)性。因此,如何根據(jù)游戲劇情、用戶偏好、實時行為等多重屬性,綜合推出個性化服務(wù),實現(xiàn)由面到點的智能精準推薦,實時生成新的劇情,使用戶能真正體驗到“不可預(yù)期”帶來的游玩樂趣,是目前游戲設(shè)計中值得深入探討的焦點問題。

鑒于此,本文提出基于深度學(xué)習(xí)的自適應(yīng)劇情生成系統(tǒng):以大數(shù)據(jù)、云計算、深度學(xué)習(xí)等技術(shù)作為理論支撐,運用網(wǎng)絡(luò)爬蟲獲取原生故事,利用文本處理技術(shù)來處理爬取數(shù)據(jù),利用深度學(xué)習(xí)自生成全新的故事,以游戲為窗口展現(xiàn)生成的故事。當用戶開始游戲時,依據(jù)用戶實時的行為建立用戶畫像,利用智能推薦技術(shù)根據(jù)所建立的用戶畫像產(chǎn)生劇情,用戶每次對劇情的選擇會影響用戶畫像的改變,從而變換出不同的劇情。整體構(gòu)思如圖1所示。

研究中,故事生成器如何產(chǎn)生新文本是整個技術(shù)的關(guān)鍵。本文擬利用深度學(xué)習(xí)Seq2Seq模型,根據(jù)已有文本數(shù)據(jù)進行新文本生成訓(xùn)練,從而產(chǎn)生新的劇情,實現(xiàn)游戲的自適應(yīng)劇情生成系統(tǒng)設(shè)計,從游戲開發(fā)的角度,拓展了設(shè)計思維、提供了建模手段,是對游戲設(shè)計的一種有益嘗試和補充。

1 理論基礎(chǔ)

1.1 智能推薦算法

基于協(xié)同過濾的推薦算法是目前國內(nèi)外學(xué)者研究最多、在各個領(lǐng)域使用最廣泛的推薦算法。其最大的優(yōu)勢是對于所要進行推薦的對象沒有特殊的種類要求,能夠使用與文本同樣的方式處理音樂、電影等各類以非結(jié)構(gòu)化形式表示的對象[1]。Yoda綜合了基于內(nèi)容的過濾和協(xié)同過濾推薦兩種技術(shù)的優(yōu)點[2]。根據(jù)個性的游戲用戶畫像來準確地智能推薦相應(yīng)的游戲劇情,給予玩家獨特的游戲感受。

1.2 深度學(xué)習(xí)

近年來,深度學(xué)習(xí)中的遞歸自編碼方法已成功應(yīng)用于情感分析問題。文獻[3]提出采用遞歸自編碼方法來解決較為復(fù)雜的情感分析問題。文獻[4]提出一種新穎的機器學(xué)習(xí)框架,是基于遞歸自編碼方法對句子級別的情感分布的預(yù)測,從數(shù)據(jù)庫中獲取故事文本,并利用深度學(xué)習(xí)來判別故事的類,自動訓(xùn)練生成新穎的故事情節(jié)。對此可做研究論述如下。

1.2.1 長短時間記憶網(wǎng)絡(luò)

長短時間記憶網(wǎng)絡(luò)(LSTM)是一種基于遞歸神經(jīng)網(wǎng)絡(luò)模型(RNN)的改進,其原理如圖2所示。由Hochreiter和Schmidhube于1997年提出[5]。LSTM由一組特殊的記憶模塊單元替換遞歸神經(jīng)網(wǎng)絡(luò)的隱藏層神經(jīng)元,這些模塊可以記憶隱藏層的任意時間狀態(tài),從而解決RNN梯度消失等問題。當使用長短時間記憶模型進行相應(yīng)數(shù)據(jù)反向傳遞時,序列數(shù)據(jù)在循環(huán)神經(jīng)網(wǎng)絡(luò)中會經(jīng)過很長一段時間的學(xué)習(xí),從而保證信息進行遠距離傳遞,將誤差保持在更為恒定的水平。

通常,長短時間記憶單元模塊包括輸入門、輸出門、遺忘門和記憶單元。根據(jù)門用進行保存和調(diào)節(jié)存儲單元和環(huán)境之間的相互作用,這樣保證存儲單元的狀態(tài)從一個單元到另一個單元保持不變。LSTM網(wǎng)絡(luò)通過遞歸方程更新網(wǎng)絡(luò)單元,激活從輸入x到輸出y的映射[6]。

1.3 用戶畫像

Alan Cooper在早期就對用戶個體畫像進行了詳細的分析,并在研究中強調(diào)人物角色這個概念,該概念主要是指一個創(chuàng)造出的虛擬用戶[9]。對用戶分析、畫像,主要是為顧客打上標簽,通過標簽,讓計算機認識了解一個人,方便信息處理。標簽為研究者提供了一種把難以處理的信息進行量化的方法,使計算機能夠?qū)Ψ爆嵉男畔⑦M行程序化處理,根據(jù)玩家輸入的信息,對玩家進行個性化分析,形成虛擬的用戶畫像,方便利用智能推薦獲取獨特的游戲劇情。

1.4 云服務(wù)

云服務(wù)也可以稱作為云模式服務(wù),是以數(shù)據(jù)的存儲和管理為主要核心任務(wù)的云計算系統(tǒng)[10]。主要用于存儲原生故事以及數(shù)據(jù)交互,提供深度學(xué)習(xí)文本的服務(wù),是游戲的一個核心部位。

2 文本預(yù)處理

文本彼此之間往往難以進行有效的計算,Word2vec提供一種比較好的解決思路。Word2vec實際上構(gòu)建了一種映射關(guān)系,利用淺層的神經(jīng)網(wǎng)絡(luò)對文本進行訓(xùn)練以獲得文本向量,本文采用此方式實現(xiàn)文本預(yù)處理。

3 模型構(gòu)建

首先,輸入所需要的文本T={(tk)}mk=1;設(shè)定最大訓(xùn)練次數(shù)maxiter、學(xué)習(xí)率η、新文本最大長度n、訓(xùn)練步長step等參數(shù)。然后,按照算法步驟進行訓(xùn)練,初始化網(wǎng)絡(luò)權(quán)重、循環(huán)迭代訓(xùn)練參數(shù)、計算網(wǎng)絡(luò)梯度、更新網(wǎng)絡(luò)權(quán)重,直到達到最大的訓(xùn)練次數(shù)為止;最后,循環(huán)生成文本,返回S={(Sk)}nk=1,即訓(xùn)練結(jié)果。Seq2Seq算法的設(shè)計偽代碼詳見如下。

4.3 實驗結(jié)果

自編小說所給的開始文本:“在新世紀的某處,一個村子里的能力覺醒儀式正在舉行著,能力覺醒儀式在這里舉行的時間或早或晚,這得看相關(guān)者的能力了,不是所有在新世紀的人都會有超能力”。本文模型產(chǎn)生新的文本:“墨澤說了,不過他還是自己人,好像沒有傷到一個人,我也沒有人家大,沒有變解能力的。“嗯??你還是大步出去了。”“呃……你說的話不是,我們也不知道還是那個意外的事情,你怎么回事?”“你,你怎么還沒有問題?我怎么會發(fā)現(xiàn)呢。”墨澤說道:“我還不是那么大”。

4.4 結(jié)果分析

經(jīng)過對7萬余字文本訓(xùn)練20 000次,循環(huán)輸出生成新文本長度與原本的相似度,由圖4可知,相似度是隨著輸出文本長度的增加而增加的,對于此文本來說,新文本長度為40~300字之間最為合適,在合適的評價標準區(qū)間,由此生成的新文本有一部分并不是很通順,但已經(jīng)達到了符合劇情的新文本產(chǎn)生方式。

建模仿真表明,采用深度學(xué)習(xí)的Seq2Seq模型,根據(jù)已有文本劇情產(chǎn)生新文本是可行的,給定的原始文本長度越長,效果越好,但需要找到一個合適的臨界值,讓文本產(chǎn)生更有趣的變化。目前,產(chǎn)生文本符合評價標準最低的是40個詞,在今后研究中,將在詞量的縮減上展開后續(xù)的實驗仿真,使本模型能夠適應(yīng)各種不同游戲劇情生成,進一步提升性能。

5 結(jié)束語

本文提出利用深度學(xué)習(xí)Seq2Seq模型,根據(jù)已有文本數(shù)據(jù)進行新文本生成訓(xùn)練,從而產(chǎn)生新的劇情,實現(xiàn)游戲的自適應(yīng)劇情生成系統(tǒng)設(shè)計,從游戲開發(fā)的角度,拓展了設(shè)計思維、提供了建模手段,是對游戲設(shè)計的一種有益嘗試和補充。

參考文獻

[1]石靜.基于混合模式的個性化推薦系統(tǒng)的應(yīng)用研究[D].武漢:武漢理工大學(xué),2010.

[2]SHAHABI C, BANAEI-KASHANI F, CHEN YS, et al. Yoda: An accurate and scalable Web-based recommendation system[M]// BATINI C, GIUNCHIGLIA F, GIORGINI P, et al. Cooperative Information Systems. CoopIS 2001. Lecture Notes in Computer Science. Berlin/Heidelberg:Springer,2001,2172:418-432.

[3]FU Xianghua, LIU Wangwang, XU Yingying, et al. Combine HowNet lexicon to train phrase recursive autoencoder for sentence-level sentiment analysis[J]. Neurocomputing, 2017,241:18-27.

[4]SOCHER R, PENNINGTON J, ERIC H H, et al. Semi-supervised recursive autoencoders for predicting sentiment distributions [C]//Proceedings of the 2011 Conference on Empirical Methods in Natural Language Processing, EMNLP. Edinburgh, UK:ACL, 2011:151-161.

[5]HOCHREITER S, SCHMIDHUBER J. Long short-term memory[J]. Neural Computation,1997,9(8):1735-1780.

[6]李昭昱,艾芊,張宇帆,等.基于attention機制的LSTM神經(jīng)網(wǎng)絡(luò)超短期負荷預(yù)測方法[J].供用電,2019,36(1):17-22.

[7]王鈞,張鵬,袁帥.基于股票預(yù)測的Seq2Seq RNN和LSTM模型比較[J].時代金融,2018(12):381-382,392.

[8]方旭,過弋,王祺,等.核心詞修正的Seq2Seq短文摘要[J].計算機工程與設(shè)計,2018,39(12):3610-3615.

[9]KOBSA A. Genetic user modeling systems[J] .User Modeling and User Adapted Interactive, 2001 (11):49-63

[10]郭金婷. 云計算環(huán)境下圖書館云服務(wù)模式構(gòu)建[D]. 大連:遼寧師范大學(xué),2012

[11]李巖.基于深度學(xué)習(xí)的短文本分析與計算方法研究[D].北京:北京科技大學(xué),2016.

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠程開放實驗平臺構(gòu)建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學(xué)習(xí)的三級階梯
有體驗的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
利用網(wǎng)絡(luò)技術(shù)促進學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
主站蜘蛛池模板: 亚洲精品波多野结衣| 国产午夜小视频| 成人看片欧美一区二区| 另类专区亚洲| 日韩久草视频| 日韩精品免费一线在线观看| 九九久久精品免费观看| 国产在线八区| 国产高清无码第一十页在线观看| 国产第一页免费浮力影院| 丰满少妇αⅴ无码区| 色有码无码视频| 国产成人精品优优av| 欧美α片免费观看| 亚洲欧美一区二区三区蜜芽| 国产亚洲精品自在久久不卡| 一本大道视频精品人妻| 日韩欧美成人高清在线观看| 国产精品自在在线午夜区app| 黄色网页在线播放| 手机在线免费不卡一区二| 蜜桃视频一区二区| 麻豆国产精品| 中文无码精品A∨在线观看不卡| 刘亦菲一区二区在线观看| 国产一区二区三区精品久久呦| 成人综合在线观看| 亚洲人成在线精品| 婷婷午夜天| 日韩欧美中文在线| 美女视频黄频a免费高清不卡| 九色在线观看视频| 国产精品lululu在线观看| 欧美劲爆第一页| 为你提供最新久久精品久久综合| 一区二区三区精品视频在线观看| 高潮爽到爆的喷水女主播视频| 波多野结衣无码中文字幕在线观看一区二区 | 国产一级在线观看www色 | 国产18在线| 亚洲高清日韩heyzo| 国产丝袜无码精品| 国产午夜一级淫片| 国产网友愉拍精品| 五月天在线网站| A级毛片无码久久精品免费| 国产高潮流白浆视频| 国产人成乱码视频免费观看| 国产免费高清无需播放器| 色成人综合| 99精品免费在线| 92精品国产自产在线观看| 99久久人妻精品免费二区| 欧美在线视频a| 亚洲毛片网站| 国产第八页| 精品成人一区二区| 日韩av无码精品专区| 99re经典视频在线| 亚洲av无码牛牛影视在线二区| 欧美伦理一区| 色窝窝免费一区二区三区| 呦女亚洲一区精品| a级毛片网| 免费99精品国产自在现线| 精品剧情v国产在线观看| 99re热精品视频中文字幕不卡| 欧美第二区| 久久男人视频| 波多野结衣视频网站| 欧美无专区| 天堂久久久久久中文字幕| 欧美精品伊人久久| 欧美v在线| 四虎精品国产AV二区| 谁有在线观看日韩亚洲最新视频 | 久久99久久无码毛片一区二区| 国产菊爆视频在线观看| 国产麻豆精品手机在线观看| 中文字幕1区2区| 国产啪在线| 日韩一级毛一欧美一国产|