999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于遞歸神經(jīng)網(wǎng)絡(luò)人工智能技術(shù)的音樂創(chuàng)作

2020-06-11 13:46:40馬鵬程盧樹強(qiáng)王曉岸李曉東宋涵宇
電子技術(shù)與軟件工程 2020年3期
關(guān)鍵詞:深度音樂結(jié)構(gòu)

馬鵬程 盧樹強(qiáng) 王曉岸 李曉東 宋涵宇

(1.北京腦陸科技公司 北京市 100083)

(2.前瑞麗雜志、寺庫 北京市 100176)

(3.中央民族大學(xué)音樂學(xué)院 北京市 100081)

1 簡介

音樂創(chuàng)作(music creation)是指音樂專業(yè)人員或作曲家創(chuàng)造具有音樂美的樂曲的復(fù)雜的精神與技能生產(chǎn)過程[1]。主要方式是按照不同音節(jié)對應(yīng)時(shí)間序列關(guān)系進(jìn)行組合,如旋律和和聲,并配以相宜的節(jié)奏進(jìn)行組織產(chǎn)生的具有特殊音色和紋理動(dòng)態(tài)聲波。音樂創(chuàng)作通常是由受過專業(yè)音樂培訓(xùn)和教育的作曲家創(chuàng)造具有音樂美的樂曲,是一項(xiàng)極其復(fù)雜的技術(shù)和任務(wù)。

隨著人工智能深度學(xué)習(xí)算法在圖像識別[2][3][4],視頻檢測[5],自然語言處理[6][7]及語音處理[8]等方面的優(yōu)秀表現(xiàn)和對應(yīng)行業(yè)的廣泛應(yīng)用,深度學(xué)習(xí)模型技術(shù)的發(fā)展完善及應(yīng)用的場景正在越來越多地被挖掘。深度學(xué)習(xí)算法[9]是一種新興的多層神經(jīng)網(wǎng)絡(luò)降維算法,通過組建含有多個(gè)隱層的神經(jīng)網(wǎng)絡(luò)深層模型,對輸入的高維數(shù)據(jù)逐層提取特征,以發(fā)現(xiàn)數(shù)據(jù)的低維嵌套結(jié)構(gòu),形成更加抽象有效的高層表示。如圖1所示,一個(gè)具有三層卷積連接層和兩層全連接層的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),每層對輸入的數(shù)據(jù)自動(dòng)實(shí)現(xiàn)了抽象特征提取,最后

實(shí)現(xiàn)分類目標(biāo)。有鑒于此,這種端到端的數(shù)據(jù)模型技術(shù)能夠極大地為不同的基于數(shù)據(jù)應(yīng)用的場景和任務(wù)提供極大的便利和效率。而深度學(xué)習(xí)對于音樂創(chuàng)作與生成的場景任務(wù),通過有效的進(jìn)行音樂數(shù)據(jù)集的構(gòu)造和模型的設(shè)計(jì)選擇,從而生成新的音樂。這也將使得音樂創(chuàng)作對于更多的人能夠完成,也能夠?yàn)槿祟悗砀嗖煌愋秃筒煌L(fēng)格的優(yōu)美音樂。如文獻(xiàn)[10]構(gòu)建了一種基于神經(jīng)網(wǎng)絡(luò)結(jié)果的生成模型,能夠生成像人類創(chuàng)作出的和諧和優(yōu)美的音樂。文獻(xiàn)[11]中基于RNN深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)的模型結(jié)合音樂先驗(yàn)知識生成了pop music。文獻(xiàn)[12]通過神經(jīng)網(wǎng)絡(luò)進(jìn)行了序列建模,基于簡單的音樂數(shù)據(jù)樣本集進(jìn)行了輔助音樂創(chuàng)作。文獻(xiàn)[13]通過雙向長短時(shí)記憶(BLSTM)網(wǎng)絡(luò)結(jié)構(gòu)模型和對應(yīng)的數(shù)據(jù)集,進(jìn)行了和弦音樂的生成。文獻(xiàn)[14]中通過弱監(jiān)督深度遞歸神經(jīng)網(wǎng)絡(luò),以音頻能量功率譜作為輸入,進(jìn)行了舞曲生成。文獻(xiàn)[15]中基于深度學(xué)習(xí)中的自編碼機(jī)(VAEs)和對抗生成網(wǎng)絡(luò)模型(GANs),進(jìn)行了音樂分格遷移生成。

圖1:神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)示例

圖2:Music-Coder音樂生成流程

2 本文工作說明

通過第一章我們看到對應(yīng)于不同的音樂素材和類型及任務(wù),可以選擇不同的生成模型和方案。這篇文章中,我們主要實(shí)現(xiàn)通過神經(jīng)網(wǎng)絡(luò)模型生成特定作曲家類型音樂風(fēng)格的音樂。由于音樂的載體是聲音,而聲音類型的數(shù)據(jù)可以看作是一種定長的時(shí)序數(shù)據(jù)。基于此,所以我們選擇了可以處理時(shí)間序列數(shù)據(jù)類型的一種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)LSTM[16][17]來實(shí)現(xiàn)了通過一種附加約束的監(jiān)管員機(jī)制的音樂生成器(Music-coder),并進(jìn)行音樂生成,并且取得了優(yōu)秀的音樂生成效果。Music-coder音樂生成器的主要工作流程如圖2所示。本文主要工作為:

(1)通過應(yīng)用一種LSTM深度學(xué)習(xí)模型,實(shí)現(xiàn)了對特定作曲分格的音樂生成。

(2)并對生成的音樂集進(jìn)行了與原創(chuàng)音樂集相似度計(jì)算,在生成音樂特征分布于相似度2個(gè)指標(biāo)上都達(dá)到了較好的效果。

(3)通過真實(shí)音樂人與作曲家對生成音樂數(shù)據(jù)進(jìn)行雙盲監(jiān)測,平均通過率達(dá)到了80%以上。

3 音樂生成方案設(shè)計(jì)

3.1 數(shù)據(jù)集選擇與處理

我們收集了著名音樂人周杰倫(由于周杰倫的作曲風(fēng)格具有個(gè)人特色,且類型相對較豐富)的midi格式作曲素材,總共250首,平均每首時(shí)長約2-4mins,從其中選擇了滿足3-4Mins時(shí)長的60首作為訓(xùn)練數(shù)據(jù)集1(DataSet1)。除此之外,對60首midi作曲進(jìn)行了分軌提取與處理,總共提取XXX軌,將軌音樂作為訓(xùn)練數(shù)據(jù)集2(DataSet2)。

3.2 數(shù)據(jù)預(yù)處理與算法設(shè)計(jì)

3.2.1 音樂數(shù)據(jù)結(jié)構(gòu)分析與模型選擇

音樂數(shù)據(jù)結(jié)構(gòu)是一種標(biāo)準(zhǔn)化的時(shí)序數(shù)據(jù),不同的時(shí)刻數(shù)據(jù)對應(yīng)的是一個(gè)有限集,即如定義1所述。同時(shí),音樂又是一種時(shí)序關(guān)聯(lián)數(shù)據(jù),所具有的特性如定義2所述。最后,由于音樂的生產(chǎn)最后是需要滿足一定美學(xué)和藝術(shù)功能和需求的,所以音樂數(shù)據(jù)本身最后得需要對應(yīng)的約束條件,如定義3所述。

圖3:RNN模型結(jié)構(gòu)示意

定義1:如果M為音樂數(shù)據(jù),則Mt∈N,N為有限數(shù)集,Mt為t時(shí)刻該音樂的音節(jié);

定義2:如果M為序列數(shù)據(jù)集,則Mt=f(M(t-1),M(t-2)…….M(t-n);

定義3:如果M為音樂數(shù)據(jù),則f(M)≤C,C為約束條件集;

基于上述定義1,定義2,定義3的音樂數(shù)據(jù)結(jié)構(gòu)的特性,潛在的滿足處理該類特征數(shù)據(jù)的模型方案有基于RNN結(jié)構(gòu)的深度學(xué)習(xí)模型[18],基于專家設(shè)計(jì)的音樂規(guī)則組合模型的生生成模型[19],基于神經(jīng)網(wǎng)絡(luò)進(jìn)行音樂生成的模型[20],基于隱馬爾科夫HMM的音樂序列生成模型[21],基于神經(jīng)網(wǎng)絡(luò)和搜索樹結(jié)合的音樂生成模型[22],基于蒙特卡洛模擬采樣進(jìn)行的音樂生成模型[23],基于對抗生成網(wǎng)絡(luò)GAN進(jìn)行的音樂生成[24]等。

表1:LSTM結(jié)構(gòu)設(shè)置

表2:生成音樂集G測試結(jié)果

表3:專業(yè)音樂人員測試結(jié)果

圖4:LSTM模型結(jié)構(gòu)

結(jié)合文章生成音樂任務(wù)需求,除了滿足時(shí)序特征處理的功能,還需要基于處理建模后進(jìn)行音樂生成,本文選擇能夠捕捉更多時(shí)序信息的RNN結(jié)構(gòu)的LSTM模型進(jìn)行音樂生成。

基于RNN機(jī)制的深度學(xué)習(xí)模型將是可行的音樂處理與生成選擇,鑒于此,在各類時(shí)序任務(wù)上比較常用的Long Short Term Memory networks(以下簡稱LSTM)模型架構(gòu)將成為非常有希望的模型之一。LSTM,是一種特殊的RNN網(wǎng)絡(luò),該網(wǎng)絡(luò)設(shè)計(jì)出來是為了解決長依賴問題。該網(wǎng)絡(luò)由Hochreiter和Schmidhuber(1997)引入,并有許多人對其進(jìn)行了改進(jìn)和普及。他們的工作被用來解決了各種各樣的問題,直到目前還被廣泛應(yīng)用。所有循環(huán)神經(jīng)網(wǎng)絡(luò)都具有神經(jīng)網(wǎng)絡(luò)的重復(fù)模塊鏈的形式。在標(biāo)準(zhǔn)的RNN中,該重復(fù)模塊將具有非常簡單的結(jié)構(gòu),例如單個(gè)tanh層。標(biāo)準(zhǔn)的RNN網(wǎng)絡(luò)模型如圖3所示。

對應(yīng)的LSTM結(jié)構(gòu)是基于RNN結(jié)構(gòu)的改良模型,LSTM網(wǎng)絡(luò)能通過一種被稱為門的結(jié)構(gòu)對細(xì)胞狀態(tài)進(jìn)行刪除或者添加信息,門能夠有選擇性的決定讓哪些信息通過,本身可以實(shí)現(xiàn)遺忘和記憶機(jī)制。所以利用其在進(jìn)行音樂時(shí)序數(shù)據(jù)處理時(shí),是可以將以前的信息與當(dāng)前的任務(wù)進(jìn)行連接,例如使用以前的音樂幀來幫助網(wǎng)絡(luò)理解當(dāng)前音樂幀。有時(shí)我們需要利用近期的信息來執(zhí)行來處理當(dāng)前的任務(wù)。例如,考慮用一個(gè)音樂模型通過利用以前的音樂序列信息來預(yù)測下一個(gè)音節(jié)和音符,有時(shí)我們不需要其他的信息,通過前面的音樂風(fēng)格就能知道最后一節(jié)的音節(jié)。在這種情況下,相關(guān)信息與需要該信息的位置距離較近,而LSTM能夠?qū)W習(xí)利用以前的信息來對當(dāng)前任務(wù)進(jìn)行相應(yīng)的操作。

不管是RNN還是LSTM及其衍生主要是隨著時(shí)間推移進(jìn)行順序處理,長期信息及t-n時(shí)刻信息需在進(jìn)入t時(shí)刻單元前順序遍歷所有單元,這會存在梯度消失的問題。同時(shí),LSTM能夠記住長期的信息,但是它們只能記住100個(gè)量級的序列,或者更長的序列,這對長序列音樂生成會有一定的限制。同時(shí),對LSTM模型的訓(xùn)練它們對硬件的要求非常高,即對計(jì)算單元要求比較多,這使得計(jì)算時(shí)間會較慢。

所以本文以選擇以LSTM作為主要模型架構(gòu)并結(jié)合,并通過監(jiān)管器機(jī)制(Monitor Mechanism)來進(jìn)行音樂條件約束,從而使得LSTM處理序列要求降短,從而能夠在音樂生成效率上進(jìn)行提高,以此來在滿足音樂生成性能的規(guī)避LSTM模型本身的局限。

為了機(jī)器算法計(jì)算方便,我們將Dataset1和Dataset2數(shù)據(jù)集從MIDI格式轉(zhuǎn)換為ABC文件格式,提供給人工智能模型進(jìn)行訓(xùn)練計(jì)算。

3.2.2 模型結(jié)構(gòu)設(shè)計(jì)與配置

(1)LSTM結(jié)構(gòu)。LSTM的關(guān)鍵是元胞狀態(tài)(Cell State),這種傳送帶結(jié)構(gòu)直接穿過整個(gè)流程鏈,同時(shí)只有一些較小的線性交互。上面承載的信息可以很容易地傳遞到下一個(gè)計(jì)算單元而不改變。同時(shí)LSTM有能力對元胞狀態(tài)添加或者刪除信息,這種能力通過門結(jié)構(gòu)來控制[24],它們由一個(gè)Sigmoid神經(jīng)網(wǎng)絡(luò)層[25]和一個(gè)元素級相乘操作組成,能夠選擇性讓信息通過。一個(gè)完整LSTM有3個(gè)門結(jié)構(gòu),來保護(hù)和控制元胞狀態(tài),如圖4所示。

LSTM用兩個(gè)門來控制單元狀態(tài)c的內(nèi)容,一個(gè)是遺忘門(forget gate),它決定了上一時(shí)刻的單元狀態(tài)有多少保留到當(dāng)前時(shí)刻。另一個(gè)是輸入門(input gate),它決定了當(dāng)前時(shí)刻網(wǎng)絡(luò)的輸入有多少保存到單元狀態(tài)。LSTM用輸出門(output gate)來控制單元狀態(tài)有多少輸出到LSTM的當(dāng)前輸出值。W為計(jì)算過程權(quán)重矩陣,tanh為激活函數(shù),C為單元狀態(tài),f為遺忘門,h為隱藏信息,x為特定時(shí)刻的輸入信息。基于此,最后我們使用的LSTM結(jié)構(gòu)如表1所示。

圖5:監(jiān)管員機(jī)制

(2)Music Coder結(jié)構(gòu)的監(jiān)管員機(jī)制。監(jiān)管員機(jī)制(Monitor mechanism)主要是為了對LSTM的中間生產(chǎn)序列結(jié)果(中間計(jì)算音樂序列)進(jìn)行一次檢查,對不滿足監(jiān)管規(guī)則(音樂特征約束,主要配置為音調(diào)約束和音樂風(fēng)格約束)的序列進(jìn)行剔除,這種機(jī)制會使得LSTM的輸入單個(gè)音樂序列不用過長,就能夠達(dá)到特定的生成效果。這種模式使得LSTM處理速度和效率提升,從而使得生成訓(xùn)練過程更快收斂,如圖5所示。

3.3 模型訓(xùn)練與音樂生成

我們在人工智能模型訓(xùn)練過程中使用4卡英偉達(dá)TitanXP GPU深度學(xué)習(xí)服務(wù)器,進(jìn)行了10000次迭代訓(xùn)練,通過控制模型損失函數(shù)(Loss Function)和Softmax函數(shù)進(jìn)行模型準(zhǔn)確率優(yōu)化提高,最后使得模型有效率達(dá)到90%以上,模型訓(xùn)練整個(gè)耗時(shí)35小時(shí)。基于數(shù)據(jù)集1和數(shù)據(jù)集2訓(xùn)練的深度學(xué)習(xí)模型,我們得到混軌音樂和單軌音樂,通過音樂修剪,將單軌作為整體音樂的補(bǔ)充合并,最后得到生成的音樂。

4 生成音樂結(jié)果分析

4.1 定量分析-生成音樂相似性計(jì)算

本文通過生成音樂與原始音樂的相似度計(jì)算來進(jìn)行音樂生成效果量化評估,通過計(jì)算每首生成音樂與原始音樂集中的每一首音樂的相似度,選取相似度最高的一首對應(yīng)的相似度作為最終相似度。基于訓(xùn)練好的生成模型,我們生成50首樂,每首約2-3分鐘,生成速度為10s以內(nèi),同時(shí)選擇皮爾森相似度對生成音樂數(shù)據(jù)集與測試數(shù)據(jù)集(原創(chuàng)音樂)進(jìn)行相似性計(jì)算與效果評估。

從原有真實(shí)創(chuàng)作音樂100首隨機(jī)選取50首為種子集S,編號S1,S2……S50,進(jìn)行相似計(jì)算基準(zhǔn)。對于生成音樂,隨機(jī)從50首生成音樂選取生成30首為生成集G,編號G1,G2……G30,進(jìn)行與種子集相似度計(jì)算,并作為參考計(jì)算種子音樂集S自身的相似性。分別計(jì)算G音樂集對應(yīng)的最大相似度,最小相似度以及平均相似度,檢測結(jié)果統(tǒng)計(jì)如表2所示。

4.2 定性分析-生成音樂專家測評統(tǒng)計(jì)

除上文的量化相似性計(jì)算我們也通過人工領(lǐng)域?qū)<业臏y試來評估我們生成音樂的有效性。我們對生成數(shù)據(jù)集進(jìn)行音樂領(lǐng)域?qū)<医徊鏈y試,通過對種子音樂集S(S音樂集包含50首)與生成音樂數(shù)據(jù)集G(G音樂集包含50首)進(jìn)行隨機(jī)混合處理,作為整體測試集T,編號為T1,T2……T100。我們邀請了3位音樂專業(yè)音樂人員分別是中央民族大學(xué)音樂學(xué)院音樂專業(yè)學(xué)生,海蝶音樂制作人,瑞麗時(shí)尚音樂人依次編號為A,B,C,通過試聽來判斷測試T中音樂是否為原創(chuàng)音樂,測試結(jié)果如表3所示。音樂參與者完成了隨機(jī)混合了原始音樂集合生成音樂集共100首音樂,每個(gè)測試者分別試聽100首音樂,并對每首音樂是否為周杰倫原創(chuàng)音樂做出判斷。測試結(jié)果如表3所示。

通過表2和表3,我們發(fā)現(xiàn)原始音樂數(shù)據(jù)集本身的音樂風(fēng)格變化差異較大,分布較廣包含多種個(gè)人不同風(fēng)格的音樂(平均相似度60.64%,差異度98.9%)。而基于Music coder生成的音樂集本身相對原始音樂集來說特征和風(fēng)格分布較為集中,但也存在較好的風(fēng)格多樣性(平均相似度82.80%,差異度達(dá)69.63%)。對應(yīng)的生成音樂集與原始音樂集平均相似度為60.13%,最大差異度為88.84%,平均相似度為60.13%,較為接近原始音樂集的風(fēng)格與特征分布,并且能夠較好的通過專業(yè)音樂人的檢測。

5 總結(jié)與討論

本文主要基于深度學(xué)習(xí)模型LSTM構(gòu)造的音樂生成器,進(jìn)行了特定音樂風(fēng)格的音樂生成,并且在不同的測試方案上取得了良好的表現(xiàn)。根據(jù)測試結(jié)果評估來看,該模型能夠較好的進(jìn)行音樂創(chuàng)作,從而為未來更多的基于人工智能算法進(jìn)行音樂創(chuàng)作的可行性提供了有力的支持。

當(dāng)前本文實(shí)現(xiàn)了基于單類音樂風(fēng)格進(jìn)行的音樂生成創(chuàng)作,未來我們將嘗試根據(jù)用戶不同心情下的機(jī)器實(shí)時(shí)作曲。進(jìn)一步實(shí)現(xiàn)對抑郁、焦慮等心情的量化有效的音樂干預(yù)方案,以創(chuàng)作出根據(jù)用戶個(gè)人喜好而促進(jìn)大腦多巴胺分泌的性能優(yōu)良的音樂生成器,通過音樂+人工智能提高人類幸福感。

致謝:本文研究得到了皓橙娛音文化傳媒有限公司的王樂然先生等專家及單位鼎力支持,為本文音樂規(guī)則設(shè)計(jì)及性能測評提供了寶貴的意見。特別鳴謝周杰倫先生和無數(shù)音樂人,創(chuàng)作出各種類型的歌曲,陪伴一代代人的成長,鼓勵(lì)我們探尋人生和科學(xué)高峰,是機(jī)器永遠(yuǎn)無法替代的,特此致謝。

猜你喜歡
深度音樂結(jié)構(gòu)
《形而上學(xué)》△卷的結(jié)構(gòu)和位置
深度理解一元一次方程
論結(jié)構(gòu)
中華詩詞(2019年7期)2019-11-25 01:43:04
深度觀察
深度觀察
深度觀察
圣誕音樂路
兒童繪本(2017年24期)2018-01-07 15:51:37
論《日出》的結(jié)構(gòu)
音樂
創(chuàng)新治理結(jié)構(gòu)促進(jìn)中小企業(yè)持續(xù)成長
主站蜘蛛池模板: 日韩经典精品无码一区二区| 国产精品无码翘臀在线看纯欲| 精品色综合| 日韩免费毛片视频| 日韩二区三区无| 五月天综合婷婷| 国产91高跟丝袜| 一区二区三区高清视频国产女人| 亚洲AⅤ无码日韩AV无码网站| 中文成人在线视频| 国产91丝袜| 日本成人不卡视频| 国产黄色免费看| 国产欧美视频综合二区| 看你懂的巨臀中文字幕一区二区| 萌白酱国产一区二区| 亚洲精品动漫| 欧美日本激情| av在线无码浏览| 99久久国产自偷自偷免费一区| 美女无遮挡免费视频网站| 国产成人综合久久精品尤物| 欧美性久久久久| 成人国产精品网站在线看| 国产av一码二码三码无码| 亚洲成a人片77777在线播放| 97青草最新免费精品视频| 国产视频a| 亚洲精品天堂自在久久77| 综合色天天| 天天色综网| V一区无码内射国产| 久久一本日韩精品中文字幕屁孩| 成人日韩欧美| 老司机久久精品视频| 亚洲一区二区黄色| 性视频一区| 99热这里只有精品国产99| 青青青视频蜜桃一区二区| 亚洲欧美成aⅴ人在线观看| 青青青国产视频手机| 国产丝袜丝视频在线观看| 无码AV高清毛片中国一级毛片| 97久久超碰极品视觉盛宴| 谁有在线观看日韩亚洲最新视频| 亚洲 欧美 偷自乱 图片| 伊人91在线| 美女被狂躁www在线观看| 中文字幕 日韩 欧美| 天堂网亚洲综合在线| 免费无码又爽又黄又刺激网站| 亚洲综合天堂网| 99在线视频精品| 亚洲一级毛片免费看| 中文字幕亚洲另类天堂| 久久精品视频一| 成人午夜在线播放| 在线毛片免费| 一级黄色欧美| 午夜精品国产自在| 免费又黄又爽又猛大片午夜| 草草线在成年免费视频2| 国产成人喷潮在线观看| 啪啪免费视频一区二区| 国产爽歪歪免费视频在线观看 | 综1合AV在线播放| 久久精品无码一区二区国产区| 国产麻豆va精品视频| 91久久国产成人免费观看| 第九色区aⅴ天堂久久香| 亚洲成人77777| 亚洲男人天堂网址| yy6080理论大片一级久久| 有专无码视频| 日韩精品成人网页视频在线| 99热这里只有精品国产99| 99视频精品在线观看| 国产一级片网址| 久久久久无码精品| 国产一在线观看| 91偷拍一区| 福利在线一区|