人工智能概念自問世以來,便以銳不可當之態在諸多領域勢如破竹,最終踏入音樂這一神圣之境。它對音樂業態的沖擊,猶如巨石投入水中,漣漪層層疊疊,既關乎樂者之生計,又觸動審美之根基。當我們審視當下,或許會猛然驚覺,我們正置身于人類歷史上對審美底線進行最為瘋狂且難以遏制的試探與拉扯的時代——于人工智能即將 “稱霸”的時代,審美底線已不再僅僅是“由人決斷”之事。
“人工智能”(A r t i f i c i a l Intelligence,簡稱AI)這一概念于1956年在美國達特茅斯召開的“人工智能夏季研討會”(Summer Research Project on Artificial Intelligence)上誕生。英國科學家艾倫·麥席森·圖靈(Alan Mathison Turing)在1950年發表的《計算機和智能》(Computing Machinery and Intelligence)論文,正式標志著“人工智能”學科的開端,他也因此榮獲“人工智能之父”的美譽。在隨后的七十余年發展歷程中,人工智能以強勁之勢闖入人類的生活、工作、醫療及教育等領域,并廣泛地應用于各個學科。在藝術范疇內,人工智能于文學、美術領域已開發出較為成熟且廣為人知的算法模式和應用軟件。就音樂行業而言,谷歌公司的Magenta、亞馬遜公司的AWS Deep Compose以及其他如AIVA、Flow Machine、Open AI等人工智能作曲軟件或網頁也逐漸發展成熟。2024年,Suno AI的強勢襲來,掀起了國內人人可以用AI作曲寫歌的熱潮,同時也引起了音樂界對人工智能音樂的高度關注。

人工智能介入音樂領域所產生的應用模式并非僅限于作曲。當提及“AI音樂”這個詞時,人們通常認為它是指運用AI創作的音樂,即狹義上的“人工智能音樂”(Artificial Intelligence Music,簡稱AI音樂),即通過計算機自動生成的算法作曲技術。此外,廣義的人工智能音樂還涵蓋了智能音樂分析、樂譜跟隨、樂器仿真、虛擬演奏(演唱)等方面。
在使用AI創作音樂之前,當我們探討聆聽音樂的情感問題時,通常會遵循這樣的研究路徑:首先判斷這首音樂是否屬于藝術作品,是否具有藝術價值;倘若認可其為藝術作品,再考察其創作者在創作時是否置入了情感,在創作過程中,作曲家伴隨著經驗的寫作與審美的選擇所創作出來的音樂本體與原本置入的情感是否具有同一性,以及在“聽”的過程中,聆聽者感受到的情感是否與原本創作置入的情感一致,等等。
國內音樂學家趙宋光曾在《論美育的功能》等論文中提出“立美”概念——利用客觀規律建立美的形式,達到美的感受。在藝術音樂實踐活動中,作曲家、演奏演唱者們是音樂立美主體,聆聽者是音樂審美主體。但值得注意的是,創作者、演奏演唱者在立美的過程中,仍然伴隨著審美的進行。嚴格來說,沒有一位作曲家可以“從無到有”地創作一部作品,他必須承認之前所學過的所有寫作技巧,并且無法忽視“前輩們”帶來的創作影響——他的寫作是基于經驗的,而立美(作曲)過程中也伴隨著審美(用經驗與靈感選擇聲音材料)的挑選。談及音樂的情感內涵,無論作曲家在創作(演奏者在理解和詮釋)時自身懷有怎樣的情感,音樂這個載體都無法將其情感以原本的樣貌呈現給聽眾。聽眾所感受到的情感波動,一方面與作品原本置入的情感有關,另一方面也離不開聆聽者自身經歷所帶來的“感同身受”“有感而發”。
然而,當人工智能音樂軟件被廣泛應用時,上述問題會變得更加難以辨明與復雜難解。首先,就AI創作生成的音樂作品本體而言,能否稱之為“藝術音樂”?編程者將各種音樂風格、著名作曲家的創作特點及經典作品曲庫全部“投喂”給AI軟件,通過一系列算法的設定,幾分鐘內便生成具有特定風格、適應特定需求的音樂。在這樣的創作前提下,AI作曲做出來的音樂固然符合“需求”且“好聽”,但能否稱之為藝術聲音?此時作品是否有著自行置入的情感內涵呢?聆聽者在聽到這樣的音樂時是否會為之感動?聆聽者所感受到的情感究竟是“無中生有”,還是原本曲庫素材中碎片化情感內涵的重組呢?
進入二十一世紀以來,AI音樂已經開始有了情感嵌入(Emotional Embedding)的嘗試。人們通過人工智能“情感計算”(Affective Computing),將人類情感與音樂類型的關系數據化,建立一套算法模型。“情感計算”采用視頻、音頻、語音、生理信號等多種數據,進行人類面部表情識別、語音識別、心率監測等,旨在解決人工智能識別、解釋和表達情感的問題,并在此基礎上讓人工智能理解人類的行為和心理狀態,通過深度學習模擬大腦處理外界事物時的非理性化方式來建立算法模型,進而創造出音樂。2018年,Deezer音樂網站開發出一個利用AI來識別歌曲所傳達情緒的項目,AI可以結合音軌和歌詞兩個維度來判斷歌曲所傳遞的情緒。
與傳統藝術音樂置入的情感不同,AI數據庫中分析與集合的不同“情感類別”的音樂素材是碎片化的,其情感指向也是個體化而非普遍化的。同一首樂曲,根據實驗者當下的心理狀態與情感經驗的不同,所指向的情感判定結果也可能大相徑庭。由于人類情感屬于主觀意識范疇,其表現形式本身就具有高度的主觀隨意性、變化隨機性、特征模糊性以及個體差異性。將成千上萬的音樂素材與識別出的“情感標簽”輸入到數據庫中,通過算法模型搭建起“全新”的組合音樂。從原則上講,可以創作出貼近人類情感的音樂,但究其內核,仍相差甚遠。音樂實踐活動的參與者們自身的情感狀態與置入到作品中能表現出的情感本就不同,且音樂情感的感知還受制于聆聽者所處的年代、國界、文化背景、音樂審美程度等綜合因素的影響。
人類在聆聽音樂的過程中,情感生發的機制并非數學計算可以簡單模擬,而是一項極其難以言明或難尋其共識性的復雜機制。因此,以目前的技術來看,AI數據生成的音樂難以達到真正藝術音樂所蘊含的情感內涵與表達。
當我們把目光聚焦于音樂的創作主體時,便會驚覺,在AI音樂登上歷史舞臺之前與之后,創作者的身份已然發生翻天覆地的轉變,由此引發的蝴蝶效應足以撼動音樂界乃至人類音樂審美的底線與基石。在AI技術作曲的領域中,創作主體與傳統作曲大不相同,AI音樂的創作者涵蓋了軟件使用者、素材庫中的作曲家以及編程者三方,而在此,可以區分出兩種情況:專業音樂人(作曲家)和普羅大眾。
2021年,德國卡拉揚研究所組建了一支規模宏大的AI音樂創演團隊,根據貝多芬遺留的音樂手稿與其他史料線索,共同完成了AI版的貝多芬《第十交響曲》的創作和演出。這次具有實驗性質的AI“貝十”創作,不僅邀請了全球頂尖的人工智能專家團隊親自操刀,還匯聚了音樂界聲名遠揚的作曲家、音樂學家、古譜研究家、演奏家等專業音樂家攜手共創。他們分別在手稿研究、神經網絡構建、算法調試、音樂素材的風格判定與選擇、試奏試聽、生成樂隊總譜等多個方面進行了專業監管與調試。這是一次“人工智能科技”與“專業音樂”雙學科前沿研究與實踐的攜手合作。演出過后,不少評論家都認為這部AI版“貝十”確實有著明顯的“貝多芬風格”,其中動機的寫作與發展、終止式的運用、和聲進行等創作手法,無疑都有著鮮明的風格指向與概括性寫作范式。

盡管我們能從“音樂巨匠”貝多芬先前的創作中尋覓到一些技法和思潮的傳承與連續性,但不可否認的是,天才的每一次創作都蘊含著革新與顛覆的巨大力量,而根據貝多芬手稿和原有風格、技法創作出來的AI版《第十交響曲》,更像是對前面九部作品的“摹寫”或“翻拍”。與其說它是新創的“藝術”,不如稱之為一次“實驗”或“前沿研究”。
與傳統作曲家身份相似的AI軟件使用者,并不具備傳統作曲家在內心篩選素材、感性或理性書寫音樂時的審美與立美能力。風靡一時的Suno等AI音樂App,其由AI搭建好的算法模式并未賦予使用者篩選素材的權限。使用者可以給出“創作一首中國風、適合雨天聽的悲傷情歌,男聲”類似的指令,隨后幾分鐘之內AI便可快速生成一首符合需求的音樂。隨著Suno等App的普及,人人都能夠寫歌、編曲,做音樂只需一鍵生成,零門檻、低成本、無論老少皆可上手創作。
AI快速生成的歌曲仍然擺脫不了詞曲、編曲“粗制濫造”和“拼湊”的質感,這種現狀對專業音樂業態的沖擊無疑是巨大的。誰又知道是否有一天生活中所有“舉足輕重”的配樂都會被AI音樂攻占?屆時,大眾的聽覺慣性是否會被AI音樂所“規訓”?音樂的審美底線是否又會被進一步地向下拉扯?而從創作主體到審美主體,我們,又能夠做些什么?