欒軼玫
AI主播,即利用語音合成技術,模仿新聞主播的聲音,根據文本自動生成新聞語音,再捕捉新聞主播的形體、動作和神態結合圖像技術進行合成,讓虛擬的“AI分身模型”進行新聞報道,即AI主播。
世界上最早的AI主播是2001年英國報業聯會媒體公司推出的阿娜諾娃;此后,…2017年,英國《早安英國》節目推出能識別62種人類表情的AI主播Sophia;…2018年,日本推出擁有AI對話系統的電視新聞主播埃麗卡;我國自2018年起AI主播不斷迭代更新,先后實現了從“坐著播報”到“站立式播報”、從2D平面到3D立體、從語音合成到手語播報的升級,不斷豐富AI主播的樣態,并通過大量的媒介應用給媒介生態帶來了新的變化。
AI主播賦能媒介生產:
第一,提升播報的準確性。AI主播通過即時視頻和語音生成的方式可以在現階段保證詞語播報的準確性。隨著AI主播對于語言、語態的理解更加到位(機器越用越聰明),其對新聞的播報在語義層面上也會更加準確。此外,AI主播還能進行多語言無障礙內容播報,從而可同時替代多位外語主播,節省人力與節目的制作成本。
第二,增加內容的新穎性。AI主播的虛擬性和具象性、技術性和藝術性這種特性帶來的“張力”在某種程度上給其播報的新聞內容增加了新穎性,給受眾帶來新體驗。
第三,賦能“全時傳播”。…AI主播可實現全天候、及時即時的內容輸出,生產效率優于真人主播,賦能媒介內容的“全時傳播”。
第四,跨場景播報豐富受眾體驗。AI主播能營造多種場景的“跨場景播報”。比如,兩會報道中,AI主播在演播室和遠在千里外的采訪現場多個場景中自由切換,跨場景播報使新聞呈現更具多樣性與觀賞性,給受眾帶來豐富的體驗感與逼真的臨場感。
第五,AI主播從單一內容播報到側重用戶服務的功能轉變。北京臺2021年10月發布的AI主播“時間小妮”將北京臺主持人春妮自然朗讀的7000個句子和形象表情進行影像采集和智能處理,經過情緒仿真引擎,為其賦予了如同真人情感表情,其形象氣質、語音語調、口唇表情、肢體動作跟真人的相似度達到97%。這一AI主播并不只是播報新聞,而更能與受眾互動提供多樣的服務功能。經過和北京時間客戶端稿件系統、知識系統、互動系統、大數據系統進行API對接,AI主播“時間小妮”能實現播報新聞、講解知識、廣告代言、交互問答、客戶服務等全智能服務用戶的功能。
AI主播的媒介倫理風險:
數字媒介時代,人工智能技術迅速發展,不同于以往的倫理風險,信息傳播技術引發了更加特殊化與復雜化的倫理風險…。
首先,AI主播引發受眾認知風險。AI主播體現了虛擬和現實的融合。AI主播進行播報時盡顯真人主播“身體在場”的現實感,從這一角度來說,AI主播既具虛擬性,某種意義上也具有現實世界的具象性和真實性。AI主播主客體模糊、真假難辨,由此給受眾帶來了潛在認知風險。匿名性、虛擬與現實的交融,讓受眾分辨不清AI主播、虛擬人、真實的人,甚至分辨不清真實世界與虛擬世界,人們的身份安全、認知、信任都將出現危機。
其次,擬人化引發AI主播倫理風險。“擬人化的核心是幻覺,因此,社交機器人的一個關鍵倫理問題就是欺騙?!庇袑W者甚至認為設計機器人來鼓勵擬人化的屬性應被視為一種“不道德的欺騙行為”。在人與AI主播的交互過程中,通常不會將其體驗為“虛幻”,反而體驗為“真實”——這種體驗感的反轉暗含潛在的混亂與風險。當AI主播越像現實中它所依托的那個真人主播時,在具體的媒介應用與內容生產中如何區分二者的“責權利”就變得尤為重要?換句話說,當發生播報事故時,該追誰的責?——AI主播還是其背后依托的真人主播?AI主播的身份如何界定,其權利是否需要保障?真人主播與AI主播該遵循何種關系,如何共處等倫理問題若處理不當都會帶來相應的倫理風險。
AI主播在智能技術驅動下正從感知階段逐步推進到認知階段,且有加速發展的態勢…。在AI主播應用過程中,技術使用者和受眾都將受到影響,看似是人類利用新技術,但若使用不當,實際上更多地可能是人類會被新技術支配與異化。我們在關注AI主播的媒體應用時更應關注其潛在的倫理風險,以此來確定AI主播的應用邊界、流程規范,從而更好地規避可能出現的風險。