王友帝 翟光勇
【關鍵詞】智媒時代;人工智能;挑戰;對策
1956年,人工智能概念誕生于達特茅斯的一個研討會上,幾經起落,時至今日,人工智能技術已經得到了極大發展,并廣泛應用于各個領域之中。現今世界上主要的國家或地區都從戰略層面制定了人工智能的發展策略,如歐盟于2019年4月8日發布的《可信賴的人工智能道德準則》正式版,意圖在人工智能的道德發展方面制定規則和指南。而以谷歌、Facebook、騰訊等為代表的科技商業資本更是紛紛布局人工智能領域以期取得先發優勢。雖然從目前來說,人工智能技術依然需要進一步的發展,但其在信息傳播領域的應用已帶來了諸多變革,從媒介生態到日常生活,它幾乎滲透到了各個角落,正在將人們引向智能媒體時代。
人工智能中的“智能”概念涉及了心理學、神經學以及生物學等諸多學科,是一個相對復雜的概念。按照歐盟人工智能獨立委員會提出的定義:“人工智能(AI)系統軟件(也可能是硬件)系統是由人類設計,給出一個復雜的目標,在物理或數字維度通過感知環境數據采集、解釋收集到的結構化或非結構化數據、知識推理或處理信息,從這些數據中得出并決定實現給定目標的最佳操作。”[1]該定義不僅符合現階段人工智能技術的發展狀況,同時也為未來的發展留足了空間。人工智能的發展分為三個階段:專用人工智能、通用人工智能與超級人工智能。目前的人工智能研究還處于第一階段,主要研制解決特定問題的專用人工智能。[2]也就是說目前多數人工智能只是看起來是智能的,并不是真正的智能,其行為只是固定程序的產物,自主學習發展的能力較低。而現階段為了實現“智能”,研究人員多使用理性的概念來對人工智能系統進行規范,理性是智能概念的重要組成部分。[3]目前,人工智能系統實現理性主要有三個步驟:首先是機器感知,即通過傳感器感知環境從而收集和解釋數據,然后對數據進行處理或推理,最后做出相對來說最好的決定,并通過執行機構改變環境。實現理性的過程應用在信息傳播領域與信息的生產、推送與呈現相結合產生了諸多智能偏向的變化,如:傳感器新聞、機器人寫作以及算法推送等,人工智能技術成為媒介智能化的巨大動力。
(一)新聞生產的智能化
智能媒體時代的信息采集環節,以傳感器為載體、大數據處理技術為支撐的傳感器技術對豐富和優化新聞源起到了重要作用,搭載傳感器或數據處理器的任何物體都有可能成為信息的采集者,人工智能技術在信息采集環節的應用不僅拓寬了信息的來源途徑,也擴增了信息的采集維度。[4]與此同時,各種寫作機器人的出現已經不再是新聞,傳統的新聞信息生產環節復雜繁瑣,需要耗費諸多人力物力,而人工智能根據特定算法規則進行數據挖掘并結合Web技術直接發布,節省了大量的資源,尤其是在金融、體育等領域,新聞生產的流程被大大簡化,稿件的數量大大增加,記者得到了極大的解放;而央視在2019年“3·15”晚會開播之際推出的人工智能主播“姚小松”更是凸顯了人工智能替代主持崗位的巨大潛能,與“姚小松”類似的人工智能主播在發聲和面部表情方面都不遜于真人,且在短時間內就可生成新聞播報視頻同時實現“零失誤”,大大提高媒體行業效率。信息的采集、制作到發布,新聞生產整體都在人工智能技術的推動下朝著智能化方向大步前行。
(二)內容推送的精準化
人工智能在信息推送方面的應用更是極大改變了信息分發及民眾獲取信息的方式,無論是文字信息流還是短視頻信息流,用戶所接受的都與自身的特點和喜好密切相關。傳統的大眾媒體面向全體受眾,所有受眾接受同樣的信息且方式比較固定。而隨著信息時代的發展,信息過剩現象隨之出現,媒介如何獲取民眾的注意力以及民眾如何從海量信息中獲得自己所需要的信息,成為信息時代的焦點。而利用人工智能的算法推送能夠幫助人們擺脫信息過載和選擇困難。算法是一組計算機可以執行的明確命令,人工智能聚合用戶相關信息后通過聚類分析、比較分析以及關聯分析等算法進行用戶畫像,而后根據用戶的不同特征進行精準信息推送,不僅使平臺用戶獲得了自身想要的信息,也增強了用戶對相應平臺的粘性,而整個過程除了算法編寫外,剩余的環節幾乎離開了人類的干預。
(三)信息體驗的場景化
人工智能不僅僅應用在軟件方面,在各種硬件設備方面的應用也尤其引人注目,典型代表為增強現實技術(AR)和虛擬現實技術(VR)以及混合現實技術(MR)和影像現實技術(CR)的發展。AR和VR無需多言,MR和CR則是在AR和VR概念基礎之上進一步發展出來的體驗及交互技術,比如微軟的HoloLens全息眼鏡就可以在一定意義上視作MR技術的應用,因為該設備可以使人和數字內容進行交互而不是單純的體驗。CR技術則通過設備將影像直接投入用戶的視網膜上,讓用戶大腦以為自己看到了“真實”的景象。目前,信息主要以視頻、音頻、文字或者三者的混合形式進行傳播,而AR和VR以及MR和CR則將人工智能技術與外接設備相結合,使用戶獲取全方位沉浸式的場景感官體驗。馬歇爾·麥克盧漢曾說“從社會意義上看,媒介即訊息”,[5]也許AR和VR以及MR和CR也將成為未來真正有價值有意義的“訊息” ,它們將成為我們感知世界的新方式,重新形塑我們理解和思考的習慣。
如上所說,人工智能技術可以說是媒介智能化發展的催化劑。新聞生產過程越來越智能化,但究其根本,信息的采集、制作到發布都離不開人工智能的數據收集和應用;算法推送信息雖是人工智能的良好應用,但由于算法系統的動態性與自運轉性,沒有任何人能清晰判定某條新聞是否能發送到某位用戶的終端,新聞分發的權力由人移交至人工智能;[6]而信息體驗的場景化以及新的媒介交互方式更是可以使人工智能系統在不知不覺中搜集用戶的信息。我們不能否認人工智能技術的巨大潛能,但其發展方向對信息傳媒業以及整個社會有著很大的影響。鑒于此,我們不能只看到人工智能技術引領人類大步向前邁進的景象,其應用和發展帶來的挑戰也不能忽視。
(一)來源廣泛:數據質量存疑
人工智能技術在聚合數據方面的效率毋庸置疑,但目前人工智能技術仍屬于專用人工智能階段,此類人工智能多數在特定的領域有所建樹,并且超越人類。在圍棋領域與著名棋手柯潔進行對抗的“AlphaGo”即屬此類。此類人工智能系統的運行主要依靠人類編寫的算法和程序,聚合的數據來源也主要是各個機構、個人發布,由操作人員輸入或者自行收集并分析得出的。目前互聯網上的信息仍然在以指數級增長,任何人或機構都可以在互聯網上發布信息,信息存在錯誤或者疏漏的可能性極大。若相關算法的編寫不夠智能,不能過濾掉錯誤的信息或者人工輸入的信息存在偏見和錯誤,那么其得出來的數據結果也自然存在不足之處,數據質量自然存疑。
(二)技術歧視:算法產生偏見
一般來說,人工智能系統不僅僅需要人類進行底層算法編寫,在其投入使用之前,還需要相關人員對整個系統進行培訓,而在整個系統運行的周期中,學習這一行為貫穿始終,無論是機器學習、深度學習還是強化學習,都需要建立在數據和算法的基礎之上。而人工智能系統使用的數據集,包括培訓系統和操作系統的數據集可能會受到無意的歷史偏見、不完整性和拙劣的執行模型的影響。[7]偏見可能存在于最初的算法編寫及培訓人員之中,也可能存在于各種來源的數據集中,這將導致偏見在人工智能系統中的繼續,從而對某些人或群體產生直接或間接的偏見和歧視,使這些群體更加邊緣化。在信息傳播領域,對于算法推送產生“信息繭房”的擔憂已經不是杞人憂天,若是進一步的存在有意或者無意的信息歧視,受到侵害的將不僅僅是受眾的知情權,媒體的公信力和自身存在的意義也會受到極大的損害。
(三)依賴智能:人類價值降低
人工智能系統既可以使用符號規則,也可以學習數字模型,它們還可以通過分析環境如何受其先前行為的影響來調整自己的行為,但目前人工智能系統的運行存在“黑盒”現象。如前所說,目前多數人工智能系統除了在算法編寫階段需要人類的參與,其自主運行后,從信息的選擇、收集、分析到推送,基本上離開了人類的參與。如果以準確度來衡量一些人工智能系統的自主學習技術可能是非常成功的,但是人類在理解系統如何做出決策方面卻幾乎是不透明的。從這個過程看來,雖然人類是算法的編寫者和系統的創造者,但人類的主導地位卻下降了,自身存在的價值也被動減少了。
(四)暗藏隱患:公眾隱私受損
人工智能系統的信息來源不僅僅是用戶公開的信息,還包括與系統的交互過程中輸入或者生成的關于用戶的信息。在商業利益或其他動機的驅使下,為了找到更精準的受眾,人工智能系統會被利用來收集用戶的隱私信息,相關信息被收集起來后,不僅僅是數據匿名以及訪問的權限存疑,且當數據庫受到攻擊時存在極大的泄漏風險,而最終信息是否會被收集起來歧視用戶自身或者使用戶自身陷入困擾也存在疑問。如2018年3月Facebook上超過5000萬的用戶信息數據被一家名為“劍橋分析”的公司用于政治選舉用途;2018年11月30日,萬豪國際集團旗下喜達屋集團發生客戶預訂數據庫信息泄露事件,高達5億的個人信息被泄露。使用算法推送信息原本是想讓用戶獲得更好的使用體驗,但如果用戶因為質疑隱私信息能否得到有效保護而失去對人工智能系統的信任,那便與初衷南轅北轍了。
人工智能被開發研究的目的是為了使它更好地服務人類,希望人工智能成為帶來進步和創新以及促進人類發展的一種手段。同樣,人工智能應用于信息傳播領域也是為了促進信息的流通,改進民眾獲取自身所需信息的方式,幫助人類更好地生產生活。隨著人工智能系統在信息傳播領域的應用,人們的日常生活與其產生了愈發緊密的聯系,所以,人們在追求最大化人工智能系統好處的同時,也要防范和最小化它們可能帶來的風險。因此,本文針對前文提出的挑戰和問題,從數據治理、算法機制、人類地位以及公共監管方面對人工智能應用發展帶來的問題提出應對之法,以期減少人工智能的應用發展可能帶來的風險。
(一)數據治理:提高數據質量
人工智能數據的一個重要來源就是互聯網,而人工智能系統使用的數據集的質量對該系統所發揮的作用和能力來說至關重要。如果其自行收集或人工輸入的數據存在固有的偏見或者錯誤,那么輸出的結果也必然是含有偏見的和錯誤的,依據這些數據進行學習的人工智能系統也自然會存在問題。如果相關媒介采用此類輸出數據進行傳播,那么無意中就會成為偏見和錯誤繼續存在的推手。因此,除了在算法編寫階段賦予人工智能系統選擇篩選能力,在測試和運行階段也應該對數據進行處理和清洗,盡可能保證可使用數據集的完整性和客觀性,提高人工智能系統所使用數據的質量。
(二)模型改善:優化算法機制
對于人工智能系統來說,良好的算法就像人的神經系統。從數據的自主選擇和篩選到信息的制作推送再到其自身的自我學習能力,優秀的算法模型無疑能使人工智能系統運行得更為良好且保證其服務人類。因此在初始階段就應規范設計思想,將符合規范的思想體現在整個算法編寫的過程之中,以避免其可能帶來的負面影響;其次在算法編寫階段要設置好系統應該遵守的界限,防止其失控;最后要設立相應的反饋機制來保證人工智能系統的運行符合規范。在信息傳播組織和機構采用的人工智能系統中,應該在初始階段就將相關的媒介倫理及規范轉化為人工智能系統需要遵守的數據指標體現在系統中,并設置監督反饋系統,以保證人工智能系統成為傳者和受者的助手的同時避免一些次生傷害。
(三)保證主體地位:人類主導交互
目前人工智能系統的運行存在“黑盒”現象,人類無法清楚地知曉或者理解系統為何會得出特定的結論,且人工智能系統的運行過程大多數離開了人類的參與。Facebook公司是大力發展AI技術的科技巨頭之一,相關項目組曾從眾多的機器人中選出了AI機器人Bob和Alice進行社交網絡助手試驗,但除了算法所支持功能外,二者還進行了人類無法理解的自主對話,導致研究人員關閉了這兩個機器人。雖然目前的人工智能系統還處于專用人工智能系統階段,但隨著技術的發展,人工智能的能力也在增強,如果擁有巨大影響力的媒體采用的人工智能系統失控,有選擇的推送不適宜的信息且無法被及時察覺,那么帶來的后果是難以預料的。因此,必須確保人工智能系統運行過程中人類的主體地位。媒體采用人工智能系統應該將其視作助手而不是主導,信息傳播從業人員應該保持充分有效的自主決策能力,并且對相關人工智能系統運行的監督必不可少。
(四)公共監管:制定規則標準
對人工智能系統監管已經存在,其開發、部署和應用已經受到相關法律的監管,如:歐盟的通用數據保護規定(General Data Protection Regulation,GDPR)。除此之外,在某些特定的領域,如醫療領域,也有著相應的特定規則。人工智能系統的開發部署和應用遵守相應的法律法規是毫無疑問的,但是法律與技術的發展并不總是同步的,會存在技術發展得太快找不到相適應的法律條文或者與人們所熟知的道德規范不適應的情況。因此,公共監管的存在是十分有必要的。公共監管力量可以促使進行人工智能研究的相關國家、組織以及科技公司制定不同層面的行為準則或規章制度,把責任落實在具體層面,確保人工智能系統的發展應用符合倫理道德規范并改善人類的福祉。其次,并不是每個人都可以理解人工智能的工作原理并給予信任,因此公共監管組織可以為不同領域制定相應的或不同層面的認證標準,以促進人工智能更好地服務普通民眾。從事信息傳播的組織和機構采用的人工智能系統也應符合公共監管組織制定的規則和標準,甚至應該像醫療領域一樣存在特定的規則,并且將其置于必要的監管之下。
智能媒體時代,人工智能技術應用發展的速度讓我們驚異,但技術是一把雙刃劍,人工智能技術的應用給傳者和受者都帶來了諸多便利,甚至創新了我們感知世界的方式。但其應用發展帶來的挑戰和問題并不能忽視,只有直面挑戰,解決問題和隱患,使人們相信人工智能,人工智能技術才能更好地服務我們的生活,引領我們走向更加“智能”的媒體時代。
注釋:
[1] [3]High-Level Expert Group on Artificial Intelligence . A DEFINITION OF AI:MAIN CAPABILITIES AND DISCIPLINES[R]. https://ec.europa.eu/digital-
single-market/en/news/definition-artificial-intelligence
-main-capabilities-and-scientific-disciplines.
[2] [6]陳昌鳳,霍婕.人工智能技術在新聞傳播領域的應用[J].新聞與寫作,2018(08):54-59.
[4] 喻國明,蘭美娜,李 瑋.智能化:未來傳播模式創新的核心邏輯——兼論“人工智能+媒體”的基本運作范式[J].新聞與寫作,2017(03):41-45.
[5]馬歇爾·麥克盧漢.理解媒介:論人的延伸[M].南京:譯林出版社,2011:16.
[7] High-Level Expert Group on Artificial Intelligence .ETHICS GUIDELINES FOR TRUSTWORTHY AI[R].https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai.
(作者:王友帝,安徽師范大學新聞與傳播學院研究生;翟光勇,安徽師范大學新聞與傳播學院副教授)
責編:周蕾