■ 耿曉夢 喻國明
隨著大數據技術的發展、計算能力的提升與深度學習算法的成熟,人工智能迎來了又一次的發展浪潮。從自動駕駛、醫療機器人到語音識別、人臉識別,基于深度學習的人工智能應用在不斷深入。資本紛紛布局人工智能,產業規模迅速擴張,與此同時,倫理研究也在跟進人工智能技術的發展。
目前,人工智能技術已經滲透至新聞生產傳播的各個環節,如算法資訊分發、機器人消息寫作等,媒體正在向智能化方向發展。同樣,人工智能技術在媒體應用中帶來的倫理問題也引起了關注。本文將從當下智能媒體的技術現實出發,分析智能媒體倫理適用的架構,從目的—手段的基本邏輯出發給出智能媒體倫理調適的價值目標和現實路徑。
對技術倫理的準確把握建立在正確認知技術發展的現實情況的基礎之上。探討智能媒體倫理問題需要首先厘清智能媒體的技術現狀。
計算機領域的學者們較為普遍地認為人工智能技術是計算機科學的一個分支,是研究模擬、延伸和拓展人的智能的理論、方法、技術及應用系統的新技術科學。①學者們通常在不同的技術層次上討論人工智能。
通用人工智能(Artificial General Intelligence,AGI),又稱強人工智能,指可模擬人腦思維和實現人類所有認知功能的人工智能,它本身擁有思維,真正有自主意識并且可以確證其主體資格,是有自我意識、自主學習、自主決策能力的自主性智能體。這里的“強”主要指的是超越工具型智能而達到第一人稱主體。當強人工智能發展至其在普遍領域的認知均遠超人類時,就成為超人工智能(Artificial Superintelligence)。波斯特姆(Nick Bostrom)在《超級智能:途徑、危險與戰略》一書中使用“超級智能”來描述機器智能爆發后的狀態。②目前強人工智能研究還基本停留在設想階段。
狹義人工智能(Artificial Narrow Intelligence,ANI),又稱弱人工智能,主要是指執行人為其設定的任務的人工智能,它模擬人類智能解決各種問題,是不具有自由意志與道德意識的非自主性智能體。當前可實現的人工智能主要是弱人工智能,如自然語言理解、機器視覺、專家系統、虹膜識別、自動駕駛等。
智能媒體利用人工智能技術改造新聞生產傳播業務鏈條,執行新聞線索獲取、新聞寫作編輯、新聞事實審核、新聞分發推送等特定任務,使媒體能夠看似智能地行動。
斯坦福大學人工智能與倫理學教授杰瑞·卡普蘭(Jerry Kaplan)將當下的人工智能應用實踐總結為合成智能(Synthetic Intellects)和人造勞動者(Forge Iabors)兩個方向。③智能媒體在這兩個方向上都有所體現。
合成智能是數據挖掘與認知計算等相關技術的集成,即用計算機軟件和智能算法自動處理分析各類數據,智能辨識、洞察和預測,以獲取知識和形成決策。合成智能的使用在媒體實踐中已比較普遍,如通過對用戶網絡搜索、閱讀偏好等數據的分析、挖掘與聚合,對用戶特征進行數字畫像,從中找出有價值的特征,匹配此特征進行資訊分發、廣告推送等。還有不少媒體嘗試引入智能內容審核平臺,即基于大數據分析,依托自然語言處理、語音轉寫、圖像識別等關鍵技術,建立內容過濾平臺,對圖文音視等不同內容審核過濾。
人造勞動者是可以模仿或代替人完成特定任務的自動執行系統,它同樣是由數據驅動的,其關鍵在于對數據的采集、處理和控制。智能媒體中的人造勞動者表現為機器人新聞,它們一般按照預先編好的程序工作,機器人寫作是通過軟件整理數據事實,遵循常用的報道模版,批量生產出有限類別的短新聞。
無論是精準分發、智能內容審核還是機器人新聞,都是由數據驅動的媒體智能,智能媒體功能的實現是借助軟件編寫的算法對數據的自動認知。因此,可以說,智能算法是智能媒體的功能內核與技術本質。
以算法為內核的數據驅動的智能媒體仍是一種工具,屬于弱人工智能,智能媒體是有限自主的智能體。
一方面,智能媒體的智能程度有限。首先,智能媒體是尚不具備人類智能的通用性,缺乏人的思辨能力、創造能力和情感表達能力。以機器新聞寫作為例,其內容通常是簡單信息的組合,缺少深度思考和人文關懷,形式多套用既有模版,所以機器新聞寫作更多地應用于體育賽事、財經資訊等高數據密度、低語境的新聞報道,鮮少涉及事實調查報道與新聞評論。其次,智能媒體仍無法超越算法。目前數據驅動的智能媒體所使用的方法本質上屬于分類、歸納、試錯等經驗與反饋方法,方法論上并無根本突破,高度依賴于已有經驗和人對數據的標注,主要適用于認知對象及環境與過去高度相似或接近的情況,其理解和預測的有效性依賴于經驗的相對穩定性,應對條件變化的抗干擾能力較為有限。以智能內容審核為例,自動審核過濾的基礎是一定數量的內容標簽,即需要人工對數據進行標注以“投喂”機器進行學習。
另一方面,智能媒體有一定的自主性。首先,智能媒體可在一定條件下實現有限度的自動認知、決策和行動功能;其次,隨著智能媒體的技術提升,人們可能賦予智能體更多的決策權,“技術黑箱”可能存在,即使是智能媒體的設計開發者或許也不能完全理解機器的自主執行過程;最后,智能媒體具有一定的交互性。雖然所謂的人機互動更多的是功能模擬而非實際發生的溝通,但人們仍會在一定程度上將智能媒體想像成類人主體,對其投射一定的情感,甚至可能產生心理依賴。新華社機器新聞生產系統被命名為“快筆小新”、今日頭條的寫稿機器人名叫“張小明”等,通過人格化的稱謂顯示出一定程度的情感需求。
歷史上幾乎每一次重大技術創新都會帶來風險和挑戰,人工智能也不例外。智能媒體正在不斷推進和實現,可能會挑戰傳統道德規范、法律甚至社會制度。關注智能媒體的倫理問題,是為了對大規模風險和威脅防患于未然,也是為了引導技術力量,使智能媒體更為友善。
弱人工智能與強人工智能之間,存在是否具有自主意志與道德意識的不同,必須在認清本有界限的基礎上分別制定對應的倫理規則。因此,人工智能倫理的討論首先需要區別作為一般性技術倫理和作為特殊技術倫理的問題。
作為一般性技術倫理問題的人工智能倫理,是幾乎所有技術都面臨的技術設計和使用層面上的一般性倫理問題,是一般工程倫理,同時適用于弱人工智能和強人工智能;而作為特殊性技術倫理問題的人工智能倫理,更適用于強人工智能即自主性智能體。
如果從機器人技術這一特定視角切入人工智能倫理,上述兩種技術倫理大致可以對應機器人倫理研究(roboethics)和機器倫理研究(machine ethics)。機器人倫理學將人工智能視為一般技術進行倫理審視,是對與機器人相關的人類主體進行規范性約束,也就是說實際上是機器人的設計者、制造者、編程者和使用者的人類倫理,而非機器人自身的倫理,指向人工智能體的外在倫理規范問題。而機器倫理學則關注如何讓具有人工智能的機器具有倫理屬性,強調在機器中嵌入符合倫理原則的相關程序,使其自身做出倫理決策或為使用者提供倫理幫助,是一種內在于機器本身的倫理。④
可以看出,人工智能的一般工程倫理與作為特殊技術的倫理是兩種截然不同的倫理架構。兩種倫理架構的根本差異在于對人工智能能否以第一人格主體成為道德倫理能動者這一爭議問題的回答。鑒于實踐中人工智能未獲得獨立意識、未發展成為道德倫理能動者的現實,一般工程倫理仍將與設計開發使用人工智能相關的人視為倫理問題的能動者,從工程倫理、專業倫理等維度探討相關主體的行為規范、責任分配、權利權益等問題,是基于現實性的以人為中心的倫理架構。作為特殊技術的倫理,其邏輯立足點是具有道德判斷和倫理行為能力的智能體可能存在,這是人工智能可以成為道德倫理能動者的前提,是基于可能性的以智能體為中心的倫理架構。⑤而目前,這一前提顯然并不存在。因此,作為有限自主的智能體,智能媒體適用的倫理架構顯然是一般工程倫理。
計算機倫理學創始人摩爾根據智能體可能具有的價值與倫理影響力將智能體分為四類:有倫理影響的智能體(ethical impact agents)、隱含的倫理智能體(implicit ethical agents)、明確的倫理智能體(explicit ethical agents)、完全的倫理智能體(full ethical agents),也就是倫理影響者、倫理行動者、倫理施動者和倫理完滿者。⑥當下的智能媒體無論如何深度學習以進行自我改善,都不存在自主的道德意識和倫理行為,仍屬于有倫理影響的智能體,只有在極少數的前沿實驗的智能體勉強算是倫理行動者——設計者將價值與倫理考量提前嵌入算法程序中,在遇到預先設定的問題時自動執行。倫理施動者目前還僅是理論探討的假設,倫理完美者則屬科幻。
就現實發展而言,從智能媒體的價值負載來看,智能媒體呈現的風險與威脅沒有跳出人與人之間的關系,沒有超越人類已經面對過的控制與反控制危機。一方面,數據選取、算法設計與認知決策并非完全客觀,相關主體的利益不可避免地影響著問題定義與解決方案的選擇;另一方面,智能媒體的功能實現大多需要人機協同,數據對事實與意義的投射需要借助人的標注,相關主體的價值選擇必然滲透其中。以視頻內容的智能審核為例,人工標注的數據是機器深度學習的重要資源,過濾準確率的關鍵在于將人的經驗通過人工標注融入數據之中。因此,業界的“有多少人工,就有多少智能”的說法是非常中肯的。
可以說,智能媒體帶來的風險與危機仍屬于常規性問題,與一系列技術推進所遭遇的倫理困境并無實質上差異,指向的都是如何避免少數人掌控技術后以更便捷、更隱蔽的手段損害他人權益的問題。
以控制與反控制的一般工程倫理為本質,智能媒體的常規性倫理危機在實踐中有多種具象呈現,集中表現為偏見問題、隱私問題、算法設定認知問題等。
偏見問題。智能媒體以“大數據+深度學習+超級計算”為基本模式,數據的質量和隱含的信息決定了深度學習和超級計算得到的結果可能存在偏頗,甚至產生“算法歧視”。當人向智能體提供了帶有偏見和歧視的數據時,智能新聞生產和智能新聞分發也會帶著這種偏見和歧視。⑦在大部分缺少機器新聞理性認知的受眾看來,機器生產與機器篩選更加客觀,因此有偏見的機器新聞可能會比有偏見的人工新聞產生更大的危害。
隱私問題。智能媒體時代,信息采集的范圍更加廣闊,方式更加隱蔽。從新聞線索自動采集、新聞信息機器寫作到新聞資訊精準分發,都依托于海量數據的搜集與分析,很容易產生數據泄露問題。應用于個人的傳感器在進行線索采集時監測著人的各種行為并形成數據記錄,存在個人數據非法收集、過度分析的危險;資訊的精準分發建立在隱私被讓渡的基礎上,對個人基本信息和閱讀偏好的數據挖掘在一定程度上形成了對公民隱私權的侵犯。
算法設定認知問題。智能媒體中存在一種新的控制權力,即智能權力或者說是算法權力,具有精準的認知與操控力。智能媒體的精準分發通過算法,篩選出受眾可能感興趣的新聞并將其推送給受眾,看似滿足了受眾的信息需求,實際上限制了受眾的信息接收,忽略了真實世界的多元性,造成信息的窄化,這就是常被提起的“信息繭房”。⑧在智能媒體創造的擬態環境中,信息被算法框定,人的認知被算法設定,其可被理解為是需求滿足意義上的一種隱性“欺騙”。
智能媒體面臨的潛在倫理威脅不會自動消亡,對倫理危機進行調適成為智能媒體倫理共識的題中應有之義。處理倫理挑戰應以何種價值選擇為方向?又應該遵循怎樣的解決思路?對上述兩個問題的回答是把握智能媒體倫理調適目的與手段的關鍵。下面本文將以目標—手段為基本邏輯,從價值目標和現實路徑兩方面解讀智能媒體倫理調適的進路。
現階段探討智能媒體的倫理調適,旨在保證優先發展造福人類的智能體,避免設計開發出不符合人類價值和利益的智能媒體。在這一大方向下,需要進一步明確使智能媒體的發展更符合人類福祉和公眾利益所應該具有的價值目標。基于對智能媒體倫理困境實質與具象表現的分析研判,智能媒體進行倫理調適的主要價值訴求有公正性、透明度、可理解和可追責等。
追求算法決策的公正性。在信息日益不對稱的時代背景下,若對智能新聞生產與傳播中的算法決策持放任態度,很有可能制造、放大各種偏見與歧視。為了防范算法權力的誤用、濫用,可以對數據和算法程序施加“審計”。基本思路是從智能新聞生產傳播的結果及影響中的不公平切入,反向審查其機制設計與執行過程中是否存在故意或者不自覺的誤導,核實其中存在的不公平、不包容與不準確,并督促改正。對算法決策公正性的追求還可以借助利益披露機制,即要求媒體機構作為智能算法的執行者主要說明自身在其中的利益,公開自身利益與他人利益、公眾利益可能存在的沖突。倫理審計和利益披露僅是提供了部分可能的選擇,無論采取何種方式,智能媒體需要保證算法決策與算法權力的公正性。
強化智能系統的透明度、可理解和可追責。智能媒體新聞生產的機制與過程通常是不透明的,難以理解和進行責任追溯。這些問題的根源在于深度學習仍是典型的“黑箱”,智能系統的認知與決策過程十分復雜,連研發人員可能都無法完整明晰地理解其機理。因此當智能媒體在新聞生產傳播中出現錯誤,通常難以清楚界定和有效區分人與機器、數據與算法的責任。目前,解決問題的有益嘗試已經展開:2016年,歐洲議會批準了《一般數據保護條例》(GDPR),賦予了公眾“解釋權”,即公眾有權要求與個人相關的智能系統對其算法決策做出必要的揭示,要求組織必須在個人數據處理活動的所有決策中表現出透明度和問責制。雖然這項法律目前僅是面向寬泛的計算機及其相關產業,但在更細分的智能媒體領域,這一價值訴求同樣強烈且值得關注。
當然,智能媒體倫理調適的價值目標是多元的,不僅限于公正性、透明度、可理解和可追責這些價值訴求。智能媒體是人工智能技術在傳媒領域的應用,其倫理調適價值訴求的探討可以借鑒討論且已相對比較成熟的是人工智能價值原則。如2017年在Beneficial AI 大會上提出的“阿西洛馬人工智能原則”,其倡導的倫理和價值原則包括:安全性、故障透明性、司法透明性、負責、價值歸屬、人類價值觀、個人隱私、自由和隱私、分享利益、共同繁榮、人類控制、非顛覆及人工智能軍備競賽等。
智能媒體作為有限自主智能體,更多的是倫理影響者,其價值與倫理影響力仍無法獨立地主動施加,而是在人機交互的關系與實踐中體現,其適用的倫理架構是以人為中心的一般工程倫理,重在探討相關主體的倫理規范。因此只有把智能媒體置于與人類主體構成的行動者網絡中,明晰行動者之間的倫理關系,厘清其中的責任擔當和權利訴求,才能真正把握倫理調適的現實路徑。
在拉圖爾的行動者網絡理論中,廣義的對稱性原則消除了人與非人的界限,網絡中既可以包括人類行動者也可以包括非人的行動者,非人行動者的意愿可以通過代理者表達出來。行動者網絡就是異質行動者建立網絡、發展網絡以解決特定問題的過程,它是一個動態的過程而不是一個靜態的概念。⑨
以拉圖爾的行動者網絡來分析人類主體和智能媒體的關系網絡,智能媒體引發的價值關聯與倫理關系并不是簡單的人機二元關系,而是控制者—智能媒體—一般使用者的多元復合關系,一般使用者的“一般”是強調使用者與控制者無直接共同利益且是技術應用的非主導者和不完全知情者。在此行動者網絡中,不能簡單地將智能媒體視為控制者和一般使用者間的中介,考慮到非人行動者的意愿由代理者表達,要從控制者—智能媒體整體與一般使用者之間的關系方面展開分析。控制者—智能媒體是主導者與施加者,一般使用者是受動者,前者的責任與后者的權利是倫理關系網絡的重要節點。
通過對智能媒體與相關主體倫理關系網絡的透視,智能媒體倫理調適呈現出兩條現實路徑——負責任的創新與主體權利保護,即“問責”和“維權”。
負責任的創新是凸顯主體責任的責任倫理調適,出發點是強調人類主體特別是設計者和控制者在智能媒體創新中的責任。控制者—智能媒體應主動考量其整體對一般使用者、全社會乃至人類的責任,并在控制者—智能媒體內部厘清設計責任和控制責任,以此確保一般使用者的權利,努力使人類從人工智能中獲益。
主體權利保護是基于主體權利的權利倫理調適,出發點是強調主體在智能媒體時代的基本權利,旨在保護人的數據權利等,試圖制約智能媒體中的算法權力濫用。權利保護路徑的基本邏輯是權利受損的一般使用者發出權利訴求,展開對控制者—智能媒體的責任追究,進而迫使控制者—智能媒體內部厘清責任——區分智能媒體的控制與設計責任。
技術的發展需要倫理的介入與匡正。技術旨在求真,獲得真知;倫理貴在求善,幫助人類在復雜世界中尋求安身立命之道。⑩
智能媒體倫理的思考應基于智能媒體技術本身的現實發展。當前的智能媒體只是在某些方面具備高于人的能力,并不完全具備自我意識,也無道德意識,僅是工具智能。立足智能媒體仍為有限自主智能體的技術現實,智能媒體倫理追問適用的倫理架構是以人為中心的一般工程倫理,其倫理風險與其他技術面臨的倫理危機無本質區別,皆為人與人之間的控制與反控制危機。依據這一基本判斷,智能媒體倫理調適的能動主體必然也是人類主體,智能媒體的倫理調適實質上是對與智能媒體相關的人類主體進行規范性約束。透視人類主體與智能媒體的倫理關系網絡,得出智能媒體倫理調適的現實路徑——“問責”和“維權”,同樣與其他一般技術的倫理規范思路無本質區別。
人工智能技術的開放性創新仍在繼續,其在傳媒領域的應用也將不斷升級,智能媒體的倫理追問還未完成。如果對強智能媒體的實現做適度倫理預測的話,強智能媒體不僅將更深刻地變革傳媒產業,還將擁有與人類對等的人格結構。此時,作為具有自主意識的特殊技術,強智能媒體可能會帶來新的倫理危機,如:會不會加劇“人工愚蠢”,導致低智能人類的出現?會不會與人類對抗?等。解決這些問題適用的倫理架構為以智能體為中心的機器倫理,也就是打造有道德的智能媒體。機器倫理的倡導者已描繪了多種可能:自上而下的倫理建構,將道德規范轉化為邏輯演算,并計算與權衡實現的功利,使智能體能夠從一般的倫理原則出發對具體的行為作出倫理判斷;自下而上的倫理建構,通過機器學習和復雜適應系統的自組織發展與演化,使智能體能夠從具體的倫理情境生成普遍的倫理原則,并在道德沖突中學習道德感知與倫理抉擇的能力。
但應該注意到,強人工智能化媒實現的可能性仍存在爭議,可以適度前瞻強智能媒體的倫理危機,但不應過分憂慮強智能體對人的反控制,要擺脫未來學家簡單的樂觀主義與悲觀主義立場,從具體問題入手強化人的控制作用和建設性參與。盡管未來學家的樂觀主義或悲觀主義基調在媒體相關討論中往往居于主導地位,但這卻帶有極大的盲目性,特別是未來學家的斷言經常在假定與事實之間轉換,缺少足夠的證據。
因此,智能媒體倫理討論更應該將對技術設計、使用等規范倫理的思考置于優先地位。對偏見問題、隱私問題、算法設定認知問題等具象問題的解析仍需要面向智能媒體應用場景的描述性研究。至于強智能媒體未來將帶來何種沖擊,恐怕以我們的想象力暫時還是鞭長莫及。
注釋:
① 黨家玉:《人工智能的倫理與法律風險問題研究》,《信息安全研究》,2017年第12期,第1081頁。
② [英]尼克·波斯特洛姆:《超級智能:路線圖、危險性與應對策略》,張體偉、張玉青譯,中信出版社2015年版,第22頁。
③ [美]杰瑞·卡普蘭:《人工智能時代》,李盼譯,浙江人民出版社2016年版,第2—6頁。
④ 莫宏偉:《強人工智能與弱人工智能的倫理問題思考》,《科學與社會》,2018年第1期,第16頁。
⑤ 段偉文:《機器人倫理的進路及其內涵》,《科學與社會》,2015年第2期,第39頁。
⑥ 段偉文:《人工智能時代的價值審度與倫理調適》,《中國人民大學學報》,2017年第6期,第101頁。
⑦ 靖鳴、婁翠:《人工智能技術在新聞傳播中倫理失范的思考》,《出版廣角》,2018年第1期,第10頁。
⑧ 喻國明、楊瑩瑩、閆巧妹:《算法即權力:算法范式在新聞傳播中的權力革命》,《編輯之友》,2018年第5期,第7頁。
⑨ 劉濟亮:《拉圖爾行動者網絡理論研究》,哈爾濱工業大學碩士學位論文,2006年,第33頁。
⑩ 陳靜:《科技與倫理走向融合——論人工智能技術的人文化》,《學術界》,2017年第9期,第111頁。