王雪瑩,邵國松
(上海交通大學媒體與傳播學院,上海200240)
盧西亞諾·弗洛里迪指出,人類在經歷了哥白尼革命、達爾文革命、神經科學革命之后,自我認知已經開始第四個革命,即圖靈革命。[1]人類已經進入人工智能時代,而當我們這樣講的時候,我們正在用一種媒介史的角度看待人工智能,因為“我們正在用這一時代的支配性的媒介技術界定這一時代的特征”[2]。得益于計算機、大數據、云計算等技術的發展,人工智能技術實現重大突破。一項新技術的出現往往能產生兩方面的影響:一方面,人工智能作為一種底層基礎技術可以提高生產效率,帶來經濟效益;另一方面,新技術也會帶來隱患。做到對技術經濟性關注的同時,也應當關注其風險性的一面。更重要的是,這種風險已經實實在在地發生了,比如大數據“殺熟”[3]“回音室效應”和隱私被侵犯[4],等等。出于對風險的擔憂,人工智能倫理成為重要的研究領域,也備受新聞傳播學者的關注。傳播學研究人工智能及其倫理問題的合法性在于我們將人工智能視為媒介。從泛媒介的角度看,媒介與技術基本上可以畫上等號,媒介的范疇不僅包括報紙、廣播、電視、電影等,更包括服飾、住宅、貨幣、汽車等。[5]從這個角度看,人工智能當然是媒介,正如麥克盧漢所言:“一切技術都是媒介,一切媒介都是我們自己的外化和延伸。”[6]對人工智能倫理問題的研究正是對人工智能隱憂的回應。本研究試圖以人工智能的底層邏輯和倫理研究的發展脈絡作為起點,試圖梳理出人工智能倫理研究幾種可行的視角和研究路徑,為其提供一定的創新性思路。
1956年的達特茅斯會議一般被認為是人工智能正式誕生的起點。發展至今,人工智能的概念并不明晰。技術層面每一次新的進展都會刷新人類對人工智能的認知。人工智能的本質在于擬人、像人,然而人的智能是什么、人的智能能發展到何種程度尚未可知,因此對人工智能的未來預測也存在局限。目前的人工智能是幫助人類解決難題的、沒有自我意識的應用程序,被稱為弱人工智能;而在未來可能會出現真正像人、擁有像人類的自我意識的智能,被稱為強人工智能。目前我們所探討的現實中的人工智能多為前者,主要包括專家系統、機器學習、深度學習。此類人工智能主要是以機器學習為核心,通常被置于搜索引擎里面,通過大數據可以自行判斷輸出結果,代表性應用是算法推薦。
在提及人工智能時往往會提到大數據和算法,這是因為大數據、算法與人工智能密不可分。數據量和算法可以分別比作人工智能的燃料和發動機。算法是計算機基于所訓練的數據集歸納出的識別邏輯,好的算法模型可以實現精準的物體和場景識別。數據集的豐富性和大規模性對算法訓練尤為重要。[7]人工智能近幾年之所以能快速發展,得益于諸多方面:一是傳感器性能和數量的大幅度提高、移動互聯網的爆發使大量用戶接入互聯網積累了海量數據;二是計算成本的降低和算力的進步為處理、分析海量數據提供了可能;三是算法的進步讓程序更智能、程序輸出結果更精準。通過對大數據、算法和算力的關系分析我們可以發現,大數據被稱作是21世紀的“新石油”并不是抽象意義上的比喻,而是一種現實的客觀描述:數據確實如石油一般具有巨大的經濟效益。在某種程度上,算法已經成為人工智能的三大基石——大數據、算法和算力——中最核心的議題,甚至可以說“幾乎所有的經濟運行流程,或是人們的活動,都是由算法在幕后重新建立一種秩序”[8]。“算法社會的前提是萬物數據化,這也包括人的數據化(datafication)”[9],將一切數據化、實現數據流最大化是算法社會內在的邏輯。
回到人工智能技術邏輯本身,人工智能所面臨的倫理問題正是大數據和算法所面臨的倫理問題。從人工智能的底層技術看,探討人工智能倫理問題可以從大數據、算法和云計算這三個源頭考慮。根據對相關研究的梳理,這一層面的倫理問題主要關注兩個方面:一個是實然的研究,即人工智能出現以后帶來了什么實質性的影響,尤其是負面后果;一個是應然的研究,人工智能作為一種技術,應該對其建構怎樣的倫理。
實然的研究集中于大數據人工智能的數據收集如何引發侵犯個人隱私[10]、形成“全景監獄”式的社會監控[11]等問題,以及算法如何帶來回音室效應[12]、偏見問題[13]等。訓練算法需要借助大數據,因此大數據的質量尤為重要,基于“garbage in,garbage out”的原則,如果原始數據有問題,那么算法建模運行后的結果一定有問題。算力是幫助算法運行的基礎,比起算法模型的準確性和大數據來源的精準性,算力并不是核心要素。因為即使算力空前發展,如果大數據和算法建模存在問題,算力的強大只會讓我們更快地得出錯誤的結果。所以,算力是作為硬件為軟件服務的。大數據之“大”,在于其體量大,因為需要云存儲和云計算。借助于“云”的隱喻,云計算看起來像是沒有實體,但是實際上云計算背后是物質性實體,需要建立數據儲存中心。從這個維度上說,云計算帶來的電子污染、隱私、安全、結構性失業的問題必不可免。云計算的問題,也是大數據的問題。[14]
應然的研究多是規范性研究,關注對人工智能的治理,旨在提出倫理準則。[15]提出怎樣的倫理準則依然與人工智能的底層邏輯相關。人工智能如何表現關鍵在于我們需要人工智能實現什么樣的目標——實現的目標是人類的目標,而不是人工智能自己的目標。目標指導算法結構及其運算的目的。因此,制定什么樣的目標、如何制定目標成為關鍵。一方面,從功能論的角度看,人工智能的目標一定是實現效用最大化。但是實現的效用是誰的效用?當人工智能掌握在大公司手中,實現的一定是商業公司的目標。價值涉入和偏好并不能兼顧到社會上所有的利益群體:比如普通大眾。而多元價值、多元利益共存的世界,要求利益各群體都投入到議題協商中。無論是政府、企業、學界,還是公眾,都應該明晰人工智能的發展對個人意味著什么。
媒介的邏輯非常重要,因此需要解開算法黑箱,了解人工智能的運作邏輯和基本原理,明晰使用人工智能帶來的結果,幫助個體識別人工智能、警惕人工智能。媒介素養的概念自報紙、廣播、電視等傳統媒體時代就被提出了,其核心意涵在于如何提高公眾識別信息的能力。基于人工智能的新媒體成為公眾主要的信息來源,媒介素養的內容應隨之轉換。
總而言之,看到技術的邏輯,明確思考人工智能的倫理應從哪些維度著手。同時,也應該看到定位人工智能目標的重要性,呼喚社會各方提高參與公共事務的意識。
倫理研究由來已久,倫理道德是一套調節人與人之間社會關系的價值系統,包括內在的價值理想和外在的行為規范。[16]“倫理學就是要去證明,當我們追問何為正確的行為時,什么是正確的答案;就是要對為什么認為我們關于人之品格或行為之道德的表述是對的或錯的給出理由。”[17]倫理學是關于人的倫理學,當倫理的概念應用于人工智能,追問的是人工智能如何表現才是正確的行為。能給人工智能倫理提供指導作用的理論非常多,比如中外具有代表性的適度倫理原則:亞里士多德的中間之道、孔子的中庸之道,還有康德的絕對律令、密爾的效用原則、羅爾斯的無知之幕、諾丁思的關懷倫理學。倫理意味著我們人類如何理解他人和這個世界,以及對他人和世界是什么樣的期待。因此,倫理研究從本質上就有規范研究的傾向,即這個世界“應當”是什么樣子的判斷。從宏觀角度說,倫理是社會得以運行的原則;從中觀角度說,不同的職業系統有不同的倫理原則(比如醫學倫理、新聞傳播倫理等);從微觀角度說,人與人之間的日常交往也需要倫理道德的規范。倫理研究在于追求“善”,讓生活更美好。因此,倫理問題當然不是人工智能出現后人類所面對的獨有的問題,而是在倫理學脈絡上逐漸具體化的體現。
人工智能作為一種技術,其倫理問題可以被看作是技術倫理的一種;人工智能應用于實踐,也就有了相應的職業倫理,比如機器人寫作的倫理問題、算法推薦的倫理問題等。采用何種技術,決定了我們如何看待世界,也會改變我們與外部世界的關系。大數據和人工智能是一種新技術,但是,所謂新型技術也只是某一階段的“新”。人類從第一階段的農業社會到第二階段的工業社會,再到第三階段的信息社會,階段之間躍升所花的時間越來越短。關照現實固然有意義,互聯網出現后我們研究互聯網,社交媒體出現后我們研究社交媒體,人工智能出現后我們研究人工智能,區塊鏈出現后我們研究區塊鏈……但是這種追“新”,需要問一個問題:然后呢?“趕時髦”的研究反而“亂花漸欲迷人眼”,讓人抓不到問題的實質。孫瑋提到:“大量的所謂新媒體研究,只不過是在舊有范式中填充入新媒體材料,是不斷地在用新材料驗證舊理論。”[18]
為了解決這個問題,我們可以從“媒介”的角度看人工智能。雖然強調媒介可能容易陷入媒介決定論的危險,但是,它卻是一種非常有效的看待事物的方法。尤其是當我們從媒介技術發展史的角度探討相關問題時,這種有效性更加明顯。我們所要探討的“大數據”“人工智能”等新技術,它們雖然從時間線上看是最新出現的,但是事實上它們也不過是整體媒介技術的一種具體表現形式罷了。將人工智能置于媒介發展史的長河中看,當有更新的技術出現后,所謂新技術又變成舊技術了。當我們從這樣的視角切入探討大數據、人工智能和社會各行各業的關系時,就不再是孤立的,而是從一種整體觀的路徑出發。這種分析視角使我們探討問題更加深入、更加具有廣泛性。
回溯倫理學的研究脈絡,人工智能被劃分為擁有自我意識的“強人工智能”和無自我意識的“弱人工智能”,二者的倫理問題并不能在同一層次的邏輯上探討。對于強人工智能,我們可以沿襲機器倫理的思路,先確定其主體性問題,再探討其倫理問題。但是,強人工智能從技術上是否能實現,目前暫時還未知。雖然需要未雨綢繆,但是提出“可能存在”的倫理問題需要有一個立得住的前提,即“可能存在倫理問題”的人工智能從技術上來說是可實現的。否則,人類所談論的人工智能的倫理問題只能是人的臆想。對于弱人工智能,因其是工具,沿襲技術倫理的思路,將其看作是“客體”,探討其倫理問題就自然而然了。將人工智能看作一種技術,人工智能倫理不再是孤立的,比如技術倫理本身就已經是一個非常成熟的概念了。因此,人工智能倫理問題是新現象背后的“老問題”。
就倫理學而言,依然存在很多懸而未決的問題。比如,倫理學追求“善”,那么實現這一目標是目的導向還是結果導向呢?當做出一種行為是出于“善”的目的但是卻產生了壞的結果,那么這是可接受的嗎?當做出一種行為盡管是出于“非善”的目的但是卻產生了好的結果,那么這是可接受的嗎?當類似的重大議題沒有解決時,研究人工智能倫理需要繼續推進倫理學的研究向前,從總綱領的角度為人工智能倫理研究提供理論基礎。
人工智能帶來的變革一觸即發,互聯網行業之外的其他行業也會被顛覆,舊的系統有可能面臨崩潰。既然人工智能的出現帶來的問題如此之大,人工智能倫理研究應從哪幾個方向入手呢?根據前述對人工智能倫理現有研究的梳理發現,現有研究往往聚焦于現狀、問題、對策。這種研究具有一定的價值,但是問題在于,如果研究視角過于狹窄,缺乏宏觀視角統籌,研究就無法歸類、無法與上一層級的學術傳統進行對話、無法站在巨人的肩膀上將理論再往前推進一步,同時也無法看清人工智能倫理的本質,直擊問題的痛點,給出切實可行的對策建議。為了突破目前研究的局限性,本文依然延續人工智能作為媒介的邏輯,提出四種研究路徑。
目前大部分關于人工智能倫理問題的探討多是從人工智能的應用出發,從實踐中探究人工智能的倫理問題。人工智能的原理就是借助于海量數據,通過算法,幫助實現智能。人工智能內在的應有之義就是獲得更多的數據,因此互聯網公司想方設法收集用戶的信息。從個人的角度講,人有保護自己的隱私、保護個人數據的需要。在人工智能大數據時代就形成了“數據收集”和“數據保護”的悖論。[19]從隱私到用戶數據,互聯網的發展改變了隱私的內涵和外延,甚至模糊了公共領域與私人領域之間的界限。要解決這個悖論,實際上要解決的是公共利益與私人利益邊界的問題。
生活中的人工智能主要用于醫療(智能診斷)、交通(自動駕駛)、智能家居等。除此之外,還有對社會排斥、社會公正、不平等問題的關注。人工智能的發展必然會挑戰既有的人類價值,促使人類去重新思考人類的基本屬性與倫常關系。甚至還有對超級智能是否會“失控”,反過來取代、控制人類的隱憂。[20]從應用中探討人工智能的倫理問題,無疑是明智的。具體問題具體分析,可以保證談論的問題具體到實處,進而制定行之有效的對策。在尋找解決之道時,主要體現在以下三個方面:第一,從理論層面和規范層面提出各種倫理原則以用于實踐時,必須考量其現實可能性并尋求折中的解決方案;第二,應擺脫未來學家簡單的樂觀主義與悲觀主義立場,從具體問題入手強化人的控制作用與建設性參與;第三,要從人機協作和人機共生而不是人機對立的角度探討負責任的人工智能的可能。[21]但是問題在于,提出對策應當是自然而然、水到渠成的,探討人工智能需要這種原則,探討其他的媒介技術就不需要這種原則了嗎?也就是說,提出的對策必然要看到人工智能倫理問題所面臨的普遍性和特殊性。如此,才能真正理解人工智能倫理的內涵所在。
既然人工智能實現一定的目標是靠算法設計操縱的,那么解決倫理的問題也可以從源代碼的設計上規避倫理風險。比如,通過效用函數或決策樹的設計解決人工智能的倫理困境,實現利益最大化。[22]但是事實上,這種做法從技術上可行,在現實生活中往往很難實現。這就是“應然”和“實然”的區別。這背后依然是商業主義與人文主義的沖突。人工智能的開發和利用往往是大公司先行,商業公司首要的目標是盈利。在進行人工智能應用時,希望人工智能可以帶來市場和利潤。算法是有價值取向的,這種價值取向來自于算法執行的目的。在使用人工智能時,首先要制定執行目標,根據不同的執行目標進行算法的設置以實現相應目標。因此,如果公司的目標是盈利,那么算法的執行自然就是要獲取更多的點擊量、購買量。這也就能解釋為什么從算法設置這一步就能解決算法偏見,以及信息流通過程中所帶來的信息繭房問題而商業公司卻毫不作為——將“善”的倫理嵌入算法結構并不能為公司帶來利益。這一點與人工智能的技術邏輯相一致。因此,為了解決商業主義與人文主義的沖突,依然要向“多元協商”的策略靠攏:當公眾意識到算法、大數據的應用影響到自身的生活并且產生了負面影響,公眾必然要采取抵抗行動,通過行動倒逼商業公司進行算法的改良。比如劍橋分析數據泄露事件引發了用戶#delete Facebook#的行動,倒逼Facebook采取更強的隱私保護策略。[23]公眾的行動之所以尤為重要,是因為只有公眾的抵抗行動影響到企業的利益時,企業才會采取改善的措施。除此之外,各方應成立倫理審查委員會,從專業的角度提出人工智能發展和應用應遵循的原則。正如學者段偉文所稱:“鑒于當前的人工智能發展還遠未達到這一或許會出現的未來情境,面向人工智能時代的價值校準與倫理調適,應與未來學家的悲觀主義和樂觀主義預見保持一定距離,而更多地訴諸人工智能當下的真實發展程度與可預見的未來的可能性。唯其如此,才能系統深入地慎思、明辨、審度與應對人工智能的倫理挑戰。”[21]
對媒介技術的研究并不稀奇,從哈羅德·伊尼斯、馬歇爾·麥克盧漢以來的媒介技術學派,以及后繼的以約書亞·梅羅維茨為代表的媒介環境學派,都看到了媒介的重要性。每種新媒介的出現,一定是給當時的社會同時帶來新的機遇和恐慌。因此,當我們把媒介的研究聚焦到人工智能上,雖然“媒介形式”是新的,但是其可能面對的隱憂和風險并不是新的。而對媒介的研究,核心關懷在于看到“媒介與人和社會”的關系。這種關系,并非是單向的,而是雙向的。一方面,我們要看到政治、經濟、文化和社會對技術發展的形塑;另一方面,是要看到技術的反向作用。人工智能不僅作為工具為人所使用,更重要的是人工智能技術結構所具有的內在規則對人的思想和行為的形塑。因此,就會存在這樣的疑問:到底是人在利用人工智能還是人工智能在利用人?
一種技術塑造一種新的生活方式,麥克盧漢通過“媒介即訊息”的描述指出,最重要的不是媒介傳遞的信息內容,而在于媒介形式自身。麥克盧漢還稱,媒介即人的延伸,延伸意味著“截除”。也就是說,技術在一定程度上延伸了人的某種功能,但是卻會損害人的另一種功能。比如文字的發明幫助人記憶的同時,也使得人的記憶能力變弱,人開始過度依賴體外化的媒體。人工智能將人的延伸演化到極致——因為它延伸的是人腦。人工智能的出現,使得人們在信息爆炸時代高效地獲取需要的信息,但是同時也讓人失去了自主性——過度依賴算法推薦的信息做出決策。因此,人們總是假裝在選擇,實際上順從了算法的決定。
隨著現代科學技術的快速發展,正如凱瑟琳·海勒所言,人類已成為“后人類”。人與機器的聯系越來越密切,依賴越來越深,差異越來越小。將人工智能放置于媒介技術哲學背景下考察有一個好處是可以看到人工智能出現的脈絡,進而解決如何分辨人工智能倫理的一般性和特殊性的問題。
對于技術的理解有兩種理論可以參考:工具理論(instrumental theory)和實體理論(substantive theory)[24]。從工具理論的角度看,一定會得出技術是中立的,技術是善是惡關鍵是人如何使用它。但是從實體理論的角度看,一切技術都有價值偏向性。即使是最簡單的弱人工智能,因為其依靠算法,所以會包含價值導向:無論是有意識的企業價值導向,還是無意識的程序員的價值導向。所以,絕不能從中立性的角度看待人工智能。除此之外,人能在多大程度上控制人創造出的東西?技術是否有自主性?
回答這些問題,我們需要借助媒介技術哲學思考問題的方式,回到媒介環境學派學者那里看媒介發展的歷史,看各種媒介是如何嵌入社會、給人和社會帶來影響的;回到海德格爾、基特勒、齊澤克等學者那里尋找理解媒介的靈感;回到雅克·埃呂爾、蘭登·溫納等學者那里尋找思考技術政治的方法。技術不斷使自身更加“技術化”[25],自主技術具有“自我生成、自我維持和自我規劃”的能力[26]。技術作為一種人造物(artifact)存在對非物的牽制性作用基本上已經達成了共識[27]。倫理學研究又以其鮮明的價值取向為特征,而這一點正與媒介技術哲學的研究取向相關:從媒介技術哲學的立場上來說,技術從來都不是中立的。因此,當技術出現了明顯的偏向性,就存在內在的倫理問題。人工智能底層的算法邏輯,比以往任何一種媒介更趨顯自主性。媒介哲學的反思潮流,是面對當前數字場景傳統研究思路已然捉襟見肘的應然之舉。[28]
對強人工智能的探討最初往往來源于科幻小說。而對于人工智能尚未利用但是未來有可能涉足的領域,學者往往采用“可能性”來推斷這種倫理問題。對強人工智能倫理的探討首先要解決從技術上講強人工智能能否實現的問題。卡魯姆·蔡斯在其著作《人工智能革命:超級智能時代的人類命運》中探討了這一問題:我們能造出來嗎?如果能,什么時候能造出來?它安全嗎?作者稱,第一個問題是最接近答案的,這個答案是“只要人類沒有在此之前滅絕,有可能”。而就第二個問題,作者認為,我們確實不知道人類能否制造一個大腦或者有意識的機器出來。[29]
這是作者的一種看法,當然,也有學者認為可能實現。比如樂觀主義者雷·庫茲韋爾認為:“只要擁有真實大腦的詳細數據,我們就能模擬出生物學意義上的大腦。”[30]既然學界對此有爭議,那么本研究就不能輕易下結論。做出“只要人類沒有滅亡,依靠進化的能力一定能實現”的推論并不具有現實意義。強人工智能作為一種是否能實現還未知的事物,只能從源頭上加以防范。強人工智能的開發是否應該成為科學研究的禁區?
世界上第一個擁有公民身份的機器人——索菲亞——雖然并不能被看作是強人工智能機器人。但是她的出現讓我們思考:人工智能機器人是否具有人格、主體性?什么是機器人的權利?這些暫時都無法回答。但是這些風險和挑戰涉及倫理、法律和社會等方方面面,需要政府、學界、業界以及公眾共同應對。作為工具使用的弱人工智能的倫理問題關鍵在于使用主體,工具是否作惡全在于人如何使用它,應該從制度上建立起弱人工智能的使用標準與規范。而強人工智能只能從源頭上加以防范。借助未來哲學的語境,對人工智能發展的可能性進行預測,可預測性是人工智能,尤其是強人工智能的倫理原則之一。[31]
如今的世界是具有復雜性的世界,任何單個人、單個學科的力量無法應對高度復雜的問題。因此,我們需要跨學科的研究視角。“跨學科研究是回答問題、解決問題或處理問題的進程,這些問題太寬泛、太復雜,靠單門學科不足以解決;它以學科為依托,以整合其見解、構建更全面認識為目的。”[32]也就是說,跨學科研究是以研究問題為導向,突破學科之間的藩籬,發揮各學科的優勢來回答研究問題。因此跨學科僅僅是解決問題的手段和路徑。并非所有問題或課題都適用于跨學科研究,不能為了跨學科而跨學科,而應該堅持問題導向。當研究問題和課題是較為復雜的、尚未解決的社會需求或議題、單個學科并不能全面處理或解決該問題、問題的重要見解或理論由兩門及以上學科提供,[32](85)那么自然而然就“跨”了學科。
為什么在人工智能時代需要強調跨學科?首先,因為人工智能的議題過于復雜,而同時學科分化、專業化、碎片化的程度之高,依靠單個學科的力量無法解決。“現在社會的技術知識是如此高度專業化和分散,以至于大多數人僅僅能掌握一個微小的部分。”[26](23)其次,人工智能應用于實踐,技術人員更傾向于關注其是否達到預定的目標和效果,忽略了倫理問題。一項對照研究發現,道德準則的有效性幾乎為零,它們并不會改變技術界專業人員的行為。[33]與之相對應的,關注倫理問題的學者可能不懂技術,文科學者對技術保持天然的警惕,對維護人類安全、幸福的大憲章問題有天然的敏感性。而由于不懂人工智能運作的背后原理,尤其是算法黑箱的問題,文科學者在探討倫理問題時并不能直擊人工智能的軟肋。因此,在這樣的背景下重提跨學科研究,發揮各學科的優勢,達到協同創新的目的。
“雖然大部分學院的學科障礙仍然阻遏了觀念的交換和信息的整合,但是要求各學科或多學科合并的呼聲現在非常高漲,幾乎已經成為一種潮流了。”[34]人工智能倫理研究當然也應該促進文科與理工科的交叉融合,促進科技向善。傳播學天然地對媒介持有敏感性,傳播學學者總是先人一步地討論與媒介相關的新現象、新問題,然而由于缺乏成熟和公認的理論傳統,隨著研究的深入傳播,研究最后總是被收編到其他學科的研究路徑之下,失去了自身學科的發言權。[35]而從媒介的角度理解人工智能,關注人工智能的倫理問題可以激發人工智能倫理研究的活力,從傳播學的視角為人工智能倫理這一交叉領域做出自己的貢獻。
海德格爾和埃呂爾都從技術實體論的角度出發,主張技術不是價值無涉的,“它承載著一定的價值內涵并因此構成我們難以擺脫和改變的社會環境和生活方式”[36]。關注人工智能倫理,關注的是人工智能是如何嵌入到社會結構中,對人和社會產生影響的。而人工智能的發展也符合梅卡夫法則:使用某種技術的人數越多,產生的效益越是呈倍數級增長。正如研究技術的人忽視了關注人工智能的倫理問題一樣,研究倫理學的學者也應該反思是否夸大了技術的負面效應?比如每次新的技術出來都有人看到技術的負面效應:文字的出現讓人喪失主動的記憶能力、印刷術的出現使得大量“機器復制的藝術作品”喪失了“靈韻”、電視的發明讓人擔心“娛樂至死”,互聯網和人工智能出現后自然也會有新的問題。在對媒介的批評中,印刷媒體、廣播電視在互聯網的沖擊下似乎已經退居二線。反觀其負面效應,似乎也沒有學者預測的那樣嚴重。但是問題在于,當學者放棄了對技術的批評,商業主義必然占據控制技術發展的主導地位,多元協商的力量不再平衡,那么我們是否能由人工智能媒介時代“安全”過渡到下一個更新的媒介時代,就不可知了。學者作為多元利益主體的一分子,需要做出自己的行動。
“海德格爾已經說得很明白:你批判什么東西,不等于要逃避它。恰恰相反,你要直面它、擁抱它。”[37]關注人工智能倫理,不是限制人工智能的發展。而是在發展的同時,直面人工智能技術發展可能帶來的風險。倫理學最終回答的還是如何讓人類生活得更幸福的問題。因此,了解人工智能的技術邏輯,重回倫理學研究的起點,通過應用場景、媒介技術哲學、未來哲學和跨學科的多重視角,也許能夠在人工智能技術廣泛應用的今天,在倫理研究的問題上提供更有價值的貢獻。