苗存龍,王瑞林
(重慶理工大學 馬克思主義學院, 重慶 400054)
人工智能介入人類社會生活,雖然促使勞動生產率有效提升,但是也顯露出顛覆傳統社會倫理秩序的能力,破壞了傳統人倫關系,引發了倫理問題,甚至危及了人類社會的未來發展。人類不得不謹慎對待人工智能的發展和應用,對人工智能的技術研發,做出合乎人類倫理價值的明智抉擇。據統計,截至 2021 年 3 月8日,以“人工智能倫理風險”為相關主題的研究著作逐漸出版,例如,杜嚴勇的《人工智能倫理引論》、郭銳的《人工智能的倫理和治理》、高奇琦的《人工智能:馴服賽維坦》、李倫的《人工智能與大數據倫理》等,這些著作分別以專題和非專題的形式對“人工智能倫理風險”做了研究探討。通過 CNKI 數字資源平臺進行檢索發現,以“人工智能倫理風險”為主題的期刊論文124篇,其中,博士碩士學位論文9篇,報紙7篇,這些研究成果針對“人工智能倫理風險”作了專題研究。以“人工智能倫理”為主題的期刊論文2 904篇,這類論文中有部分文章也圍繞“人工智能風險”主題做了探討?,F梳理 、評述人工智能倫理風險的相關研究成果,總結經驗、發現不足并展望未來的研究工作,以期推動后續研究。
人工智能的發展越來越迅速,其引發倫理風險的指數也越來越高。人工智能究竟緣何引發倫理問題?學者們對此問題不斷展開追問和探賾。學界普遍認為人工智能引起倫理風險的可能性在于兩個邏輯層面:一是人工智能作為道德主體主動介入引發倫理風險。二是人工智能作為道德客體被動參與引發倫理風險。無論是主動還是被動地觸發倫理風險,就論證過程而言,兩種狀態都是研究人工智能倫理風險可能性的基本邏輯起點。關于人工智能能否具備主動介入人類倫理領域的條件,學者們分別作了或直接或間接的相關論證。最早提出相關研究假設的學者是艾倫·麥席森·圖靈。雖然圖靈沒有研究人工智能是否能夠主動介入人類倫理領域,但是他著名的圖靈測試為人工智能在智能運行技術可能性上提供了相關研究基礎。1950年,圖靈在論文《計算機器與智能》中預言了制造出具有真正智能機器的可能性。拘囿于“智能”這一概念難以明確界定和闡述,他創造性地提出了著名的圖靈測試以作為“智能”佐證:如果一臺機器能夠與人類展開對話而未被辨別出其機器身份,那么就認為這臺機器具有智能。這一簡化測試使得圖靈能夠令人信服地說明“會思考的機器”是可能的[1]。由此則可以判定機器智能是否能夠擺脫人類智能而在機器與人的關系中發揮主動性。近年來,國內學界關于人工智能能否主動介入倫理領域的研究逐漸增多,此處僅引入以下幾位代表學者觀點。杜嚴勇認為,為了使人工智能“為人類服務”,人類可以為機器賦予“受限”的權利。如果把社會生活中的人稱之為“完全的道德主體”,那么機器人就是“有限的道德主體”[2]。郭銳認為,相比以往的傳統技術,人工智能的獨特之處就在于它的“自主性”。或由于技術本身的特性、或由于其應用過程中社會賦予了它特定角色,當代人工智能技術已經在深度“參與”人的決策[3]。張金鋼認為智能機器人在算法的支持下,能夠像人一樣進行自我思考,與人一樣有了自我獨立意志,能自主支配自己外在機體,即成了行為自由的主體[4]。有學者從人工智能核心的技術——算法角度進行分析。王天恩認為“人工智能的倫理問題根源于從大數據處理到作為智能體自主行動整個過程所涉及的智能算法”[5]。他認為在相應的大數據處理過程中,倫理問題出現在3個時間點:一是當數據移到一組選定的變量時;二是當選定的數據移到由算法或倫理研究產生的結果時;三是當這些結果移到明確的行動計劃時。當這3個節點由算法控制時,智能算法便具有重要倫理意蘊。綜上所述,無論是將人工智能視為“完全的道德主體”,還是“有限的道德主體”,以上學者均認為人工智能主動涉足了人類倫理生活領域。
持不同意見的學者認為,人工智能只能被動參與人類社會倫理生活領域。學者們或直接或間接地做了有價值的相關論證。涂良川從歷史唯物主義層面分析認為,人工智能奇點論主張人工智能獲得主體性,并非邏輯地證明了機器真正獲得價值的自主性,而是現實地證明了人類智能的實踐性。人工智能物的特性及其立基并充分展開的物性思維因其沒有社會歷史的存在論基礎,只是以對比性的方式突顯了人作為實踐主體的創造性本質[6]。戴益斌認為,只有當智能機器人主動地面向人類,或者某人與智能機器人發生有意義的關聯時,智能機器人才能獲得道德接受者的地位。這樣的智能機器人必須具備對話能力,會使用某種語言[7]。還有學者從現象學角度分析,如劉永安認為,意識是制約道德主體是否可能的關鍵維度。目前,人工智能體能在功能等價的意義上對意識的智力性認知層面予以模擬,但并不具備對于一個道德主體來說至關重要的現象學意識。人工智能體缺乏現象學意識第一人稱的定性特征[8]。學者們普遍認為,因為人工智能不可能擁有人類所特有的心智狀態,所以人工智能無法成為真正的道德主體,而只能以道德客體身份被動參與人類倫理生活領域。
顯然,人工智能能夠引發倫理問題已是不爭事實,學界觀點分歧主要在于:人工智能究竟是以道德主體身份主動涉足人類倫理生活領域,還是以道德客體身份被動參與人類倫理生活領域。就目前學界研究現狀和未來任務而言,關于人工智能引起倫理風險可能性的兩方面研究,均需要繼續深化論證,應更深層次探賾:作為主動和被動兩種引發人類社會倫理風險的方式,其“意識”層面的邏輯理路有何不同?隨著人工智能技術的發展,不同“智能進階”的弱人工智能、強人工智能、超人工智能的主體“意向性”“創造性”會提升,其參與倫理方式、程度又如何變化?分別產生哪些方面的倫理影響?諸如此類研究將為進一步探究人工智能引發的倫理風險內容和尋求倫理風險規制之道奠定理論基礎。
人工智能已經滲透到社會各個領域,造成的倫理影響是全方位的?,F對學界已經開展的幾個主要倫理風險進行梳理述評。
在辯證唯物主義實踐觀中,人類能夠主動地認識并通過實踐活動改造自然界,從而使人類自身達到自然性與社會性的和諧統一。人類依托獨特智慧,躬身實踐,創造了人類社會豐富燦爛的文明。傳統倫理秩序中,機器依附于人,人決定著機器如何開展工作。在高度智能化的人工智能物面前,人顯得既笨拙又呆板,反而成為智能機器的“零部件”,人與機器的關系正逐步發生翻轉,人的主體性已經出現異化端倪??刂普撝妇S納在其名著《人有人的用處:控制論與社會》中認為:“這些機器的趨勢是要在所有層面上取代人類,而非只是用機器能源和力量取代人類的能源和力量。這種新的取代將對我們的生活產生深遠影響?!盵9]孫偉平認為,作為人類社會的基本技術支撐,智能科技構成了對人類或公開的或隱蔽的宰制,人正在淪為高速運轉的智能“附庸”和“奴隸”;智能機器人的快速發展模糊了人機界限,對人的本質、人的主體地位等形成強烈的沖擊,使“人是什么?”“人機關系如何?”凸顯為挑戰哲學常識的時代難題[10]。閆坤如進一步指出,人類在享受智能技術帶來的便捷與自由的同時,深陷被智能造物支配與控制的危機之中,人的主體性逐漸被智能機器解構和占有,客體化危機嚴重,主體間的關系也日益疏離化、數字化和物化,人的尊嚴和自由面臨著被侵蝕的風險[11]。美國學者約翰·普利亞諾則從人工智能使用引起的勞動機會變化入手進行分析,認為人工智能基本上相當于免費的勞動力,這對勞動者不利[12]。而在文學創作領域,人工智能也顯示出非凡的建構能力。劉欣認為,現代寫作已無法以“限度”之名逃避與人工智能“作者”的競爭,寫作的主體性問題進入反思領域。透過主體論詩學的“人性”神話與后人類主義的激進想象,人工智能寫作在人機交互的間性主體和機器的他者維度得到重新思考[13]。還有學者關注到人的主體性會隨著弱人工智能、強人工智能、超人工智能的進階,而逐步進入更加弱化的時代。強人工智能或超人工智能將代表人類“預測一切、決定一切、安排一切”,人的主體作用在下降,社會參與度在降低,勢必產生客體主體化、主體客體化的邏輯混淆[14]。如果說康德的“人為自然界立法”論斷使人類覺醒并擺脫對自然界的依賴和控制,破天荒地標識了人的主體性地位,那么人工智能的快速發展則正在對這一論斷和現實帶來沖擊,對人類主體性地位帶來挑戰。人工智能正在依托擬人特質,逐步增強替代人類體力勞動和腦力勞動的能力。如何既能享受人工智能技術發展帶來的收益,又能規避主體性異化的風險?有無使人類智能和人工智能兩者功能皆通暢發揮的平衡之道?諸如此類研究是時代難題。
海量信息數據是人工智能發揮其智能性所不可缺少的“信息食糧”。人工智能越是智能,就越需要收集和存儲更多的個人數據和信息。然而,獲取和存儲海量信息數據,就不可避免地涉及個人隱私泄露的倫理問題。王璐認為,一些單位為了鍛煉出更加“聰明”的智能體,有意采取合法與非法、公開與隱蔽、知情與不知情等多種信息渠道,肆意挖掘整理人們的身份信息、家庭信息、健康信息、消費喜好、日?;顒榆壽E等重要數據。這些數據在智能技術的強大驅動下,則可以映射出個人支付能力、社交關系等高價值信息,進而生成或還原出一個人的“生活肖像圖”[14]。在萬物智聯的世界,人幾乎與“透明人”無異。金東寒等學者認為,在人工智能的應用中,云計算被配置到智能架構中,許多企業、個人等將信息存儲至云端,這很容易遭到威脅和攻擊;如果將這些數據整合一起,那么便可“讀出”他人秘密,如隱蔽的身體缺陷、既往病史、犯罪前科、變性經歷等。如果智能系統掌握的敏感的個人信息被泄露出去,會將人置于尷尬甚至危險的境地,個人的隱私權會受到不同程度的侵害[15]。蔡立媛從人工智能在廣告方面的應用入手進行分析,認為人工智能廣告的追蹤定位侵犯個人隱私,會引起個人信息安全失控、個人私事泄露、個人財產失竊、心理失衡、心理焦慮甚至恐慌,而且個人行蹤泄露也危及人身自由和生命安全,影響社會秩序的穩定。用戶的既有隱私、將有隱私、當下隱私都可能被侵犯,都可能被無意地泄露[16]??萍紕撔峦苿由鐣l展,人類雖不能由于隱私難題因噎廢食,但人工智能的發展也決不能以犧牲隱私權為代價。2019年6月17日,我國新一代人工智能治理專業委員會發布《新一代人工智能治理原則——發展負責任的人工智能》,要求人工智能發展應尊重和保護個人隱私,充分保障個人的知情權和選擇權。人類未來智慧生活中,如何兼顧“高度智能技術與高度隱私安全”,這是需要攻克的重點課題。
目前,關于人工智能對家庭婚戀觀念產生影響的相關研究,多數聚焦于智能機器人具有家庭或婚戀成員身份替代性的倫理領域,少數聚焦于人工智能參與相親匹配等大數據分析領域??傮w而言,其風險大于收益。人工智能研究專家大衛·利維撰寫了一本書《與機器人的愛與性:人與機器人的關系進化史》,他提出了一個引人注目的觀點:到2050年左右,人與機器人將建立真正的伴侶關系。人形智能機器人的研制正在取得技術突破,更加助推了人工智能影響婚戀觀念的快速轉變。金東寒認為,人形智能機器人越來越像人,越來越“善解人意”,也越來越“多愁善感”。人形智能機器人可能擁有完美的身材、漂亮的五官、光潔的皮膚、溫柔的性情、堅貞的品格等,堪稱完美的擇偶對象。人形智能機器人能長情地陪伴人類,甚至為人類懷孕、生子、養育子女[15]……駱安安認為,因人工智能而興起的伴侶機器人,正在快速融入人類的情感生活。人機之戀正成為新型戀愛關系,伴侶機器人進入更多家庭甚至和人類結成法律允許的婚姻關系也并非完全不可能[17]。王睿認為,性趣機器人作為高人機交互型機器人,其設計、生產和廣泛研發應用將造成廣泛的社會倫理影響。他通過問卷調查、深度訪談和對網絡平臺的參與觀察,調查男性、女性對性趣機器人的各項選擇意愿。針對選擇性趣機器人作為伴侶的意愿原因和對基礎設定、主體地位的選擇意愿三項內容,分別根據韓炳哲“愛欲之死”思想、情感社會學中“情感異化”理論和女性主義的社會性別觀點,對選擇意愿的共性和差異進行剖析,結果顯示人們對性趣機器人的喜好超乎想象[18]。美國普利策獎得主戴夫·巴里曾說,他并沒有打算再婚,但如果非要結婚,他寧可娶個機器人。巴里的話,顯然帶給我們的不全是幽默。人類不得不面臨一個重要倫理風險:人工智能的廣泛應用,將顛覆傳統的婚戀關系、家庭模式,并使家庭結構和倫理架構陷入危機。
2018年2月,麻省理工學院的 Joy Buolamwini 發現,IBM、微軟和北京曠視科技有限公司的三家公司最新研發的性別識別人工智能,可以在99%的情況下從照片中準確識別一個人的性別,但其識別人種范圍僅限于白人。對于女性黑人來說,其準確率會大幅降至35%。王天恩認為,人工智能算法導致的偏見最初是從人類習得的。人工智能可以從人類語言信息中習得偏見,智能算法設計中的前提性預設,與智能算法的人類理解密切相關[5]。卜素也認為,人工智能技術在其實際應用過程中經常出現偏差性結論或反饋,其中最為典型的即為“算法歧視”問題?!八惴ㄆ缫暋钡某梢蚋瓷显谟谌祟惞逃械纳鐣姡浻扇斯ぶ悄鼙澈蟮乃惴夹g轉譯,具有難以預測、難以監管以及責任主體多元化的特點;內部成因與外部成因所導致的算法歧視又具有各自的獨特屬性[19]。仇筠茜以新聞生產為例,他認為技術的“黑箱”切斷了算法結論與事實之間的關聯。算法所擅長的大數據整理、挖掘、分析的處理能力,是人類能力所不及的。特別是對宏觀趨勢的預測及其自我學習的邏輯以及決策的過程,即使是人工智能程序設計者也不能完全理解。這種方式將新聞生產過程推進更深的“黑箱”,產品即是“勿需推敲”的成品。這導致了對事實的核查、對真相的追尋將變得迷霧重重[20]。張恩典從算法特征方面分析認為,受算法決策自動性和模糊性等因素影響,大數據算法歧視呈現出高度的隱蔽性、結構性、單體性與系統連鎖性特征,增加了歧視識別判斷和規制的難度,并給傳統以差別待遇為標準的反分類歧視理論和以差別性影響為標準的反從屬歧視理論帶來適用困境[21]。算法是人工智能技術的核心,在人工智能技術應用領域,算法是導致偏見的深層次根源。人工智能時代,算法偏見早已深入了各個領域。
伴隨著人工智能在軍事化領域的廣泛應用,人類對未來安全問題的憂慮正日漸加深。人工智能時代,是否應該限制或禁止使用致命性自主武器系統(1ethalau-tonomous weapons systems,簡稱LAWS)的話題備受熱議。2015年7月,一封要求停止研發致命性自主武器系統的公開信獲得了多達3萬人的簽名,其中包括斯蒂芬·霍金、埃隆·馬斯克以及眾多人工智能領域的專家學者。專家學者們認為自主武器系統具有極大的風險,一旦被研發成功并應用,就有可能被恐怖組織掌控,對無辜平民將產生巨大的生命安全威脅[22]。軍事斗爭自古以來是人類社會的一個沉重命題,由人工智能主宰軍事決策,意味著這一命題將變得簡單化、程序化。鑄戈認為,比這更嚴重的是,如果賦予人工智能武器系統“自主開火權”,人與武器的關系將發生根本質變,“機器代理人戰爭”將會成為人類社會不可承受之重。而在智能化軍事體系中,政治因素和理性因素已不存在,“戰爭是戰爭的繼續”[23]。從這個意義上說,武器系統的智能化程度愈高,后果則愈嚴重。人工智能時代,“極速戰”是未來的戰爭走向。戰爭出發時間將縮短到幾乎是即時反應。謝丹從軍事責任認定視角分析認為,智能武器的特殊性及其推廣應用,給現行軍事法特別是武裝沖突法帶來諸多嚴峻的挑戰。在軍事沖突中,人類幾乎完全不能參與“觀察—定向—決策—行動”(OODA)的循環過程[24]。鑒于此,值得深刻思考的是:未來自主武器能否精確識別平民百姓和戰斗人員?能否恪守國際人道主義規范?一旦自主武器脫離控制對人類造成大規模殺傷,誰將為自主武器的決策和行為承擔責任和后果?是追究軍事指揮官的責任,還是人工智能的責任?責任認定將難以判定。生死攸關的致命抉擇“讓渡”于機器定奪,是否意味著未來人類社會將終結?大部分學者依據人工智能發展技術,從長遠審視未來戰爭,認為人工智能在軍事化領域的應用,對未來人類安全終將造成威脅。如果人工智能超脫了人類智能的控制,勢必將給人類帶來滅頂之災。
關于人工智能倫理風險防范規制問題,學界主要從策略原則、算法設計、責任追究和制度管理等方面展開討論。
阿西莫夫在他的機器人科幻作品中定義了機器人的三大定律,這三大定律從宏觀層面對人工智能倫理風險的防范規制進行了預想。第一,機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手旁觀。第二,機器人必須服從人給予它的命令,當該命令與第一定律沖突時例外。第三,機器人在不違反第一、第二定律的情況下要盡可能保護自己的生存。三大定律對研究如何規制人工智能倫理風險具有借鑒意義[25]。耶魯大學機器人學專家Jonathan Hartman建議把三大定律作為人工智能的適應性標準。Jonathan Hartman認為不能像自上而下的應用定律那樣限制人工智能功能的發揮,定律應該是一個寬松的指導原則,其后代將會根據他們的能力靠近這些目標。Jonathan Hartman認為三大定律的優勢是:機器人會與定律形成一個更動態的關系,把定律當作是靈活的指導原則[25]。王璐認為,人工智能的設計應該重視科技理性與價值理性,必須堅持科技服務人類的根本價值取向,突出以人為本,強調公平正義,遵守倫理發展[14]。
因算法是人工智能技術的核心,有學者從人工智能思維內核——算法層面,思考如何規避人工智能引發的倫理風險。閆坤如主張,倫理學家與技術哲學家不能袖手旁觀,人工智能設計應該遵循“合乎倫理設計”的規則。人工智能設計主體必須在設計之初把人類道德與規范嵌入到智能機器算法中,從而使得人工智能系統的決策、行為具有可靠性與安全性[26]。丁曉東認為,要以實現負責任的算法為目標,采取場景化的規制路徑,根據不同場景類型對算法采取不同的規制形式。在算法場景化規制原則的指引下,可以構建算法公開、數據賦權與反算法歧視等算法規制的具體制度[27]。為了避免涉及性別、族裔和性向等“敏感屬性”與中性特征無意關聯而觸碰紅線,羅梅和魯格吉里提出了4個策略:控制訓練數據集的失真;通過將其與反歧視標準相結合,修改分類學習算法;提取分類模型后,對模型進行后處理;在應用時,對預測進行更正,在受保護和不受保護的群體之間保持決策的相稱性[28]。
學者們認為加強追責問責也是規制人工智能倫理風險的有效方法。孫保學探究了算法層面追責的策略,他認為,由于算法中間環節較多,確定某一具體操作失誤究竟是編程錯誤、系統故障或還是偏見干擾往往異常困難,這意味著準確定位導致行為后果的直接責任主體更難[29]。顯然,從算法層面追責問責是有難度的,而伯朗格(Béranger)則提出謹慎創新思路,他認為可以在創新和謹慎之間找到平衡,這將導致一個基于賦予行動者責任的雙贏體系。如果設計者沒有采取必要的預防措施來避免這種風險,那么設計者應該對重大損害后果承擔責任。誠然,人工智能使用者也應充分考慮自己在使用人工智能過程和操作中產生的倫理影響[30]。中國學者戴益斌的觀點與伯朗格相似,戴益斌認為新工具主義主張將智能機器視為人類的奴隸,機器倫理的支持者傾向于賦予智能機器以道德主體地位,這兩種方案在處理人工智能的倫理責任問題時都面臨困境。他認為應將道德主體擴展至他者以及非人類的實體。智能機器導致的責任問題可以指派給所有與智能機器相關的責任方[7]。
公共政策和管理治理機制可以為人工智能倫理規制提供基礎。田廣蘭認為,為了抵御人工智能的倫理風險,“蓄水池式”的公共決策機制有助于形成融貫性的行動策略,以將人工智能的發展和應用盡可能置放在人的意圖之下[31]。戴益斌從道德與法律兩方面分析規制策略,認為應堅持“以人為本”“以德為先”“以法為界”的理性治理規則[7]?;谌斯ぶ悄芫哂蟹芍黧w地位的前提認識,黃甫全探討人工智能立法,在內容上聚焦于人工智能主體的規范,主要包括交通法、隱私法、醫療法和著作權法等領域;在特征上突出表現為,以保障人類利益為本,以原有法律體系為主,以部分類型與領域立法為先[32]。針對人工智能在新聞傳播領域引發的倫理風險,楊保軍提出4個規制原則:第一,透明原則;第二,風險可控原則;第三,知情同意原則;第四,核查與公正原則[33]。
現有的人工智能時代倫理風險研究成果為進一步深化、拓展和完善研究奠定了基礎。同時,通過梳理也發現,當前的研究正處在一個需要繼續深化的階段,這預示著人工智能倫理風險研究還有更廣闊的空間。
學界對人工智能倫理風險的研究雖然不乏真知灼見,但總體而言仍存有不足,擇其要者,茲述如下。
一是研究布局尚欠合理,研究有待深化。一方面,研究布局不夠合理。人工智能倫理研究包括人工智能道德哲學、人工智能道德算法、人工智能設計倫理和人工智能應用倫理等4個領域。通過對現有研究成果梳理可知,現有研究成果多集中于人工智能道德算法、人工智能設計倫理和人工智能應用,而人工智能道德哲學領域研究成果相對薄弱。人工智能道德哲學研究關乎人工智能的善與惡、對與錯、權利與義務等思辨和論證。推動人工智能道德哲學研究,有利于我們審視人工智能的社會價值和倫理風險影響,以哲思智慧引領人工智能其他領域研究。另一方面,研究還有待深入。人工智能設計倫理關乎人工智能如何與人類生活融合的問題。鑒于人工智能本身固有的技術不確定性,研發設計環節究竟賦予其多少“智能”,才能確保不會引發倫理風險?如何針對人工智能的決策“僭越”加以控制和防范?這些都是值得繼續深入思考和研究的問題。
二是研究立意略顯消極悲觀。因為受到人工智能奇點論影響,所以學界有部分學者對人工智能倫理風險研究持悲觀傾向。其實沒有必要持悲觀態度,應理性看待人工智能與人類智能的“較量”。因為人工智能是隨人類意識創造而產生的,人工智能每前進一步都是建立在人類智能創新的基礎上的。人的“意識代替他的本能,或者說他的本能是意識到了的本能”[34]。無論人工智能技術發展如何迅速,作為“意識產物”的人工智能,不可能繞開人類意識,實現無“意識”內核驅動境況下的智能跨越?,F今,人工智能引發的倫理風險不至于即刻給予人類“致命一擊”,人類仍然掌握著是否繼續研發和應用人工智能各項技術的抉擇權。人類作為唯一能夠以智力引領人工智能的物種,完全可以通過自身智慧解決人工智能倫理風險問題,從而實現人工智能工具理性和價值理性的有機統一。因此,研究應始終保持理性自持,做到客觀不悲觀、預想不幻想。
三是研究視角缺少整體性。關于人工智能倫理風險規制方法的研究,多數缺少整體性視角。部分學者提出的人工智能倫理風險的規制方法和措施較“碎片化”。部分研究出現“頭痛醫頭,腳痛醫腳”的現象。例如,面對人工智能算法導致算法歧視的現象,部分研究者往往忽略心智維度,將算法歧視歸罪于人工智能算法技術層面,以工具理性視角取代價值理性視角,這將阻礙人工智能技術發展,不利于科技發展和社會進步。人工智能倫理風險研究與其他技術倫理風險研究不同,應當圍繞“機芯”和“人心”整體性建構而展開研究,未來人工智能倫理研究應更多地賦予人工智能“善”的意蘊。
鑒于上述人工智能時代倫理風險的總體研究存有不足,現對未來的研究提出幾點粗淺看法,僅供后續研究參考。
一是綜合多學科知識開展研究。影響人工智能倫理風險研究的因素很復雜:一方面,人工智能的倫理問題研究與傳統的倫理研究大有不同,其研究視域發生了較大的跨越,已經超出了人類主義的倫理學范圍。人工智能倫理風險研究討論的不再是人與人之間的關系問題,也不是人類與自然界的既定事實之間的關系問題,而是人類與自己所創造的智能產品之間的關系問題。另一方面,人工智能倫理風險的研究環境也在快速變化。例如人類對人工智能的接納程度正在發生變化。2017年10月26日,沙特阿拉伯已經給予了美國漢森機器人公司生產的女性機器人索菲亞公民身份。因未來人工智能倫理風險研究所需知識將橫跨多學科領域,所以研究過程中應與時俱進地綜合運用多學科知識。例如,可結合科學技術哲學、人工智能哲學、倫理學、社會學、工程學、法學等學科知識,綜合審視人工智能倫理風險,切實謀劃有效的風險防范策略。
二是重視人工智能倫理風險評估和管理研究。由于人工智能技術發展存在諸多不確定性,亟須加強人工智能潛在倫理風險的評估研究,推動人工智能安全可控健康發展。人工智能倫理風險評估研究,既需要頂層的宏觀哲思方面的研究,以保持人工智能發展和倫理秩序穩定之間的平衡,同時也需要基礎的微觀評估指標的研究,以保障風險評估的有效操作性。應著力建構人工智能風險評估體系,實現評價指標具體化、可操作化,為人工智能研究及應用提供倫理風險評估反饋。要加強人工智能倫理風險管理研究,關注人工智能倫理風險管理中風險識別、數值評估、責任處理、預期監控及匯報傳達等各環節,探討各有關主體的風險管控責任。要堅持評估的預防性原則,將倫理風險評估前置于人工智能開發應用階段。重視人工智能倫理風險評估研究,將有利于降低人工智能潛在倫理風險,為更好決策人工智能未來發展奠定基礎。
三是增強人工智能與人類智能協同發展研究。馬克思認為“那些發展著自己的物質生產和物質交往的人,在改變自己的這個現實的同時也改變著自己的思維和思維的產物”[34]。因為人的思維意識與生產生活是協同發展的,所以我們對人工智能引發倫理風險進行歸因時,決不能局限于人工智能技術本身,還應同時反觀人工智能創造者們的設計水準。人工智能和人類智能之間決不是“你死我活”的完全沖突關系,我們應打破“非此即彼”的形而上學的思維模式的禁錮。未來研究應從人工智能倫理風險給人類生存狀態、價值理念和人倫觀念帶來的各種沖擊中,逆向反思人類智能發展的現實困境,謀求人工智能與人類智能協同共生之道。面向未來,既要推動人工智能不斷完善,實現技術層面倫理風險規避,又要以此為契機促使人類智能逐步提升,實現價值層面倫理復歸。