人工智能發軔于二十世紀五六十年代,至今已有半個多世紀的發展。當前,隨著新一輪科技革命和產業變革興起,大數據的積累、算法的革新、計算能力的提升及網絡設施的完善,通用技術和平臺成為國際人工智能發展的“主旋律”。人工智能在教育的應用始于二十世紀八十年代初,當時主要集中于如何優化知識教學方法等問題。其中,最突出的研究方向是智能導學系統(Intelligent Tutoring Systems)。總的來說,人工智能對教育的影響主要體現在學生學習觀和教師教學觀兩大方面,并且已經取得了相當的成就,在個性化教育和學習評估等方面提供了全新的思路與解決方案。然而科學技術具有雙面性,人工智能也不例外,它在給教育等領域帶來驚喜的同時,也引發了不少擔憂。比如,什么樣的人工智能是人類需要的?如何規避人工智能帶來的人類安全和社會倫理道德問題?基于以上問題,筆者將從以下幾個方面進行思考。
人工智能的倫理道德涉及機器人和其他人工智能的生命。它通常分為機器人道德與人工道德智能體(Artificial Moral Agents,簡稱AMAs)。換言之,它既要考慮人工智能機器如何用于造福人類的價值導向,又要規范人類如何正確使用人工智能。早在1942年,科幻小說作家艾薩克·阿西莫夫(Isaac Asimov)提出了著名的機器人學三定律(也稱為阿西莫夫定律):第一定律為機器人不得傷害人類或坐視人類受到傷害。第二定律為在與第一定律不相沖突的情況下,機器人必須服從人類的命令。第三定律是在不違背第一與第二定律的前提下,機器人有自我保護的權利。美國匹茲堡大學教授、西安交通大學客座教授、長江學者講座教授科林·艾倫(Colin Allen)將人工智能中的“道德”劃分為三種:一是機器應具有與人類完全相同的道德能力。二是機器不用完全具備人類的能力,但應對道德相關的事實具有敏感性,并且能依據事實進行自主決策。三是機器設計者會在最低層面上考慮機器的道德,但沒有賦予機器人關注道德事實并作出決策的能力。由此我們可以看出,人工智能中的關于“道德”的概念尚未達成統一的認識,但科學家一致認為,人工智能中的道德絕非等同于人類中的道德,它有自身的邏輯和規范。隨著技術的發展,關于智能機器的道德的探討會越來越細化和深入,我們期望并相信人工智能中的“道德”概念會不斷清晰和成熟。
人工智能不僅僅是一場結果充滿未知的開放性的科技創新試驗,更是人類文明史上影響甚為深遠的社會倫理試驗。正如霍金所言,人工智能的短期影響受控于人類本身,而長期影響則取決于人工智能是否能完全為人類所把控。當前,人工智能的倫理道德問題受到國內外專家學者廣泛的關注,眾多科學家在試圖探索解決人工智能發展中的倫理道德問題時也遇到了不少困難。比如,能否運用智能算法對人工智能體的倫理行為進行編程,并使其自覺遵守設定的道德規范,乃至成為具有自主約束能力的人工倫理智能體,是面臨的突出問題。再比如,要使智能機器具有復雜的類人的道德倫理,就需要構建一種可執行的機器倫理機制,使其能實時自主地作出倫理判斷。然而,目前專用人工智能或通用人工智能在技術上并未實現以上機制。要在智能體中嵌入其可執行的機器倫理,只能訴諸目前的智能機器可以操作和執行的技術方式—基于數據和邏輯的機器代碼,但要使機器像人一樣理解語言和抽象概念,通過學習算法進而達到人類智能的水平,并非一蹴而就。有專家指出,人工智能倫理設計需要考慮三個方面:一是算法設計中的倫理審查,即要權衡算法中公平、效率之間的關系,避免使其成為“黑箱”。二是人工智能所涉及的數據的版權、隱私權和應用開發權的問題。三是人工智能開發中的倫理或政策邊界問題,即哪些可以研發、哪些嚴禁研發、哪些優先研發等。從我國人工智能發展現狀來看,前兩項均處于缺位狀態,相關行業規范和相關標準及法規尚未完善。此外,現階段的算法不透明也是普遍存在的問題。在人工智能日益代替人類進行決策的時代,一套可驗證、透明化、可問責、兼顧公平的人工智能運行機制,是保障人工智能研發利用與人類社會的價值倫理相匹配的重要基礎。
目前,我國不少專家呼吁人工智能需要道德準則,也試圖制定和構建人工智能道德標準。這足以看出國內學者對人工智能背后人文關系的警覺。但國內至今尚未形成具有一定規模、為公眾所認可的具體標準。2018年12月,歐盟委員會公布了《可信賴的人工智能道德準則草案》(以下簡稱《草案》)。《草案》試圖構建出一套“可信賴的人工智能”框架和規范合理的操作機制。2019年4月,歐盟委員會人工智能高級專家組(European Commissions High-level Expert Group on Artificial Intelligence)正式發布《可信賴的人工智能道德準則》(Ethics Guidelines for trustworthy AI)報告。該報告指出可信賴的人工智能應遵循以下三大原則:合法的—尊重所有適用的法律法規,道德的—尊重倫理原則和價值觀,穩健的—兼顧技術層面和社會環境。此外,該報告還提出了七個關鍵要求,旨在衡量和評估人工智能的可靠性,并且開發一套具體的評估量表來檢驗每個關鍵要求的應用:一是人類的能動性和監督。二是技術穩健性和安全性。三是隱私和數據治理。四是數據的透明度。五是多樣性、非歧視和公平性。六是環境和社會福祉。七是建立問責制。盡管在人工智能領域中國已后來居上,趕超美國之勢日益增強。但在人工智能治理問題上稍落后于美國和歐洲,需要國內學界、業界的廣泛關注和共同探索。2019年6月17日,我國國家新一代人工智能治理專業委員會發布了《新一代人工智能治理原則—發展負責任的人工智能》,該報告提出了人工智能治理的框架和行動指南的中國方案。很顯然,我國有關部門已意識到人工智能的發展應有一定的限度與規范,并應積極借鑒歐洲等地的優秀經驗。然而人工智能的治理原則并非一成不變,隨著人工智能技術的快速發展,人工智能治理的能力和水平也應隨之提升,今后還將根據變化及時調整。
【趙森,福建師范大學教育學部,碩士研究生】
責任編輯︱秦 巖