杜靜 黃榮懷 李政璇 周偉 田陽



[摘? ?要] 在智能教育時代,人機如何共處是人工智能倫理建構的關鍵。文章首先從技術悖論視角,厘清當前人工智能應用于教育在技術濫用、數據泄露、智能教學機器的身份與權力邊界等方面存在的倫理挑戰與困境;其次,利用內容分析法,結合多國與國際組織政策文件,對人工智能倫理相關的倫理要素進行分析與抽取,發現政府、高校、國際組織文件中多次提到的價值、人類利益、安全、隱私、責任等關鍵要素;最后,基于人機共處的考量,結合人工智能在教育領域的應用現狀和倫理關鍵要素,歸納分析出智能教育倫理需遵循的原則,包括問責原則、隱私原則、平等原則、透明原則、不傷害原則、非獨立原則、預警原則與穩定原則。
[關鍵詞] 智能教育; 人工智能; 機器倫理; 國際政策; 原則; APETHICS模型
[中圖分類號] G434? ? ? ? ? ? [文獻標志碼] A
[作者簡介] 杜靜(1989—),女,湖北武漢人。博士研究生,主要從事適應性學習支持服務研究。E-mail:dujing@mail.bnu.edu.cn。黃榮懷為通訊作者,E-mail:huangrh@bnu.edu.cn。
科學技術的發展與倫理密不可分。人工智能技術帶來便捷的同時,也衍生出了復雜的倫理、法律和安全問題,需要相關的規范制定者和執行者提前布局,審慎應對。在教育領域,一方面,人們期待人工智能進一步促進教育的發展,如支持個性化學習、提供教學適切服務等,且伴隨著人工智能進入高中課本,中國的人工智能教育已經正式進入基礎教育階段。在人工智能技術領先的美國,從2018年秋季開始,匹茲堡蒙托學區也啟動了全美第一個人工智能公立學校項目。另一方面,隨著智能教育應用的廣泛開展,教育工作者嘗試通過“先進技術”解決教學難題,在這過程中隱含一系列倫理道德的問題,如知識產權保護、隱私泄露、學術不端等,這使人們開始反思不當使用“先進技術”會造成什么負面影響,進而衍生出“人工智能進入教育后,人機如何共存”的社會問題。國際上已經開始關注人工智能教育應用過程中存在的倫理問題,然而當前關于此領域的研究仍處在探索早期。為此,本文從技術悖論現象的視角,深度剖析人工智能應用于教育的倫理困境,結合國際案例剖析了人工智能教育應用面對的倫理挑戰,并基于國內外人工智能領域倫理問題的國家政策,提出智能教育倫理建構原則,以期為人工智能教育應用和發展提供倫理依據和啟發性思考。
一、智能時代的倫理議題
自1956年,在美國達特茅斯(Dartmouth)會議上確定人工智能(Artificial Intelligence,簡稱AI)這一術語,經過60多年的發展,該技術已在圖像識別、機器視覺、自動駕駛、安防等領域的發展取得較大進展。在發展的過程中由于缺乏關乎倫理道德的考量,引發了一系列的問題,這使得越來越多的行業專家開始反思智能時代人機如何共處。
倫理一詞在中國最早出現在《禮記·樂記》:“凡音者,生于人心者也;樂者,通倫理者也”,譯為一切音樂都產生于人的內心,樂與事物的倫理相同。樂與禮的關系,在《禮記》中指的也就是文藝與社會倫理道德的關系[1]。劍橋大學哲學詞典(The Cambridge Dictionary of Philosophy)指出,“倫理”(Ethics)一詞,廣義上指“道德”,狹義上常被用來表示某一特定傳統、群體或個人的道德原則[2]。倫理學試圖通過定義諸如善與惡、對與錯、美德與罪惡、正義與犯罪等概念來解決人類道德問題,常常與道德心理學、描述性倫理、價值理論等領域的研究有關[3]。綜上所述,多數研究主要從政治、道德等方面探討倫理的內涵,集中于人、社會、自然間倫理關系的闡述。因科技的進步與發展,智能機器與人類生活愈發密切,我們需要進一步審視人與智能機器的倫理關系。由此歸納在智能時代倫理的應有內涵,指在一定社會歷史條件下,為解決人、社會、自然與智能機器的和諧共處問題,通過制定相關原則、標準和制度,促進人、社會、自然和智能機器的和諧共處,涉及道德、社會制度、法律等領域。倫理研究的本質應是一個不斷完善的道德實踐過程。
二、技術悖論視角下人工智能應用于
教育的倫理困境審視
辯證唯物主義認識論是技術辯論的思想來源,辯證唯物主義告訴我們事物是普遍聯系與存在矛盾的,看待事物的發展需要把握好兩點論[4],即要同時關注事物發展過程中的正面與反面。早在19世紀中期,馬克思就認識到技術悖論對人類社會產生的雙面影響,他指出:“在我們這個時代,每一種事物都包含有自己的反面。我們看到,機器具有減少人類勞動和使勞動更有成效的神奇力量,然而卻引起了饑餓和過度的疲勞。技術的勝利,似乎是以道德的敗壞為代價換來的?!盵5]人工智能技術的發展亦符合技術悖論現象,我們必須正視人工智能為教育領域帶來的種種福利,如支持個性化學習、提供學習過程適切服務、提升學業測評精準性、助力教師角色變化等[6],也不可否認在人工智能技術應用過程中由于倫理制度的缺失、公眾道德素質與文化素養的不足以及政策法規的滯后與不完善等引發的倫理問題。
(一)技術濫用引發的不端行為
或許人工智能技術并不像人類想象的那樣美好,在應用的過程中仍舊潛藏著一定的危險。在Nature評論上,2018年4月25日17位來自杜克大學、斯坦福大學、哈佛大學等諸多高校的教授和科學家聯合發表文章,指出現在需要對培養人腦組織的行為作出倫理反思,并提出亟須建立倫理道德框架以應對這一難題[7]。劍橋大學、牛津大學與耶魯大學的學者認為,在未來5到10年人工智能系統可能催生新型網絡犯罪、實體攻擊和政治顛覆,設計這項技術的人需要做更多的事情來降低技術被誤用的風險,此外,政府必須考慮制定新的法律[8]。除此之外,技術濫用還有可能引發學術不端現象。Ikanth & Asmatulu指出,智能手機是如今最為普遍的作弊工具,大約70%的學生承認他們在考試、作業、團隊任務、報告和論文的寫作過程中使用各種高科技設備,比如iPad等進行過作弊行為[9]。從社會現象來看,由于目前社會對倫理問題的認知不足以及相應規范準則的缺失,設計者在開發人工智能教育產品時并不能準確預知可能存在的風險,人工智能與教育的深度融合趨勢明顯,必須考慮更深層的倫理問題,從而使人工智能教育應用產品的設計目標與更好地服務學習者的初衷相符。
(二)數據泄露引發的隱私擔憂
如今教學系統功能愈發智能和豐富,不僅僅可以通過指紋、人臉、聲音等生理特征識別用戶身份,還能夠搜集和記錄環境信息。Inayay開發出可實時監控學生課堂活動的定位系統和學習行為可視化系統,并已將該系統應用于132名師生[10]。課堂環境中的溫度、濕度和二氧化碳濃度嚴重影響了教師和學生的學習效率,并影響師生的身體健康,為此有研究者設計了一套基于藍牙的課堂環境實時監測系統[11]。此外,還可以利用智能運動設備,如智能手環、智能肺活量等測評工具,深度采集學生健康數據,從而發現學生在體質、運動技能、健康程度等方面的問題[12]。智能系統掌握了大量的個人行為信息,如果缺乏隱私保護,就可能造成數據泄露。如果這些數據使用得當,可以提升學習服務的支持效果,但如果某用戶出于某些目的非法使用行為信息,會造成隱私侵犯,甚至是違法事件。因此,設計智能系統時需要納入隱私保護功能。
(三)智能教學機器的身份與權力邊界
智能教學機器為一對一學習支持服務的實現提供了可能,可以針對不同的學生采用不同的教學方法,激發學習興趣,從而提升學習者的學習表現。如果長時間讓學生和智能教學機器待在一起,這些機器是否會取代教師的身份?人機交互過多是否會使學生出現社交障礙?歐盟已經在考慮要不要賦予智能機器人“電子人”的法律人格[13],這意味著機器人也具備了合法身份,很難確定機器人享有的權利以及能否履行義務,并對其行為負責。隨著智能教學機器的功能越來越強大,它在教學的過程中到底應該扮演一個怎樣的角色。此外,在機器被賦予決策權后,智能教學機器在何種情境下輔助學生學習才能夠幫助學生達到更好的學習效果。在平板上記筆記的學生在概念性問題表現上比普通書寫方式記筆記的學生差,在平板上記筆記的學生雖然花了更長時間記筆記且覆蓋了更多內容,但因為借助科技而被動不走心的記憶幾乎把這些好處抵消掉了[9]。這些研究表明,技術不如教師具有親和力,在某些時候技術的使用會降低學習者的學習體驗。
三、國際人工智能倫理研究概況
一些國家相繼成立了人工智能倫理研究的各類組織和機構探討人工智能引發的倫理問題,如科學家組織、學術團體和協會、高校研發機構,還有國家層面的專業性監管組織。這些國際政策將為人工智能教育應用的倫理模型構建提供理論依據。
(一)多國人工智能倫理政策研究動態
研究樣本選取包括美國、英國、德國、中國在內二十余國的人工智能政策文件,檢索截止時間為2016年1月至2018年8月,搜索源為各國政府網站,搜索關鍵詞為Artificial Intelligence 或者AI。再對下載的文件進行二次檢索,關鍵詞為ethics 或 ethic。如遇有的國家直到2018年5月也無相關文件公開發布,則將最新一次召開的人工智能會議記錄下來,以此作為該國人工智能研究進展,如突尼斯對人工智能的研究起步較晚,于2018年4月剛召開完第一次人工智能會議,在本次統計中同樣進行記錄。在對各國政策文件進行了內容抽取后,繪制了人工智能國家政策概覽,如圖1所示。
各國對人工智能的關注持續升溫,在該領域的戰略研究主要集中在科學研究、人才培養、技能培訓、倫理與安全、標準與法規、基礎設施建設等方面。美國、英國、日本對人工智能的研究關注較早,政府已出版多份人工智能戰略文件。英國已出版四份戰略文件來闡述未來將會如何規范機器人技術與人工智能系統的發展,以及如何應對其發展帶來的倫理道德、法律及社會問題,包括《人工智能:未來決策制定的機遇與影響》(Artificial Intelligence: Opportunities and Implications for the Future of Decision Making)、《機器人技術和人工智能》(Robotics and AI: Fifth Report of Session 2016—2017)、《人工智能行業新政》(Industrial Strategy: AI Sector Deal)和《英國人工智能調查報告》(AI in the UK:Ready,Willing,and Able)。美國于2016年連續發布三份報告,為美國的 AI 戰略奠定了基礎,包括《為人工智能的未來做好準備》(Preparing for the Future of Artificial Intelligence)、《國家人工智能研究和發展戰略計劃》(National AI Research and Development Strategic Plan)、《人工智能、自動化與經濟報告》(AI,Automation,and the Economy),之后于2018年5月,白宮邀請了業界、學術界和部分政府代表參加了一場人工智能峰會,并發布人工智能業界峰會總結(Summary Report of White House AI Summit)。而肯尼亞、德國對人工智能戰略研究起步較晚,德國計劃在2018年秋季發布國家人工智能戰略,但目前還不清楚該戰略將關注哪些方面??夏醽喺?018年1月宣布將成立一個新的11人特別工作組,該小組的任務是制定鼓勵開發和采用如區塊鏈和人工智能等新技術的國家戰略[14]。在芬蘭、美國、英國等國的戰略文件中,已明確提出將關注人工智能引發的倫理問題。
從世界各國政策文件看,發達國家對人工智能各方面關注較為全面,尤其是將倫理問題上升到了一定的高度,而發展中國家更多的是關注人工智能的技術應用和未來的商業價值等。由此,發達國家的人工智能政策雖然值得借鑒,但是在倫理研究方面各國仍處于早期狀態,這對人工智能發展也有一定的制約作用。
(二)國際組織人工智能倫理研究動態
除了國家層面關注人工智能的倫理問題研究,一些傳統的國際性組織和高校也開始關注人工智能治理的問題,見表1。2016年12月和2017年12月,標準制定組織IEEE(Institute of Electrical and Electronic Engineers,美國電氣和電子工程師協會)發布《合倫理設計(第一版)》和《合倫理設計(第二版)》,并首次在報告中考慮人類生存幸福感(Well-being)的問題,由IEEE下屬各委員會共同完成的文件為人工智能的全球治理提供了重要參考。UNESCO(United Nations Educational,Scientific,and Cultural Organization,聯合國教科文組織)和COMEST(World Commission on the Ethics of Scientific Knowledge and Technology,世界科學知識與技術倫理委員會)多年來連續多次聯合發布報告,就機器人應用過程中的倫理問題展開了討論,包括倫理困境、如何保證創新是符合倫理的,如《COMEST機器人道德報告》[15],這對世界各國的人工智能監管具有重要指導意義。此外,EURON(European Robotics Research Network,歐洲機器人研究網絡)也曾對下一代人形機器人發展過程中涉及的技術二重性等倫理問題進行簡要概述[16]。斯坦福大學的“人工智能百年研究項目”計劃“針對人工智能在自動化、國家安全、心理學、道德、法律、隱私、民主以及其他問題上所能產生的影響,定期開展一系列的研究?!痹擁椖康牡谝环菅芯繄蟾妗度斯ぶ悄?030生活愿景》已經于2016年9月發表。卡內基梅隆等多所大學的研究人員聯合發布《美國機器人路線圖》,以應對人工智能對倫理和安全帶來的挑戰。來自行業和學術界包括牛津大學、劍橋大學、新美國安全中心(CNAS,Center for A New American Security)的人工智能專家撰寫《惡意使用人工智能風險防范:預測、預防和消減措施》,調查了人工智能惡意使用的潛在安全威脅,并提出了更好的預測、預防和減輕這些威脅的方法 [8]。
多國政策主要集中于人工智能對工業生產、經濟、文化、社會、國防安全等方面帶來的顛覆性影響,但又有不同的側重點。美國與中國強調人工智能技術的發展,如美國關注人工智能的研發生態、人才培訓戰略、行業應用與國防安全,中國關注研發、工業化、人才發展、教育和職業培訓、標準制定和法規、道德規范與安全等各個方面的戰略;日本和印度關注人工智能在具體領域的應用,如日本關注人工智能在機器人、汽車等領域的落地,印度聚焦于人工智能在健康護理、農業、教育、智慧城市和基礎設施與智能交通五大領域的應用;歐盟對人工智能倫理問題的研究更為關注,正在研究人工智能倫理框架。這些文件中有關倫理的研究為厘清人工智能融入教育所帶來的倫理問題提供借鑒和參考。
四、面向智能教育的人工智能倫理建構原則
現代科學技術在給教育帶來便利的同時,也使廣大的教育工作者和學習者不得不置身于倫理困境之中。國際政策關于人工智能倫理問題的研究為智能教育倫理建構原則的提出奠定了堅實的政策基礎和前瞻性認識。
(一)有道德人工智能的特征
科學研究無法脫離特定歷史時期對技術研究的價值取向,每一次的科學研究都蘊含著研究主體對技術手段、研究方向和研究方法的選擇,科學技術產生的社會作用越大,與倫理的關系也將越來越緊密。人工智能技術的快速發展,也必然引發社會的擔憂。有學者曾經提出,判定人工智能程序是否是符合倫理道德的初步設想,見公式(1)[17]。該學者認為,有道德的人工智能研究需要從人工智能技術的發展逐步過渡到有道德地使用人工智能,但該學者并未明確指出怎樣的用戶行為屬于有道德的使用人工智能。
那么人工智能技術的發展是否有道德規范可循?早在1942年,艾薩克·阿西莫夫(Isaac Asimov)提出了以“不得危害人類”為核心的“機器人三原則”(The Three Laws of Robotics)(包括:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管;機器人必須服從人給予它的命令,當該命令與第一定律沖突時例外;機器人在不違反第一、第二定律的情況下要盡可能保護自己的生存)[18]。三定律針對機器人和人兩大主體規定了機器人的行為規則,但該定律并未給出有關于人類和機器人的明確的、統一的定義。在1983年,他又在此基礎上添加了零原則,即機器人必須保護人類的整體利益不受傷害,其他三條定律都是在這一前提下才能成立[19]。新“機器人三原則”被認為是人類對人工智能倫理道德反思的開端。
(二)人工智能倫理關鍵要素分析
在搜集國際人工智能政策文件的基礎上,利用內容分析法對相關文件中的倫理要素進行了提取,見表2。政府、高校、國際組織均嘗試對人工智能的倫理問題進行探討,從倫理相關要素看,均對人工智能立法、安全、責任認定等有著一致性,但也有差異問題。政府希望通過制定法律保護公民的權益,如個人隱私、明確責任主體;國際組織更加強調人工智能社會價值的探討,如人類利益、機器意識等關鍵詞多次出現;高校則結合實際問題提出了應對人工智能風險問題。除此以外,有研究者指出,引入智能機器帶來的全球性的社會和倫理問題可總結為技術的二元性、技術產品的人格化、技術沉迷、數字鴻溝、數字資源公平享有權、技術對全球財富和權力的影響、技術對環境的影響[20]。工程公司美國理事會倫理守則(American Council of Engineering Companies Ethical Guidelines)還指出,安全性和可靠性也是人造產品需要考慮的道德因素[21],同時,還要注意人權[22]、責任權、公正權、正義、非歧視原則、知情權、社會責任、平等權。
(三)智能教育倫理的建構原則
由于人工智能的交叉性,人工智能可與其他應用倫理學共享問題和解決方案,如計算機倫理、信息倫理、生物倫理學、技術倫理和神經倫理學。計算機和信息倫理學已發展出了名為PAPA的道德準則,即隱私權(Privacy)、準確性(Accuracy)、所有權(Property)、易獲得性(Accessibility)[23]。為此,在參照PAPA模型的基礎上,基于對人工智能倫理的相關要素分析,立足人工智能在教育領域的應用現狀,從人機共存角度,抽取與學生發展密切相關的要素,涉及明確責任主體、保護人類隱私、不偏見不歧視、決策透明化、保護人類利益不受侵害、提前預警危險行為、系統穩定可控等多個方面,最終歸納出面向智能教育的人工智能倫理建構模型,即問責原則(Principle of Accountability)、隱私原則(Principle of Privacy)、平等原則(Principle of Equality)、透明原則(Principle of Transparency)、不傷害原則(Principle of Noharm)、身份認同原則(Principle of Identity)、預警原則(Principle of Precaution)、穩定原則(Principle of Stability),概括為“APETHICS”模型,如圖2所示。需要說明的是,取單詞Caution首字母C代表預警原則,其余均取單詞首字母表示各原則,縮寫字母A在本模型中代表問責原則,也可以看作為Artificial Intelligence中Artificial的首字母,P在本模型中代表隱私原則,也可以看作為“+”(Plus),其余的取單詞首字母,恰好為倫理“Ethics”一詞,合并后為A(rtificial Intelligence) & P(lus) & Ethics。以下將對原則進行具體解讀:
1. 問責原則(Principle of Accountability)
“問責原則”主要是指明確責任主體,建立具體的法律明確說明為什么以及采取何種方式讓智能系統的設計者和部署者承擔應有的義務與責任。問責是面向各類行為主體建立的多層責任制度。然而,分清楚責任人是極具挑戰性的,例如,在自動駕駛汽車獨立作出智能決策導致傷害發生的情況下,誰應當為自動駕駛汽車發生的故障和事故負責的問題,是應該由司機、自動汽車生產者或是人工智能系統設計公司來承擔法律責任?在這里還難以作出明確的判斷?!稙槿斯ぶ悄艿奈磥碜龊脺蕚洹诽岢隽艘话阈缘膽獙Ψ椒?,強調基于風險評估和成本收益原則決定是否對人工智能技術的研發與應用施以監管負擔[24]。在UNESCO和COMEST聯合發布的《Report of COMEST on Robotics Ethics》中嘗試明確責任主體[15],見表3。在追責政策制定不完善、主體責任不明確、監督責任不到位、傷害人類行為多發頻發等問題發生時起到一定的緩解作用,以問責倒逼責任落實,落實科學家、設計者、政策制定者、使用者的各級責任,爭取做到“失責必問、問責必嚴”。
2. 隱私原則(Principle of Privacy)
《辭?!穼㈦[私定義為公民依法享有的不公開與其私人生活有關的事實和秘密的權利?!妒澜缛藱嘈浴吩浢鞔_規定,“任何人的私生活、家庭、住宅和通信不得任意干涉,他的榮譽和名譽不得加以攻擊”[25]。在人工智能時代,“隱私原則”更強調人們應該有權利存取、管理和控制智能機器產生的數據,以確保機器不會向任何未經授權的個人或企業提供用戶信息。如今,我國有關如何在人工智能時代保護學習者隱私不受侵害的法律還不健全,關于何為侵犯隱私、何種行為侵犯隱私、如果侵犯如何處罰的相關法律仍缺失,倘若學習者隱私受到侵害也無法找到合適的解決途徑。國外的人工智能研究人員已經在提倡如何在深度學習過程中保護個人隱私[26]。人工智能時代為學習者隱私保駕護航,將是促進社會和諧發展與長足進步的不可或缺因素。
3. 平等原則(Principle of Equality)
“平等原則”指杜絕因算法偏差導致的算法歧視現象。基于種族、生活方式或居住地的分析是對個人常態數據的分析,該種算法風險可以避免,而“算法歧視”的實質是用過去的數據預測用戶未來的表現,如果用過去的不準確或者有偏見的數據來訓練算法,得出的結果肯定也是有偏見的。不少研究者堅持,數字不會說謊,可以代表客觀事實,甚至可以公平地為社會服務。但是,已有研究發現,建立在數據基礎之上的算法系統也會犯錯、帶有偏見,而且比以往出現的數字歧視更加隱秘。亞馬遜嘗試了價格歧視,這意味著不同的消費者購買同一件商品的價格不同[27]。為消除該風險,數據人員應該確定數據中存在的某種偏差,并采用相應的策略評估該偏差帶來的影響。
4. 透明原則(Principle of Transparency)
“透明原則”指明確說明使用了哪些算法、哪些參數、哪些數據實現了什么目的,機器的運作規則和算法讓所有人都能夠明白。機器需要了解學習者的行為以作出決策,所有人包括學習者也必須了解機器是如何看待自己和分析自己的處理過程。如果學生個人畫像不正確,卻無法糾正,該怎么辦?當系統搜集學生的信息,卻得出錯誤的結論,該怎么辦?目前被廣泛討論的是深度學習的“黑箱”決策過程,它擁有更多的自主決策權,許多研究者試圖打開這個“黑箱”。如利用反事實調查的人工智能神經科學工具理解這種黑箱[28]。這種迫切性不僅出自科學[29]。美國國防高級項目研究計劃局(The Defense Advanced Research Projects Agency,簡稱DARPA)為名為“可解釋AI”(Explainable AI)的新計劃投入了7000萬美元,旨在對支撐無人機與情報挖掘行動的深度學習作出解釋[30]。倫理和設計往往息息相關,人工智能開發必須警惕社會和文化偏見,確保研究具有普適性的算法,消除算法歧視存在的可能空間。
5. 不傷害原則(Principle of Noharm)
“不傷害原則”也可以理解為Principle of Do Not Harm,指必須阻攔機器的無意識行為對人類造成的傷害,任何情況下,不區別對待文化、種族、民族、經濟地位、年齡、區域等因素,都要維護人類的權益,不得侵害人類權益。利弊相生,人工智能技術的二重性在給人類的生活和生產帶來便利的同時,也會因技術運用不當給人類帶來毀滅性的災難。Google團隊對DeepMind人工智能系統進行行為測試,通過設計“搜集水果游戲”和“群狼狩獵游戲”來模擬當多個DeepMind人工智能系統具有相似或沖突的目標時,是內斗還是合作。初步的研究結果表明,機器人以及人工智能系統具有“殺手潛能”,它們并不會自動地將人類的利益放在“心”上[31],設計算法的技術人員需要考慮人性的因素。
6. 身份認同原則(Principle of Identity)
“身份認同原則”指明確智能機器的“社會身份”,從而規范其權利與義務。例如,是否該賦予機器人公民身份與人的權利。智能機器是世界物質組成的一部分,非獨立存在,智能機器的身份問題日益重要。人工智能融入教育,已經開始影響現存的人類社會結構,人—社會—自然三元社會正在逐漸地向人—社會—自然—智能機器四元社會發展。無論是先秦的“天人合一”論,還是宋明的“萬物一體”論,都強調人與人、人與物、人與社會以及人與自然的整體性、和諧性、統一性關系[32]。在人工智能時代,需要強調的是,人與人、人與智能機器、人與社會、人與自然、機器與自然的整體性、和諧性與統一性,為此需要確立人工智能在教育中的定位,以保障技術、教師、學生、環境之間的平衡。
7. 預警原則(Principle of Precaution)
“預警原則”強調當機器出現危害人類的行為時,采取行動避免傷害,因此,人類需要對機器的行為進行監管,并開發相應的預警技術。危害人類和環境的行為包括:威脅人類的生命;嚴重的或者不可逆的傷害人類權益的行為[33]。谷歌和牛津大學聯合發起的人工智能系統“自我毀滅裝置”(Kill Switch)研究項目,這個裝置能夠讓人工智能系統處于不間斷的人類監管干預之下。通過算法和功能,讓人工智能系統擺脫不良行為,杜絕危害人類行為事件的發生。
8. 穩定原則(Principle of Stability)
“穩定原則”指系統算法穩定且一致,系統不出現不必要的行為或者功能上的非一致性和異常結果。人工智能系統應確保運行可靠安全,避免在不可預見的情況下造成傷害,或者被人惡意操縱,實施有害行為。如果我們希望利用技術來滿足人類的需要,人類就必須更深入地理解和尊重機器,從而更好地發揮智能機器的作用。需要指出的是,對于知識創造性的工作,比如醫療、教育培訓中具有高度“不確定性”的工作,其承擔者則非人類莫屬。
五、總結與展望
將人工智能廣泛而有效地應用于教學,是未來學校教育發展的必然趨勢,具有更強的靈活性、包容性、個性化的人工智能技術可以助力重塑學校教育,進一步提升教學的效果、效率和效益,以適應現代信息化、數字化、智能化的學習型和創新型社會的需要,同時,為教育2030的實現提供強有力的智力支持。在預見人工智能技術巨大潛能的同時,也不可忽略道德規范、產品標準和安全規范的社會呼吁和學術研究。對待人工智能,我們仍舊應當保持“樂觀>焦慮”的態度,讓人工智能始終服務于我們的工作和生活,形成造福社會、推動發展、助力改革的無盡活力。本文深度剖析人工智能教育應用的倫理困境,試圖通過人工智能教育應用倫理的“APETHICS”模型與建構原則,厘清人工智能教育應用的價值觀念、社會責任。在今后的研究中,需進一步細化概念模型中包含的原則。
[參考文獻]
[1] 張恩普. 《禮記·樂記》文學批評思想探討[J]. 古籍整理研究學刊,2006(1):35-37.
[2] AUDI R, AUDI P. The cambridge dictionary of philosophy[M]. United Kindom: Cambridge University Press,1995.
[3] Wikipedia. Ethics[EB/OL]. (2001-12-19) [2018-07-13]. https://en.wikipedia.org/wiki/Ethics#cite_note-2.
[4] 張源東.社會技術與社會技術悖論淺析[J].學理論,2018(4):79-81.
[5] 馬克思,恩格斯.馬克思恩格斯選集:第 1 卷[M].北京:人民出版社, 1972.
[6] 劉德建,杜靜,姜男,等.新一輪人工智能融入學校教育的趨勢分析[J]. 開放教育研究,2018,24(4):33-42.
[7] FARAHANY N A, GREELY H T, HYMAN S, et al. The ethics of experimenting with human brain tissue[J]. Nature, 2018, 556(7702):429-432.
[8] BRUNDAGE M, AVIN S, CLARK J, et al. The malicious use of artificial intelligence: forecasting, prevention, and mitigation[EB/OL]. (2018-02-01) [2018-07-13]. https://maliciousaireport.com/.
[9] IKANTH M, ASMATULU R. Modern cheating techniques, their adverse effects on engineering education and preventions[J]. International journal of mechanical engineering education, 2016, 42(2):129-140.
[10] INAYAT I. Real-time student visualization system in classroom using RFID based on UTAUT model[J]. International journal of information and teaching technology, 2017, 34(3):274-288.
[11] PENG K, CHEN J. A classroom environment monitoring system based on bluetooth[J]. Electronic science & technology, 2017,30(2):123-129.
[12] 余勝泉. 人工智能教師的未來角色[J]. 開放教育研究,2018,24(1):16-28.
[13] GUGARDIAN. Give robots 'personhood' status, EU committee argues[EB/OL]. (2017-01-12) [2018-07-13]. https://www.theguardian.com/technology/2017/jan/12/give-robots-personhood-status-eu-committee-argues.
[14] WALLSTREET K. Kenya govt sets blockchain & artificial intelligence taskforce! [EB/OL] (2018-01-16) [2018-07-13] https://kenyanwallstreet.com/kenya-govt-sets-blockchain-artificial-intelligence-taskforce/.
[15] UNESCO & COMEST. Report of COMEST on robotics ethics [R]. Praris: UNESCO, 2017.
[16] VERUGGIO G. The EURON roboethics roadmap: HR 2007: proceedings of international conference on humanoid robots, pittsburgh, 29 november - 1 december 2007[C]. Pennsylvania: IEEE, 2007.
[17] KORB K B. Ethics of AI[EB/OL]. (2007-01-01) [2018-07-13]. https://www.researchgate.net/publication/247934914_Ethics_of_AI.
[18] MORAN M. Three laws of robotics and surgery[J]. Journal of endourology, 2008, 22(22): 1557-1560.
[19] COECKELBERGH M. Moral appearances: emotions, robots, and human morality[J]. Ethics & information technology, 2010, 12(3): 235-241.
[20] VERUGGIO G, OPERTO F. Roboethics: social and ethical implications of robotics[M]. Berlin: Spinger, 2008.
[21] HANSEN K L, ZENOBIA K E. Civil engineer's handbook of professional practice[J]. 2011, 75(1):1-2.
[22] KARDOS-KAPONYI E. The charter of fundamental rights of the European Union[J]. Official journal of European Communities, 2000, 23(1/2): 137-170.
[23] PARRISH J L. Papa knows best: principles for the ethical sharing of information on social networking sites[J]. Ethics & information technology, 2010,12(2): 187-193.
[24] White House Office of Science and Technology Policy. Preparing for the future of artificial intelligence[EB/OL]. (2016-10-01) [2018-07-13]. https://obamawhitehouse.archives.gov.
[25] 格德門德爾·阿爾弗雷德松.世界人權宣言[M]. 中國人權研究會,譯. 成都: 四川人民出版社,1999.
[26] PAPERNOT N, ABADI M, ULFAR ERLINGSSON, et al. Semi-supervised knowledge transfer for deep learning from private training data[EB/OL]. (2016-10-01) [2018-07-13]. https://www.researchgate.net.
[27] HUTSON M. How artificial intelligence could negotiate better deals for humans[EB/OL]. (2017-09-11)[2019-06-30]. https://www.sciencemag.org/news.
[28] MISHRA S, STURM B L, DIXON S. Introduction to local interpretable model-agnostic explanations[EB/OL]. (2016-08-12) [2018-07-13]. https://www.oreilly.com/learning/introduction-to-local-interpretable-model-agnostic-explanations-lime.
[29] VOOSEN P. How AI detectives are cracking open the black box of deep learning[EB/OL]. (2017-07-06)[2019-06-30]. https://www.sciencemag.org/news.
[30] DAVID G. Explainable artificial intelligence (XAI)[EB/OL]. (2016-10-16) [2018-07-13]. https://www.darpa.mil/program/explainable -artificial-intelligence.
[31] DOM G, JOLENE C. Google deepmind shows that AI can have “killer instincts”[EB/OL]. (2017-02-13) [2018-07-13]. https://futurism.com/google-deepmind-researchers-show-that-ai-can-have-killer-instincts/.
[32] 高晨陽. 論中國傳統哲學整體觀[J]. 山東大學學報(哲學社會科學版),1987(1):113-121.
[33] UNESCO. The precautionary principle[EB/OL]. (2005-03-01) [2018-07-13].? http://www.precautionaryprinciple.eu/.