
摘 要:人工智能在教育領域的深度融合不僅帶來組織行為直接發生變化的一階效應,也帶來教育領域數據資源積累、數據資源使用以及數據形塑教育活動主體的二階效應。其中二階效應的影響將會非常深遠。因此,要確保人工智能融入教育活動,最大限度地有利于教育的發展,需要從“載體—理型—目的”層面思考機器與人的教育活動的關系,規定基于機器人法則的教育載體之人工智能的開發倫理準則,建立基于正義論的教育理型的算法設計與使用準則,制定基于教育目的之人的全面發展的人工智能共享準則,實現教育對技術的規制、引領與超越。
關鍵詞:人工智能;制度準則;機器人法則;算法分配;人的全面發展
作者簡介:惠文婕,中國人民大學教育學院博士后、講師(北京 100872);宣小紅,中國人民大學書報資料中心編審 (通訊作者:2733883261@qq.com" 北京 100872)
基金項目:全國教育科學規劃2021年度國家青年項目“人工智能時代高等職業教育人才培養效率及其影響因素研究”(項目編號:CJA210258)
中圖分類號:G420" "文獻標識碼:A" "文章編號:1009-458x(2025)2-0092-16
新一輪科學技術革命的發展引起了教育學界的探討與爭鳴。尤其是人工智能、云計算和腦科學等一系列新興科學技術的發展,使教育界重新思考教育活動變革。新時代技術在教育領域中的深入運用在本體意義上開始動搖我們原有的對教育的理解、判斷和追求(唐漢衛, 2018),最為突出的是當前教育主體如何看待新興技術,并與之建立真正服務于教育理想與價值的人機關系,即人工智能融入教育活動的制度準則。本文試圖建立“載體—理型—目的”的理論框架,從普遍性原則探討人工智能融入教育活動的制度準則,以期為促進人工智能與教育的良性融合提供些許啟示。
一、問題提出
(一)人工智能融入教育的倫理困境與現狀
教育邁入數字化階段最顯著的特點之一就是教育領域中以算法技術為核心的人工智能的使用。人工智能與教育領域的深度融合,首先帶來組織行為直接發生變化的一階效應,即教育活動領域中教育主體、教育教學過程、教育評價等要素的直接變化;其次帶來數據資源積累、數據資源使用以及數據形塑教育活動主體的二階效應(Leonardi, 2021)。其中二階效應的影響將會非常深遠,帶來諸多實踐困境。如教育主體面臨復雜的倫理困惑;技術層面面臨決策倫理問責、算法倫理和數據倫理等問題;社會層面引發新的社會不公平(鄧國民 amp; 李梅, 2020)。當前,科技領域對人工智能倫理準則的討論已達成基本共識(陳小平, 2019);金融領域亦呼吁對人工智能向善的引導(錢斌, 2024);教育領域有關人工智能倫理的討論也在借鑒與比較中逐步形成一些倫理內涵與建構原則(杜靜 等, 2019),深入分析了人工智能與教育融合創新中存在的內在倫理秩序和外在倫理規約的倫理內涵(謝娟, 2023),在同時遵循技術倫理與教育倫理的理念下梳理了教育人工智能倫理原則的四個向度(趙磊磊 等, 2021),提出了教育人工智能的倫理框架(胡小勇 等, 2022)和治理體系(王佑鎂 等, 2023),依據教育人工智能應用場景與倫理風險來源提出了教育數據風險、機器算法風險、技術本體風險和教育應用風險的分類框架(王佑鎂 等, 2024),對如何保障教師與學生在人工智能技術沖擊下的教育權和主體地位進行了倫理策略探討(周東, 2024; 楊九詮, 2024)。
總體來看,目前建立教育領域人工智能倫理框架和原則的方法有橫向比較借鑒、基于教育實踐經驗總結和從哲學視角出發探討三種方法。其中橫向比較借鑒包括參考國際標準和指南、參考法律法規和技術倫理準則,并依據教育領域的倫理特色進行建構。這種方法可以快速建立起一套可行的教育領域人工智能倫理框架,并進行適應性調整,但忽略了教育領域的獨特之處,無法完全涵蓋教育領域的特殊情境和面臨的倫理挑戰。基于教育實踐經驗總結包括實證調查、專家討論和共識建立等方式。這種方法可以對教育過程中的實踐問題進行針對性解決,但可能缺乏理論支持,不能形成系統的謀劃與規制,其可行性容易受到技術快速迭代的影響。從哲學視角出發能夠為教育領域人工智能倫理框架的探討提供深入的理論支持,通過深入考慮教育領域中的價值觀念、人的本質等問題,提供更為靈活和可塑的思維方式,使得倫理框架更具有普適性、全面性和靈活性,但也存在抽象性和理論脫離實踐的問題。
綜上,當前對人工智能融入教育活動的制度準則的研究尚未達成共識,在應然層面還未有充分的哲學討論。面對新生事物及其帶來的未知改變與挑戰,我們需要從普遍性的規律和原則視角進行探討。柏拉圖(Plato)的理型論,目前被稱為普遍性問題的解決方案。因此,為了掌握以數字技術為基本要素的教育活動主導權,本文將以“建構一個什么樣的未來教育”為思考起點,堅持教育自身的精神與規律,借鑒柏拉圖自然哲學觀點中的概念,從“載體—理型—目的”層面思考機器與人的教育活動的關系,制定最為基礎的倫理框架和準則,對其進行最基本的規范引導。本文中準則的概念是指被參與者內化的東西:指引參與者行為的是他們自己對應該做什么的認識,是他們對他人的社會義務,是對共同價值的承諾(W·理查德·斯科特 amp; 杰拉爾德·F.戴維斯, 2011, p.295)。
(二)人工智能融入教育活動帶來新的倫理訴求
人工智能的一階效應貫穿在教育的各個活動過程中,需要基于教育自身建立智能機器在教育領域中開發的倫理原則。首先,人工智能帶來教育主體邊界與內涵的改變,打破了現代科學賴以建立的主客二分、人與非人的二元論世界觀(劉復興, 2019)。機器人教師、虛擬教師、虛擬學生,甚至賽博格將逐漸成為教育主體的重要組成部分。其次,人工智能帶來教育教學過程的豐富與多元化。在虛擬教育活動中,線上教育的迅速發展催生了網校教育、大規模開放在線課程(Massive Open Online Course, MOOC)、直播和知識付費等多種教育方式和教學平臺,催生了一對一直播講解、錄播、視頻會議等多種在線教學模式。在傳統的線下教育活動中,學校建設了新的校園網絡環境、班級多媒體教室、網絡數字中心等基礎環境裝備。課堂教學引進了包含電腦、大屏顯示設備、書寫設備、擴音系統、攝像系統、錄課系統等實現資源融通共享的數字教學設備。教學評價采用了智能批改、智能組卷、題庫卷庫、學情報告分析、錯題本和基于語音識別、人機交互等人工智能技術的學業測評和教學反饋。在學校管理中采用了信息技術以實現教育管理的現代化(林松柏, 2023, p.65)。不同的人工智能產品在教育領域的應用,雖然取得了明顯的成效,但技術過熱、技術商業化和技術崇拜主義也帶來教育主體的被驅逐感,引發了學者們對技術在教育過程中使用的合理性和倫理性的呼吁:人工智能技術的使用需要我們基于教育自身的需求進行引導與規制。
人工智能的二階效應集中在數字資源的積累、數字資源的使用和數據形塑教育活動主體三個維度,其關鍵在于算法技術的發展與人的發展,因此需要從人、技術與教育的關系角度建立算法的設計與使用準則和人工智能的共享準則。數字資源的積累包含線上教育活動的網絡痕跡和線下教育活動的信息搜集,涉及產生數據的主體被動性以及數據收集的合理性、合法性。數字資源的使用涉及知識生產和教學評價中的個體權力、公共權力和智能機器權力的邊界劃分以及相應的倫理道德風險。數據形塑教育活動主體則表現為主體時空觀念的改變。時間觀念不像農業時代那樣習慣于面向過去的經驗,也不像工業社會那樣注重眼前和現在,而是更強調面向未來和如何預測未來。空間方面,教與學的空間同時被分割成不同包含關系的子空間,由此引發教師職業的內涵轉變與身份認同危機(張優良 amp; 尚俊杰, 2019),學生學習方式向自適應學習方式轉變,師生關系變得靈活、自由與民主。與此同時,教育主體將面臨信息時代網蟲、信息繭房、算法霸權以及被置于數字全景監獄的風險(方正, 2021)。
可見,在享受人工智能為教育教學帶來智能化、便利性和高效率的同時,如何規避技術濫用、數據泄密、侵犯個人隱私等倫理風險,已成為當前學術界的重要議題。這不僅是技術本身的問題,更牽涉人、技術與教育三者之間的復雜關系。因此,必須從更加系統的角度審視技術在教育中的角色。本文將從柏拉圖提出的“載體”(Receptacle)和“理型”(Forms)概念出發,構建“載體—理型—目的”的理論框架,對不同角色的技術運用提出相應的、最基本的倫理準則,以探索技術融入教育活動領域的邊界問題。
二、“載體—理型—目的”的框架分析
載體和理型是柏拉圖提出的兩個重要概念。他在《蒂邁歐篇》反復強調有三種存在:載體、理型和可感事物。關于這三者之間的關系,他將載體比作母親,理型比作父親,可感事物則是他們的后代。本文所使用的載體和理型的概念源自柏拉圖的自然哲學,但又有所不同。
(一)承載者——載體
柏拉圖認為載體指稱的是事物的材料來源,其本身沒有任何性質,作為萬物的原始材料(本來狀態)并不需要劃分為各個層次的質料,它永恒單一,頗有原子論的意味。載體本身就是接收器。它雖然無形無性,不可感覺,但可以接受任何形式而生成可感物體。“……事物進入它時是擁有形式的。它是承受一切形式的鑄造材料,由它所承受的各種形式所改變、所表現,并因此在不同時候看上去不一樣。這樣進進出出的事物乃是不朽存在的摹本;其中的壓模過程是令人驚奇且言之不盡的。”(柏拉圖, 2005, p.109)柏拉圖的宇宙生成論將世界分為理念世界和感官世界。載體是理念世界和感官世界的中介和工具——人類思維所能達到的最高層次的認知工具或媒介。在物質世界的生成過程中,當理念世界中的理型“照”在載體上,載體便“接受”了理型的摹本。這個摹本和作為原材料的空間合為一體而產生出可感事物。載體是理型的“接受”者。
載體在科學技術上指某些能傳遞能量或承載其他物質的物質,泛指一切能夠承載其他事物的事物(字詞語辭書編研組, 2016, p.1592)。辭海中解釋載體為承載知識或信息的物質形體(陳至立, 2022, p.2828)。從“載”字的源流來看,其有“承受”的意思,載體為裝運、承運之意(谷衍奎, 2023, p.1080)。可見,從廣義上說,舉凡概念、思想的溝通的形式以及溝通中所使用的工具,皆可稱之為載體。載體是一種具有交流、運載功能的工具,與上述柏拉圖更具抽象性質的載體概念相比,它是更加具象化的一個實體概念。
(二)實在的存在——理型
柏拉圖說:“存在著理型,不生不滅;既不容納他物于自身,也不會進入他物中:不可見不可感覺,只能為思想所把握。”(柏拉圖, 2005, p.36)由此可以看出理型是理性的對象,理型是本原,是“不朽存在”。理型雖然不容納也不進入其他事物,但它通過自己的摹本壓印在載體上面生成可感知物體,也就是人類可感知的萬事萬物。理型具有幾個特點。一是本質與屬性。理型代表了理念世界中的本質或形式,是超越感官世界的普遍性和永恒性的存在。每一個物體在感官世界中都有自己的屬性和特征,這些屬性和特征是由理型決定和塑造的。二是普遍性與不變性。理型是普遍的,存在于一切同類事物之中。如美、善、真等理型適用于所有美麗的事物、善良的行為和真實的言語。此外,理型是不變的,不受時間和空間的限制,永遠保持不變。三是理型是理性的對象。柏拉圖認為理型不是通過感官經驗獲得的,而是通過思維和理性的把握。四是為事物提供形式、結構的來源。理型為萬物提供了形式和結構的模板,是萬物的原型和范例。感官世界中的一切事物都是理型的參照物或“影子”,通過柏拉圖的“塑造”過程,理型在物質世界中呈現出各種形態。五是理型的多元性。盡管存在多種理型,但這并不意味著每一個理型都是獨立存在的。相反,理型之間存在一種有序關系,它們相互聯系、相互作用,共同構成了理念世界的完整結構。
(三)從載體和理型到目的論
本文中載體和理型的概念是對上述載體和理型概念的遷移與應用。這兩個概念及其關系為我們看待當前人工智能技術提供了新的視野。
首先,人工智能技術可以被看作一般概念的載體。一方面,技術滿足柏拉圖載體概念中“載體不能承接載體”這一內涵。亞里士多德(Aristotle)指出,自然(physis)和技術在本體論上是不同的,因為自然的事物有一個內在的生成和運動原則,以及一個內在的目的論的最終原因,而技術是由一個外部原因和一個外部目的(目標或目的)塑造的。自然的事物都有自己的目的和自我復制,而技術卻沒有。從這個層面講,技術符合柏拉圖說的載體不能承接載體本身。另一方面,技術可以揭示并產生可感知事物,是人類認識世界的工具或媒介。海德格爾(Heidegger, M.)認為技術具有一種“解放”或“揭示”世界的功能,技術是座架,它可以將一切事物都視為可利用資源的框架或架構(吳國盛, 2022, pp.292-306)。目前眾多高新技術的發展共同組成了人類思維所能達到的最高層次的認知工具或媒介。此外,技術可以作為接受者。技術是人類認識世界并改變世界的手段,是人類實現欲望目的的重要途徑。如果說理型存在于人的思想與目的中,那么這一理型通過“照射”在技術系統上,就可以創造出符合人類期望的可感知事物。可以說,將人工智能定義在載體類別中,就從屬性上確定了人工智能是人類主動對其進行使用來創造人類福祉的一種手段和工具,從而防止陷入“技術決定論”和技術遮蔽的陷阱之中,這也包含了人類對這一載體使用或不使用的自主選擇權。
其次,人工智能技術日益成為教育領域的重要載體。人工智能技術在教育數字化轉型中日益充當載體的角色,它不僅是傳遞信息的媒介,更是教育理型的接受者和轉化者。它本身并沒有固定的教育價值觀或理念,卻能夠接受不同的教育理念、模式和目標,并通過技術加以實現,將抽象的教育理型通過智能化的系統轉化為可感知的學習體驗、互動環境和教學過程。同時,人工智能技術具備高度的可塑性和適應性,能夠承載具有不同價值的教育理型,按照不同的教育體系、文化背景和教學場景進行調整和適應。可以說,人工智能會從本質上改變教育活動中的主體關系,成為人獲取知識的重要媒介。雖然當前對人工智能沒有普遍的定義,但其本質是關于知識的學科——怎樣表示知識以及怎樣獲得知識并使用知識的科學。人工智能在教育中的應用正是對這一思想的實踐,它使知識的獲取方式發生了深刻變化,影響了教育主體之間的關系。如當前清華大學的本科教學開始訓練并引入人工智能助教:教學助理負責收集整理師生在課堂中的數據信息,將這些數據信息喂養給人工智能助教,對其進行訓練。這樣的人工智能助教如果訓練得當,不僅可以幫助教師在課堂上更高效地傳遞知識,還能通過數據分析提供個性化的學習反饋,增強學生的自主學習能力。這種轉變讓人工智能成為教育過程中不可或缺的知識媒介,并可能會成為學習者高效獲取知識的第一載體。
再次,柏拉圖的理型概念是一般事物的普遍概念。具體在教育中,教育理型指的是教育活動中超越現實實踐的理想狀態或終極目標。教育理型既不同于現實中的具體教育行為或制度,也不是特定歷史或文化背景下的教育模式,而是教育的永恒本質與核心價值,是教育作為自身存在的“不朽存在”。教育理型追求的是知識、德性、公正與終極意義的統一,它不受歷史、文化、社會等因素的影響。
最后,目的是人類理型與載體結合的主動性動力。柏拉圖的理念論是一種外在的有神目的論。在柏拉圖的哲學體系中,理型是每一種事物的完美、永恒的本質,而載體則是理型在感官世界中的具體表現和實現。柏拉圖認為,理型雖然超然獨立于具體事物,但它賦予了這些事物一種內在的方向性和目的。這個“目的”是一種驅動的力量,是讓理型在載體中得以顯現的主動性動力。柏拉圖的理論雖然帶有抽象的神學色彩,但他試圖說明我們做出價值判斷的能力(撒穆爾·伊諾克·斯通普夫 amp; 詹姆斯·菲澤, 2005, p.56)。正是人類存在的一種對目的或價值的覺知,才賦予了人類理性的活動,而理性是一種追求目的并對目的進行權衡的能力。另外,舍勒(Scheler, M.)指出技術的根基在于種種無目的的欲望(吳國盛, 2022, p.9),這一論斷揭示了技術起源的無目的論,亦符合柏拉圖對載體無性的定義。這種觀點表明理型與載體相結合的無目的性。但這種無目的的狀態并非永久存在。隨著人類文明的進步,人類開始將自己的理型(即理性化的目標、價值和理念)賦予技術,并引導其發展。通過賦予技術明確的目的性,人類實現了理型與載體的有機結合。在現代技術中,理型與載體的結合并不是混亂無序的,而是為了實現某種統一性或終極目標,如對理性、正義、智慧等理念的終極目標的實現。在教育系統中,正是通過對教育理型的引入,才能將符合教育發展規律的秩序帶進人工智能的載體世界。
綜上所述,如果將教育看作一個具有自主性的有機系統,那么教育系統可以看成三個層面的結合過程:以技術系統作為載體,以教育理型與之結合,實現教育系統的目的(這種教育目的帶有一定的價值判斷),生成未來實踐層面的、可感知的教育活動(如圖1所示)。由此,我們可以建立起“載體—理型—目的”的理論框架,這一框架可以用于人工智能倫理討論的分類與范疇劃定,劃定當前學術界對人工智能帶來的倫理問題的擔憂與討論是處于哪個層面。
三、建立載體、理型和目的層面的人類教育活動制度準則
教育作為一項以人為中心的活動,其制度準則不僅是對教育過程的規范,更是對教育理念和目的的體現。因此,從普遍性原則探討人工智能融入教育活動的制度準則,需要以“載體—理型—目的”理論框架為基礎,從教育活動的基本要素出發,明確技術應用的道德與價值邊界,凸顯技術在教育活動中的工具性與價值承載性。
(一)基于機器人法則規定教育載體之人工智能的開發倫理準則
人工智能在教育領域中的深入運用逐漸成為一種不可阻擋的趨勢,也是未來教育高質量發展的內在需求,其在教育領域中的應用核心是借助大量的教育活動數據與不同的算法技術。由此產生一個不可忽略的嚴重擔憂:在大多數情況下,人工智能產品是按照人工智能決策者和開發者的立場設計的。若我們把關乎教育領域的重要活動和原則放權或委派給人工智能決策者或開發者,就會將教育活動乃至社會置于極大的風險之下。因此,要確保人工智能等新技術融入教育,最大限度地有利于教育的發展,就需要我們努力確保引進教育技術的方式一開始就能贏得教育共同體的信任和信心,能夠為教育領域爭取最大的利益,并主動阻止任何潛在的、意想不到的后果。
教育領域中人工智能的開發必須遵循教育主體“人”的最高地位。1942年,艾薩克·阿西莫夫(Asimov, I.)在《我,機器人》(I, robot)一書中,首次提出著名的“機器人學三大法則”。其中,第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管;第二定律:機器人必須服從人給予它的命令,當該命令與第一定律沖突時例外;第三定律:機器人在不違反第一、第二定律的情況下要盡可能保護自己的生存。(Asimov, 2004, p.27)在阿西莫夫創作一系列機器人短篇科幻小說并提出“機器人學三大法則”時,世界上還沒有機器人,但隨著第一臺工業機器人的誕生,人們開始重新審視這些看似科幻的技術法則,對這些法則的模糊性和漏洞進行探討與補充,形成了多種基于三大法則的規則集。如機器人不能傷害人類的感知能力,或者不作為讓人類的感知能力受到傷害;機器人必須時刻確認其作為機器人的身份;機器人必須能夠向公眾識別自己(“對稱識別”); 機器人必須能夠向公眾解釋其決策過程(“算法透明度”); 所有被賦予類似人類理性和良知的機器人都應該以兄弟情誼的精神對待彼此。可見,在所有機器人的法則或規則中,都強調對人主體性的最高維護。因此,我們可以借鑒這一原則的理念,規定教育領域中人工智能的開發倫理準則。
第零原則:教育界的人工智能開發與應用必須以機器人學原則集為基礎。機器人哲學以及倫理學是未來智能機器發展的基石。即使在機器智能還未達到人類智能時代的現在,也需要考慮這一原則。如需要我們共同以科學理性的方式考慮“引進的眾多教育技術(如AR)是否會傷害人的感知能力”這一命題,需要大量教育研究者進行基礎研究并予以數據集支撐,以此來訓練智能教育機器明白這一規則的意思。現有研究發現,把一些簡單的心理搜索轉包給谷歌可能會降低我們大腦可靠存儲和回憶記憶的能力(Sparrow et al., 2011);由于我們人類皮質容量所能提供的群體規模限制大約為150人,因此頻繁連接社交媒體和虛擬現實環境可能會使得我們的大腦皮質過度勞累,從而引發焦慮以及注意力、認知甚至記憶障礙(Nicolelis, 2017);互聯網對我們的注意力、記憶過程和社會認知等方面產生了快速和持續的改變,對人類的大腦結構和功能產生了影響(Firth et al., 2020)。未來,我們需要更多這樣的研究來訓練智能教育機器人。此外,人工智能在機器學習過程中必須遵循“對人類有益”原則,并需要生成解釋機器學習的學習過程記錄。“對人類有益”目前雖是一個模糊的定義,但隨著人類認知水平的提升以及多元教育研究的數據集喂養,人工智能機器將會有足夠高的智慧對是否對人類有益進行短期與長期的綜合判斷,并將這一結果予以呈現。
第一原則:教育界的人工智能開發與應用必須遵循以人為中心的原則。隨著強人工智能的到來,我們必須更加重申與彰顯人的主體地位,以防技術異化人類的品格。人工智能將為制定和實現教育目的帶來全新的算法決策過程。如果認可在足夠細致的數據粒度下,宇宙是可以計算的,或者說至少人類的符號世界是可以計算的。那么,教育目的的制定就可以依據算法的方式,進行計算模擬,以人類未來發展能力為因變量,逐步加入政治、經濟、科技、文化和社會等自變量,求得人類未來能力的發展維度與邊界以及相應的實現路徑集合。對集合結果的產生和選擇,必須遵循以人為中心的原則。這里的“以人為中心”包含“人類個體”以及“人類整體”原則,內涵這樣一種假設與理念:存在一種算法路徑,可通過以“人類個體為中心”實現“人類整體”的利益。二者之間的統一與沖突,在于人們對人類整體利益的追求方向與途徑,未來的算法智慧有望提供更加理性客觀的圖景。
第二原則:在教育公平與效率之間,人工智能的開發與應用必須以人類公平為優先考慮原則。公平與效率是教育的兩大永恒話題。算法時代的人工智能帶來教育公平的內涵轉變:不僅包括人與人之間的教育公平,也包括人與機器之間、機器與機器之間的教育公平。因此,需要我們建立基于人機關系的新的教育公平與效率觀念。在未來人類發展的無限可能中,公平與效率之間的最優解是否存在還有待于人類進一步的探索,但二者處于動態發展的過程中是毋庸置疑的。教育具有公益屬性,是調節社會差距的主要途徑,在公平與效率向最優解動態演化的過程中,需要在兼顧公平與效率的前提下,遵循公平優先原則,并堅持透明性原則,使結果具有可理解性。與此同時,隨著機器自我學習能力的提升,我們必須警惕機器教師、機器學生對人類教育主體帶來的公平損益。這些現象在其他行業領域已經出現。2022年11月,美國加州聯邦法院一項針對人工智能編程輔助工具GitHub Copilot提起的新訴訟(DeGeurin, 2022),挑戰了支撐過去30年來一些最重要人工智能進步的基本原則。Copilot是微軟公司開發的一種托管數億個軟件項目代碼的智能編程助手,可以在程序員工作時自動編寫工作代碼,提升編程人員的工作效率,但它偶爾會從公共代碼存儲庫的數百萬行中復制可識別的代碼片段且不提供署名,這不僅可能構成侵犯版權問題,也違反了微軟公司自身的服務條款和隱私法。這一案件的有趣點在于:人類程序員也在工作中研究、學習和復制彼此的代碼,但他們并不認為人工智能做同樣的事是公平的。更甚至于在視覺藝術創作領域,從人類先前作品中訓練出來的“人工智能助手”,可以產生優勝于人類自身學習的作品,但這些作品能否和人類作品一起參與競賽還備受爭論。可以預見,在不久的將來,我們必將面對從人工智能機器(也稱智能體)這一維度帶來的公平與效率的抉擇問題。
第三原則:教育界的人工智能開發與應用必須明確其功能僅僅是教育與學習的工具。隨著人工智能的發展和人與智能機器的結合,智能機器必將成為教育主體和教育對象的一部分。如何區分智能機器的教育者和學習者與人的教育者和學習者,就成為必須面對的話題。因此,從技術為人類服務的原則出發,人工智能是為人類知識創新提供方法和途徑的工具,不可超越人的主體地位。2024年7月,歐盟(European Union, 2024)推出了《人工智能法》,這為歐盟所有行業的人工智能監管和負責任發展奠定了基礎,其中規定在教育領域不允許進行情緒判斷,這或許可以為我們提供些許借鑒。
第四原則:教育界的人工智能開發與應用必須為人類的靈魂留有棲息之地。教育具有保守性,需要延續和傳遞多樣性的文化與文明。我們必須承認,人對科技發展具有不同的適應性,在科技發展中,個體與科技之間的沖突必然存在,這種沖突的調適需要一定的發展過程。因此,教育技術的開發與應用必須為人類的精神提供人文庇護,給個體提供無差異的選擇空間。無差異的選擇空間是這樣一個空間,在這個空間內,技術與教育的融合程度或者方式是不同的,但受教育的個體從中得到的效用程度卻是相同的。以目前存在的多種教育空間為例,在元宇宙技術發展下,諸事物的呈現方式和感知有了多種途徑。在呈現方面,物理的/物質的實體存在,既可實體呈現,也可虛擬化、增強化呈現;表征的/想象的意識存在,既可由個體想象,也可通過虛擬空間的模擬和創造進行呈現;甚至人類獨有的移情之能力,也可以通過信息/信號的模擬進行物理傳輸。在感知方面,通過肉身化意識感知世界(埃德蒙德·胡塞爾, 2018, p.20)和通過技術化模擬感知世界的方式并存。因此,算法時代教育活動的空間改變必須基于不同教育主體的需求,在時間維度的約束下進行靈活的組合,創建以人為中心的、保護個體差異的無差別教育空間。
第五原則:教育界的人工智能產品在自己設計新算法的過程中,必須遵循以上原則。這一原則是人工智能產品學習過程中的內置原則,即所謂的機器人繁殖原則:在機器制造機器的過程中,首先需要遵循這一原則,將這五條原則內置于任何一個新智能技術產品中。
需要說明的是,如果我們對這五條原則中對應的概念形成共識,并進行數據標記,那么這五條原則在理論和程序上是可以設計與實現的,可以生成固定的最基礎的代碼,嵌入每一個在教育領域使用的人工智能產品中,以保證未來生產的每一個人工智能機器對教育系統是有益的。
(二)基于正義論的教育理型建立算法的設計與使用準則
“善”是柏拉圖理念世界的頂點(黑格爾, 2013, p.165)。正義是在人類社會中實現善的一種方式。正義促使個體和社會達到一種內在的和諧和完美狀態,與善相契合。教育作為塑造靈魂的過程,以培養智慧與美德為目標,是實現正義的重要手段之一。因此,正義可視為教育的理型。從正義論視角探討算法技術的設計與使用準則,有助于將技術實踐與追求社會善相結合。
算法時代的到來,為教育與人的發展創造了無限的機遇,需要倡導建立新的教育發展觀。目前學者(曹培杰, 2018)認為從“工業化教育”向“智能型教育”轉變可能有三重境界:賦能教育,最大限度地提升“標準化教育”的運行效率;創新教育,促進“標準化教育”向“個性化教育”轉型;重塑教育,推動教育從“去標準化”階段邁向“去制度化”階段。在將技術引進教育的過程中,不能回避潛在的倫理和價值風險,必須回答人的禁錮和自由、人的真實和虛擬、人的同質化和個性化、學校的存在和滅亡、社會競爭的加劇和減緩、教育布局的公平和效率、教育的價值和意義七對命題。這七對命題都與正義有著密切的關系:個體的自由、公平的對待、平等的機會、競爭的公平、資源分配的公平和人類享有價值與意義的權利。
回答這七對命題的關鍵就在于如何用數據喂養機器,如何利用與評價算法技術的使用。技術革命深刻改變著社會發展,評價技術的發展之善在于其是否滿足并有利于人類社會基石的發展。在正義論中,羅爾斯(Rawls, J. B.)把正義觀的規定視為社會發展的基石,認為正義是社會體制的第一美德,并提出了如何評判正義的基本原則。因此,從這一視角出發,探討人工智能的使用準則或許可以帶來技術“善”的使用。在算法時代,數據成為社會的主要生產資料,加工數據的能力成為獲取權力的新途徑。智能可穿戴設備、高端生命醫藥工程等技術福利該如何在社會上進行分配,也將成為重要的政治命題。“大數據算法很可能導致數字獨裁,也就是所有權力都集中在一小群精英手中,而大多數人只不過是被剝削,還面臨更糟糕的局面:如草芥般無足輕重。”(尤瓦爾·赫拉利, 2018, p.77)因此,在科技日益更新的情境下,教育需要重申人文關懷理念,重申社會正義之平等原則。在教育領域應用的任何技術,都必須考慮公平原則,制定基于正義論的算法的設計與使用準則,以防產生馬太效應。
第一原則是個體接受教育的平等自由原則。算法時代的教育發展應該確保每一個教育主體享有盡可能多的教育自由,這一自由的唯一約束條件是任何成員的教育自由不得侵犯其他成員的教育自由。與功利主義的道德理論不同,羅爾斯的正義論建立在充分尊重每一個個體的自由之上,這與我們的教育價值追求具有內在的一致性。大數據、云計算乃至算法時代的眾多智能技術在教育領域中的應用,都必須建立在充分尊重每一個個體的自由之上。教育領域中的平等自由權利大致有基本人權與自由的發展權利、平等接受教育的權利(義務教育、終身教育)、教育過程中平等對待的權利。在秩序良好的教育制度里,這些權利都是平等的。在算法時代,由于教育活動形態的改變,這些權利必然會受到技術顯性或隱性的影響,從而造成技術對個體權力的損益。因此,對任何一種技術的引進,我們可以基于博弈論在虛擬的教育活動狀態下進行模擬演化,以盡可能掌握這一技術對個體現有教育權利的影響變化,從而為技術的采用提供依據。這一方法可以借助《自私的基因》(理查德·道金斯, 2012, pp.229-258)一書中作者所介紹的對“好人有好報”這一結論的驗證方法①:將個體現有的自由權進行賦值;引進一種技術,依據這項技術對不同個體的自由權影響程度進行賦值;設置博弈模型;輸入計算機進行博弈演化,從而分析結果。
第二原則是資源分配的機會均等原則。未來,在教育領域中,資源的分配將通過國家、市場和算法分配的相互作用來實現,其分配原則需要更加強調公平、客觀、機會平等、消除貧困和享受自由。解決分配正義是羅爾斯對社會和經濟不平等開出的方劑,這一方劑的本質是在不損害任何個體現有利益的基礎上實現總體利益最大化,在分配資源的過程中強調個體的機會平等(隨機分配)。在算法時代,算法不公正的爭論焦點是社會正義的靈魂,即分配和承認。當前分配正義的實現機制是通過市場和國家的相互作用來實現,但隨著全樣本數據的積累、算力與算法的提升,算法分配將與市場和國家一起決定我們獲得重要社會物品的途徑,成為一種新的、重要的分配正義機制(杰米·薩斯坎德, 2022, pp.217-223)。在適當的要求下,算法可以克服人類決策的模糊性,產生新的透明形式,從而有機會發現在其他情況下無法發現的規則歧視。在正確的保障措施下,算法可以成為促進公平的潛在積極力量(Kleinberg et al., 2018)。已有國外學者(Barsotti amp; Ko?er, 2024)結合羅爾斯觀點的實質元素與直觀解釋,建構了從定性到定量的模型,提出了從羅爾斯原則派生出的克服當前算法偏差的最大最小公平解決方案。可見,讓算法參與分配并不是一件壞事,其核心在于如何精心地設計算法,以消除教育決策者的私心和偏見,且不增加弱勢群體對權力獲得的困難。如果想要通過算法分配實現正義的分配與承認,就必須在算法設計的最初就警惕算法基于數據的不公正、基于顯性/隱性規則的不公正,將基于共識的正義的規則植入初始代碼中。
(三)基于人的自由全面發展目的制定人工智能共享準則
目的是人類發明和創造技術的動力。教育系統對技術的積極引入,是為了實現教育系統自身的目的。在我國,人的全面發展是馬克思主義的基本原理之一,也是我國教育方針的理論基石,是我國教育系統的應然目的。目前,從馬克思主義的視角出發,學者普遍認為人工智能拓展了人的發展向度,為人類解放和走向“自由人的聯合體”提供了可能性(吳海江 amp; 武亞運, 2019),技術與教育的融合將統一于人的全面自由的發展。因此,可以從這個目的出發,制定人工智能的共享準則。
第一原則是堅持教育界人工智能的公有制,這是人工智能發展邏輯服從人的自由全面發展邏輯的根本保障。馬克思認為技術的本質就是人的本質力量對象化的產物,是人類征服和改造自然的勞動手段,是一種生產力。技術在整個人類社會發展與歷史進步中充當著“革命力量”,發揮著“歷史的有力的杠桿”作用。技術導致的一切不道德的技術異化現象都源自技術的資本主義應用,其根源是生產資料的私有制(喬瑞金, 2006)。如果使技術不再成為資本增值的手段,使全社會的人成為全部生產資料的主人,使技術的邏輯服從于人的自由與發展的邏輯,就可以達到人和自然界之間、人和人之間的矛盾的真正解決。從這一技術哲學觀念出發,未來人工智能的發展將向著造就全社會高度發達的生產力、為人的自由全面發展提供發展空間、推動資本主義世界歷史向共產主義世界歷史轉變的方向邁進(劉旭雯, 2019)。教育作為準公共物品,需要建立對人工智能技術的公有制式開發,使技術脫離資本的驅動,確保人工智能技術發展有利于人類每個個體的發展。
第二原則是堅持教育界人工智能的民主式開發,這是教育促進人自由而全面發展的根本前提。人工智能的發展引發人類對社會的多重想象與警惕。在人工智能帶來新的經濟范式下,勞動主體、勞動內涵、勞動分工、勞動生產率、勞動的社會功能都將發生深刻變化,并通過生產系統載體變革,催生促進人的全面發展的勞動機遇。這種變化為技術革命中過剩人口向“完整的人”過渡提供了條件,服務于人的全面發展的新興行業將逐漸興起,勞動由生存手段向發展手段轉變越來越明顯,教育與生產深度融合將是新的生產力條件下“勞動方式—人的發展”這一哲學紐帶的新模式(張新春 amp; 董長瑞, 2019)。與此同時,技術變革的指數級加速使社會生產關系深受考驗,新技術的廣泛應用雖在短期內能對生產力的發展達到可視化的預期效果,但從長期來看,新時代社會矛盾、技術異化、職業轉換、社會關系異化等都在挑戰“個人全面發展”的實踐邏輯(張學敏 amp; 周杰, 2020)。我們必須注意到在教育領域中人的主觀范疇,人的全面發展是否能夠實現,取決于全社會不同主體的觀念之間的動態博弈過程。需要明確的是,個體自由是全面發展的基石,沒有個體的自由,就不會有人與社會的全面發展。基于此,我們需要重申批判哲學的一個觀點:我們可以將技術提交給更民主的設計和開發過程來馴服它。在積極推進智能化的過程中,充分利用大數據和人工智能給人類帶來的自由、自主、自治,開放程序的快捷、便利、共享和共贏。將人從自然的束縛、制度的束縛、社會的束縛、人自身的束縛當中解放出來,促進人自由而全面的發展。
四、結語:教育對技術的規制、引領與超越
自2012年以來,隨著算法技術的層出不窮,人工智能的應用開始全面覆蓋日常生活、科學研究、社會治理、商業創新和國家安全等經濟社會的關鍵領域,在醫療、金融、安防、交通、物流、教育等多個方面,以空前的廣度和深度推動社會發展。人工智能的成功彰顯了算法的重要性和算法的威力,并將在未來繼續產生越來越大的影響,塑造人們的工作和生活。我們已經將世界建構在了機器學習和算法之上,現在能做的就是如何更好地理解和管理算法技術,以開放包容的姿態迎接新技術對教育領域帶來的機遇和挑戰。
一是需要我們教育工作者積極學習、研究新的技術,在教育實踐活動中開展教育實證研究,從上述人工智能開發的倫理準則、算法的設計與使用準則、人的全面發展準則出發,評價所用技術對教育工作帶來的影響,匯集眾多的教育實踐經驗與數據,通過民主方式共同在此基礎上構建教育領域中的制度遵循原則。
二是需要教育領域更加承擔起“哲學工程師”的培養重擔。創造算法時代的責任永遠應該落在人類的肩上。在這個時代里,代碼是機會的引擎,而非不公正的引擎。我們有責任不遺余力地“教導”機器區分正義與非正義。監控和防止算法不公的工作不能留給單一的某個群體。但不得不承認,軟件工程師將越來越多地成為數字生活世界的社會工程師,他們的個體偏見將會有意或無意地影響算法的公正與否。因此,教育必須承擔起培養符合社會發展正義觀的“哲學工程師”的責任。
三是需要教育更加承擔起控制或規范技術在社會中應用的時代責任。技術決定論者和實體論者都認為技術具有其內在的發展規律,技術可以按照效率和進步的要求來塑造社會,一旦人類社會走向技術發展的道路,社會就有可能發展成為一個效率和權力的社會。正是基于這樣的擔憂,我們更需要時刻清楚人類、教育和機器的邊界關系,設計更加合適的制度來控制技術。我們可以將技術提交給更民主的設計和開發過程來馴服它。我們應該致力于改善民主,從而能夠徹底實現人類對技術的控制。
參考文獻
W.理查德·斯科特, amp; 杰拉爾德·F·戴維斯. (2011). 組織理論:理性、自然與開放系統的視角(高俊山 譯). 中國人民大學出版社.
埃德蒙德·胡塞爾. (2018). 《共主觀性的現象學》(第一卷)(1905-1920)(倪梁康 主編). 商務印書館.
柏拉圖. (2005). 蒂邁歐篇(謝文郁 譯). 上海人民出版社.
曹培杰. (2018). 智慧教育:人工智能時代的教育變革. 教育研究(8), 121-128.
陳小平. (2019). 人工智能倫理體系:基礎架構與關鍵問題. 智能系統學報(4), 605-610.
陳至立. (2022). 辭海(第七版)(縮印本). 上海辭書出版社.
鄧國民, amp; 李梅.(2020). 教育人工智能倫理問題與倫理原則探討. 電化教育研究(6), 39-45.
杜靜, 黃榮懷, 李政璇, 周偉, amp; 田陽. (2019). 智能教育時代下人工智能倫理的內涵與建構原則. 電化教育研究(7), 21-29.
方正. (2021). “數字規訓”與“精神突圍”:算法時代的主體遮蔽與價值守衛. 云南社會科學(1), 150-157.
谷衍奎. (2023). 漢字源流大字典. 商務印書館.
黑格爾. (2013). 《哲學史講演錄》(第二卷)(賀麟, amp; 王太慶 譯). 上海人民出版社.
胡小勇, 黃婕, 林梓柔, amp; 黃漫婷. (2022). 教育人工智能倫理:內涵框架、認知現狀與風險規避. 現代遠程教育研究(2), 21-28, 36.
杰米·薩斯坎德. (2022). 算法的力量:人類如何共同生存(李大白 譯). 北京日報出版社.
理查德·道金斯. (2012). 自私的基因(盧允中, 張岱云, 陳復加, amp; 羅小舟 譯). 中信出版社.
林松柏. (2023). 基于能力范式的教學改革理論創新和實踐. 科學出版社.
劉復興. (2019). 論教育與機器的關系. 教育研究(11), 28-38.
劉旭雯. (2019). 人工智能視域下的分工與人的全面發展——對馬克思分工理論的思考. 社會主義研究(4), 25-31.
錢斌. (2024). 推動金融領域人工智能向善的思考. 新金融(8), 8-11.
喬瑞金. (2006). 馬克思技術哲學思想精要. 哲學堂(0), 1-19.
撒穆爾·伊諾克·斯通普夫, amp; 詹姆斯·菲澤. (2005). 西方哲學史(第九版)(鄧曉芒, amp; 匡宏 等 譯). 北京聯合出版公司.
唐漢衛. (2018). 人工智能時代教育將如何存在. 教育研究(11), 18-24.
王佑鎂, 房斯萌, amp; 柳晨晨. (2024). 風險社會視角下教育人工智能倫理風險分類框架研究. 現代遠距離教育(3), 28-37.
王佑鎂, 王旦, 梁煒怡, amp; 柳晨晨. (2023). 敏捷治理:教育人工智能倫理治理新模式. 電化教育研究(7), 21-28.
吳國盛. (2022). 技術哲學經典文本. 清華大學出版社.
吳海江, amp; 武亞運.(2019). 人工智能與人的發展——基于馬克思人學理論的考察. 學術界(3), 75-81, 237.
謝娟. (2023). 人工智能與教育融合創新之倫理內涵及實現路徑. 中國遠程教育(2), 1-8.
楊九詮. (2024). 想象的困境:生成式人工智能世代的價值教育. 中國遠程教育(2), 12-23.
尤瓦爾·赫拉利. (2018). 今日簡史:人類命運大議題(林俊宏 譯). 中信出版社.
張新春, amp; 董長瑞. (2019). 人工智能技術條件下“人的全面發展”向何處去——兼論新技術下勞動的一般特征. 經濟學家(1), 43-52.
張學敏, amp; 周杰. (2020). 技術變革下“個人全面發展”的教育選擇——新時代馬克思核心教育思想再認識. 清華大學教育研究(6), 7-17.
張優良, amp; 尚俊杰. (2019). 人工智能時代的教師角色再造. 清華大學教育研究(4), 39-45.
趙磊磊, 張黎, amp; 代蕊華. (2021). 教育人工智能倫理:基本向度與風險消解. 現代遠距離教育(5), 73-80.
字詞語辭書編研組(編). (2016). 新編現代漢語詞典. 湖南教育出版社.
周東. (2024). 人工智能時代教師的身份鏡像:困境與建構. 中國遠程教育(4), 81-93.
Asimov, I. (2004). I, robot(Vol. 1). Spectra.
Barsotti, F., amp; Ko?er, R. G. (2024). MinMax fairness: From Rawlsian Theory of Justice to solution for algorithmic bias. AI and Society, 39(3), 961-974.
DeGeurin, M. (2022, November 23). ‘A Brave New World of Software Piracy’: Lawsuit takes aim at scrapping methods underpinning modern artificial intelligence. GIZMODO. https://gizmodo.com/ai-microsoft-dall-e-
1849816871
European Union. (2024, July 12). Artificial Intelligence Act. Official Journal of the European Union. https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=OJ:L_202401689
Firth, J., Torous, J., Stubbs, B., Firth, J. A., Steiner, G. Z., Smith, L., Alvarez-Jimenez, M., Gleeson, J., Vancampfort, D., Armitage, C. J., amp; Sarris, J. (2020). The “online brain”: How the Internet may be changing our cognition. Bulgarian Journal of Psychiatry, 5(2), 58-61.
Kleinberg, J., Ludwig, J., Mullainathan, S., amp; Sunstein, C. R. (2018). Discrimination in the age of algorithms. Journal of Legal Analysis(10), 1-62.
Leonardi, P. M. (2021). COVID‐19 and the new technologies of organizing: Digital exhaust, digital footprints, and artificial intelligence in the wake of remote work. Journal of Management Studies, 58(1), 247-251.
Nicolelis, M. A. L. (2017). Are we at risk of becoming biological digital machines? Nature Human Behaviour, 1(8), 1-2.
Sparrow, B., Liu, J., amp; Wegner, D. M. (2011). Google effects on memory: Cognitive consequences of having information at our fingertips. Science, 333(6043), 776-778.
Institutional Guidelines for Integrating Artificial Intelligence into Educational Activities: Framework Analysis based on “Receptacle-Forms-Telos”
Hui Wenjie and Xuan Xiaohong
Abstract: The deep integration of artificial intelligence in the field of education not only brings about the first-order effects of direct changes in organizational behavior, but also brings the second-order effects of the accumulation and use of data resources in the field of education and data shaping of the subject of educational activities. The impact of the second-order effects can be very profound. Therefore, in order to ensure the integration of artificial intelligence into educational activities and maximize the development of education, the relationship between machine and human in educational activities should be thought about from the perspective of “Receptacle-Forms-Telos”. This entails establishing ethical guidelines for the development of artificial intelligence as an educational “Receptacle” based on the Three Laws of Robotics, formulating design and usage norms for algorithms grounded in the theory of justice as the educational “Form”, and devising shared principles for artificial intelligence based on the educational “Telos” of holistic human development. These efforts aim to regulate, guide, and transcend technology through the lens of education.
Keywords: artificial intelligence; institutional guidelines; Three Laws of Robotics; algorithm allocation; holistic human development
Authors: Hui Wenjie, lecturer and postdoctoral fellow at the School of Education, Renmin University of China (Beijing 100872); Xuan Xiaohong, senior editor at the Information Center for Social Science, RCC (Corresponding Author: 2733883261@qq.com Beijing 100872)
責任編輯 劉 莉