999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

算法教育治理:技術邏輯、風險挑戰與公共政策

2020-05-26 09:25:18肖鳳翔張雙志
中國電化教育 2020年1期
關鍵詞:大數據人工智能

肖鳳翔 張雙志

摘要:智慧學習、智慧課堂、智慧校園等智慧教育的具象形態,從本質上來說,就是算法學習、算法課堂、算法校園,這也使得算法教育治理日益成為教育現代化進程中不可忽略的研究議題。遵循“技術邏輯一風險挑戰一公共政策”的分析框架對算法教育治理進行系統探討,發現由于數據鴻溝、算法黑箱、效率優先等眾多因素的復合影響,導致算法教育存在自我強化偏差、技術控制困境、主體性危機等治理難題,也讓教育公平、教育平等、教育效率等傳統議題在“互聯網+教育”時代顯得更加突出。為規避只注重相關關系描述,而不重視因果關系研究的算法給教育帶來的風險挑戰,可從算法教育基礎的數據正義、算法教育程序的合理公開、算法教育結果的有限使用等三個層面開展對算法教育治理的公共政策選擇,以更好地推動人工智能在實現發展更加公平更有質量教育過程中的重要作用。

關鍵詞:人工智能;大數據;算法;算法教育;算法教育治理

中圖分類號:G434

文獻標識碼:A

一、問題提出

2019年的政府工作報告明確指出,“互聯網+教育”是實現教育基本公共服務均等化、推動發展更加公平更有質量教育的重要途徑。其中,教育移動互聯網應用程序(教育APP)是“互聯網+教育”的重要載體,極大地整合了學生、家庭、學校、企業、政府等社會資源,豐富了教育方式與學習渠道,成為促進教育現代化發展的新動力。從本質上來說,教育APP是人工智能在教育領域的特定應用,搜集了學生、教師、家長等教育用戶在互聯網上產生的教育大數據,通過機器學習算法處理生成學習評估、成績預測、課程定制、高校自主招生、高考志愿填報、職業生涯規劃等推算結果,以影響線上線下的教育資源配置。以“深度學習”(Deep Learning)為代表的機器學習算法,讓發端于1956年達特茅斯會議的人工智能迎來了其歷史上的第三次崛起,而這次人工智能的迅猛發展有望助推人類社會從工業社會、信息社會到智能社會,甚至是智慧社會的跨越,實現人類社會形態的重塑與變革[1]。人工智能的發展與應用在教育領域產生了一系列新概念,例如智慧學習、智慧課堂、智慧校園、智慧教育等,它們的核心要素皆是支配其運行發展的機器學習算法。實質上,這些新概念應該被準確地稱為算法學習、算法課堂、算法校園、算法教育。換言之,算法早已滲透在教育生活的方方面面,算法教育時代已經悄然來臨。

例如,南京大學運用“推薦算法”對2018級新生的生活作息習慣、興趣愛好、交友觀念等迎新網調查數據進行分析,自動生成新生寢室分配結果。2019年8月,同樣位于南京的中國藥科大學在部分教室先行安裝了人臉識別系統,用于自動簽到簽退、學生學習行為識別及教師課堂教學管理。其實,早在2016年上海市小升初“搖號入學”招生錄取改革中,算法推薦結果就成為當時輿論關注的焦點。當報名的學生人數超過學校招生計劃數時,學校可根據事先搜集的學生性別、年齡、家庭地址、父母受教育程度、前置學校類型等學籍統計信息進行“電腦派位”來決定錄取名單。那么,看似公平合理的算法推薦結果是否真的能夠“祛除”歧視與偏見,完全實現“價值中立”,解決現實教育生活中一直固有的教育不公平問題?2009年,美國華盛頓特區政府利用一套自動化算法程序對教師業績進行評價時,將一名被普遍認可的教師Sarah Wysocki和其他因得分不佳的205位教師一起解雇了,這引發了當地教育系統的普遍質疑。然而,華盛頓特區的這起教育烏龍事件,根源卻在于測評程序將少數族裔學生群體的學習成績比重賦值過高,而沒有考慮到均衡問題,有意或無意形成了對白人學生群體的算法歧視。

算法不僅規定了“智能體”(Agent)所欲達成的行為目標,也預設了其為實現此目標應遵循的行為路徑。簡單來說,算法就是可以讓智能體自動執行任務的一套數字代碼規則,這也是新一代人工智能得以迅猛發展的核心要素。舍恩伯格(Schoenberg)等在《大數據時代:生活、工作與思維的大變革》中明確指出,在信息爆炸的時代,人類只需要知道“是什么”,而不必去探究“為什么”[2]。也就是說,在大數據時代重要的是相關關系,而不是因果關系,這對人類千百年來的傳統思維定勢提出了全新的挑戰。然而,教育作為一項獨特而義復雜的人類社會活動,以培養人為根本目的,不僅要知其然,更要知其所以然。因此,算法教育不能只是相關關系的分析,更要注重因果關系的探究。顯然,這對于“弱人工智能”時代的算法教育而言,是一個短時間內難以逾越的技術鴻溝。算法在重塑一個更加便捷、高效與良性循環教育生態圈的同時,也由于“算法黑箱”的客觀存在,使得教育公平、教育平等、教育效率等傳統議題在“互聯網+教育”時代顯得更加突出。算法難以審查、不易識別、不可公開性等內在缺陷,所導致的算法歧視、算法鴻溝與算法操縱,已經引發了社會民眾對智能教育的普遍憂慮和指責。因而,我們在肯定大數據、人工智能等“互聯網+”時代科技產物對教育現代化發展貢獻的同時,也要前瞻性研判在傳統教育向現代教育轉型過程中所面臨的新型治理挑戰,濫用“人工智能”并不利于教育發展[3]。可喜的是,2019年9月,教育部、中央網信辦等八部門聯合發布了《關于引導規范教育移動互聯網應用有序健康發展的意見》,在國家層面對“互聯網+教育”開始實施公共政策的規制治理。鑒于此,本文遵循“技術邏輯一風險挑戰一公共政策”的分析框架,試圖對算法教育治理提出切實可行的政策建議,以期更好地發揮人工智能在發展更加公平更有質量教育進程中的重要作用。

二、算法教育的技術邏輯

人工智能的第三次浪潮讓人類看到了顛覆“波蘭尼悖論”(Polanyi Paradox)的希望,這不僅得益于大數據幾何級數增長和運算力日趨高端精密化,更主要歸功于以深度學習為代表的機器學習算法劃時代的突破進展。機器學習算法通過數據搜集、數據清洗、變量表征、相關性探索等統計分析手段,將海量的高維、非結構化數據進行降維、結構化處理,以期對事物“是什么”這個問題做出更為全面、準確與清晰的描述刻畫。從內涵構造來說,“技術基礎層一技術程序層一技術結果層”有序形成了技術的發展邏輯,為探究技術進步的內在機理提供了切入視角。因此,通過對算法教育之基礎、程序、結果等三個層面的論述,有助于從技術邏輯的角度分析算法教育在發展過程中所面臨的風險挑戰,進而為選擇治理算法教育的公共政策提供有依可循的經驗證據。

(一)算法教育基礎:教育大數據

隨著信息技術的迭代發展與“互聯網+教育”戰略的深入推進,教育事業正在快速進入大數據時代。截至2019年6月,我國在線教育用戶規模為2.32億,較2018年底增長3122萬,占網民整體數量的27.2%[4]。毫無疑問,在線教育將成為信息時代教育行業最重要的供給方式,與大數據的深度融合已成為信息時代教育發展的必然要求。在線教育用戶規模的快速增長,有助于將虛擬網絡空間與現實物理空間整合起來,獲得更加全面、真實和客觀的教育數據。具體來說,在線教育具有全員(面向所有學習者)、全程(貫穿終身學習)和全類型(面向普通教育與職業教育)的特點,能夠為“厚教育數據”的形成提供廣袤來源。大數據通過對在線教育用戶的人口統計信息、瀏覽偏好、付費金額、學習行為、跟帖討論等信息的搜集與運算,掌握學習者的偏好、態度和行為,為個性化學習推送、發展性學習評估、終身學習課程定制等提供精準教育服務。可以說,教育大數據已成為推動教育現代化變革的基礎性戰略資源,其內涵、應用、價值等研究引起了學界的重新認識與評估。

就內涵方面而言,教育大數據是指在整個教育活動過程中所產生的一切可采集到的數據集合,其主要來源于線上線下的課堂教學、教育管理、學習生活等不同教育場景。與傳統教育數據相比,教育大數據具有很強的實時性、連貫性、真實性與復雜性,這也為人工智能在教育領域的廣泛應用提供了必要的基礎支撐。從應用層面來說,教育大數據不僅有助于推動教育研究手段的多樣化、科學化與精密化,也有助于研究者更有效地對教育發展進行相關性、因果性與預測性分析。當前,教育大數據在貧困生資助、算法排位擇校、高校白主招生推薦、高考志愿填報決策、學生寢室管理、就業創業預測、學校資產信息化管理等方面已經出現了許多成功的應用案例。可以說,教育大數據在革新教育研究方法、重塑教育形態和推動教育現代化發展等方面具有巨大潛力。因此,就價值體現而言,教育大數據在與教育主流業務的深度融合中發揮其最終價值,即推動智能教育乃至智慧教育的實現。智慧教育是教育形態發展的高階層次,主張通過數據積累、技術更迭與精準服務實現智慧學習、智慧管理和智慧發展。在實現智慧教育的過程中,教育大數據發揮著推動個性化學習、教學模式改革、教育管理信息化、教育評價科學化和教育服務人性化等功能價值[5]。

(二)算法教育程序:機器學習算法

如果說大數據是信息時代的石油,那么機器學習算法就是從中提取衍生產品的煉油廠。大數據支撐了機器學習,機器學習獲取了知識信息,知識信息推動了社會進步。可見,算法在信息時代的知識生產過程中發揮了十分重要的中介作用。算法研究可以追溯至1962年弗蘭克·羅森布拉特(FrankRosenblatt)出版的《神經動力學原理:感知器和大腦機制的理論》,書中介紹了單層可變權重的神經網絡模型,被視為今天機器學習算法的初始狀態。之后,針對如何提取、表征和處理數據這一核心問題,機器學習算法的發展演變為兩條不同的邏輯進路:一條邏輯進路,主張設計者事先給機器預設好完整的代碼程序,以掌控機器從數據輸入到數據輸出的每一步;另一條邏輯進路,得益于大腦逆向工程研究的重大突破,強調機器直接從數據中進行學習、訓練與預測,完全是一個自動化決策過程[6]。1986年在美國丹佛科技中心舉辦第一屆神經信息處理系統大會之后,根植于數學、計算機科學和神經科學的深度學習在摸索中逐漸成熟起來,最終戰勝了理論建制派,成為新一代人工智能機器學習算法的主流范式。其實,深度學習算法發展的早期囿于訓練數據缺乏、計算能力不足等因素,其研究一直沒能取得實質性的突破進展。直至2006年,Hinton等學者提出了基于無監督學習與監督學習交替使用訓練深層神經網絡的基本原則后,深度學習算法迎來了重大轉機[7]。后來,Krizhevsky等學者在2012年提出的深度卷積神經網絡,伴隨著大數據的增長和運算力的提升,在圖像識別、語音識別、語言識別、視頻分析等眾多領域獲得了廣泛應用[8]。

與傳統機器學習算法不同,深度學習算法并不遵循“數據清洗一特征提取一代碼運算一邏輯推理一結論預測”的繁瑣過程,而是直接從原始數據出發,自動形成一條“學習一訓練一預測”的高效率機器運行系統。正如讓·皮亞杰(Jean Piaget)的“認知圖式”理論所揭示的那樣,深度學習算法通過對已有訓練數據的學習獲得“圖式”,隨著新訓練數據的產生,進一步在“同化”和“順應”過程中完善已有的圖式,從而獲得新的認知“平衡”,至此義重新進入下一輪的認知循環。可見,深度學習算法對大數據的學習訓練已經初步接近于人類的智力思維方式。究其原因,在于Hinton等學者提出“深度信任網絡”(Deep Belief Network)的無監督學習算法,通過對學習網絡進行貪婪的逐層預訓練,以便在時間效率上優化深度信任網絡的線性權值,進而將復雜問題逐步分解為若干更簡單的子問題來快速解決[9]。這就解決了如何將無標記數據進行機器學習訓練的難題,隨著海量的高維、無結構的無標記大數據出現之后,機器學習算法的訓練數據也呈幾何級數增長,極大地推動了人工智能時代來臨的速度。換言之,深度學習之所以能夠成為最接近類人智能的機器學習算法,就在于其表達能力靈活多變,可以對海量無標記數據進行逐層變換,且允許設計者對網絡層數進行自由設定,從而支持計算機不斷地進行嘗試直到最終接近預設目標。

(三)算法教育結果:效率優先

算法的設計初衷就是為了提升數據處理的時間效率與空間效率,其結果自然帶有明顯的效率傾向[10]。從技術層面來說,對算法在運行時間與存儲空間的資源利用效率進行分析,是算法結果研究應有的題中之義。隨著近30年以來計算機技術的快速迭代更新,運算力的計算速度與存儲空間都已經實現了質的飛躍。相比之下,現在存儲空間利用率已不再是算法結果的關注重點,而時間效率的重要性上升為當前評判算法結果優劣的唯一標準[11]。也就是說,如果一個算法的運行時間達不到預設的最低標準,那么就必須果斷拋棄它,繼續尋求別的更具時間效率的算法。通常來說,大數據具有數量多、體量大、類型雜、更新快和密度低的特點。而以大數據為運行基礎的算法,就必須通過降維與解構的方式克服和解決大數據固有的這些難題,以從大數據中快速挖掘與獲得高價值的信息。很明顯,信息不同于數據,數據需要經過算法挖掘、加工和訓練之后,才能輸出具有價值與意義的信息。那么,追求時間效率的算法,勢必會放松對算法結果精確程度的要求。即最優效率分析遠遠不如最差效率分析重要,因為最差效率可以快速確定算法運行時間的上界。

算法為了全面、快速、實時呈現事物的屬性特征,只能優先進行事物“是什么”的相關性分析,而對事物“為什么”或“怎么樣”的因果推斷關注度不夠。算法教育作為機器學習算法在教育領域的特定應用,也自然遵循機器學習算法對時間效率的路徑依賴。算法教育的結果也是優先對教育領域中發生的社會現象進行描述性(相關性)研究,而對其解釋性(因果性)分析顯然表現平平。如今,越來越多高校將人臉識別、大數據決策分析、智能終端平臺等技術引入校園,以助推智慧學習、智慧課堂、智慧校園的建設。例如,某學校為了實施“云中信大”智慧校園建設,將對學生的上網行為數據、成績數據、消費數據、社群數據等進行大數據分析,以形成教務、學工、后勤等學校管理部門對學生成績預測和預警、獎助學金評選、貧困生精準資助、心理健康服務、寢室管理等事務的決策參考。不可否認,機器學習算法能夠迅速搜集、解構、訓練與分析相關的教育大數據,為教育管理部門的決策提供了全面詳實的數據依據。然而,由學生外顯行為產生的教育大數據似乎并不能準確反映學生內在的態度、觀念等心理特征。特別是依據學生消費數據進行所謂的貧困生精準資助,姑且不論其可信程度,至少可以預見的是此舉會變相刺激相當一部分學生惡意“比窮”。這些重要的內在因果推斷分析,顯然是目前算法教育結果所無法有效呈現出來的。

三、算法教育的風險挑戰

機器學習算法的快速迭代發展對教育的影響日益凸顯,與此相隨的質疑之聲也是不絕于耳。從本質屬性來說,教育公平是教育發展的核心要義,是社會公平的重要基石,更是教育平等和教育效率相互促進的和諧統一[12]。教育實證主義雖然一再強調價值“祛魅”,但實踐證明,那種認為完全數字化的研究方法能夠為教育事業的發展決策帶來客觀量化和價值無涉的認識是不現實的,也是不科學的。在很多時候,教育問題的研究方法總是在定性與定量之間來回擺動,然而教育終究是關于人與自我、人與社會、人與自然的問題集合,不能單純地在數字量化結果中尋求終極答案。數據鴻溝、算法黑箱、效率優先等可能會引起算法歧視,而這正是教育公平所需要克服和規避的重要問題。算法教育時代,機器學習算法在給教育帶來極大時間效率提升的同時,也對教育公平產生了新的不可控因素,其風險挑戰成為教育現代化治理必須高度重視的研究議題。

(一)算法教育數據:自我強化偏差

大數據的井噴式增長促進了機器學習算法的跨越式發展,算法在本質上是數字代碼的表達,對回答事物“是什么”的描述性分析具有明顯效率優勢,而在事物“為什么”或“怎么樣”的因果關系探究中表現乏力。算法教育依賴于教育大數據,而教育大數據是從現實教育生活中抽取的,就不可避免地帶有教育發展過程中已固有的屬性與特征。如果輸入的教育數據本身是具有偏差性的,那么以教育大數據為基礎的算法教育所輸出的推算結果也很有可能帶有歧視。這是因為機器學習算法會對識別到的大數據進行學習,以形成“訓練數據”(Training Data),繼而將此訓練數據運算得出的算法結果用于下一輪的數據識別、數據訓練與結果運用。在這一過程中,很有可能會不斷重復訓練本身就帶有偏差的教育數據,固化甚至是加劇現已存在的教育不公平現象,這被稱為教育大數據的“自我強化偏差”(Self-reinforcing Bias)。2016年,美國白宮發布的《大數據報告:算法系統、機會和公民權利》基于人類社會既有的“數據鴻溝”(DigitalDivide)現實,著重考察了教育、就業、信用評分、司法量刑等領域存在的數據自我實現怪圈[13]。即那些一開始就處于被歧視狀態的教育用戶,可能不會因為機器學習算法所宣稱的“價值中立”的算法結果而改善其現有教育境遇,反而會一直處于運氣不佳的狀態。

目前,學界對教育大數據自我強化偏差的原因探究,主要集中于以下三個方面的分析:其一,教育大數據的代表性問題。教育大數據的采集來源主要是互聯網用戶,未上網的教育對象的數據是無法被現有信息技術所搜集的。也就是說,現有的教育大數據在本質上是有偏數據,只能反映連接了互聯網的教育對象的相關數據,并不是所宣稱的“全樣本數據”[14]。顯然,互聯網的接通和使用與家庭經濟收入及所在地區的經濟發展狀況是密切相關的,教育大數據中的用戶個體存在明顯的不平等。其二,教育大數據的質量問題。教育大數據的價值主要體現在機器學習算法將其進行降維與結構化處理之后,獲得反映教育社會現象的特定關系、模式和趨勢。然而,現有網絡爬蟲、編程代碼等算法技術只能對反映教育用戶人口統計信息、外顯行為特征等能夠數字化的數據進行處理,而對支配教育行為背后的態度、心理、價值觀等主觀性較強的數據識別運算則無能為力。這樣一種有選擇性的數據處理得到的算法結果,其信度與效度自然會面臨社會大眾的廣泛質疑。其三,教育大數據的隱私問題。教育用戶的性別、年齡、民族、政治傾向、宗教信仰、受教育程度、健康狀態、納稅情況、家庭住址、郵政編碼等數據構成了識別其個人信息的基礎性數據,一旦被機器學習算法用于不正當途徑的采集與運算,可能會產生帶有歧視的算法教育結果。

(二)算法教育程序:技術控制困境

作為構成社會發展基本要素的技術,在提升生產力、增加人類福祉和推動社會進步的同時,也對人類社會發展帶來了一些難以預測、控制與消除的負面效應。正如,英國著名社會學家大衛·科林格里奇(David Collingridge)在《技術的社會控制》一書中對“技術控制困境”(Technology Comtrol Dilemma)進行了一段十分精彩恰當的描述:“一項技術的社會后果不能在技術生命的早期被預料到。然而,當不希望的后果被發現時,技術卻往往已經成為整個經濟和社會結構的一部分,以至于對它的控制十分困難”[15]。顯然,技術控制困境暗含的假設前提是技術與社會的分離與對立,技術權力介入、技術知識更新、線性時間演化等構成了對技術控制困境發生邏輯分析的三個維度,這也是一個對技術在權力介入和知識更新在線性時間軸上進行控制的兩難問題[16]。那么,機器學習算法在推動人類社會從工業社會、信息社會邁向智能社會、智慧社會的同時,也會給人類社會帶來技術控制困境,甚至算法帶來的治理困境將會遠遠超越以往任何技術對人類社會產生的負面影響。究其原因,是以深度學習為代表的人工智能算法與傳統機器學習算法有著本質上的區別。

對于傳統算法來說,其需要程序設計者事無巨細地給機器設定好在給定條件背景下實現某項工作流程的所有運算代碼。換言之,傳統算法的運行過程實際上就是人類思維表達能力在機器學習過程中的投射與轉換。那么,用于描述人類思維表達能力困境的“波蘭尼悖論”,也自然適用于傳統機器學習算法。但是,深度學習算法卻能直接從大數據的原始特征出發,通過自我訓練和自我學習來生成高級認知結果,這顯然超越了人類思維表達能力,也突破了“波蘭尼悖論”[17]。然而,深度學習算法在搜集大數據之后到輸出決策結果之中有一段數據處理、訓練與學習的過程,這段過程是連算法設計者都不清楚或不能查看的計算系統內部工作情況。學界將這個無法洞悉的運行過程稱之為“算法黑箱”(Algorithm Black-box),人工智能的技術控制困境根源也正是源于這里。算法黑箱給出的只是一個冰冷的數字,而它是如何得到這個結論的過程卻無法獲知也不能解釋,這對于以公平和平等著稱的現代教育來說真是莫大的諷刺。公開透明是一個新事物得以在現代社會合法存在的正當性基礎,這對于算法教育來說亦是如此。如果不能在算法教育的技術萌發時期進行制度規制,等待算法技術越發成熟且得到更廣泛應用時,再對其進行控制就會非常困難。因為還要考慮除技術之外的其他眾多社會因素,這將是一個費時費力的高成本控制工程。算法教育應該蘊含著一種深層次的價值訴求,即通過現代科學技術實現人類對“美好教育生活”的期待與追求。

(三)算法教育結果:主體性危機

追求效率優先的機器學習算法,促進了人工智能技術逐步發展成為具有一定智慧能力的自動化決策系統,并且突破了人類思維表達能力的局限,在教育、就業、司法、新聞等眾多專業領域應用成效顯著。然而,人工智能在給人類帶來便捷、多元、高效、舒適的生活方式體驗的同時,也引發了諸多問題。在算法時代,人工智能可以將人類的有意識和無意識行為進行算法化,導致了人與客觀世界的邊界逐漸模糊,勢必會沖擊到人類社會長期演化而成的生存基礎與發展秩序[18]。換言之,隨著算法對人類思維方式的不斷接近,人類在客觀層面的特殊性也會逐漸弱化,這就引出了一個哲學問題,人的主體性是否還存在?伊曼努爾·康德(ImmanuelKant)認為人不僅是自由意志和自然存在的統一,也是一切規范的中心和本源。馬丁·海德格爾(Martin Heidegger)則進一步將石頭、動物和人的世界進行比較,指出石頭沒有世界,動物的世界是受本能支配控制的,而人是建立世界的主體。如果說“弱人工智能”階段算法產生的危機,是源于人類因人工智能的安全問題所產生的控制權焦慮;那么, “強人工智能”階段的算法則會更加類人化,甚至是超越人的智力水平,進而成為現行社會生活的更強主體,這勢必會引發人的主體性危機。

深度學習算法基于大數據進行自我訓練與自我學習,以形成不依賴人類思維表達能力的“規則集”(Rule Set),被稱為算法的自我生產能力。算法對時間效率的路徑依賴,意味著算法不僅是實現了機器自動化決策的飛躍發展,也反映了算法的生產過程及結果應用將與人類的行為主體性相分離。即機器學習算法很有可能在強人工智能時代不再受人類認知的控制,將在相當長的一段時間里對人的主體性發起挑戰。將效率至上奉為圭臬的算法,為了在有窮時間內快速處理海量、高維、非結構化的大數據,甚至不惜拋棄最優效率分析,而選擇最差效率分析。這就不可避免的產生了算法只注重對大數據的相關性描述分析,而忽略了其因果關系推斷。算法對目前教育系統最大的沖擊將是重塑教與學的關系,智慧學習、智慧課堂、智慧校園等皆直接指向“互聯網+教育”時代的教學關系變革。“因材施教”一直被視為完美課堂教學的典范,反映了師生教學關系由“主客體關系—主體關系—主體間關系”的嬗變。以人臉識別系統為例,大數據算法通過快速搜集學生在課堂學習過程中的每一個眼神、表情、動作等,經過數據解構、數據訓練、數據分析獲得學生在課堂上的學習情況,呈現實時的課堂學情分析,以供教師實現課堂教學的智慧管理。然而,學生的學習情況是否能通過眼神、表情、動作等得以全面分析,顯然是值得懷疑的。目前,人臉識別系統只能對學生的課堂表現行為進行相關性描述分析,而不能做到對學生課堂表現行為背后的深層次原因進行探究,即不能實現對學生課堂表現行為的因果推斷研究。如果教師按照人臉識別系統的學情報告來進行課堂教學管理,看似是非常科學有效的教學手段,實則是對學生課堂表現行為背后心理動機等深層次因素的有意忽略,似乎義回到了最初的“主客體”教學關系。這顯然是對經過長期演化形成的師生“主體間”教學關系的一種倒退,教師教的主導性與學生學的主體性是師生在雙向、交往和理解的過程中共同構建起來的。因此,以效率優先為導向的機器學習算法,如果在教育領域中不加以判別使用,可能會對師生教學關系造成主體性危機,最終不利于教育現代化發展。

四、算法教育的公共政策選擇

2019年8月,聯合國教科文組織以聯合國6種官方語言正式發布了《北京共識——人工智能與教育》,建議各國政府、國際組織、教科文組織總干事等利益攸關方根據相關法律法規、公共政策和公共慣例,采取積極行動以應對人工智能技術所帶來的教育發展機遇和風險挑戰。其實,第三次人工智能的崛起發展所帶來的社會沖擊是具有基礎性、復雜性和全局性的“奇點”革命,這是人類社會以往發生的其他技術革命所不能比擬的[19]。作為通用技術的機器學習算法在教育領域中獲得了廣泛應用,在推動傳統教育向智能化、智慧化教育快速轉型的同時,也引起了算法數據的自我強化偏差、算法程序的技術控制困境、算法結果的主體性危機等治理難題,需要政府做出相應的公共政策選擇。接下來,通過從算法教育基礎的數據正義、算法教育程序的合理公開、算法教育結果的有限使用等三個方面展開公共政策選擇論述,以期推動和規范人工智能在教育領域的健康發展。

(一)算法教育基礎:數據正義

“互聯網+”時代,學生、教師、家庭、學校、研究機構、政府教育部門、教育行業企業等多主體無時無刻都在產生海量、多重維度、多種類型的教育大數據。如果說大數據是“互聯網+”時代經濟生產活動的關鍵要素;那么,教育大數據亦是“互聯網+教育”時代教育現代化發展的基礎性資源。算法基于教育大數據搜集,通過自動化的數據處理、評估、分析及預測學生的學習偏好與成績、教師的教學業績與表現、學校的升學情況與質量等。然而,教育大數據在發揮推動個性化學習、教學模式改革、教育管理信息化、教育評價科學化和教育服務人性化等功能價值的同時,也囿于數據的代表性較差、質量不高、隱私泄露等問題招致學界、社會公眾對算法教育公平的普遍質疑。對于受教育者來說,大數據與算法并不總是福音,可能由于“大數據傲慢”(Big Data Hubris)抑或由于算法歧視,而導致其自身受教育權受到“技術精英主義”(Technical Elitism)的嚴重侵蝕。那么,如何應對教育大數據有可能造成的數據鴻溝,避免固化或強化現有的教育不公平現象,已成為各國政府制定相關教育大數據公共治理政策的目標取向。

為了積極應對算法自動化決策對個人權利的重大影響,歐盟在1995年《數據保護指令》的基礎上,進一步強化了對個人數據的保護力度,于2018年5月25日生效了《統一數據保護條例》(GDRR)。可以說,CDRR于大數據的公共治理意義,不僅在于提供了一系列具象的原則規定,更重要的是其傳遞出的“數據正義”(Data Justice)理念[20]。數據正義將貫穿大數據從收集存儲到分析使用的全過程,核心原則是“數據透明”和“結果非歧視”。考慮到算法黑箱的客觀存在給事中監管帶來的治理困境,算法教育基礎的大數據治理更應強調事前監管和事后監管。事前監管強調“數據透明”(DataTransparency),其要求增強教育用戶對算法輸入數據的知情權,以應對大數據生產、搜集與處理過程中產生的信息不對稱問題,將教育大數據治理延伸至數據搜集的源頭,強調教育大數據的有用性。事后監管則強調“結果非歧視”(Result Non-discrimination),其關注的是數據輸入與結果輸出之間的因果關系,而不僅僅是相關性描述結論。換言之,結果非歧視原則強調算法教育結果的可理解性,而非可闡釋性。從2019年10月1日起執行的《兒童個人信息網絡保護規定》,正是“數據正義”理念在兒童網上信息保護的貫徹落實,將對目前國內總量超過7萬的教育APP網絡運營商從教育大數據收集、存儲、分析、使用等環節形成法理約束,以規避算法對兒童合法教育權利的損害和侵犯。

(二)算法教育程序:合理公開

美國學者珍娜·布雷爾(Jenna Burrell)認為算法黑箱產生的原因是因為算法不透明,即算法可以根據不同的應用場景對大數據進行自動化處理,而這個過程會存在兩種類型的不透明。其一,主觀上的不透明,即由于涉及國家安全秘密或者大數據、互聯網等高科技公司的商業秘密而產生的機器學習算法刻意隱瞞與保護。其二,客觀上的不透明,由于算法是一項高精尖的前沿技術,其不僅運算過程存在較強的復雜性,連最終形成的推算結果也包含著許多不為人所知的自然語言,這對于算法設計者來說也是非常具有挑戰性的理解難題[21]。換言之,算法黑箱治理的困境除了不能直接觀察外,更在于即使算法主動向我們解釋,我們也很有可能無法理解其運行過程[22]。這當然與我們對算法的認知不夠全面有關,還主要是因為機器學習算法已經突破了人類思維表達能力的局限。隨著算法自動化決策結果日益被廣泛應用到個性學習、課堂管理、教學評價等眾多教育領域,算法歧視問題也在教育生活中越來越突出。算法黑箱也伴隨著算法教育結果應用逐漸深入教育管理,如果不能在可預見的未來對其加以規制,等待強人工智能時代來臨時,算法教育的治理成本將會非常巨大。

鑒于機器學習算法日益決定著各種事務決策,一些發達國家已經開始通過立法對算法黑箱問題進行專門治理,強調算法透明性、可審查性與可解釋性。早在2017年12月,美國紐約市議會就通過了《算法問責法案> (Algorithm Accountability Act),這是全球第一個有關算法治理的法案。同樣在美國,2019年4月10日,民主黨參議員布克(Cory Booker)和懷登(Ron Wyden)在國會聯合提出了《2019算法問責法案》,試圖對大數據與算法黑箱引起的算法歧視問題進行法律規制。通過對比美國的兩份算法治理法案,發現要求“算法透明”(AlgorithmTransparency)是它們的核心原則。然而,完全公開算法教育程序,接受教育用戶監督,看似給教育帶來了一種掌控感和安全感,實則不然。算法透明就算克服了教育行政部門、教育行業企業等主觀上的算法隱瞞,也在技術層面存在很大局限性。因為機器學習算法本身就是一項前沿的科學技術,對許多教育用戶來說是具有明顯的認知理解難度,就算把算法教育程序公開,他們也無法與算法互動,就很難有效實現對算法的監督。所以,算法透明并不能做到真正有效監督算法,反而會阻礙算法技術的創新進步[23]。完全透明化監督既然是不可能的,也是無效的。那么,不完全透明化監督,即要求算法教育程序的合理公開是否可行呢?可考慮由學生、家長、學校、企業、政府等教育利益攸關方組成一個算法教育程序的監督委員會,專門承擔算法教育程序合理公開的審查工作,以確保將算法歧視對教育生活的負面影響降至可接受的程度。

(三)算法教育結果:有限使用

數據鴻溝、算法黑箱和效率優先的設計取向都有可能單獨或者聯合造成“算法歧視”(AlgorithmDiscrimination),這也意味著算法歧視治理是一個十分復雜的問題。特別是考慮到人類社會在長時間的歷史演化過程中,形成了以因果關系為制度基礎的社會治理體系,而追求效率優先的算法將不可避免地給現行社會運行規則帶來主體性危機[24]。由此,學界引發了兩種針鋒相對的觀點:一種觀點認為算法只是實現人類自動化生產決策的一種輔助工具,不應具有道德意義、政治意義或法理意義上的主體性地位,也就意味著算法不需要為其行為承擔任何責任;另一種觀點則認為奉行效率優先的算法不僅無限接近于人類思維表達能力,而且在很多方面已經超出人類的認知局限,那么賦予其道德意義、政治意義或法理意義上的主體性地位,無疑是恰當可行的。然而,不管怎么樣界定算法產生的主體性危機,有一點是不能忽視的,那就是“服務于人的自由發展”必須成為人工智能的“絕對律令”(Ahsolute Laws)[25]。換言之,如果教育用戶對算法白動化決策結果存在不滿意,可以主張“人工介入”(Manual Intervention),以保障自己的主體性權益不受算法教育結果的損害或侵蝕。

完全遵循算法自動化決策結果,無論是在實際教育生活中,還是在法律倫理上都是不現實的。那么,算法教育結果的有限使用可能提供了另外一種可行路徑。算法教育結果的有限使用是針對算法歧視而言的,也就是說,算法歧視的識別成為甄別算法教育結果具體使用場景的前提條件。算法歧視比以往任何形式的歧視都具有隱蔽性,這也給算法歧視的識別帶來了很大的困難。其一,算法黑箱可能存在主觀上有意為之的算法黑箱,也有可能有客觀層面存在的算法黑箱,甚至是主客觀原因兼具的算法黑箱。無論是哪一種算法黑箱導致的算法歧視,都意味著這種歧視被隱藏于冰冷的數字代碼程序之中,這種情況下的算法歧視識別要求教育監管者、算法教育結果被使用對象等都需要有相應的機器學習算法知識,才有能力去識別隱藏于算法黑箱之中的歧視。其二,大數據時代也被稱為“數字資本主義”時代,數據成為數字經濟社會運行的核心要素[26]。學生、教師、家長等行為主體產生的數據自身就存在不具代表性和偏差,可以說教育數據鴻溝源于教育生活中固有的不平等、不公平現象。那么,以教育大數據為基礎的算法教育就不可避免地帶有教育大數據自身固有的頑疾,算法歧視的識別也就顯得更加困難。其三,效率優先是算法設計的首要目標,是為了突破人類思維表達能力的局限而產生的,其目的在于提升數據處理效率,快速獲得有效信息,進而獲得可觀的經濟社會效益。然而,過分追求數據處理效率的算法只能優先采用相關性描述分析,不能對因果關系形成有效的推斷。因此,線性的算法運行思維就與以公平與平等權利為導向的非線性教育生活顯得格格不入,這種算法設計理念產生的算法教育結果也自然會帶有歧視傾向。正是因為算法歧視的廣泛存在,那么算法教育結果就有必要在人工介入甄別之后,且只有在教育用戶知情和授權的情況下才能得以合法使用。可見,貫徹知情同意原則的算法教育結果有限使用,不失為治理算法歧視問題的一種有效路徑。

五、結語

新一代人工智能為教育變革提供了新的發展契機,對教育系統產生了基礎性、復雜性和全局性的影響。智慧學習、智慧課堂、智慧校園等不僅是智慧教育的重要組成部分,同樣也是助推智慧教育實現的重要手段和發展路徑。隨著“互聯網+”戰略的大規模實施,大數據的生成與采集似乎已變得不再那么困難;同時,計算機存儲空間和運算能力的快速提升,也讓算力不再成為人工智能發展的技術瓶頸。因此,機器學習算法也就一躍成為影響新一代人工智能發展的核心要素。換言之,作為智慧教育具象形態的智慧學習、智慧課堂、智慧校園,在本質上就是算法學習、算法課堂、算法校園。算法成為推動智能教育、智慧教育實現與發展的關鍵因素。然而,由于數據鴻溝、算法黑箱、效率優先等眾多因素的復合影響,導致算法教育存在數據的自我強化偏差、程序的技術控制困境、結果的主體性危機等治理難題,也讓教育公平、教育平等、教育效率等傳統議題在人工智能時代顯得更加突出。為規避只注重相關關系分析,而不重視因果關系研究的算法給教育帶來的風險挑戰,可從算法教育基礎的數據正義、算法教育程序的合理公開、算法教育結果的有限使用等三個層面開展對算法教育的治理。這不僅要求確保算法教育結果的預測準確率,更要強調算法教育結果的可理解性。唯有在算法教育剛開始發展的時候,厘清其技術發展邏輯和研判其可能會帶來的風險挑戰,才能為破解算法技術控制困境的公共政策選擇提供參考依據,進而助推人工智能在實現更加公平更有質量教育過程中發揮更大的作用。人工智能、5G、物聯網等新興信息技術在運用于教育的過程中,應以促進學生全面發展為中心,構建新型育人生態,提升學生的學習獲得感,為其實現在信息時代的“完滿生活”而準備[27]。概言之,算法教育治理業已成為教育現代化進程中不可忽略的研究議題,需要學界引起高度關注和探討。

參考文獻:

【1】丁波濤.從信息社會到智慧社會:智慧社會內涵的理論解讀[J].電子政務,2019,(7):120-128

【2】維克托·邁爾一舍恩伯格,肯尼斯·庫克耶周濤譯.大數據時代:生活、工作與思維的大變革[M].杭州:浙江人民出版社,2013.

【3】宋靈青,許林.人工智能教育應用的邏輯起點與邊界——以知識學習為例[J].中國電化教育,2019,(6):14-20

【4】中國互聯網網絡信息中心.第44次中國互聯網絡發展狀況統計報告[EB/OL].http://politics.gmw.cn/2019-08/3l/content_33124709.htm,2019-09-10.

【5】楊現民,唐斯斯等.發展教育大數據:內涵、價值和挑戰[J].現代遠程教育研究,2016,(1):50-61.

【6】特倫斯·謝諾夫斯基.姜悅兵譯.深度學習:智能時代的核心驅動力量[M]北京:中信出版集團,2019.

【7】【9】孫志軍,薛磊等.深度學習研究綜述[J].計算機應用研究2012,(8):2806-2810

【8】劉全,翟建偉等.深度強化學習綜述[J].計算機學報,2018,(1):1-27.

【10】Koher J,Peters J.Reinforcement Learning in Rohotics:A Survey[J].International Joumal of Rohotics Research,2013,32(11):1238-1274.

【11】姜野,李擁軍.破解算法黑箱:算法解釋權的功能證成與適用路徑——以社會信用體系建設為場景[J].福建師范大學學報(哲學社會科學版),2019,(4):84-92.

【12】郝文武.平等與效率相互促進的教育公平論[J].教育研究2007,(11):25-29.

【13】【20】許可.人工智能的算法黑箱與數據正義叫J.社會科學學報,2018-3-29(006).

【14】涂濤,胡柯銘.一極兩儀:教育大數據與厚數據關系辨析[J].中國電化教育,2019(8):18-22.

【15】Collingridge D.The SocialControl of Technology[M].Wew York:St.Martins Press.1981.

【16】陳凡,賈璐萌.技術控制困境的倫理分析——解決科林格里奇困境的倫理進路[J].大連理工大學學報(社會科學版),2016,(1):77-82.

【17】【19】賈開,蔣余浩.人工智能治理的三個基本問題:技術邏輯、風險挑戰與公共政策選擇[J].中國行政管理,2017,(10):40-45.

【18】賈開.人工智能與算法治理研究[J].中國行政管理,2019,(1):17-22.

【21】Jenna Burrell.How the Machine Thinks:Understanding Oparity inMachine Learming Algorithms[J].Big Data&Society,2016(1):1-6.

【22】汝緒華.算法政治:風險、發生邏輯與治理[J].廈門大學學報(哲學社會科學版),2018,(6):27-38.

【23】方可成.算法是個黑箱,讓它“透明化”是不夠的[J].社會政策研究,2019,(1):166-168.

【24】崔靖梓.算法歧視挑戰下平等權保護的危機與應對[J].法律科學(西北政法大學學報),2019,(3):29-42.

【25】陳姿含.人工智能算法中的法律主體性危機[J].法律科學(西北政法大學學報),2019,(4):40-47.

【26】袁光鋒.政治算法、“幻影公眾”與大數據的政治邏輯[J].學海,2015,(4):49-54.

【27】趙興龍,許林等.5G之教育應用:內涵探解與場景創新——兼論新興信息技術優化育人生態的新思考[J].中國電化教育,2019,(4):5-9

作者簡介:

肖鳳翔:教授,博士生導師,研究方向為教育學原理、職業技術教育(tjxfx@126.com)。

張雙志:在讀博士,研究方向為教育信息化、職業技術教育(zhangsz0528@163.com)。

猜你喜歡
大數據人工智能
我校新增“人工智能”本科專業
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
大數據環境下基于移動客戶端的傳統媒體轉型思路
新聞世界(2016年10期)2016-10-11 20:13:53
基于大數據背景下的智慧城市建設研究
科技視界(2016年20期)2016-09-29 10:53:22
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 04:56:22
數據+輿情:南方報業創新轉型提高服務能力的探索
中國記者(2016年6期)2016-08-26 12:36:20
主站蜘蛛池模板: 日本不卡在线播放| 欧美精品导航| 国产精品无码久久久久AV| 国产欧美又粗又猛又爽老| 97综合久久| 国产精品天干天干在线观看| 亚洲三级色| 一级一级特黄女人精品毛片| 国产精品成人一区二区不卡| 最近最新中文字幕在线第一页| 欧美一区精品| 亚洲欧美在线综合一区二区三区| 国产精品一区二区不卡的视频| 国产亚洲欧美在线人成aaaa| 久久一色本道亚洲| 亚洲综合欧美在线一区在线播放| 亚洲最猛黑人xxxx黑人猛交| 无码人中文字幕| 亚洲欧美成人在线视频| 亚洲无线国产观看| 国产菊爆视频在线观看| 亚洲欧美日韩色图| 福利在线一区| 日本精品中文字幕在线不卡| 久久人人97超碰人人澡爱香蕉| 欧美成人精品在线| 亚洲AⅤ永久无码精品毛片| 精品人妻一区二区三区蜜桃AⅤ| 国产亚洲美日韩AV中文字幕无码成人 | 手机在线国产精品| 色婷婷在线影院| 一区二区在线视频免费观看| 亚洲无码91视频| 九九热这里只有国产精品| 国产成人一区免费观看| 99热国产这里只有精品9九| 天天色综网| 成人欧美在线观看| 毛片最新网址| 亚洲精品福利视频| 久久国产黑丝袜视频| 国产成人做受免费视频| 激情综合五月网| 国产精品亚洲精品爽爽| 日韩人妻少妇一区二区| 2021国产精品自产拍在线观看 | 国产精品福利导航| 中文字幕在线一区二区在线| 91av国产在线| 亚洲黄色网站视频| 女人18毛片久久| 国产黄网永久免费| 伊人查蕉在线观看国产精品| 午夜电影在线观看国产1区| 国产精品亚洲一区二区三区z| 伊人福利视频| 午夜精品福利影院| 99无码熟妇丰满人妻啪啪| 欧美视频二区| 久久精品人人做人人| 日韩福利视频导航| 亚洲久悠悠色悠在线播放| 日韩区欧美区| 9cao视频精品| 色丁丁毛片在线观看| 五月婷婷丁香综合| 另类重口100页在线播放| 日韩午夜福利在线观看| 精品国产免费观看一区| 黑人巨大精品欧美一区二区区| 69国产精品视频免费| 伊人久热这里只有精品视频99| 亚洲制服丝袜第一页| 22sihu国产精品视频影视资讯| 久久午夜影院| 亚洲人妖在线| 精品人妻无码区在线视频| 久久国产V一级毛多内射| 久久精品无码一区二区日韩免费| 精品一區二區久久久久久久網站| 91在线精品免费免费播放| 免费在线a视频|