999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

智能教育場景下的算法歧視:潛在風險、成因剖析與治理策略 *

2022-12-30 06:24:08郝煜佳
中國電化教育 2022年12期
關鍵詞:人工智能智能系統

倪 琴,劉 志,郝煜佳,賀 樑,3

(1.上海師范大學 人工智能教育研究院,上海 200234;2.華東師范大學 上海智能教育研究院,上海 200062;3.華東師范大學 計算機科學與技術學院,上海 200062)

一、引言

智能教育系統(AIEd,Artificial Intelligence in Education)是以人工智能為核心的新一代信息技術在教育場景下的具體應用,其獨有的個性化、信息化、立體化等優勢助推傳統教育模式的轉型與變革。但另一方面,越來越多的教育教學工作由智能教育系統輔助,甚至一些教育管理和決策工作被智能教育系統所取代,其中存在的算法歧視問題不可避免地沖擊著現有的教育倫理體系與公平公正原則,影響著教育質量的提升。

算法歧視是指以算法為手段實施的歧視行為,主要是在大數據支持下,依靠機器計算的智能算法對數據主體做出決策分析時,對不同的數據主體進行差別對待,造成歧視性后果[1]。智能教育場景下的算法歧視是算法歧視在教育領域中的延伸,隨著智能教育系統的大量出現,該場景下的算法歧視現象層出不窮,其主要歧視對象為教育受眾中的弱勢群體,從而導致諸如“學歷歧視”“性別偏見”等問題,成為社會對教育信息化詬病的主要原因[2]。

算法歧視是人工智能治理領域的重要內容,而教育場景作為一個人學習成長的最重要場域,在智能技術的應用過程中,應堅持“以人為本”,促進教育公平,應在智能教育治理過程中最大限度避免產生算法歧視問題。基于此,本文從“潛在風險→成因剖析→治理策略”的框架出發,試圖針對教育領域存在的算法歧視問題提出可行的治理路徑,降低新一代智能技術在教育領域的不良影響,以期讓人工智能以更公平更優質的姿態應用于教育領域,服務于學生的健康成長。

二、算法歧視的潛在風險

算法歧視的潛在風險是算法歧視問題研究的前提條件,主要探討算法歧視可能造成的不良影響。本研究列舉了四個較為突出的潛在風險。

(一)教育結果的單一化

社會主流價值中存在的偏見與歧視會在潛移默化中影響著人們的行為,社會層面中存在的算法歧視現象在無形的反映著社會中存在的偏見,從而造成教育結果的單一化[3]。例如,Jon Kleinberg[4]等學者在實例研究中將學生平均學分績點(GPA)作為智能教育算法衡量學生是否成功的依據,但該評判標準隱含著社會對于成功的偏見,其一是因為學生可以的成功具有多維性和復雜性,而不一定需要在課堂上獲得高分[5],其二是De Brey[6]等學者指出畢業生的GPA并不能真實地反應學生的優秀程度,由于學習資源的配置格局,教師對某類人的刻板印象等因素都會降低部分弱勢群體的平均學分績點。因此,僅僅以某一標準定義學生的成功,忽略的學生的多元化發展需求,忽視了教育的多種可能性,必然導致教育目的的單一化,教育結果的單一性。

(二)加劇教育不公平

在智能教育系統的研發過程中,由于算法歧視的存在,其主要服務對象未能得到優質的服務,甚至出現少數群體得不到服務的現象。Michael[7]等學者指出,智能教育系統的主要受眾為普通學生,但智能教育系統的早期使用者往往為接受精英教育的學生,這導致使用者提供的數據在用于智能教育系統改良時,出現不符合實際需求的情況。除此之外,即使數據采集的目標為普通學生群體,也有可能出現服務對象不匹配的情況。Harini Suresh[8]等學者指出,抽樣調查的方式有可能產生代表性偏差,由于不同群體的數據采集程度不同,缺乏數據采集的群體往往會出現被歧視的現象,例如在2014年就發現人臉識別系統更傾向于識別自己種族的人而不是其他種族的人[9]。對于智能教育系統而言,服務對象出現偏差意味著學生的受教育權受到損害,不同群體間資源獲取的客觀差距未能得到有效彌補,反而加劇了教育不公的現象。

(三)學習結果兩極分化

學習結果兩級分化是指由于智能教育系統設計時存在偏差,導致不同學習者之間的學習質量差距不僅沒有縮小,反而呈現兩極分化的趨勢。例如,算法模型的誤定會導致學習者間差距變大,Doroudi和Brunskill[10]學者研究了知識追蹤算法對于學生學習的影響,他們指出,與傳統的教育相比,知識追蹤算法在一定程度上能夠幫助學生更好地學習。但若將該模型作為通用型算法模型時,即所有學生均使用該算法模型,學習慢的學生會出現不能得到充足訓練的問題,從而導致其知識掌握程度不夠;同時,如果該算法對學生學習模型產生誤判時,也會產生該現象。又如設計者的潛在偏見導致部分學生群體利益受損,從而導致學習結果兩極分化,最終導致教育公平的缺失。

(四)人機交互加深偏見

在智能教育系統的決策使用過程中,往往存在由交互引起的偏見加深現象。例如,Leeuwen[11]學者指出,在教師教學過程中使用電腦支持的協作學習,如果該智能教育系統提出的意見與教師本身的刻板意見相符時,會導致教師進一步加深該類型的刻板印象。同時,Pinkwart N指出[12],人機交互模式的輸入渠道是否多樣也會對教育公平產生影響,目前的智能語音識別系統仍然容易因為外語學習者的語音、背景噪聲等因素造成識別錯誤,這無形中使異于開發者文化背景的學習者受到歧視,從而破壞教育公平。

三、算法歧視的成因剖析

刁生富等[13]指出算法歧視具有非價值判斷、歧視性和復雜性等特征,因為算法自身無法判斷底層邏輯的運行準則是否“合理、公平”,其不透明性、可解釋性差、服務對象復雜的特性往往會引發算法歧視和算法濫用等問題。顯然,對于處于“弱人工智能”時代的智能教育而言,算法歧視問題正是教育公平所需要面對并克服的風險與挑戰。基于此,本節將從社會背景的復雜性與人工智能技術的局限性兩方面出發探究算法歧視出現的成因。

(一)設計團隊存在思維定勢

算法歧視就其本質屬性而言,是歷史上的不公在政策、實踐、價值觀中的滲透[14],設計團隊必然存在社會主流價值中的思維定勢。

首先,設計團隊的目標選擇過于狹隘。由于設計團隊受到社會主流價值的影響,目標變量在簡化過程中,只考慮了人的共性,忽略了每個個體的復雜性與多元性,使算法得到優化的同時,也讓算法的結果變得狹隘。例如將學習成績好壞定為學生是否成功的標準,就是算法的目標選擇出現偏差,目標變量的單一化使算法忽略了學生在藝術、體育等多領域的成就與發展,讓算法無法從全局出發,判斷學生是否成功。

其次,設計團隊可能存在主觀歧視思想,將個人背景與使用者背景相聯系,忽略學生來源與學生背景的復雜性。實證研究表明,即使來自不同國家(不同文化背景)的學生使用同樣的智能系統,仍然會導致教育不公平現象。具體而言,使用智能教育系統的用戶,其具體獲益情況會與種族、語言等因素掛鉤。Finkelstein[15]等學者發現,即使是在人工智能領域有著霸權地位的美國,人工智能在教授非洲裔美國學生時,若系統使用的是非洲裔美國人方言英語(African American Vernacular English),而非主流美國英語(Mainstream American English),那么學生的學習效果將會更佳。

(二)人工智能技術的局限性

從影響智能教育決策的內外環境來看,算法歧視包括結構性歧視問題和功能性歧視問題。前者是指算法決策形成過程中系統內部各部分(數據集、算法模型)可能產生的能反映到算法決策行為的歧視;后者是指算法決策的結果在應用的過程中產生的歧視[16]。當這兩種問題作用于智能教育系統時,算法歧視產生的原因可能以各種排列組合的形式貫穿于智能教育系統決策的生命周期。

1.結構性問題:教育數據的偏見和算法模型的困境

(1)教育數據的偏見

教育大數據是從基于互聯網的網上教學活動中采樣抽取的,則其勢必會帶有現實社會的特征與屬性。若輸入機器學習算法的數據集本身存在偏見,那么依托于教育大數據的智能教育的輸出結果有很大可能性具有歧視性,從而使得算法的“歷史偏見”在機器學習的過程中得以延續和增強,最終造成算法歧視現象。數據偏見在采集和處理教育數據時常發生于如下三個過程中:歷史數據、采樣策略、特征選取。

其一,歷史數據存在偏見。隨著信息技術的迭代發展,機器學習的訓練數據也呈現幾何級增長的趨勢,但是若機器學習的數據集本身就是帶有偏見的,那么機器學習用于完成智能決策的模型勢必會受到這種偏見的影響。例如,在線教育平臺會將用戶的全部教與學的活動軌跡以數據的方式進行存儲,若用戶在使用平臺過程中天然帶有偏見,那么機器學習算法會對識別到的“本身就有著偏差或偏見”的數據進行學習,在此過程中,算法很有可能會不斷重復訓練著有偏差的數據,從而導致歧視現象的惡性循環。

其二,數據采樣不充分。從總體抽取樣本數據時,所選取的采樣策略導致部分群體的代表性不足,那么這種數據分布的不均衡最終往往會使得人工智能產生的算法決策結果出現偏差,進而影響社會公平性問題。以目前絕大多數的智能教育系統為例,其面向的服務對象是一般學生群體,而鮮有覆蓋“特殊學生群體”(視力障礙、聽力障礙、閱讀障礙等)的特定需求。某些基于眼球追蹤技術的智能系統卻無法準確分析“特殊學生群體”的眼球模式,從而使得特殊群體被邊緣化[17]。由于機器學習算法是基于社會整體“大數據集”而形成“規則集”并應用于具體場景的過程,暗含著以整體特征推斷個體行為的基本邏輯[18], 因此,一旦社會整體的大數據集無法精確代表某一群體的特征,那么算法歧視的問題便會呼之欲出。

其三,數據集特征選取不當。若數據集中存在性別、種族、宗教信仰等“敏感屬性”或是和敏感屬性高度相關的“代理屬性”,那么歧視性結果或決策便會隨之產生。佩德雷希(Pedreshi)等學者通過實例研究,論證了傳統的識別方式(即,通過判斷敏感屬性是否導致算法結果帶有歧視)并不適用于現實生活中的算法歧視場景,而大多數算法歧視現象是由與其高度相關的代理屬性導致的[19]。同時,相比于敏感屬性,代理屬性具有易于采集、隱蔽性更強等特點,更易于“騙過”反歧視審查。由此可見,算法結果的是否含有歧視往往與數據的多樣性、分布性密切相關。

(2)算法模型的困境

算法模型雖然作為社會生產生活的有力工具,但是以深度學習為代表的人工智能算法具有復雜性、不透明性、隱蔽性等天然特征,使得算法以人類不易審查或理解的方式處理數據,這直接導致算法模型存在算法歧視、信息繭房、群體極化和誘導沉迷等現實問題。因此,基于算法模型的建模過程,本文將算法模型困境的產生歸因于開發者的主觀思想、機器學習過程的偏差、因果概念的引入。

首先,算法開發者、設計者造成的算法歧視。指的是算法設計者為了攫取某些利益,或者為了表達個人觀點而設計出存在主觀歧視的算法。由于算法的設計目標、數據的處理方式、結果的表現形式等均體現著開發者、設計者的偏好與主觀意愿,而人工智能系統本身不具有判別能力,而會通過機器學習的過程將代碼中存在的歧視進一步放大,最終導致算法決策出現歧視。鑒于此,算法設計者本身的道德素養與能力能否使其編寫的算法保持客觀性的同時,又能符合國家或行業的法律規范,這是一件值得商榷的事情。

其次,機器自我學習造成的算法歧視。梁正在談及算法治理相關問題時指出,“從技術特性方面看,機器學習目前還是一個‘黑箱’過程,在透明性和可解釋性上仍存在問題”[20]。相比于白箱和灰箱,黑箱下的算法更具復雜性[21],這意味著面對日益復雜的智能教育算法做出的決策,我們無法給出合理的解釋,也就無法預測和控制智能教育系統做出的決策,從而可能在應用算法模型的過程中產生不公平現象。

再次,因果的偏差。“教育作為一項獨特而又復雜的人類社會活動,以培養人為根本目的,不僅要知其然,更要知其所以然”[22]。這一論點固然正確,但由于教學過程是充分發揮學生與教師主觀能動性的過程,在算法模型中過分強調因果關系只會使“相關即意味著因果”的謬論出現[23]。以美國的教師增值評價模型(Value-added Model,VAM)為例,該模型將學生成績的進步程度作為衡量教師教學活動是否有效的標準,在優秀教師謝里·萊德曼(Sheri Lederman)的指導下,學生在第一年的成績十分優異,這使得學生在第二年成績再次進步的可能性微乎其微,因此模型為她在兩個學年內的教育教學工作貼上了“無效”的標簽,從而使其面臨著被開除的風險[24]。概言之,在智能教育產品中簡單的嵌入“成績進步程度=教學效果”因果關系的算法,只會使得算法歧視的現象更為嚴重[25]。

2.功能性問題:交互式決策的危機

人機協同的智能教育正推動著教育模式不斷變革,智能教育在線平臺的出現為學習者提供了適合其自身特點的個性化教學模式,使得學習者由傳統教育模式下的被動接受者逐步轉變為主動參與者,同時也幫助教師精確地制定“因材施教式的教學方案”等。然而,目前的人工智能在教育領域的應用過于突出技術性,忽略了人本身的能動性與主體性,從而導致交互式決策的偏差性并產生算法歧視現象。交互式決策的偏差性通常來自于有決策呈現的偏差、用戶有偏差的行為以及有偏差的反饋[26]。

首先,決策呈現的偏差。在給定相同的數據集與算法模型的前提下,智能教育系統給出決策結果的方式不同,也會導致使用者做出的決策不同。Holstein等學者提出,如果智能教育系統給出的結果對教師對學生個人能力和成長潛力的現有看法提出質疑(產生碰撞),那么該系統有可能推動教師做出更公平的決策;與之相反,如果智能教育系統給出的結果傾向于認可教師現有的觀念,且教師的觀念本身存在歧視,那么該智能系統就會維持甚至加劇的不公平的現象[27]。

其次,用戶反饋的偏差。這種偏差主要產生于需要從與用戶進行互動的過程中從而進行學習的算法中。在交互式智能系統的運行過程中,算法無法決定保留或舍棄哪些數據,而是只能使用用戶的所有數據(無論好壞)并將其作為基礎從而做出決策,同時,產生歧視決策的算法在得到用戶行為的反饋后,會讓上一次生成的偏差結果作為下一次的輸入。即算法決策是在用“過去預測未來”,過去存在的歧視與偏差可能會在算法中得到鞏固,并有可能在未來得到加強,從而形成如圖1所示的“歧視性反饋循環鏈”(Feedback Loops)。例如,2016年微軟開發Tay聊天機器人,旨在Twitter上與千禧一代進行對話,然而僅在試用24小時后,Tay便被灌輸有關種族滅絕的概念而發表過激言論,從而被停用。這說明人工智能的自動化決策過程在與人類進行相互交互的過程中,人類的反饋發揮著關鍵作用,只有當確保我們的社會關系變得越來越自動化時,偏見與歧視才不會無形地“引導”著人工智能誤入歧途。

圖1 交互決策的循環過程

四、算法歧視的治理策略

智能教育系統的每個發展環節都需要關注算法歧視問題,系統設計、數據采集、算法模型訓練、智能教育系統應用落地都須嚴格把關。社會、企業、學校、教師和學生等主體應當共同參與智能教育的算法歧視治理,攜手推動人工智能安全、可控、可靠的發展。

(一)多主體共同參與

教育公平是社會公平在教育領域的直接體現,社會、企業、師生三者需協同守護教育公平的底線。具體策略如下:

首先,以社會實驗的新路徑來研究算法歧視在教育領域的負面影響。社會實驗(Social Experiment) 作為一種檢驗特定政治、經濟、科技因素被引入真實社會情境所產生效應的經典方法論,為持續跟蹤和分析人工智能等新興技術的社會影響,探究智能化時代的社會發展規律提供了可以借鑒的研究路徑。因此,監管機構應當協同智能教育研究人員提前關注潛在的算法歧視問題,基于智能教育社會實驗框架體系,聚焦智能教育的核心要素和產生的社會影響,在人工智能尚未對人類社會造成大規模不可逆影響的情況下,提前關注技術應用可能引致的算法歧視等各類問題[28],有的放矢地針對算法歧視產生的原因加以分析改善,及時修復智能教育中存在的各類問題。

其次,企業應當預估算法歧視的負面影響。考慮到人工智能技術對教育領域可能產生沖擊與挑戰,相關從事人工智能技術開發與應用的企業也應當樹立風險意識,從全局把控并做出整體性部署,預估可能存在的算法歧視。同時,企業應當重點提升開發團隊的教育理解力與教培素養,使其正確認識教育行業。如果技術人員對教育教學活動本身的理解不足,缺乏情境體驗和背景知識,就很可能基于片面甚至錯誤的教育認識從而在智能教育開發過程中嵌入主觀偏見,導致算法模型與教育教學實踐活動的脫節[29]。基于此,企業應當定期組織面向開發團隊的教育領域的培訓活動,培養從業者對于教育教學活動的正確認知。

再次,師生應當參與智能教育系統的設計環節。由于師生是智能教育系統的直接接觸者,智能教育系統的設計應當有教師與學生的參與,設計團隊與企業應積極聽取教師與學生的意見,以師生的需求建立智能教育系統,并在其反饋上進行修改。例如,針對特殊群體的訴求,企業應當給予關注與調研,通過問卷、訪談、課堂觀察等方式洞察用戶行為,建立起鮮明的、動態的師生用戶畫像,并在此基礎上推進研發進程[30]。

最后,社會、企業、師生作為算法的監督者、設計者和參與者對算法倫理底線應有準確的認知。Jobin等學者統計出了11個最重要的人工智能倫理原則,包含透明、公正、尊嚴等[31],而智能教育場景下的人工智能倫理原則應當與之類似,并更多側重于教育層面的實踐,為教育主體制定倫理約束。社會作為監督者應堅持對算法倫理底線的寸土不讓,企業作為設計者應銘記算法倫理底線不可逾越,師生作為參與者應牢記算法倫理底線對自身的保護。多主體綜合考量,相互協助,監督并保護算法倫理底線才能讓教育算法健康發展。

(二)構建多元評價標準

當前,學界圍繞智能教育場景中學生綜合素質評價的困境與難題,已提出構建理論與技術雙向驅動的學生綜合素養評價新范式,建立從理論到技術的“自上而下”和從技術到理論的“自下而上”的雙向驅動機制[32],這為智能時代的學生評價標準的完善和實施提供了方向和路徑上的指導。針對智能算法“選擇性”的數據收集系統[33]、“不透明”的算法模型、“有偏差”的交互模式,導致片面反映學生的學習情況、模糊學習評價過程,以及忽視學生綜合素養等問題,應當突破固有的單一評價體系,構建多主體多維度的多元評價標準,以滿足學生多元發展需求,規避算法歧視的潛在風險,其具體措施如下:

其一,應當構建面向“教師、學生、家長”的多主體評價體系。由于智能教育系統的評價過程可能存在偏差,因此,評價結果應當由教師、學生、家長以及智能教育系統共同產生。教師作為課程的主要評價者,應當合理使用智能教育系統給出的評價結果,結合學生實際情況給出教師評價;學生主體作為評價的參與者,應當在教師的指導與智能教育系統的輔助下,開展自我評價;家長作為師生的合作者,參與評價可以更好地了解學生學習情況,給出客觀評價。

其二,應當建立學習、體育、藝術等多維度的綜合性評價體系。智能教育系統往往只關注學生的學習過程與結果,忽視了學生在體育與藝術等方面的發展情況,以偏概全給出評價。因此,評價者應當注重評價的全面性,在使用智能教育系統評價的基礎上,額外考慮學生思維、情感態度價值觀等不易考量的綜合素養以及體育、藝術等非基礎學科能力,給出全面綜合的學習評價。

(三)技術賦能算法治理

根據算法歧視出現的不同時間維度,將解決算法歧視問題的治理方案分為事前治理、事中治理與事后治理。其中,事前是指算法模型訓練之前,收集數據及數據處理的階段;事中是指接受數據后,利用數據訓練模型并生成模型的階段[34];事后是指算法模型應用到實際教學過程的階段。具體的治理方案如圖2所示。

圖2 算法治理方案概念圖

1.事前治理:加強數據歧視檢測

其一,加強學生個人隱私保護,審慎處理學生的敏感信息。由于人工智能的特殊性,學生隱私保護并非易事。一方面,企業對數據的需求非常龐大,人工智能對數據存在很強的依賴性,數據的質量直接影響訓練算法的質量[35];另一方面,平臺組織有著高度的信息集中度,其掌握的數據遠遠超過了政府組織的傳統統計數據,數據是否被合理采集成為未知[36]。因此,學生的隱私應當在采集階段予以保護,敏感信息的使用應當更加慎重,例如在學校收集學生的數據時,學生應被告知數據采集的范圍,并有權利查詢自己被采集的數據,了解數據(尤其是敏感數據)被使用的過程,明確智能教育系統使用哪些數據做出決策,并且有渠道反饋如數據濫用等問題。

其二,加強隱藏性數據歧視的檢測。智能教育的數據應當進行“高質量”治理。圍繞數據歧視的隱藏性問題,不妨利用技術手段來檢查訓練算法模型的數據集是否存在樣本不平衡、群體涵蓋不充分、敏感數據導致算法歧視等問題。例如,Kamishima等學者指出可以使用低估指數(Underestimation Index)作為識別數據集是否存在代表性不足的重要指標;歸一化互信息(Normalized Mutual Information)作為檢測數據集是否平衡的指標,有針對性地識別間接的算法歧視[37]。一旦檢測到教育大數據存在歧視的傾向,應當以數據清洗、數據刪除甚至是數據重新采集等方法加以干預,保證數據集的公正性、多元性、充分性、合理性。因此,監管機構應當前瞻性地關注智能教育中潛在的算法歧視問題,對可預見的算法歧視加以防范。

2.事中治理:建立可解釋、可審查的算法優化機制

事中治理強調在算法模型訓練過程中運用技術手段和審查機制來遏制算法歧視,具體措施有以下兩點:

其一,利用技術手段實現算法的部分公開透明。算法的不透明性往往來源于算法過程的復雜性與多樣性,無法探究其運行邏輯與執行規律,從而使得算法決策結果不可解釋。對于算法過度設計而引發的“黑箱”問題,可以利用技術手段得到改善。即使用技術將算法運行背后的邏輯以人類可以看懂、理解的方式進行可視化描繪,便于社會公眾打消對算法的疑慮。例如 2018 年 3 月 ,谷歌大腦團隊的克里斯·歐拉(Chris Olah)公布了一項題為“可解釋性的基礎構件”的研究成果,該成果解決了神經網絡這種最令人難以捉摸的算法的可視化問題,簡化了相關信息,使算法的工作狀態回到了“人類尺度”, 能夠被普通人看懂和理解[38]。所以,智能教育也應當嘗試將智能教育決策進行可視化、自動化的處理以增加系統的可信度。

其二,利用審查機制進行算法歧視的責任追究。由于算法開發者、設計者自身的倫理道德水平與技術水平參差不齊,算法模型會因有些人的利益訴求或技術水平不足而產生算法歧視現象。因此,企業應當確立算法歧視的責任追究體系,在算法開發階段以審查制的方式對算法模型進行檢測,審查是否出現算法歧視的問題,并對出現的問題進行責任追究,從而使算法開發者與設計者以更公正的視角進行算法模型的開發與設計,確保算法模型的公平公正。

3.事后治理:堅持學生在教育教學活動中的主體性

事后治理強調在實際教學過程中充分發揮師生的主觀能動性,讓師生以更合理的方式來使用算法結果,避免潛在的算法歧視風險,其具體措施有以下三點:

其一,適應課堂身份的轉變,推進教學活動內容的改革。隨著人工智能、大數據等新型信息技術的發展,促進教育行業由“以教師為核心”轉變為“以學習者為中心”,教師的角色從“知識的傳授者”轉變為“課程的設計者”,這一過程中教師由于對技術的理解不深入,使其難以避免過度依賴人工智能技術。因此,教師應促進教學方式和教學內容的改革、發揮好人的主觀能動性,始終保持對智能教育系統的警惕與懷疑;同時學校應當開展面向師生的人工智能素養教育課程,引導師生不盲目依賴人工智能技術,保有自己的思考力與判斷力。

其二,審慎使用智能教育系統,推進人機協同的“雙師課堂”。智能教育系統往往會以評分等形式對學習者的“學習能力”加以評判[39],而忽略學習者獨特的學習潛力、個人特質、興趣愛好等,從而導致學習者被數字化、機械化,違反了教育本身的目的。為此,應當推動人工智能技術回歸輔助工具的身份,客觀公正的看待智能教育系統給出的決策,如下頁圖3所示,教師面對智能教育系統給出的決策結果應當判斷其是否具有可解釋性:若結果可解釋,則審核決策結果的具體內容,決定是否全盤接受決策結果或經過修訂后接收算法結果;若結果不可解釋,教師可要求相關人員檢測算法系統。同時,我們也應當遵循“以人為本”的原則以及人才成長規律,提升學生的創新能力、思維能力以及批判能力;注重發揮教師在教育教學中人格塑造、情感交互等引導性作用,以此來推動學生全面健康的發展。

圖3 交互式決策結果的合理使用示意

其三,支持學生個性化發展,推進教育教學適性化。教育教學適性化是指規模化與個性化的統一[40]。傳統的教學方式是以班級為單位進行授課,因此,如何在規模化的教學過程中穿插個性化的定制智能教學、避免單一的算法模型對部分“特殊群體”造成歧視,是保證智能教育公正的關鍵環節。為此,課程設計應當建立以智能、個性、精準為核心的一體化基礎教育數字資源服務體系[41],留有相應課時來滿足學生個性化的教育需求,以學生知識掌握的熟練度為向導,保證學生在規模化課程教學中接收通識教育的同時,擁有靈活自由的選擇感興趣課程的權利。

五、結語

人工智能技術不斷更新、重塑著教育生態,并為教育公平帶來了新的挑戰與機遇。一方面,新一代信息技術的出現和教育理念的革新使得“互聯網+教育”模式的重要性日益凸顯,人工智能算法極大提高了教育生產力、教師的工作效率以及工作能力;另一方面,由于智能教育算法的廣泛應用,隱蔽于其中的算法歧視逐漸發展為一個顯著的問題,不可避免的破壞了教育公平。因此,在享受當下智能時代的“紅利”同時,也應批判性地探究智能教育發展中面臨的問題與挑戰,合理的做到防患于未然。

本文從社會條件和技術路徑兩大角度出發,梳理了智能教育環境下算法歧視的潛在風險、具體成因和治理策略。社會、企業、學校等主體應當共同參與智能教育的算法歧視治理,攜手推動人工智能安全、可控、可靠的發展,包括:監管機構應當前瞻性地關注智能教育中潛在的算法歧視問題,對可預見的算法歧視加以防范;開發者應當重視智能教育中算法歧視的危害性,針對成因給出相應的解決方案;學校與師生應當明確“以人為本”的基本原則,推動智能教育系統回歸教學輔助性工具的職能。總之,智能教育對于教育公平的發展利大于弊,社會、開發團隊、師生應當始終把握底線,構建多元評價標準,最大程度地發揮智能教育的有益作用,助力教育公平穩步前行。

猜你喜歡
人工智能智能系統
Smartflower POP 一體式光伏系統
工業設計(2022年8期)2022-09-09 07:43:20
WJ-700無人機系統
ZC系列無人機遙感系統
北京測繪(2020年12期)2020-12-29 01:33:58
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
智能前沿
文苑(2018年23期)2018-12-14 01:06:06
智能前沿
文苑(2018年19期)2018-11-09 01:30:14
智能前沿
文苑(2018年17期)2018-11-09 01:29:26
智能前沿
文苑(2018年21期)2018-11-09 01:22:32
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
連通與提升系統的最后一塊拼圖 Audiolab 傲立 M-DAC mini
主站蜘蛛池模板: 亚洲成人网在线观看| 婷婷丁香色| 亚洲第一视频免费在线| 欲色天天综合网| 国产精品七七在线播放| 国产在线一区二区视频| 粉嫩国产白浆在线观看| 久久天天躁狠狠躁夜夜躁| 国产精品伦视频观看免费| 大香伊人久久| 亚洲视屏在线观看| 色婷婷在线影院| 久久久精品久久久久三级| 日韩a在线观看免费观看| 国产综合日韩另类一区二区| 伊人天堂网| 亚洲区一区| 久99久热只有精品国产15| 国产h视频在线观看视频| JIZZ亚洲国产| 欧美在线三级| 国产成人精品一区二区免费看京| 无码专区国产精品一区| 国产午夜看片| 中文字幕丝袜一区二区| 成人综合网址| 国产精品无码一二三视频| 在线国产毛片| 色噜噜狠狠色综合网图区| 欧美午夜网| 免费一级毛片在线播放傲雪网| 国产福利小视频高清在线观看| 国产成人综合久久| 亚洲精品无码在线播放网站| 丝袜亚洲综合| 日韩成人在线一区二区| 亚洲最大情网站在线观看 | 国产综合精品一区二区| 亚洲码一区二区三区| 天天躁夜夜躁狠狠躁图片| 国产女同自拍视频| 岛国精品一区免费视频在线观看| 美女被操黄色视频网站| 国产免费高清无需播放器| 国产国拍精品视频免费看| 人妻21p大胆| 亚洲精品视频免费| 国产精品蜜臀| 曰AV在线无码| 四虎永久免费地址| 一级做a爰片久久毛片毛片| 国产网站一区二区三区| 福利国产微拍广场一区视频在线| 国产资源免费观看| 欧洲一区二区三区无码| 国产黑丝视频在线观看| 精品伊人久久久香线蕉| 亚洲综合在线最大成人| 国产伦精品一区二区三区视频优播| 亚洲天堂视频网| 国产一二三区视频| 国产va在线| 亚洲国产91人成在线| 亚洲欧美精品日韩欧美| 一本色道久久88亚洲综合| 91毛片网| a级毛片在线免费观看| 性色在线视频精品| aaa国产一级毛片| 成年网址网站在线观看| 午夜无码一区二区三区| 99久久精品久久久久久婷婷| 亚洲欧美在线看片AI| 亚欧美国产综合| 日本久久网站| 四虎精品黑人视频| 精品国产香蕉伊思人在线| 国产成人h在线观看网站站| 亚洲国产综合精品一区| 2020亚洲精品无码| 一本大道香蕉久中文在线播放| a欧美在线|