方海光 舒麗麗 王顯闖
摘要: 以ChatGPT為代表的生成式人工智能對教育已經產生了深刻影響。盡管人工智能在教育領域中具有許多潛在優勢,但也引發了一系列倫理問題,如教育道德、隱私保護、透明度與公平性、知識產權和版權保護等。為充分利用人工智能教育優勢,人類必須認真研究人工智能教育的倫理問題。這需要政府、學校、機構、企業等多方協作,共同參與制定政策和法規,確保人工智能教育的安全性、公正性和道德性。教育研究者也要不斷深化人工智能教育應用研究,使人工智能真正為教育變革帶來持續的助力。
關鍵詞:人工智能教育;ChatGPT;倫理道德;隱私保護;倫理約束
當前,教育領域人工智能倫理研究成為人工智能教育應用研究緊迫且重要的內容之一。為此,我國新一代人工智能治理專業委員會于2021年9月發布了《新一代人工智能倫理規范》,聯合國教科文組織于2021年11月發布了《人工智能倫理問題建議書》。實際上,人工智能迅速發展使其應用領域不斷擴大,特別是在教育領域,人工智能正在以新的方式促進人類的思維方式和學習方式變革。一方面,傳統上我們認為的人工智能的弱項,如內容創作、藝術創作等,正逐一被基于大數據和大模型的深度學習算法優化而克服;另一方面,以ChatGPT為代表的生成式人工智能的超預期提前實現,成為人工智能發展的重要里程碑。在教育教學領域,伴隨著人工智能技術不斷滲透、應用于課堂內外,人工智能已全面融入教育的教、學、管、評、測等各個環節,引發了教育教學方式的深刻變革。但在應用過程中,研究者們也深刻意識到人工智能教育應用存在著潛在的風險和倫理道德問題。
一、人工智能教育應用倫理問題日益凸顯
技術是一把“雙刃劍”,而人工智能是一種特殊的技術。實際上,對人工智能的應用本身并不能保證教育變革的正確方向,人工智能系統在整個生命周期內的任何進程決策,也無法保證都能適切地滿足教育的需求。因此,如何確保人工智能與人類教育的協同發展演化,成為一個基礎性問題。人工智能教育應用是利用人工智能技術輔助教育教學全過程,改善師生活動方式和評價方式,優化教育教學效果的理論與實踐。對人工智能教育應用倫理問題的研究基于人類與人工智能的相互關系。在人機協同教育理論的基礎上,隨著人工智能技術的演化和應用程度的加深,人工智能越來越多地參與到人類教育的決策過程中,其發展演化過程分為三個階段。
(一)以人為主導的教育決策階段
在這一階段,人們僅僅把人工智能視作教育工具來使用。人完成主要工作和解決問題,機器為輔助。比如,教師在教學過程中使用人工智能一體機教學,教師依舊是整個教學活動的主導者和人工智能工具的選擇使用者,人工智能教育應用的倫理問題仍集中在人的身上。
(二)平等參與教育決策階段
在這一階段,教師和人工智能是平等的角色,人工智能可以輔助教師完成決策,并適當地為教師分擔一定的教學工作。但是,當人工智能參與教育決策時,會不可避免地對學生的教育和成長產生一定影響,而學生的成長本身是充滿未知的,無法用單一的決策決定學生的成長。也就是說,學生在成長中是可以犯錯的,但機器并不允許犯錯。這時,人工智能教育的倫理問題就比較突出。
(三)深度影響人類教育決策階段
在這一階段,機器具有一定的主觀性,課堂教學活動的發起可由教師完成,也可由人工智能完成。比如,當前的“雙師課堂”,教育機器人和教師共同完成課堂教學活動,雖然教師依舊是課堂的重要決策者,負責監督整個教學決策,可一旦把教學決策放權給人工智能,那么人工智能在這個過程中就會涉及教學目標之外的內容,對學生的成長產生較大影響。所以,如何讓教師把握住教學的主動權,是我們在研究人工智能教育應用倫理的過程中必須考慮的一個重要問題。
在人工智能教育應用的不同階段,其所面臨的問題和挑戰也不盡相同,經過系統的文獻分析和大量的教育實踐總結,我們認為人工智能教育應用倫理主要涉及教育道德、隱私保護、透明度與公平性、知識產權和版權保護等核心議題。
二、人工智能教育應用倫理的核心議題
人工智能教育的倫理問題可分為道德和倫理兩個層次。傳統上來看,道德更趨向于個體,而倫理則更趨向于群體,其中又伴隨著個體的影響。當我們把人工智能應用到教育領域時,會出現三類倫理問題:人工智能的倫理問題、教育的倫理問題、人工智能教育的倫理問題。這是因為,人工智能是自然科學體系中的內容,而教育是社會科學所要考慮的內容。當我們用自然科學的內容解決社會科學領域的問題時,就會帶來新的矛盾,從而使倫理問題變得更為復雜。
(一)教育道德
人工智能的教育應用需要尊重學生的自主性和個性差異,符合學生群體的認知規律,而不能將學生簡單地視為數據加工的對象。只有技術應用合乎道德規范,人工智能在教育領域中的價值和作用才能得到更好的發揮。因此,人工智能教育應用需要強調并融入教育道德標準。以ChatGPT為例,最初是由美國開放人工智能研究中心(OpenAI)研發的大型語言模型,并不具有任何的倫理道德方面的“認知”。它通過學習大量的文本數據并按照統計學的概率生成問題的回答,這就導致了學生在使用過程中容易獲得大量的有害內容。
(二)隱私保護
在教育中應用人工智能技術,不可避免地會收集學生的個人信息,如姓名、年齡、性別等,以便為他們提供個性化的學習服務。在推廣人工智能教育的同時,開發者和使用者如果沒能重視教育隱私保護問題,并采取相應的措施來確保數據的安全性和隱私性,很可能造成學生個人信息被濫用。比如,一些學者擔心將學生的信息輸入ChatGPT后,雖然在一定程度上能幫助自己做教育決策,更好地開展因材施教,但是這些與學生息息相關的數據可能被人工智能系統的研發人員未經學校及家長許可就用在別處,也有可能被黑客盜取并利用它們進行各種不法活動,給學生帶來傷害。
(三)透明度與公平性
保證透明度和公平性是一個先進、開放、可持續的教育體系的必要條件。人工智能的決策依據往往是算法,而算法是可能存在偏見或歧視的。這是因為我們所說的“算法”其實是由人編寫的,算法的結果也會受到編寫者的影響,進而使決策產生偏差。例如,一個數據集可能存在隱含的偏見或歧視,當這些數據被用來訓練機器學習模型時,模型的結果也會帶有這些偏見或歧視。因此,人工智能教育的透明度和公平性問題至關重要,如果人工智能教育的過程不能被公開或存在不公平問題,將會對整個教育結果產生惡劣的影響。
(四)知識產權和版權保護
作為一種創造性活動,人工智能教育應用的研發涉及很多原創內容以及算法和程序,需要遵守知識產權的相關規定,并確保合法使用這些資源。以ChatGPT為例,它所生成的內容往往是對已有文本的拼接,在生成的回答中我們只得到了最終結果,而對于這個結果是如何產生的,尤其是引自哪里并未有所提及,這就導致了知識產權和版權保護等問題的出現。
三、人工智能教育應用倫理問題的解決對策
人類的學習不是完全程序化和形式化的過程,它同時還受歷史觀、信息觀、情感觀、家庭觀等一系列因素的影響。人工智能教育應用也注定是一個復雜的混合性問題。因此,在研究人工智能教育的倫理問題時,我們要取得社會科學和自然科學思維體系的平衡。
(一)注重人工智能教育應用的道德監管
首先,應堅持以人為本的原則。人工智能教育的開展,應尊重學生的個體差異和發展需求,關注他們的情感、思維和行為表現,避免簡單的“刻板印象”和歧視性言論,確保不會傷害到學生的身心健康和切身利益。其次,應強化道德引導和監管機制。人工智能教育的開展,應注重培養學生正確的價值觀和道德觀,鼓勵學生積極參與社會實踐,增強社會責任感和公民意識。最后,應建立健全監管機制。對違反道德規范和法律法規的行為,要及時糾正和懲處。以ChatGPT為例,為滿足社會約定俗成的倫理道德標準,OpenAI研發了名為reword的模型。該模型具有激勵懲罰機制,以人工標注打分的方法使其形成符合倫理道德標準的內容,以此規避在教育應用時的潛在風險。這種標注方法雖然不可避免地還存在一些主觀因素,但從結果來看,已能夠在一定程度上剔除對學生有害的生成式內容。這也為其他人工智能產品在教育領域中的應用提供了一種可借鑒的處理方式。
(二)注重人工智能教育的數據隱私保護
首先,要保證學生的個人信息安全。學生在接受人工智能教育過程中會產生大量數據,如學生個人基本信息、學習軌跡、學業成績等,這些信息必須得到嚴格的保護,避免泄露、濫用或者篡改。其次,要明確收集和使用學生數據的目的與范圍。在涉及學生隱私的情況下,任何的數據收集和使用都必須遵守法律法規,并且必須得到學生及其家長的明確授權和同意。學校和相關機構也應為學生提供保護個人隱私的知識和培訓,以增強他們保護自身隱私的意識和能力。最后,要加強技術手段的保障。針對人工智能教育的特點,教育管理部門應建立健全數據管理制度和技術安全保障體系,采用加密、匿名化、去標識化、脫敏等技術手段,盡可能減少學生個人信息的泄露風險,同時加大對不法分子盜取相關教育信息的懲處力度。
(三)確保人工智能教育決策的透明度與公平性
首先,要保證基于人工智能的決策具有可解釋性。這意味著教育機構必須向用戶或學生清晰地解釋和展示其決策過程,讓他們了解決策背后的原因和依據,從而能夠更好地發現人工智能教育應用過程中存在的偏差或缺陷。其次,要確保人工智能技術應用的透明度。使用人工智能技術的教育機構應提供足夠多的算法和數據集信息,以便外界進行監督和審查。最后,要確保人工智能教育的公平性。在使用人工智能技術時,教育機構應該采取公平、準確、客觀的評價方式,避免產生歧視和偏見。比如,考慮到學生的個體差異,教育機構可采用多元化的數據集和算法,以更好地滿足學生的個性化需求。與此同時,人工智能教育也應當以賦能教育公平為己任,公平對待所有學生。
(四)確保人工智能教育產出的知識產權和版權保護
首先,研發人員在進行人工智能教育研究和開發時,對原創的內容需要明確知識產權的歸屬,明確自己的權利和責任。人工智能教育應用中的算法和程序,開發者可以采用發明專利、實用新型專利等形式保護自身知識產權,也可以通過商標、著作權登記等途徑加大對原創內容的保護力度,制約他人在未經授權的情況下復制自己的代碼和算法。其次,開發者和使用者都應遵守版權法規,確保不侵犯他人的知識產權和版權。最后,加強監管和執法力度。政府和相關機構應該加強對人工智能教育內容的監管和執法力度,并嚴厲打擊盜版和侵權行為。例如,ChatGPT等生成式人工智能生成的內容應盡可能地標明出處,使用者在使用其生成的內容時也應標明引用的來源等。
四、總結與展望
綜上所述,盡管人工智能在教育領域中具有許多潛在優勢,但同時也引發了教育道德、隱私保護、透明度與公平性、知識產權和版權保護等一系列倫理問題,在人工智能教育應用中,如何保證教育公平、促進教育高質量發展,需要政策制定者、人工智能教育應用研究者、開發者和使用者多方協作,并采取相應措施來保證人工智能教育的安全應用。
人工智能技術在教育領域中的應用廣泛且深刻,其未來的發展前景非常廣闊,如構建公平而有質量的教育生態系統、推動學校教育評價變革、創新人才培養模式等。我們只有充分考慮人工智能教育的道德與倫理問題,并在實踐中加以維護和保證,才能使人工智能教育真正為教育變革帶來切實可行的益處。因此,我們應該不斷深化人工智能教育應用研究,推動其不斷向前發展。
參考文獻
[1] 中華人民共和國科學技術部.《新一代人工智能倫理規范》發布[EB/OL].(2021-09-25)[2023-05-25]. https://www.most.gov.cn/kjbgz/202109/t20210926_177063.html.
[2] 聯合國教科文組織.人工智能倫理問題建議書[EB/OL]. (2021-11-24)[2023-05-25].https://unesdoc.unesco.org/ark:/48223/pf0000380455_chi.
[3] 吳茵荷,蔡連玉,周躍良.教育的人機協同化與未來教師核心素養——基于智能結構三維模型的分析[J].電化教育研究,2021(9):27-34.
[4] 彭紹東.人工智能教育的含義界定與原理挖掘[J].中國電化教育,2021(6):49-59.
(作者方海光系首都師范大學教育學院教授、博士生導師,教育部數學教育技術應用與創新研究中心主任,北京市教育大數據協同創新研究基地主任;舒麗麗系首都師范大學教育學院碩士研究生;王顯闖系首都師范大學教育學院碩士研究生)
責任編輯:牟艷娜