□ 郭勝男 錢 雨 吳慧娜 吳永和
作為引領第四次科技革命和產業變革的戰略性技術,AI 正深刻改變著人們的生產和生活方式?,F在的未成年人是在AI 構筑的數字世界里成長起來的,他們通過數字化、智能化產品認識世界,其生活、學習、娛樂等無不與AI 系統、產品或服務息息相關。AI 正以不同形態影響著未成年人:一方面為其提供了一個廣闊的、個性化的、高效的成長與發展空間;另一方面也為其帶來前所未有的安全威脅,如身心發展、個人資產、數據與隱私和社會性歧視與公平等安全性問題。如何在AI 時代保障未成年人的安全與權益已成為AI 風險治理的核心議題。國內外組織已針對這一問題進行深刻省思。聯合國兒童基金會(UNICEF,2022a)在《人工智能為兒童——政策指南》中對以兒童為中心的AI 提出九項要求,切實維護兒童權利?!睹嫦騼和娜斯ぶ悄鼙本┕沧R》涵蓋了“以兒童為中心”“保護兒童權利”“承擔責任”“多方治理”四大主題19條細化原則,呼吁社會各界高度重視AI 對兒童的影響(北京智源人工智能研究院,2020)??梢?,各界已在“保障未成年人合法權益與安全,發展向善的AI”方面達成共識,卻鮮有面向未成年人的AI 安全風險治理策略。因此,本研究基于未成年人安全視角,聚焦以下問題:①AI技術給未成年人帶來哪些安全風險?②這些安全風險產生的根源是什么?③如何進行有效的AI 安全風險治理?本研究采用文獻分析和歸納—演繹的研究方法,以未成年學生群體為對象,深度省思AI 給未成年人帶來的安全風險,從未成年人的脆弱性、AI 系統的內生特性和AI 治理策略適切性三個維度進行根源剖析,以信息生態理論為依據構建面向未成年人的AI 安全風險治理生態系統,為未成年人構筑AI 安全盾牌,進而為未成年人與AI技術的協調發展貢獻治理良策。
智能教育產品與服務是AI 技術賦能教育的根本落腳點(王一巖&鄭永和,2021)。利益相關者通過圍繞教育實際需求完成技術的封裝和產品的研發,以智能設備、工具、平臺、內容和解決方案等形式,打造覆蓋“教、學、管、測、評”的服務鏈條?,F階段,AI 技術已成為未成年學生生活和學習的重要工具,憑借其認知能力、學習能力和決策能力,為學生制定個性化學習課程和內容,增強學習體驗并提高學習質量。其應用樣態逐漸呈現常態化和多樣化,越來越多的智能工具可供未成年人選擇(如智能學習終端、智能可穿戴設備、智能機器人、自適應學習平臺、智能搜索等)。但AI給未成年人帶來的安全威脅也不可忽視。正如尤瓦爾·赫利拉(2017)所說,“我們無法真正預測未來,因為科技并不會帶來確定的結果”,AI技術也如此。不同于其他信息產品,AI系統以機器學習算法為核心,具有自主性和不確定性的特征,它們承擔了人類的部分決策功能,而這種決策受到諸多不可控因素的直接影響,不可避免地會給未成年人的成長與發展帶來風險。
兒童和青少年均屬于身體和大腦尚在發育中的未成年人(WEF,2022)。從生理成長來看,未成年人是指0~17 歲的群體,聯合國世界衛生組織(WHO,2010)在“體育活動促進健康的全球建議”中,將5~17 歲的人劃分在兒童組。從腦發育情況來看,未成年人的年齡可以考慮到26 歲,因為人的前額葉皮層在26 歲前才會發育完成(Klein,2013)。從法律視角看,《兒童權利公約》(United Nations,1989)和《中華人民共和國未成年人保護法》都規定未滿18周歲是未成年人。因此,考慮到AI 技術在教育領域的應用樣態以及未成年人在生理成長、心理認知和道德倫理發展等方面的不足,本研究以兒童和青少年學生群體為研究對象,以他們在使用AI 教育產品過程中可能遭受的安全威脅為切入點,系統化梳理安全風險共性,從而構筑AI安全盾牌。
現階段的未成年人是伴隨AI 成長起來的Z 世代(Generation Z),從出生起便與AI 技術無縫對接,并通過數字化、智能化產品認識世界,但還未能對自己的數字權利做出理性而成熟的決定,甚至無法意識到AI 產品給其帶來的安全威脅??梢?,厘清AI 技術給未成年人帶來的風險是進行有效治理的首要前提。基于安全視角,從未成年人的身心安全、資產安全、數據安全和社會安全等維度闡釋AI 技術帶來的風險,可為提出全面而適切的AI治理舉措奠定基礎。
首先,在AI 構筑的數字世界里復雜性和不確定性并存,可能給未成年人的身心健康與安全造成威脅。具體表現在:其一,諸如教育機器人、智能玩具等由算法控制的AI 產品可能存在漏洞,威脅未成年人的健康或生命安全。印度特倫甘納邦在中學到大學的統考中采用智能分數錄入系統,由于系統故障,有些參加考試的學生被標記為缺考狀態,導致多位考生自殺。其二,AI 產品層出不窮,網絡游戲成癮、虛擬社交成癮、網絡欺凌/暴力等現象層見疊出,這種新型認知和社交模式會對未成年人的世界觀產生重大影響,進而誘發未成年人憂郁、焦慮、自殺傾向等心理問題。其三,未成年人容易對AI 技術及其衍生產品產生過度依賴,基于AI 技術的學習資源推薦系統過度迎合未成年人的個性化需求,形成“過濾氣泡”,產生“繭房效應”,助長未成年人的惰性思維和不良習慣,造成認知和意識形態上的封閉和僵化。
其次,AI 技術給未成年人的資產安全帶來挑戰。一方面,AI 技術賦能新型詐騙,例如基于“深度偽造”技術的影像詐騙不斷涌現(許倩,2022),但未成年人的心理防范意識較弱,相比成年人更容易上當受騙,其資金安全往往難以保障;另一方面,群智共享的AI 時代鼓勵未成年學生進行創新實踐,但未成年人的知識產權意識薄弱,又缺少相應的產權保護機制,這無疑給了社會教育機構和組織可乘之機,致使未成年人的知識資產受到侵害。
再次,在數據、算法高度集成的AI 時代,未成年學生使用AI 產品在線學習或交互過程中留下海量痕跡,大大增加了數據泄露和隱私侵犯的風險(趙慧瓊等,2016)。具體表現在:一是數據存儲技術、數據權限劃分和數據安全標準尚不明確,導致未成年學生的學習數據存在被泄露、刪除和修改的風險;二是隨著AI 技術的進步,個人隱私的安全邊界越發模糊,智能系統和學習分析技術可以從原先雜亂無章的數據中挖掘出學生的學習行為偏好甚至是畫像特征等隱私,給學生帶來隱私被侵犯的風險;三是數據使用權與歸屬權一直以來備受爭議,在教育市場趨利模式支配下,學生的身份敏感信息和學習數據在不經允許的情況下被傳播與販賣,從而給學生造成精神壓力和人格損害,甚至若此信息流向非法機構,則可能造成極為嚴重的教育安全問題。
最后,社會安全風險是指面向未成年人的AI產品的社會應用造成的風險。其一,AI算法以涵蓋教育復雜性的海量異構數據為基本載體,現實境況是難以有足夠完備的數據適用于復雜多樣的教育場景,諸如“辛普森悖論”和“可用性偏差”等數據偏見給未成年人中的弱勢或邊緣化群體帶來歧視風險,進而放大教育不公平現象,如英國艾倫圖靈研究所(Alan Turing Institute,2019)指出,可能影響兒童群體的首要潛在危害是由AI驅動的歧視和不公平;其二,算法的不透明性和不可解釋性增大了未成年人盲目使用AI產品的可能性,他們往往只是“知其然而不知其所以然”,進而造成濫用、誤用和錯用的風險(郭勝男&吳永和,2022)。
在了解AI 技術給未成年人帶來安全風險的基礎上剖析其根源,是做好面向未成年人的AI 安全風險治理的核心著力點。鑒于安全風險具有不可預測性、不確定性和多維性的特點,本研究基于對人、技術以及“人—技術”協調關系的理解,圍繞未成年人的脆弱性、AI 系統的內生特性和AI 治理策略的適切性三個維度進行解構(如圖1 所示),三者之間存在著不同層級的內生性關系,既彼此獨立又相互依存,可以全面而透徹地分析AI安全風險產生的根源。

圖1 面向未成年人的AI安全風險的根源透析
未成年人是中國最大的弱勢群體(孫云曉,2011)。未成年人的脆弱性主要表現在生理成長、心理認知和情感與道德倫理等方面的不完善。換言之,未成年人群體的身心發育正處于不成熟到成熟的過渡時期,具有強烈的好奇心和求知欲,但缺乏自我保護的意識和能力,極易受到AI帶來的負面影響。
在生理層面,未成年人的身體還處在生長發育階段,骨骼、器官等尚未發育完全,腦部前額葉發育不全,這意味著預測結果的能力更弱,易沖動又缺乏自制力,導致他們自我保護和預防傷害的能力較差,難以適應外界帶來的變化和挫折。在心理認知和情感層面,一方面,由于缺乏對世界規律的認知,盡管未成年人的智力和能力會有一定程度的成長,但仍缺乏對AI 產品的感知、認知和辨識能力;另一方面,未成年人心理上漸趨成熟,獨立意識產生,對成年人的依賴性減弱,情感色彩強烈,易沖動,此時的心理矛盾性明顯,難以處理對AI 產品的依賴等情感。與此同時,未成年時期又是自信心和自我價值發展的關鍵時期,表現為“以自我為中心”,容易將AI技術的好壞進行內部分化,把一切錯誤歸結于自身(UNICEF,2022b),這將嚴重影響未成年人的心理健康和發展。在道德倫理層面,克爾伯格(Kohlberg,1969)認為:“道德倫理教育的目的是促進學生的道德判斷和道德推理能力的發展,最終達到道德判斷與道德行為的一致?!蔽闯赡耆说钠返掳l展進入了道德自律階段,開始形成道德信念和道德理想,并可以自覺地用道德理念約束自己的行為,但此時的未成年人正處于道德判斷不斷發展但又尚未與道德行為達成一致的階段??梢姡诔錆M不確定性的AI 時代,未成年人本身的脆弱性常常令他們處于“弱勢”之中:于外,需要安全的AI 學習環境和符合其權益的智能教育產品;于內,需要未成年人自身具備AI 的基本認知、風險意識、智能素養等。
AI 系統以機器學習算法和數據為基石,因現階段技術不成熟而自帶“技術內生性”風險,例如“算法黑箱”、數據強依賴性、算法歧視等問題,這些問題內嵌于AI 系統研發、設計制造、部署應用等環節,是產生安全風險的技術根源。
大數據和數據分析能力推動AI 技術進一步發展,與依賴編程規則執行重復任務的早期算法不同,機器學習算法可以從海量數據中學習并在沒有人類指導的情況下做出決策??梢哉f,AI 系統決策是高度數據驅動且自主性的,人們無法了解從輸入到輸出的內在邏輯,這種“算法黑箱”降低了人們對決策行為的控制,難以提前驗證其安全性(Koopman & Wagner,2016)。在當前技術環境下,任何算法都無法保證完全安全可靠,在其研發、訓練和測試等階段存在諸多隱患,不法分子可能通過攻擊漏洞控制AI 決策行為,進而威脅未成年人的安全。此外,海量數據是AI算法優化的“燃料”,是其做出正確、公平、合理決策的基礎,因此,數據的規模、準確性、完備性等質量因素和其中包含的社會價值和偏見也會影響AI 系統的決策結果(劉三女牙等,2021)。AI 的個性化推薦服務基于未成年人的學習足跡、學習興趣等數據,自動根據他們的特定需求和學習偏好提供服務,不可避免地造成“信息繭房”,在限制未成年人學習內容深度和廣度的同時,更加不利于他們獨立思考以及批判性和創新性思維能力的鍛煉。從長期發展來看,“繭房效應”會降低個人自主權,不利于未成年人心理健康發展。
未成年人的脆弱性和AI 算法固有的技術特性均屬于安全風險產生的內生根源,而缺乏適切的面向未成年人的AI 治理策略則是導致風險的直接原因。目前各國政府頒布的AI 治理策略多是適用于多個領域的通用型治理框架、監管策略和法律制度,多聚焦以價值引領風險防范,鮮有針對教育領域中未成年人的治理策略。究其原因,其一,鑒于AI 技術的自主性,法律問責制度難以完善。機器學習決策行為很大程度上依賴于自我學習的機器學習過程,其決策結果可能超出了AI 系統設計者、制造者和部署者等的控制范圍和預期,一旦AI 產品對未成年人造成傷害,如何劃分法律責任是一大難點。問責制度的缺席放寬了對AI 的管控力度,進而放大了AI 帶給未成年人的安全威脅。其二,AI 技術創新與風險監管之間的權衡性。一方面,當前層出不窮的AI 教育產品或服務將“類人”作為關鍵屬性,不斷追求技術創新發展,極可能陷入“工具理性至上”的技術誤區,進而導致AI應用失范。正如社會學家安東尼·吉登斯(Anthony Giddens,2000)所言:“我們所面對的最令人不安的威脅是那種人造風險,它來源于科學和技術不受限制的推進。”另一方面,當前教育領域的AI 技術監管能力遠遠不及技術的更新速度(譚維智,2019)。考慮到AI 技術具有高度的不確定性和復雜性,過度監管將會阻礙技術創新與進步(Taeihagh,2021),面對未成年人,傳統的“一刀切”和“無需批準式”監管策略不再適用,亟須能權衡好AI創新與風險監管矛盾的策略。其三,以未成年人為中心的AI 設計不僅需要滿足未成年人的需求,還需要尊重他們的權利和權益。綜觀AI 治理策略,他們征集了諸多利益相關者的看法,卻忽略了未成年人對AI 的需求和態度,不利于設計包容性AI 系統以保障未成年人的權益與安全。
面對AI 可能產生的安全風險,如何協調好AI 技術創新發展與未成年人健康成長之間的關系是當前面向未成年人的AI 安全治理的核心內容。值得注意的是,良好的AI 安全風險治理不僅需要高屋建瓴的政策指引,還需要AI 產品/服務提供者和使用者的多方參與。信息生態理論為其提供了系統化研究視角,信息主體、信息本體和信息環境三個要素之間相互作用、相互聯系,形成具有一定自我調節功能的人工生態系統(韓秋明,2017)?;诖?,本研究以協調AI 技術創新發展與未成年人健康成長為目標導向,以信息生態理論為理論依據,從頂層設計、風險防范和個體防護三個層面構建面向未成年人的AI安全風險治理生態系統(如圖2 所示),以不同層級之間的能量流動和信息傳遞為基礎建立生態鏈接,實現該生態系統的良性循環和自治式演進,進而為未成年人與AI技術協調發展貢獻治理良策。

圖2 面向未成年人的AI安全風險治理生態系統
信息生態理論強調信息主體、信息本體與信息環境的三元結構(丁波濤,2022),借鑒此模型,將面向未成年人的AI 安全風險治理生態系統解析為生態主體、信息本體和生態環境三個核心要素之間的作用機理。生態主體是指與治理活動相關的主體要素,由政府部門、產品/服務提供者和教育用戶構成。其中,政府主要制定與AI 應用相關的政策制度、法律規范、標準規范、技術規范,明確責任歸屬,給AI 產品/服務提供者和教育用戶提供系統性的政策保障,給面向未成年人的AI 安全風險治理提供頂層引導;產品/服務提供者包括AI 系統研發者、設計制造者、部署應用者等,以未成年人為中心進行設計,將設計規范覆蓋AI 系統、產品和服務的全生命周期;教育用戶主體包括教師、家長和未成年人等,教育用戶不可惡意使用AI 產品或服務,需要主動了解AI 安全風險,積極向政府和產品/服務提供者反饋。信息本體是指在治理過程中的客體要素,包括技術設施、需求反饋以及具體的政策、法規、標準和技術規范等。生態環境是指在治理過程中與主體和客體相關的環境要素,包括AI 倫理政策環境、AI 技術發展環境、未成年人成長環境和教育價值導向環境。
風險治理的有效實現依賴于生態系統的雙向循環演進和信息傳遞:政府部門通過制定法規、制度、標準和技術規范等規范AI 產品的生產過程,為教育用戶提供負責任的AI 產品或服務;教師、家長和未成年人等教育用戶將AI 使用過程中產生的安全問題或需求反饋給政府部門,政府部門進一步制定更加適切的規范制度。教育用戶的動態需求是提升智能教育服務質量的關鍵(趙磊磊等,2022),教育用戶將AI 應用的安全需求或問題反饋給產品/服務提供者,產品/服務提供者將技術規范和倫理標準納入AI 系統的研發、設計制造和部署過程,并向政府部門反饋統一的技術規范和倫理需求,政府部門發布統一的政策制度保障未成年人等教育用戶的安全和權益。在此雙向循環過程中,生態系統各要素之間相互適應、相互依存,通過不斷平衡外部生態環境以及調整和重組內部資源實現生態系統的自治演進和動態平衡。
AI 技術正在從根本上改變世界,影響著現在和未來幾代未成年人。如何維護未成年人的權利和支持他們的發展是亟須解決的核心議題,正如《兒童權利公約》中規定的,每個18 歲以下的兒童都享有充分發揮其潛力的權利(United Nations,1989)。AI系統可以維護或損害未成年人的權益,這取決于他們的使用方式,因此制定能夠支持未成年人發展的AI 策略,不僅能夠助力未成年人健康發展,還是面向未成年人的AI 安全風險治理生態系統中的關鍵一環。就具體AI 策略而言,可從以下幾個方面來闡釋:首先,針對未成年人制定AI 發展策略,以尊重未成年人權益為導向,在保障未成年人安全的基礎上鼓勵AI 創新發展,平衡技術創新與監管之間的矛盾。其次,在AI 策略中明確未成年人隱私問題,規范個人信息與隱私數據的倫理邊界,并將其應用于AI 的設計與實施,鼓勵開發人員采用最少數據處理原則和基于設計的隱私保護方法。再次,給AI產品/服務提供者提供統一的技術規范和倫理規范,要求AI 系統研發者、設計制造者和部署者在AI 產品投放的每個環節都按照一定的技術規范執行,并優先考慮未成年人的需求與權益;然后針對未成年人實施包容性設計和持續性風險評估策略,一方面鼓勵未成年人有意識地參與AI 系統的設計與實施,另一方面基于風險的方法進行影響評估,嚴格把控高風險AI 產品的投放和應用,針對中低風險產品建立長期追蹤和周期性安全評估機制。最后,設置專門針對未成年人的AI 法律監督機構,建立嚴格的審查和追責機制,明確AI致害的責任主體和因果關系,嚴厲懲處濫用AI侵害未成年人權益的個人和組織。
在AI 技術尚未給未成年人造成損害之前對其進行預防極為必要?!翱屏指窭锲胬Ь场北硎荆骸耙豁椉夹g的社會后果無法在技術生命的早期被預料到,當不希望的后果發生時,技術已成為經濟和社會結構的一部分,對它的控制將十分困難?!保∕ayne,1982)《新一代人工智能發展規劃》強調,要“建立健全公開透明的人工智能監管體系,實行設計問責和應用監督并重的雙重監管結構,實現對AI 系統設計、產品研發及服務應用等全流程監管”(國務院,2017)?!禔I 倫理安全風險防范指引》為開展AI 系統開發、設計制造、部署應用等活動提供指引,以充分識別、防范和管控AI 倫理安全風險(全國信息安全標準化技術委員會,2022)??梢姡瑥腁I 教育產品開發的全流程著手,可以有效規避AI 風險,給未成年人提供負責任的智能教育產品或服務?;诖?,本研究著眼于AI系統研發、AI產品設計制造和AI服務部署應用三個流程,通過嵌入以未成年人為中心的設計規范(如圖3所示),開發負責任的AI教育產品和服務,為AI教育服務提供者提供鏡鑒。

圖3 以未成年人為中心的AI設計規范
首先,是風險防范的上游——AI 教育系統研發階段。AI 教育系統研發是指致力于開展AI 理論研究、數據集規約與選擇、算法設計與模型迭代以及系統決策制定的過程。為了在AI 系統研發過程中保障未成年人的權益與安全,對AI 教育系統研發者提出以下期望:①研發者在系統研發之前需要充分了解AI 相關理論和未成年人的需求與期望,以保障未成年人基本權益為目的開發AI 系統;②為保證AI 系統對未成年人的透明性、公平性和平等性,系統開發人員將個人偏好、算法的選取與設計以及數據集的選擇等關鍵決策與保障未成年人安全和權益的框架與指標掛鉤,并采用改善未成年人福祉的措施作為系統質量的主要標準;③為保障未成年人的數字權益,研發者需要設置未成年人參與系統研發的接口,支持未成年人對其個人數據和隱私的代理,強化他們獲得訪問、安全共享、了解使用、控制和刪除數據的權限;④研發者需采用迭代式和參與式設計的方法進行AI 算法設計與訓練,充分考慮未成年人的認知、情感和身體健康等隱私,切實保障其對未成年人的包容性和可解釋性。
其次,是風險防范的中游——AI 教育產品的設計制造階段。AI教育產品設計/制造是指利用AI理論或技術開展相關教育活動,將上游的AI 算法或者模型嵌入硬件設施,形成具有特定功能、滿足特定教育需求的智能產品(如教育機器人)。設計制造者需要遵循以未成年人為中心的規范,規避可能存在的安全風險。具體如下:第一,設計/制造者要保證AI教育產品有助于挖掘未成年人的潛力,同時,通過嵌入隱私規范、安全規范和訪問途徑等倫理措施,避免制造損害未成年人權益和公共利益的產品;第二,在整合軟件和硬件設施的過程中,極有可能產生一系列安全風險和隱患,通過建立風險評估和隱患排查機制,編制隱患清單、制定排查計劃、開展定期隱患排查,并向部署應用者提供清晰、詳盡的AI 產品說明,包括功能局限、注意事項、潛在風險和隱患等(全國信息安全標準化技術委員會,2022);第三,未成年人的思維活動、身心需求和行為存在較高的不確定性,設計制造者應預設好事故應急預設方案(如緊急干預措施和事故處理流程等),并通過設置信息回溯機制,進一步追溯事故發生的根源,明確責任歸屬,不斷反思以提高產品的可控性。
最后,是風險防范的下游——AI 教育產品/服務的部署應用階段。AI 教育產品/服務部署應用是指在各類教育場景中提供AI 系統、產品或服務的過程(如學校開設智慧學習課堂)。首先,部署應用者以未成年人的成長需求和權益為中心,遵循AI 倫理規范進行產品部署,不以AI 作為直接決策手段;其次,部署應用者應以適合未成年人年齡水平和包容性的方式提供詳盡的產品或服務功能局限說明,并解釋如何使用和維護他們的數據、隱私以及可能產生的后果;最后,部署應用者應充分尊重教育用戶的數據知情權和監督權,讓家長或未成年人知曉“收集了哪些數據、這些數據有何用途”等,并為其提供拒絕機制,及時響應教育用戶反饋的安全問題,以便于操作的方式干預或者停止提供AI服務。
教育用戶是指在各類教育場景中接受、購買和使用AI 系統、產品或服務的組織或個人,包括教師、家長/監護人、未成年人等。AI 創新發展與政府監管、企業規劃和用戶行為之間的關系錯綜復雜,規避風險不能完全依賴外部治理,還應該重視培養教育用戶自身的自律意識,尤其是AI 核心素養的提升。因此,加強教育用戶的AI核心素養培育是保障該生態系統自治演進、動態平衡的關鍵所在,也是規避AI安全風險的最后一道防線。
隨著AI 技術的不斷成熟,AI 核心素養的研究正如火如荼。有學者認為AI 核心素養不僅包括與AI 相關的知識與能力,還包括與AI 技術使用相關的態度與倫理(張銀榮等,2022)??梢姡胩嵘逃脩舻腁I 核心素養,需從知識、技能、態度、倫理等方面著手,培養個體適應智能社會所必備的素質。對教師而言,在大多數教育場景中,教師是連接AI與學生的中介要素,這就要求教師必須成為“AI 識字者”。其一,通過組織教師AI專業知識培訓,培養“AI 種子教師”,用“以點帶面”的形式助力教師掌握AI知識和技能,理解AI本身的風險結構,防止AI的濫用、誤用和錯用(郭勝男等,2022)。其二,通過構建AI 教師學習共同體,組織市級或區級AI 研討活動,幫助教師主動了解AI 教育應用可能帶來的風險,提高AI 風險意識,積極向研發者、設計制造者和部署應用者反饋風險信息,避免“新數字鴻溝”的出現(王宇&汪瓊,2022)。對家長而言,家長或監護人是家庭、場館等教育場景的重要參與者,在降低風險方面發揮著重要作用,有責任選擇符合倫理道德設計的產品,并幫助未成年人負責任地使用它們。因此,家長應該與未成年人一起參與AI 教育培訓,了解AI 產品和服務將如何影響未成年人的學習和生活,針對不同年齡段的未成年人和個人特征審慎選擇尊重未成年人權利、以未成年人為中心的AI 產品。除此之外,在數據授權方面,家長或監護人要擁有“知情同意”的權利意識,對個人信息和隱私有清晰的認知,一旦發生安全事故,主動終止產品使用,積極向產品提供者和政府部門反饋。對未成年學生而言,他們在生理、心理認知與情感、道德倫理方面尚未完全發育,可從以下幾點進行核心素養培育:第一,以AI 為教學內容在中小學實施AI 教育,如開設AI 校本課程、在信息技術課程中融入AI 等,培養學生對AI 的感知、認知和運用;第二,學校或教育部門設計并組織AI 編程或知識科普競賽,使學生在準確使用AI 知識的基礎上提升計算思維、創新性思維和批判性思維,深化兒童和青少年對AI 帶來的機遇和風險的均衡認識;第三,周期性地開展心理健康和道德倫理教育,使學生認識AI應用的道德規范與責任邊界,了解他們作為用戶的基本權利,在增強維護自身權益意識的同時,避免對AI產生過度依賴。
AI 風險治理已成為社會各領域重點關注的議題。未成年人是伴隨AI 成長的Z 世代,通過數字化、智能化產品認識世界,其生活和學習無不與AI產品息息相關,可見AI 技術正潛移默化地影響未成年群體的成長與發展。如何妥善應對AI 給未成年人帶來的安全風險,為其提供符合成長特點、負責任的AI 產品和服務是智慧教育時代的當務之急。本研究在省思AI 技術給未成年人帶來的安全風險及其根源的基礎上,從頂層設計、風險防范和個體防護三個層面構建面向未成年人的AI 安全風險治理生態系統,以此為未成年人與AI 技術協調發展貢獻治理良策。本文以未成年學生群體為研究對象,從未成年人安全的視角系統化回應面向未成年人的AI 風險治理問題,對推進“面向未成年人的AI 技術規范研究”很有必要。但值得注意的是,不同年齡段和學段的未成年人的認知和心理存在不同層次的差異,面對AI 技術和產品遇到的風險也會參差錯落。因此,未來需將未成年群體進行更細粒度的劃分,針對不同階段的未成年人的發展特征進行技術規范的落地實踐,為促進未成年人與AI協調發展提供實踐路向。