朱芊逸
[摘 要] 文章從“人工智能+教育”領域的發展背景與監管現狀入手,以小猿搜題APP為例,通過問卷調查形式對社會公眾意見進行收集整理,分析得出“人工智能+教育”領域存在的問題以及成因,最終得出優化“人工智能+教育”領域政府監管的對策建議,包括促進政府監管理念的轉變;推動人工智能領域立法進程,出臺《人工智能監管法》;完善人工智能領域監管體制,成立人工智能監管委員會;通過多元化的協同監督,創新人工智能領域監管模式以及全方位綜合提高監管能力,為“人工智能+教育”領域搭建一個安全、有序、明晰的平臺。
[關鍵詞] 人工智能+教育;小猿搜題;政府監管;技術倫理
中圖分類號:D523 文獻標識碼:A
★基金項目:北京市2018年社科基金青年項目《北京市共享經濟監管困境及其治理創新研究》(18ZGC011)的階段性成果。
從21世紀初起,隨著人工智能技術發展的逐步成熟,以互聯網、大數據以及深度學習為依托的第三次人工智能高峰已然到來,人工智能技術已成為推動社會發展的重要技術動力,是各個行業和領域發展的新興趨勢。教育作為決定國家科技發展水平和創新能力重要環節,對人工智能技術的應用更加迫切。如何使“人工智能+教育”適應時代需要,通過人工智能技術的使用改革教育方式和培養創新型人才,成為對我國的一項重要挑戰。
一、“人工智能+教育”領域發展與政府監管現狀
(一)“人工智能+教育”領域發展
國務院于2017年上半年發布的《新一代人工智能發展計劃》中提出智能教育應以形成交互式、智能化的新型教育系統作為發展目標,同時應促進人工智能技術在教育、管理和資源建設領域的應用。同年,國務院發布《十三五國家教育發展規劃綱要》中提出發展未來教育,進一步構建新型教育模式應綜合運用人工智能、大數據、虛擬現實等技術[1]。2018年,教育部發布的《高等教育人工智能創新行動計劃》中指出對于新一代人工智能的創新發展,需要進行頂層計劃和部署。2019年,在國際人工智能和教育會議上討論,審查和批準了文件《北京共識——人工智能與教育》,形成了國際社會對智能時代教育發展的共識。
(二)“人工智能+教育”領域政府監管
根據教育部官網站數據,截至2018年底全國共計2963個縣(區、市)已開始專項治理整頓工作,其中1247個縣(區、市)已基本完成任務,完成率達42%。對于教育機構的整頓方面,全國校外教育機構共摸排401050家,其中問題機構占比68%,其中六成已完成整改共計163203家。盡管行業監管政策更為嚴格,鼓勵教育行業創新的政府政策也在不斷推廣,尤其是從資金投入方面,2012年至2016年4年間教育支出逐年增加,連續五年占GDP的比重超過4%,并將持續增加[2]。
二、基于“小猿搜題APP”拍照搜題軟件的實證研究
在“小猿搜題APP”軟件調查問卷設計方面,調查主要針對用戶的使用感受、滿意度以及是否認為該軟件需要政府監管的方面進行數據收集和分析。通過問卷結果分析,得出小猿搜題軟件存在以下幾方面問題:第一,產品技術水平有待提高。檢索完成后結果排版雜亂,展示不夠直觀,用戶無法直接找到所需結果,拍照識別精準度不高,后續需進一步提升。第二,拍照搜索內容存在缺失或出錯。目前小猿搜題主要面向理工類科目,對于文史類科目,存在搜索準確性低、無法反饋結果等問題。并且,作為信息化的產物,由于不能進行獨立地思考,故不能保證提供百分之百正確的答案。第三,易使用戶產生惰性和依賴,不利于對具體知識和解題思路的掌握。作為軟件,解題的步驟不能做到完全詳盡和標準化,故學習能力弱的學生無法僅憑步驟解決問題,準確掌握所學的知識點,使所學知識無法得到鞏固。第四,全員“小猿”,不利于家長和教師了解學生學習的真實水平。作業完成情況是老師衡量學生學習,調整授課內容的重要手段,通過使用“小猿搜題”,作業無法呈現學生對知識掌握的真實情況,家長和教師無法進行有針對性的輔導。第五,平臺是否擁有優質的師資力量有待考證。由于小猿搜題主打功能是搜題,存在師資素質和資歷參差不齊的情況,缺乏專業性和權威性。第六,平臺內容和經營管理問題存在混亂。小猿搜題軟件曾因為推送中存在低俗有害信息而被央視報道和點名,同時還存在一些在線教育的通病,包括超前教學、收取預付費以及退費難等問題,使得用戶體驗大打折扣。
三、“人工智能+教育”領域的問題與成因分析
(一)“人工智能+教育”領域存在問題
1.“人工智能+教育”領域粗放發展。我國還處于弱人工智能時代,“人工智能+教育”領域的理論研究與創新滯后于技術進步與時代發展需求,使得具體教育實踐環節缺乏對應的理論指引,并且教育領域所投入的技術與配套設施的完善程度不足,未形成系統化、高效的應用體系。由于教育行業沒有統一的方式和標準,其復雜性和多樣性使其難以與現代人工智能技術相結合。
2.教育工作者對人工智能技術應用的態度不一。人工智能技術由于其功能的強大和多元,使得教育工作者普遍對技術的信任感不強,對其應用價值存疑。很多教育工作者存在對于人工智能領域的研究、開發和應用的單方面錯誤認知,不確定今后“人工智能+教育”的發展應用之中,是否自己還有教育的主導權,具體是輔助關系,合作關系還是被替代的關系,故不希望將人工智能技術推廣到教育當中應用。
3.用戶隱私泄露多發與安全責任歸屬不清。未被監管的數據收集過程易導致用戶的個人隱私泄露。由于以“深度學習+大數據”為主要模式的技術深入對于數據的需求量大,用戶在使用時提供的數據可能會被非法利用,以至用戶個人隱私信息被泄,責任與安全、權利與義務歸屬問題難以界定。
(二)“人工智能+教育”領域遭遇監管困境的成因
第一,人工智能技術的發展帶來失業風險的加劇。人工智能技術的大規模使用將導致從事勞動密集型、重復型、高度流程型等職業人員類型面臨失業,顛覆傳統勞動關系,解構社會分工模式,造成大量結構性失業,影響社會公平正義,使社會安全水平下降,引發社會動蕩。第二,人工智能技術研發過程中存在算法歧視現象。由于人工智能產品從輸入到輸出的數據質量、算法、公式和內在隱含信息決定了最終結果,其過程易受到主觀歧視影響,如性別、職業甚至種族歧視等等。由于算法歧視的出現是系統化的,若使用帶有歧視的算法評估個人利益會使公民個人權益受損,加劇價值鴻溝,進而造成社會動蕩。第三,人工智能技術的使用存在技術依賴問題。由于現在信息獲取變得越來越簡單,智能機器可根據獲取的信息來進行分析,得到用戶畫像,進而推送逐漸精準和趨同的個性化信息,使人們重復接觸自己感興趣的領域,產生路徑依賴,導致人的自主能力下降,使思維固化并且存在盲區和偏見,影響人的自我發展[3]。第四,人工智能技術發展存在倫理關系失調風險。當強人工智能時代來臨時,一旦智能機器人催化出自我意識,激發出人性特征后,如何界定其權利與義務?如何在法律上界定其社會地位?人類和智能機器是否在社會中和諧穩定的共存是需要討論的。
四、完善“人工智能+教育”領域政府監管的對策建議
(一)推動人工智能領域立法進程
出臺《人工智能監管法》之后,應及時完善各類法律的細化。明確規定違法使用人工智能時,依照其性質和程度規定應負的民事、刑事責任,明晰人工智能犯罪的違法成本,對社會公眾達到警示的作用,從而一定程度上減少人工智能技術的非法使用而產生的違法活動[4]。理清人工智能各個監管主體的責任、義務的劃分,以避免法律層面上監管責任的相互推諉,使人工智能的監管在更細致明確的法律法規支撐下形成新的全方位、多元化、多角度監管局面。
(二)完善人工智能領域監管體制
在人工智能領域的監管方面,除去立法還應依法完善監管體制,設置負責監管人工智能的專門機構。監管機構的設立主要負責人工智能技術的政策制定和具體監管事項,著重審核人工智能產品研究立項與開發的安全性。在政策制定方面,人工智能監管機構應負責定義人工智能、建立人工智能審核認證程序以及流程定期,并且政策制定應及時更新修正以確保與技術發展同步[5]。
(三)創新人工智能領域監管模式
監管 “人工智能+教育”領域,基于該領域的特殊性,政府作為單一主體無法進行有效的監管,故其監督需要多元主體的參與,應采用多元協同的監管模式。多元協同監管模式是政府,企業、協會、研究機構和社會公眾等利益相關者共同參與監管政策制定和具體實施的監管模式,除了協同多主體之外,還需要運用跨學科、跨部門的參與方式,跨學科合作為人工智能時代的教育生態系統的重建奠定了基礎,并為人工智能政策的制定提供了參考。
參考文獻:
[1]蔡自興.中國人工智能40年[J].科技導報,2016,34(15):12-32.
[2]陳鵬.人工智能時代的政府治理:適應與轉變[J].電子政務,2019(03):27-34
[3]何哲.人工智能時代的政府適應與轉型[J].行政管理改革,2016,8(8):53-59.
[4]侯浩翔,鐘婉娟.人工智能視閾下教育治理的技術功用與困境突破[J].電化教育研究,2019,40(04):37-43.
[5]姜皓文.人工智能技術在教育領域中的應用[J].電子技術與軟件工程,2018(05):255.