范文姝
社會治理智能化是適應新時代社會建設和人工智能技術發(fā)展而提出的重大決策[1]。黨的十九大報告指出,提高社會治理社會化、法治化、智能化、專業(yè)化水平。其中,提高社會治理智能化水平,契合當今時代信息化、智能化快速發(fā)展的實際。隨著互聯(lián)網、大數(shù)據(jù)和人工智能技術不斷取得新突破,要積極運用現(xiàn)代智能技術,使其與經濟融合并進,推動社會治理創(chuàng)新,進一步加大社會治理的智能化水平。人工智能技術應用于社會治理智能化建設,有助于社會治理手段的創(chuàng)新,有利于構建共治共建共享的社會治理格局,全面提升社會治理智能化水平[2]。
人工智能是由人類創(chuàng)造出來的機器智能,是對人的理論、方法、技術的延展和模擬[3]。當前,人工智能已經成功應用于信息處理、決策選擇以及輔助治理等領域,未來,人工智能將深入社會治理領域并發(fā)揮作用。如通過智能攝像頭識別與跟蹤犯罪嫌疑人、查詢識別失蹤兒童等。在社會治理智能化發(fā)展過程中,人工智能可以推動智能政務、智能法庭、智能城市、智能交通和智能環(huán)保等發(fā)展。在教育、醫(yī)療和養(yǎng)老等領域逐步加大人工智能的應用力度和融合深度,可以促進公共服務精準化和均等化水平邁上新臺階。通過人工智能技術,可以對社會運行的方方面面做出精準的預測或預警,加強對公眾認知心理變化的把握程度,進而促進社會治理水平和能力的進步。如杭州是我國最早將人工智能應用于社會治理的城市,杭州市政府借助阿里云人工智能技術,開發(fā)了可應用于城市社會治理的人工智能中樞,也就是杭州市的“城市大腦”。杭州市政府將與城市社會治理相關的數(shù)據(jù)通過歸集、分類和平臺接入后,城市大腦平臺便可通過算法建模進行快速分析,實時將結果傳入城市相關基礎設施,促進公共資源優(yōu)化配置,實現(xiàn)城市智能運行[4]。
人工智能為社會治理提供了全新的技術和思路,將人工智能運用于社會治理,是降低治理成本,提升治理效率,減少干擾最直接、最有效的方式。因此,我們既要順應人工智能的發(fā)展趨勢,把技術進步與社會治理相結合,重視人工智能對社會治理的推動作用,又要防范人工智能可能給社會治理帶來的新風險與新挑戰(zhàn)。
在社會治理中應用人工智能,必須考慮其可能帶來的社會不公問題。一是傳統(tǒng)就業(yè)崗位減少,社會失業(yè)率增加。隨著人工智能的快速發(fā)展,其應用領域不斷增加,“機器換人”成為必然,導致某些領域就業(yè)崗位減少。根據(jù)影響程度不同,可以將人工智能帶來的威脅分為三個階段,近期的最大威脅是大量就業(yè)崗位消失。世界經濟論壇發(fā)布的《2018年未來就業(yè)報告》顯示,目前平均71%的總任務時間是由人類完成的,而由機器完成的這一比例只有29%。但是到了2022年,預計人類完成任務的時間將減少至58%,機器完成42%。二是薪資差異化嚴重。人工智能對經濟發(fā)展和國家經濟轉型起著至關重要的作用,是國家的戰(zhàn)略發(fā)展方向。而人工智能競爭又以高端人才為根本,在推動國家人工智能領域的發(fā)展上發(fā)揮著關鍵性作用。高學歷、高技能的人工智能人才相比于普通就業(yè)者擁有更高的薪酬收入。同時,高端技術的學習對人才的要求更高,且需要長時間的精力投入,這加劇了人們的薪資收入及財富分配差距[5]。
當前我國社會主要矛盾已經轉化為人民日益增長的美好生活需要和不平衡不充分的發(fā)展之間的矛盾,這對國家治理能力與水平也提出了新的挑戰(zhàn)。在積極做好人工智能與國家公共服務體系融合的同時,也要關注因網絡信息安全導致的公共安全問題,以及人工智能對公共信息安全機制的影響:一是人工智能技術的底層核心是算法,其易受人為影響和控制,在運行過程中,還可能出現(xiàn)程序紊亂和存在漏洞等情況,如果黑客攻擊成功,可能導致程序運行錯誤進而引發(fā)公共安全問題[6]。二是由技術壟斷催生的國家公共信息安全威脅。人工智能開發(fā)者可能利用技術壟斷優(yōu)勢尋求私利,非法操縱智能應用程序謀取私利,造成國家信息泄露等嚴重后果;而人工智能產品應用者則處于被監(jiān)視的不利地位,應用智能程序的治理主體和公民個體的隱私信息可能受到侵害,甚至涉及國家安全和公民個體的有關信息可能被轉移或出賣,給國家公共信息安全帶來潛在威脅。
雖然人工智能技術發(fā)展日新月異,但與此相關的法律法規(guī)體系建設尚未跟上技術發(fā)展的步伐,存在立法缺位的問題。一是難以界定人工智能衍生產品的法律地位。作為人工智能衍生產品,機器人可以像自然人一樣思辨、行動和判別,但其是否具備與自然人同等的法律地位,目前尚無定論。基于人工智能而創(chuàng)造的機器產品,與人類擁有生命權不同,其只具有使用壽命,且受人類的支配,法律權利和地位也應低于人類。若突破現(xiàn)有的法律底線,可能給人類社會帶來巨大威脅。二是難以界定人工智能衍生產品的法律責任[7]。法律是道德的最后底線,人的行為受到法律約束和矯正,而人工智能產品是一種技術的創(chuàng)新和應用,與自然人接受教育,擁有道德、倫理和良知等人性因素不同,人工智能產品只是程序執(zhí)行者,沒有良知和善惡判斷標準,也就不具備民事主體責任,所以應當明確使用者、銷售者以及制造者各自的責任。雖然人工智能產品具備一定的學習能力,能夠在一定條件下實現(xiàn)運算和運行的自主性,但其如果造成了安全事故發(fā)生,事故責任難以厘清。
人工智能被廣泛應用后,一些原本由人處理、決策和控制的領域,改由人工智能產品替代執(zhí)行,由此導致人的主體責任開始缺失,人的方案和決策轉為機器意志代為執(zhí)行,那么在執(zhí)行過程中的合法性、合規(guī)性以及倫理性等都將受到影響,使原本清晰的倫理界限逐漸模糊。從一定程度上來說,人工智能產品歸根結底是代替人的意志在執(zhí)行社會治理工作,若程序算法的設計者存在思想道德問題,或嚴重的個人偏見和私利,那么人工智能產品在應用中就可能存在偏差和不公,導致對使用者正當權益造成侵害,或者對社會倫理產生侵害。
“共建共治共享”的社會治理原則要求人工智能應用于社會治理時,必須堅持人工智能的共有屬性,堅決遏制私有屬性,并在開發(fā)過程中以公共性和社會性為基礎品格,以人工智能助推社會治理能力現(xiàn)代化[8]。
一是在推動社會治理與人工智能技術融合過程中,針對人工智能技術在社會治理中應用帶來的社會不公、社會矛盾激化等風險,要兼顧效益和公平,進行科學、全面評估,做好應對預案。二是關注人工智能技術應用導致的貧富差距進一步加大的問題。政府要嚴格遵循和貫徹“共建共享共治”原則,通過教育培訓等手段,全面提高公民在人工智能方面的知識和素養(yǎng),積極推動全民共享人工智能技術帶來的紅利,以此提高社會治理智能化水平。
一是積極組織專門力量統(tǒng)籌建立人工智能公共安全突發(fā)事件監(jiān)管體系。建議圍繞人工智能技術建立統(tǒng)一的質量和監(jiān)管標準,統(tǒng)籌規(guī)劃和建立行業(yè)、監(jiān)管機構一致認可的道德和行為規(guī)范,對人工智能不應涉足的開發(fā)領域明確禁止。隨著人工智能參與的領域越來越廣,當信息安全遭遇非法利用時,需要通過立法來明確追訴和問責制度,以及人工智能應用涉及到的民事和刑事責任確認。建議建立貫穿人工智能產品(包括算法和數(shù)據(jù)使用)從設計開發(fā)到投入使用全流程的監(jiān)管制度,對于國家機關和政府在使用智能系統(tǒng)過程中生成的數(shù)據(jù)信息,應當保障公眾對其享有知情權。二是模擬人工智能應用復雜場景下可能出現(xiàn)的公共安全危機突發(fā)事件,制定各類應對預案。
一是采用立法形式明確人工智能開發(fā)的邊界。在社會層面,積極引導和鼓勵提供基礎服務的人工智能,對于增強型的人工智能應當采取謹慎和保守的態(tài)度加以限制,以立法的方式明確禁止開發(fā)超級智能。對于人工智能不應涉足的開發(fā)禁區(qū),應由政府和行業(yè)利益相關者一致確定,并共同商討和制定法律標準,對造成的損害要明確應承擔的法律責任。二是做好人工智能產品倫理和安全風險評估的立法工作。在圍繞人工智能技術開展立法建設的過程中,可以借鑒發(fā)達國家在人工智能方面的法制建設經驗,積極推動我國在人工智能產品倫理和安全風險評估等方面的立法工作,確保自然人權益不受傷害,維護國家和社會的共同利益。
一是要求開發(fā)企業(yè)建立合規(guī)部門。在制度層面,政府部門應要求相關開發(fā)企業(yè)建立合規(guī)部門,做好人工智能應用在開發(fā)方面的合規(guī)工作,政府要與開發(fā)企業(yè)簽訂相關的法律文書,讓開發(fā)企業(yè)明白如果公眾權益遭到損害時,所要承擔的法律責任。二是加強對人工智能開發(fā)從業(yè)者的倫理道德教育,在開發(fā)過程中本著對社會公眾有益的原則進行研發(fā)。