□鄭 妮
(中共四川省委黨校 法學教研部,四川 成都610071)
進入21世紀以來,人工智能作為信息化時代的產物,逐漸應用于算法框架、智能政府、智能駕駛、智能醫療、智能環保、智能硬件、人才儲備、城市治理、社會治安等諸多領域,成為“第四次工業革命”[1](p11()又名“智能革命”)的加速器,已然成為全球熱點討論的話題之一。在2020年我國抗擊新冠肺炎疫情的過程中,人工智能被運用到健康碼、CT影像、全基因測序、智能醫療等抗疫一線領域,極大提升了我國防疫抗疫的工作能力與效率。然而,人工智能也是一把雙刃劍,在賦能社會的同時,也帶來了風險與挑戰,新一輪人工智能快速發展中涉及的安全、法律、道德、倫理等方面的問題逐漸凸顯,不容小覷。法治的前行需要運用不斷革新的人工智能技術,而人工智能的發展則需要法治的引領和保障,已成為理論界與實務界的共識。
在國外,關于人工智能法學的研究方興未艾,早在1970年,美國學者布坎南和黑德里克就發表了《關于人工智能和法律推理若干問題的一些考察》[2](p42)一文,該文被認為是人工智能與法律領域的第一篇專業論文。而同樣來自美國的凱文?D.阿什利則是當今世界人工智能法學研究的執牛耳者,早在1985年他就在該領域發表了《通過類比推理:人工智能研究對法律專家系統影響的一些調查》一文,后來他關于人工智能法學的研究高達一百余篇,在2017年形成了集大成之作《人工智能與法律解析——數字時代法律實踐的新工具》[3](p4)。該書介紹了人工智能與法律領域開發的法律推理及計算模型,檢討了法律文本解析技術,并將法律推理的計算模型及表示法律知識的技術直接連接到法律文本,具有很好的研讀價值。此外,還有《人工智能與法律的對話》等經典著作[4](p98)展示了人工智能法學的研究熱度。
在國內,針對我國人工智能安全問題研究薄弱,政府應對和法治建設滯后的局面,國務院在2017年印發的《新一代人工智能發展規劃》①2017年7月8日,國務院印發并實施《新一代人工智能發展規劃》。特別提出“建設人工智能學科”,習近平總書記則在2018年中央政治局第九次集體學習中強調“加強人工智能相關法律、倫理、社會問題研究,建立健全保障人工智能發展的法律法規、制度體系、倫理道德”②習近平.2018年10月31日在中央政治局第九次集體學習中的講話.。此外,我國涉及人工智能產業的法律法規主要有《網絡安全法》《電子商務法》《互聯網用戶公眾賬號信息服務管理規定》等。以上政策、講話和法律法規不僅有力地推動了人工智能上升為國家戰略,也撬動了人工智能法學的迅速崛起。在2016年后國內學者將人工智能法學的研究提升至新的熱度,在中國知網以“人工智能法律”為主題詞進行檢索,共找到2697條結果③來源于中國知網截至2021年4月1日的檢索數據。。高校和科研機構陸續創建了人工智能法學院及研究機構④例如,西南政法大學、上海政法學院等高校成立人工智能法學院,四川省法學會成立人工智能法學會,上海市法學會成立人工智能法治研究會等。且高校的人工智能法學院還聯手人工智能公司開展科研活動,例如西南政法大學人工智能法學院聯手科大訊飛股份有限公司、四川元貞實業有限公司、成都橫圖科技有限公司等進行產品研發和論證,中南財經政法大學刑事司法學院與南京云思創智信息科技有限公司創建人工智能聯合實驗室,有力推進了人工智能法學學科的應用實踐。,市場領域則衍生了許多人工智能法律行業⑤例如,華宇元典、貝格數據以及阿里巴巴的法務部門。,說明當下人工智能法學已經成為我國法學理論界與實務界熱點關注的前沿學科。審視我國現有人工智能法學的學科建設,以傳統法學為基礎,以人工智能的算法為核心,以培養聚集“人工智能+法律”橫向復合型高端人才助推全面依法治國為目標,在法治框架之下拓展人工智能專業的深度和廣度,逐漸形成了一套具有中國特色、智能創新并充滿活力的學科體系。以法學的視角探究、規范以及助推人工智能的發展,本身就是一種理論創新和方法論創新。
人工智能的核心中樞即為算法,其發展需厘定于法律框架之下,同時法律也需要適應算法的運行規則,并應對人工智能日新月異的變化,由此引發的改革與創新實為一種必然性的規律后果。法律立足于規則的設計,而算法作為人工智能的核心,其實質也是一種規則的體現,二者在某種程度上均具有同規則類似的社會功能,故而也難免產生沖突和矛盾,尤其是從弱人工智能時代轉向強人工智能時代,甚至未來向超強人工智能時代發展之時,這種矛盾就會愈發加劇,由此也對人工智能法學的發展提出了新的要求和挑戰。然而,本文在梳理與分析人工智能法學研究成果時,卻發現學界對于人工智能法學的認識存在一定的概念誤區與理論誤區,且這種誤區與曲解還在愈陷愈深,如不及時予以厘清,則可能會影響我國人工智能法學的合理發展和作用發揮。為此,本文擬對概念誤區予以一一厘清,對理論誤區進行鑒別明晰,并對人工智能法學的未來發展進行預測展望與空間重塑。
法學概念一般具有程式化、簡潔性等特征,鑒于此,學界借助于法律體系與法律語言的張力以法學概念的形式為學界的探討厘清邊界。然而,認真審視和系統分析文獻,發現現實中人工智能法學概念附會現象較為嚴重,不少成果只是基于“人工智能與法律”的任意性組合或者直接貫之“人工智能+”“泛人工智能化”研究正在產生大量學術泡沫[5](p119)。故而及時對人工智能法學的概念誤區予以厘清具有現實意義。
人工智能自誕生以來的發展存在著波峰與波谷交錯的現象,在漸進深化的進程中,人工智能表現出的智能化程度也有所差異。根據人工智能在不同發展階段所呈現智能化程度的不同,學界一般將人工智能分為弱人工智能和強人工智能,即“二分法”,或者所謂弱人工智能、強人工智能、超強人工智能的“三分法”[6](p101)。無論采用何種分類標準,以人工智能的不同類型為基點展開研究已成為學界深入探討的通行方法。人工智能法學學科定位的明晰在于弱人工智能與強人工智能的邊界厘定。強人工智能的概念由美國學者約翰·西爾勒提出,是指“具有完全人類思維能力的智能機器,用來代指擁有人類思維的智能機器。而與之相對應的概念是弱人工智能,則是可以有類人的行為能力但卻不具有真正人類思維的智能機器”[7](p126)。弱人工智能是專用人工智能,很難直接適用于其他場景;強人工智能是通用人工智能,可以遷移于其他應用場景;超強人工智能即為超越人類的智能,強人工智能與超強人工智能被認為有自我理解與自控能力。
雖然與人工智能交叉且有合作優勢的學科眾多,但由法律人工智能推動下的人工智能法學無疑是其中的亮點,這是因為“法律——尤其是司法——主要是一個規范的判斷過程”[8](p135),“常規的法律適用模式就是以法律為大前提、以案件事實為小前提,在此基礎上得出裁判結論的演繹推理模式”[9](p110)。這種認知結構與人工智能的邏輯相吻合。換言之,“人工智能由于技術的局限并不可能完全替代人類大腦,但是可以在部分簡單的領域進行機器學習從而完成認知”[10](p24)。因此,法律職業中一些簡單的、基礎的數據工作可以交由人工智能輔助處理完成。科技的發展奠定了人工智能法學的發展基礎,但人工智能法學立足的語境應與法學的品格適恰。易言之,法學應當具有立足現實、關注當下的基本品格,即所謂“實踐性構成了法學的學問性格,法學應當回歸實踐之學本身”[11](p89)。弱人工智能研究是在堅持傳統法學研究范式前提之下進行的,通過已有的法律概念與法律制度去連接與規范人工智能的發展。而強人工智能則是“在人工智能改變人類整體生活后以全面、系統的涵蓋打造面向未來的整體性法學理論,終極性與永恒性顯著”[8](p136)。人工智能法學也更具備立足現實、關注當下的基本品格,秉持實證主義法學、實踐性法學的思想觀念,基于已有人工智能技術展開研究。然而有觀點已然將強人工智能、超強人工智能之未來性與人工智能法學強行進行捆綁過渡,以未然性否定實然性,以科技發展否定法律框架,“如此今日的相關法律框架設計可能毫無意義,那么人工智能法學研究的愿景也不過是一場空而已”[5](p121)。故而,不應當將人工智能法學在弱人工智能、強人工智能、超強人工智能強行過渡,造成概念附會現象與科幻主義研究大行其道的現象發生。
依托于計算機技術的變革,諸如區塊鏈、云計算、虛擬現實、大數據、人工智能等技術也迎來了長足發展。人工智能的發展與計算機技術的進步密不可分,每一次人工智能的突破都來源于計算機技術的深入。然而,在人工智能法學發展的進程中,時常出現將人工智能與區塊鏈、計算機技術混為一談的現象。進行概念邊界的厘定有利于走出技術誤區的迷霧。首先,關于人工智能與區塊鏈的區別。區塊鏈是一種分布式數據存儲方式,任何有計算、存儲能力的機器都可以參與其中,有著多中心化、時序回溯、數字信任與智能編程等特點,與人工智能存在緊密的聯系。區塊鏈是數據的存儲方式,而人工智能則是由數據產生的應用。“人工智能和區塊鏈是智能技術的一體兩面,人工智能實現的是物的智能化,而區塊鏈所實現的是關系的智能化”[12](p66)。區塊鏈能夠通過實現多中心的連接進一步提升人工智能的效能,也能夠通過構建數字信任潤滑人工智能時代的社會關系。人工智能最大的作用在于解放勞動力,區塊鏈則體現的是讓價值重新發揮作用,未來社會生產力的發展需要以人工智能為核心,而生產關系的調整則需要以區塊鏈技術為核心[12](p180)。其次,從人工智能與計算機技術的區別中不難發現,人工智能是互聯網、物聯網技術的進一步發展,在傳統上被認為是計算機科學的分支,是在傳統自動化和計算機科學基礎上由機器和軟件組成的學科。但這并不意味著人工智能與計算機技術可以實現功能上的統一,二者有著截然不同的定位。人工智能是計算機技術的產物,在弱人工智能的現狀之下,只能充當輔助的角色。人工智能與計算機技術是兩種不同的技術分類,有著差異的定位與邏輯,發展的結果也必然不同。故而,在人工智能法學研究中,應首先將人工智能與區塊鏈、計算機技術予以明晰。
法律人工智能起步不久,需從細微方面入手,逐步推進,具體可從任務、流程、模式三個層面切入,形成人工智能技術與法律的深度融合。第一,從任務層面看,運用文件自動審閱、文件自動生成、智能法律檢索、智能法律咨詢、案件結果預測等方式優化對法律人的輔助。第二,從流程層面看,傳統的業務效能提升很大程度上來源于流程和分工,智能技術對于流程的優化在于可以實現流程自動化。以道交糾紛處理流程為例,道交糾紛的處理流程實際上是文檔、信息、任務的流轉過程,1.0階段我們依靠人工的方式來保障流程的運轉;進入2.0時代,可以引入智能技術,比如文檔自助流轉,形成業務信息數據庫,由系統自動完成標注任務。第三,從模式層面看,模式的變革必然會重塑原有的資源配置機制、人員結構和市場運作方式,從而形成新的法律生態。例如嵌入式法律一旦大規模部署于智能汽車,將會降低道交事故發生的概率;智能合約也是典型的以技術代替法律的應用;ODR模式解決的首要問題是聚合糾紛,這點在淘寶在線糾紛解決機制上表現得尤為明顯;電子法院可以在一定程度上解決傳統法院面臨的案多人少的窘境,尤其是在處理大數量級糾紛方面具有天然的優勢。綜上,從人工智能進擊法律的三條路徑審視,法律人工智能屬于弱人工智能的范疇,現階段進擊法律的路徑與強人工智能擁有人類的思維能力且可以遷移于其他應用場景的特征存在顯著差異。故而,不應將法律人工智能視為強人工智能。
在理論與實務研究中,有觀點將人工智能法學與法律人工智能視為一體故而交叉混用,此處予以撥開迷霧。人工智能法學本質屬于法學的學科范疇,應以法律現象為基點展開研究,學者們關注人工智能法學研究的起點亦是如此,圍繞人工智能運用的法律主體地位、自動化行政、刑事責任、證據證明力、隱私權保護、知識產權保護、自動駕駛侵權責任、區塊鏈應用的監管規則、司法現代化等現象和問題均屬于人工智能法學探討之列。例如,人工智能自動駕駛汽車技術運用引發的法律問題,就是當下人工智能法學研究熱潮的一個縮影。所以說,以人工智能技術引發的法律現象為切入點的各種科學活動及其認識成果構成了人工智能法學的研究場域。相較之下,法律人工智能的發展則具有階段性表征,也即與弱人工智能、強人工智能存在匹配關系,存在弱法律人工智能研究、強法律人工智能研究。“人工智能法學的研究集中于弱法律人工智能的語境下,弱法律人工智能研究分為科技研究模式、法律研究模式以及法理研究模式。”[8(]p135)人工智能法學是以人工智能引起法律現象為載體的全方位研究,也是在法律人工智能中的弱人工智能框架下予以展開分析。因此,現有法學教育也是在弱人工智能框架下展開,“人工智能對法學教育的沖擊與挑戰涵攝于學科體系、教學模式、教學方法等具體的法學教育環節之上”[13(]p91)。例如西南政法大學人工智能法學院以弱人工智能全生命周期為軸線,形成了數據法學、網絡法學、算法規制和計算法學在內的學科體系。故而,人工智能法學的學科性與法律人工智能的階段性具有顯著差異,不能將人工智能法學與法律人工智能直接等同或者交叉混用。
人工智能對傳統法律規范中公法與私法的界限分隔帶來了巨大沖擊,也對法律的不同層次需求發展提出了新的挑戰。由此產生人工智能的技術風險治理也表現出制度性張力,進而引發依法治理嵌入人工智能技術的理論博弈,相繼從宏觀視角與微觀維度展開。
1.橫向:公法與私法界限的穿透性思考。公法與私法界限的穿透性思考伴隨著主體錯位性的傳統權力來源變革、因果關系復雜性的概率維度審思、權利重疊性的沖突視角透視而展開。
(1)主體錯位性的傳統權力來源變革。在傳統法律規范中公權力作為主體對社會經濟活動予以監管,但在人工智能的技術影響下,主體錯位性的傳統權力來源發生變革,以智慧法院的發展為典型例證。國務院印發的《新時代人工智能發展規劃》將智慧法庭建設作為重點發展方向之一,聚焦于法律文件的閱讀與分析、證據收集、案例分析等環節進行人工智能的應用與推廣,實現法院審判能力與審判體系的智能化。但發現,當前智慧法院建設所采用的多是企業開發的人工智能產品,由于這些企業已經掌握了比政府更多的關于公民(作為消費者)的信息,他們熱衷于建設智慧城市、智慧政府、智慧法院等,政府部門也不得不求助于他們。事實上這就模糊了公權力與私權利之間的邊界,使政府應該監管的對象成為政府的合作伙伴,乃至實際控制人。企業作為實際控制人控制了數據來源、數據匯總、數據分析,而政府又十分依賴于企業,這種狀況本身就是十分危險的。這對從憲法到行政法、民法等多個法律部門都提出了全新的問題,政府作為監管主體也就在不知不覺中發生了權力來源的錯位性變革。
(2)因果關系復雜性的概率維度審思。用傳統法律體系中的線性因果關系來理解農業社會,從羅馬法、查士丁尼時代演進,農業社會很容易確定某一行為作為原因和結果之間形成的因果關系,并基于此因果關系作出相應的法律回應去解決問題。但在現實社會中,由于技術的運用,因果關系變得更為復雜。通常對概率性的因果關系分析,如果能理解到90%、99.9%,那么可能和線性的因果關系具有高度相似性。但如果達不到高度相似的比例,因果關系就會很復雜,無法通過傳統模式之下的主觀過錯、侵權行為、損害結果、法律責任的鏈條予以貼合。理解這種概率的復雜性,可以提出人工智能法的規制問題,是否都需要明晰因果關系再予以規制呢?比如,鑒定自動駕駛汽車造成的損害,是否需要先明確一個線性鏈條,厘清主觀過錯、侵權行為、損害結果、法律責任這樣一串關系之后再去研發自動駕駛汽車呢?過多的規制是否又會限制人工智能的發展?因此,人工智能對傳統法律規范的沖擊也表現在通過法律因果關系的概率維度來理解其復雜性趨勢之上。
(3)權利重疊性的沖突視角透視。以傳統法律關系維度,權利之間應具有清晰的邊界,邊界重合則會產生權利沖突,但在人工智能技術發展中個人隱私權與企業財產權之間存在一定的權利沖突便體現了權利的重合性。如果作出一個完整的權利界定,構建傳統的法律保護制度,那么可能導致其他權利的行使受到影響。仍然以自動駕駛汽車為例,如果我們意識到每一臺汽車、每一個平臺,它們自身的算法受到知識產權的保護,積累的數據是它們的財產權,每個公司的權利都得到一個完整的保護且相互之間不能分享,那這其實是不能保障將自動駕駛汽車予以有效推廣的。現有法律高度重視保護私有產權,但對私有產權的保護帶來的影響可能會使自動駕駛汽車的運用本身不能獲得更安全、更可靠的駕駛技術,因為過多的保護也成為一種限制,算法的學習能力受到了制約,則無法進行有效的學習。故而,要理解人工智能技術發展下權利重疊性的現實變化。
2.縱向:法律挑戰的層次深入跨越。人工智能對傳統法律規范的深入跨越展現為初級的安全層次挑戰、終極的權利層次挑戰、高級的治理層次挑戰三個維度展開。
(1)初級:安全層次的挑戰。所謂安全層次的挑戰,表現有三:一是新技術的不確定性。在人工智能的法律問題研究中,自動駕駛被廣泛嘗試,具有較大的市場推廣前景,雖然它在大多數時候是正確的,但萬一因為其內在技術上的局限性作出不正確的判斷,就會導致交通事故的發生。二是技術存在被濫用的可能性。比如,借助人工智能進行的電信詐騙或網絡詐騙,就是因為技術的可靠性被濫用。三是新技術強化了既有的風險。這種風險不是人工智能制造出來的,它是既有的,但是它會因為人工智能技術的運用而強化,比如,如果軍隊廣泛運用軍用戰斗機機器人,就會迫使我們擔心機器人未來會對人類開戰。
(2)中級:權利層次的挑戰。權利層次的挑戰首先意味著新權利的主張。比如,AI是否要被界定為一個法律人格,AI生成的作品著作權的主張如何提出,這是一種新的權利主張。其次是新的權利沖突。在人工智能的運用中,權利在某一方面的實現可能會和另一個方面的權利發生沖突。比如,個人數據,我們要用隱私權來加以界定,而這種數據進入云端,進入一個架構在算法上而生產的數據則會和企業的財產權又聯系在一起,于是隱私權和財產權之間就會產生一種需求解決的沖突。最后是權利的侵害。在人工智能的運用中,我們會發現一些新的侵害權利的形式。比如,算法歧視,在一種人臉識別算法的運作下,黑人被識別為大猩猩,這就表現出種族歧視,是對黑人權利的侵害,但這種侵害是算法在運算中無意和不自覺產生的,主觀上并沒有歧視的意圖。
(3)高級:治理層次的挑戰。上述兩個層次的挑戰涵蓋了日常所討論的人工智能研究場域中的絕大多數問題,但更為重要的是第三個層次的問題:治理的挑戰。首先是算法,算法是理解人工智能及其提出挑戰的第一步。其次,算法形成進一步的預期規范,算法規范意味著像權力一樣對人進行干預和支配。再次,我們意識到算法在某種意義上會成為一種法律,或者說它會成為另一種和法律規范相爭的權力,成為另一種規范的存在,具有類似于法律的意義,這個才是治理層面的挑戰,它會沖擊我們現有的法律體系與既有的基本格局。算法會直接對人的行為進行引導甚至控制,它在人工智能普遍應用的社會中可能會進行算法的治理,而不再是法律的治理,或者說是和法律相競爭的另外一種治理體系,這對法律而言是一種極大的威脅和挑戰。
隨著人工智能的迅猛發展,信息的快速生產和送達,導致人工智能的技術治理風險表現出極大的張力。算法黑箱下偏重于何種標準規制,如何應對周期性風險的起伏與成本收益比例風險的擴張成為題中之義。
1.算法黑箱下進程與結果的規制悖反。人工智能的核心在于算法,人工智能技術存在算法黑箱的問題,即算法的不可解釋性。“雖然在風險審視與危機預判理想中的人工智能具有數據安全、算法公正、規范透明、質量認證、解釋清晰、鑒定可靠等特征”[14(]p149),但事實上因無法運用透明性原則規制算法權力,揭開算法黑箱,所以無法彌補決策者與相對人之間形成的數字鴻溝。算法的不透明也可能產生算法歧視,甚至有時候設計者都無從知道算法如何決策,故而對于算法黑箱的規制基本見于結果層面審視,對于進程是否具有合理性和可解釋性并不具有現實可操作性,在不可逆的自動決策領域中應予以高度關注。例如,在醫療和司法等領域,如果通過算法的方式進行最終決策,可解釋依據的提供就會成為棘手的問題。因為人工智能無法作出有效且充分的解釋,所以依據這種醫療診斷或者司法裁決,難以令人信服。
2.均衡治理目標與周期性起伏風險的難測。人工智能的發展對技術風險的安全、權利、治理三個層次提出了更高的要求,如何消減在治理進程中出現的風險,需要采取均衡治理的保障目標,由此避免信息的過度不對稱導致技術劣勢一方只能依附于技術強勢一方,從而在數字經濟時代形成精英統治。人工智能技術的發展都會存在發展周期,行業亦是如此。人工智能現已成為全球關注的焦點,在先進的算法、強大的云計算、大數據和互聯網等因素的共同作用下,創造出新的行業與商業模式,為傳統行業積極賦能,從而催生出人工智能的新一輪熱潮[15(]p43)。有波峰亦有波谷,人工智能的發展歷程很難判斷,在均衡治理目標的實現過程中,如果出現限制過嚴或推動過度,可能會加大周期性起伏風險出現的概率。
3.成本與收益比例風險的擴張。成本與收益比例風險的擴張可從兩方面著眼。其一,諸多人工智能表現出良好的產品效果,但受限于生產成本過高,無法進行量產或者大規模推廣。例如,在動力的類人機器人技術領域,美國波士頓展現出巨大優勢,但是這一動力機器人的骨骼關節需要利用3D打印技術才能實際應用,此項技術會面臨巨大的成本考驗。其二,如果需要構建有序的社會秩序,就需要信息對時間的特定性進行定位。比如,今晚有一場講座,根據主題和主講人等信息進行特定化,然后進行決策。信息的收集始終是需要成本的,而受成本的制約就會迫使人類讓步進而難以對事件進行充分、精確的定位。比如,漫畫《麥克斯韋妖》,它是熱力學中非常著名的思想實驗,和“薛定諤的貓”“芝諾的烏龜”一樣著名的神獸,展示的是向外無序發散的過程。這種能量交換的過程就需要付出其他能量保證輸入的能量,所以信息的交流是受到成本制約的,不能無視消耗的能量去獲取無窮多的信息。故而,在人工智能技術推廣之下成本與收益的比例風險也在擴張。
依法治理嵌入人工智能技術會在宏觀視野與微觀語境下呈現出不同的理論博弈,而追溯理論之辯的由來可以深化對人工智能技術的應用認知。
1.人工智能技術推進中的宏觀視角之辯
(1)人工智能技術的監管與反監管之辯。算法的設計決定著智能化機器的行為,人工智能技術的監管涉及電子商務、醫療、金融等多領域,監管的前提在于獲取智能化機器的行為算法信息。從傳統法律規范維度檢視,公權力成為監管權力的核心,強大的信息獲取能力與專業的監管資源培育成為公權力進行市場經濟活動的監管抓手。但遺憾的是,在現實中絕大多數人工智能人才均在為商業機構服務,商業機構往往擁有獨立的研究部門,在人工智能技術層面的研究力量遠超于政府,很容易形成技術壟斷。例如,如何治理數字化經濟發展中的互聯網平臺壟斷問題,已經成為人工智能風險全球治理的一大難題,市場上越來越多的平臺壟斷問題根源于算法共謀[16(]p10)。政府在監管信息資源的獲取與專業人才的培養上捉襟見肘,自然欠缺監管的基礎性條件,人工智能技術又不是法外之地,造成現實的監管窘境。此外,企業作為被監管一方,也會通過各種方式逃避與擺脫監管,形成實際的反監管事實。故而,政府公權力機關人工智能技術的監管能力薄弱凸顯了企業反監管能力的優勢,這是一種赤裸裸的威脅。
(2)企業借助人工智能技術服務公眾與操控公眾生活之辯。上文提及企業在掌握人工智能技術層面具有絕對優勢,加之人工智能存在算法黑箱,所以算法的不可解釋性也加劇了操控公眾服務的嫌疑。不可否認的是,人工智能技術在電子商務、行政執法、智能司法等領域都有較多使用,其中某些人工智能技術在法律法規的指引下展現了良好的技術與規范互促作用。再以自動駕駛為例,如果缺少路測的法律法規,自動駕駛汽車就無法上路測試,無法生成海量數據,也無法提高技術水平[17(]p12)。如此通過規范引導下數據模型的構建升級,自動駕駛汽車的安全性也將進一步提升,法律與技術的優良功效統合在自動駕駛領域。但任何一項技術在賦予人類某種利益的同時,也從人類那里竊取了部分功能。比如,智能導航賦予了人類交通的便利,但也模糊了人類的記憶,減弱了人類的識別技能,加劇了人類對智能導航的過度依賴。當你凝望深淵時,深淵也在凝望著你。技術的發展也將使得人類慢慢地被馴化,企業也將借助人工智能技術影響甚至操控公眾的生活。
(3)人工智能技術濫用與合理使用之辯。關于人工智能技術濫用與合理使用的博弈最為突出的現象體現在隱私權領域。人臉識別技術作為隱私權保護中的熱門問題引起了社會的高度關注。我國人臉識別行業市場規模預計2021年將達到51億美元左右。隨著人臉識別技術的應用、拓展,其涉及法律、安全、道德倫理的問題也逐漸呈現[18(]p217)。人臉識別作為現代科技的一種新技術,利用的是作為生物信息的人臉信息,由此也產生了技術應用中的隱私權保護法律問題爭議。人工智能時代的到來對個人隱私權的侵犯已從傳統上的侵權行為人轉變為各種電子終端。對于隱私權的侵犯也變得更為智能與隱蔽。在當事人不知情的情況下,其信息可能已經被收集完畢,尤其是在公共空間領域更為明顯。目前人臉信息的收集、存儲及使用依照適用的主要領域不同,可以劃分為以公共利益為目的的使用和以私益為目的的使用。前者爭議較小,而后者在實踐中對于人臉信息私益用途的合法性使用爭議較大。目前我國還沒有針對人臉識別信息及其技術應用出臺專門性的法律文件,故而在缺乏法律規范的保障之下,個人隱私權和自由就變得十分脆弱,人工智能技術的濫用風險就進一步加劇。
2.人工智能技術推進中的微觀維度之辯
(1)人工智能系統在法院適用的推廣與警惕之辯。推動網絡空間治理體系和治理能力法治化、現代化是提升社會治理現代化的重要路徑,智慧法院便是人工智能在司法領域的典型應用。例如,上海法院“206”系統就是一種智能輔助審判系統。又如,以杭州互聯網法院為例,其搭建并不斷完善“六大平臺”——網上訴訟平臺、在線調解平臺、電子證據平臺、電子送達平臺、在線執行平臺以及審判大數據平臺,全鏈路解決了立案難、證據認證難、執行難等傳統司法難題。其平臺鏈上的數據規模已逾40億條,在此基礎上,上線全國首個區塊鏈智能合約司法應用,將合同簽約、履約、違約、催告等行為實施記錄在司法鏈上,交易鏈路全流程自動存證和執行。以智慧法院的推廣為契機可以更為有效地釋放司法生產力,實現法院審判體系和審判能力智能化,這也是不少人擔心法律職業容易被人工智能取代的原因,因為人工智能與法律思維有著很強的表面相似性。英美法系和大陸法系兩大法系分別強調演繹和歸納的重要性,而這與人工智能領域的兩大流派(符號主義的編輯法和神經網絡)分別對應。神經網絡可以學習海量的人類經驗實現歸納,而早在神經網絡出現之前,符號主義的編輯法已經可以模擬人的演繹推理。基于以上原因,美國、歐盟的法學家和法官都非常警惕人工智能代替人類來作司法判斷,這與我國近年來在法院系統極力推廣智慧法院建設形成鮮明的反差,個中利弊,尚不明朗,如此便產生了人工智能系統在法院適用的推廣與警惕之辯。
(2)智慧城市治理的工具主義與反工具主義之辯。在人工智能為代表的創新驅動發展戰略引領下,我國正從IT時代邁向DT時代,為提升治理能力,打造多元主體高效參與的治理體系提供了潛在機遇[19(]p121)。當前市域社會治理現代化需要借助人工智能技術推進智慧城市的治理進程,政府理當成為人工智能發展的主導力量。但現實中,商業機構在人工智能方面的力量遠超政府,使得政府不得不大量借助商業機構開發的軟件去發展智慧城市,如此便容易受到商業機構的操縱。這種智慧城市治理的鴻溝在當下并不容易逾越,例如,現在公安部門、市場監管部門和阿里合作簽訂備忘錄。“行政機關希望共享平臺的數據信息,但可能因為技術問題無法在近期實現。行政機關的信息服務器遠遠趕不上超級大公司的平臺,當平臺把數據全部提供給行政機關時,行政機關的服務器馬上就宕機了。”[20(]p169)智慧城市的治理一方面需依托人工智能技術予以推動,另一方面政府自身的人工智能技術水平又無法與算法平臺進行切割,故而造成了智慧城市治理的工具主義與反工具主義之辯。
(3)勞動力職業領域的替代與反替代之辯。人工智能在應用領域會帶來多樣化的挑戰,對就業市場的沖擊不言而喻,也考驗著政府能否在填補數字鴻溝方面積極作為。每一次科技革命都會消滅一些舊的就業機會,但對于年輕人而言,同時又會創造出一些新的工作崗位。數字經濟進化到以人工智能為核心驅動力的智能經濟新階段,智能化生產作為產業變革和產業創新的主要方式,在對勞動力就業帶來挑戰的同時,也為實現更高質量的就業提供了契機[21(]p48)。新技術的發展對新崗位的技能要求需要政府從教育、政策、勞動培訓、法律規范等方面進行相應的調適,讓勞動力能夠盡快跟上數字時代的步伐,適應數字社會的發展。由此,在人工智能技術對勞動力職業領域產生替代結果之下也會引起反替代的現象,所謂一物降一物正是這個道理。
人工智能法學的空間重塑可從理念原則與應用規則的維度展開,以宏觀與微觀的視角結合,讓體系融入思考,讓算法進入法律。
1.橫向:樹立公法與私法聯動協同的法律規制理念。人工智能的發展進程與實際效果是隨著國家、企業和個人三者之間的關系而不斷變化的。在三者關系之間,公權力規制越強,個人權利獲得保護的程度就越高,企業創新受到的限制可能就越多。而國家安全、企業發展還有個人權利保護(具體來說亦即個人信息保護和個人數據保護),三者利益的協調與平衡是人工智能法學始終要面對的難題。公法與私法的分類凸顯了各自體系與內容的特點,國家、企業與個人之間的關系涵攝于公法與私法的調整領域之中。從宏觀維度審視,人工智能法學應當具備體系化的思維理念,打破公法與私法的界限,使得公法與私法承擔不同的使命與功能,并協力合作。在公法領域,一方面,需要更多地關注個人隱私的保護,維護公民的合法權利,制定規則對國家公權力的行使形成相應的約束。另一方面,可以通過一些行政指導如產業政策的推出,促進相關產業的發展。囿于政府目前占有的人工智能整體資源度較低,所以在公法領域并沒有實際對人工智能領域予以適應性監管,更多的是從產業促進的角度著眼。例如,《新一代人工智能發展規劃》主要是一部產業促進的政策,之后多個省級人民政府也陸續出臺了一些促進人工智能發展的產業政策。但當前國內規制人工智能的法律規范還比較少,比如,《電子商務法》第40條規定,對于競價排名的商品或者服務,應當顯著標明“廣告”,這是一個算法的披露義務。如此便涉及風險防控、責任分配,以及如何通過商業保險以應對人工智能在諸多領域引發的侵權事故,在責任分擔方面以一種市場化的規制予以防范。這便是涉及公法、私法共同協力形成一種協同治理的局面。
2.縱向:明確不同層次法律挑戰的轉型式規制理念。橫向維度的展開側重于公法與私法關系聯動協同的法律規制理念,縱向維度的著眼則立足于人工智能引發的遞進式社會層次需求,與人類的不同需求本能適恰。人工智能對傳統法律規范的深入跨越將對安全、權利、治理層次帶來挑戰。首先,人工智能法學應當關注于安全領域研究,例如,自動駕駛技術無論帶來怎樣的便利,安全因素的考量無疑是第一位的,就像人類也只有在保障生存的前提下才能關注法律賦予的權利應當如何行使與救濟。其次,人工智能會導致新權利的產生,例如,人工智能是否被界定為一個法律人格,人工智能的生成物是否受現有法律的保護。此外,新的權利產生會引發新的權利沖突。權利層面的需求在保障安全需求下應進一步予以關注。再次,治理層次的需求更多是從本源溯及,蘊含著社會維度的思考。這并不意味著聚焦于安全因素與權利因素之后才能關注治理因素的需求,治理領域包含安全與權利的范疇,格局更為廣闊。在人工智能法學研究發展之下應更多突出安全領域的需求,這是底線規制且必須優先保障,權利層面需確權之后才能納入保護區間,涉及權利沖突時弱勢一方的利益更應予以傾斜式保護。以人的安全需求為出發點的人工智能治理理念應當貫穿始終,并隨著安全與權利領域規制的完善而逐漸深化。
1.厘清人工智能的定義適用與權利內涵。明確人工智能的定義,是展開人工智能法學適用研究的前提。人工智能就是對人類智能的模仿,并力圖實現某些任務,包括計算智能、感知智能、認知智能三方面。弱人工智能是專用人工智能,很難適用于其他場景;強人工智能是通用人工智能,可以遷移到其他場景中應用。法律不是規制虛擬的現實,本身還只是對現有社會關系進行調整和規范,因此人工智能法學的探討以及現階段關于人工智能引發法律現象的規范與調整主要是在弱人工智能語境下進行。在人工智能技術引領下,隱私權的權利內涵將進一步豐富。在政府、企業、個人三方的博弈過程中,個人無疑是最為弱勢的一方。隱私權作為最基本的人格權利之一,在全球人工智能化浪潮中得到了不同程度的重視,例如,歐盟以建立統一的數據市場為初衷,在2018年出臺了《一般數據保護條例》,這是迄今為止全世界關于個人隱私保護最為嚴格和全面的立法,它對如何保護個人隱私作出諸多規范,這是從法律角度對數據的保護。《一般數據保護條例》以及《非個人數據自由流動框架條例》(歐盟,2017年)形成了個人信息自決權,決定向誰披露或者不披露以及如何披露的問題。這也提示我國政府抑或企業在人工智能的治理過程中需要明確數據開放的范圍和標準,探索數據匿名化的新型數據保護工具。
2.明晰關系主體的法律義務與追責路徑。在人工智能時代,法律是遠遠滯后于科技的。在中國,相關法律的缺位為互聯網金融與電子商務的蓬勃發展埋下了伏筆,直到立法者意識到這個領域的問題并制定規則之時已力不從心。后來者是法律所約束的對象,這一調整范圍自然固化了先占者的壟斷地位,同時先占者又利用已經積累起來的技術資源與數據優勢不斷搶占未被法律規制的新領域,如此循環往復使得后來者與先占者之間的差距越來越大。
所以,應當明確人工智能發布主體的強制性法律義務,包括數據要具有廣泛性,避免歧視,保護隱私;對算法、數據等保留記錄,加強透明性和追溯性;主動提供高風險人工智能系統使用相關情況的信息。例如,說明其局限性及風險,告知公民以及與其互動的是人工智能系統而非人類。有效防控風險,不能完全依賴人工智能已經達成共識,為此,需要加強人工監督,對遠程生物識別進行規制。此外,在商業機構巨大利益的誘導下,事后追責型法律無法避免利用人工智能進行損害范圍不可控的賭博式行為,因而需要在人工智能發展之初即制定較為嚴格的追責機制,在人工智能的監管中明確追溯性,保障人工智能的行為和決策可事后追責,消除公眾的不信任和偏見,并逐漸健全事前預防的機制路徑。
3.調整產品安全與平臺監管的規制進路。于產品和服務維度而言,人工智能研發的產品可以納入產品質量法律規范領域予以規制。同時,人工智能應用一般包含多樣化服務,所以在人工智能的產品開發和服務推廣上可以將其統合納入產品質量法的調整范圍。同時在具體規則的安排上應明確要求對人工智能系統進行風險評估,保證算法的透明性。在人工智能的技術環境中,需要的透明度是為了獲得易懂的知識幫助用戶理解所處的智能空間正在發生什么[22(]p115)。如此才能進一步明晰生產者概念,擴大責任范圍,對于軟件或者其他數字功能導致的產品缺陷從而造成損失的,明確賠償義務和責任范圍,減少受害者的舉證責任,建立有針對性的統一國家責任規則。于平臺監管維度而言,為打贏防范化解金融風險攻堅戰,切實發揮好監管科技在防范金融風險中的作用,我國必須夯實監管科技的技術基礎,破解監管科技的技術短板,有效提升系統性金融風險的防范化解能力。具體建議如下:一是夯實監管科技在大數據、人工智能與區塊鏈等層面的基礎技術,深入探究技術模型在金融監管層面的有效性[23(]p55)。二是貫徹風險監管理念,根據不同的風險確定合理的監管措施,從行業和預期用途、安全保護、消費者權利和基本權利的角度去評估風險。如此,方能保障人工智能的運行處于法律監管之下而且能夠根據需要進行合法的人工干預,這才是人工智能法治化的應有之義。
《新一代人工智能發展規劃》擘畫了“到2030年,人工智能理論、技術與應用總體達到世界領先水平,成為世界主要人工智能創新中心”的戰略要求,也對人工智能法學的發展賦予了重要的時代使命。綜上,針對人工智能法學現存的概念誤區與理論誤區,應及時予以明晰與厘定。人工智能法學的分級誤區、技術誤區、程度誤區與邏輯誤區是在人工智能積極擴張推廣之下造成的局面。科學技術領域的進步是激進和不可逆的,弱人工智能視閾下的透視是人工智能理論發展的前提。傳統法律規范中的公法與私法分隔帶來安全、權利、治理的進階式層次挑戰,使得人工智能的技術性風險在宏觀與微觀方面有著復雜多樣的體現。為此,應從理念原則與應用規則的具體維度展開,將公法與私法聯動協同及差異化法律挑戰的轉型式規制視為理念本源,以厘清人工智能的定義適用與權利內涵,明晰關系主體的法律義務與追責路徑,調整產品安全與平臺監管的規制為演進視角,實現讓體系融入思考、讓算法進入法律的空間重塑。