高志明
(燕山大學 文法學院,河北 秦皇島 066004)
人類祖先發明了可以記錄與傳播的語言文字等符號系統,符號系統是人與人建立聯系的紐帶,藉此符號系統人的意識世界與物質世界建立起聯系,也藉此符號系統人與人之間得以溝通與交流各自的認知(知識),而基于各種符號表征的知識本身就是一種信息流,構成了人類社會的“意義之網”。而知識、信息的傳播需要一定的載體、媒介,計算機使知識、信息可以存儲在電子或光子載體上,并能進行高速運算;同時,互聯網技術以能量場的方式解決了信息傳遞的空間效率問題,成為信息、知識傳遞的高效媒介。人工智能隨著人類電子化數據的積累與信息鏈接效率的提高而興起,并對人類的知識系統包括法律知識系統產生深刻影響。
從知識分類的角度來界定,一般認為,人工智能是研究、開發用于模擬、延伸和擴展人的智能(也研究其他生物的智能)的理論、方法、技術應用系統的一門新學科,其研究范圍包括語言識別、自然語言處理、圖像識別、專家系統和機器人等。[1]6人工智能伴隨著電子計算機的產生而產生,伴隨著信息技術、認知科學的發展而發展。約在20世紀30至60年代,人們開始探索將知識、信息轉換到電子計算機中,并利用電子的正負運動進行運算。1950年,阿蘭·麥席森·圖靈在《計算機器與智能》一文中提出了著名的“圖靈測試”,即判定機器是否屬于人工智能的主要標準:如果第三者無法辨別人類與人工智能機器反應的差別,就可以論斷該機器具備人工智能。1956年8月達特矛斯會議確立了人工智能的概念,此后的十幾年時間是人工智能掀起的第一波浪潮。此后人工智能經過了兩波的起伏發展。互聯網經過21世紀初10多年的發展,使得以前有限的、靜態的知識、信息變成無限的、動態演變的知識、信息,大數據庫、大信息庫、大知識庫日趨完備,與此同時,認知科學、神經科學等也進一步發展,更加先進的通信技術加速了世界上人與人的聯結,信息生產力巨幅提升,人們通過信息聯結的信息生產關系也發生巨大變化,新一代人工智能應時而生。現在的人工智能通過網絡信息抓取與分析而具有自我學習能力甚至深度學習能力,語音識別技術、圖像識別技術、新一代專家系統、人工智能寫作技術等體現了人工智能挑戰人類腦力勞動的強大優勢。
人工智能實際是信息與知識生產力極大提高的產物,而互聯網的發展使知識、信息等又轉換成電磁、光等形式,通過互聯網又形成了大數據庫,人類知識、信息的組織方式發生了巨大變革。算法,可以理解為針對特定問題進行識別、運算、解答、決策的方法與程序。現在的人工智能是知識生產力的解放,是以前人類知識組織形式的解構與新的建構。現在人工智能在知識量、信息量層面已經有了基礎,技術研發者要做的主要是不斷改進算法,解決機器模擬人的智能中遇到的各種難題,解決機器深度學習中信息表征、模擬神經元聯結、進化、不確定性與不同情境下的類推等問題。[2]66,67
人工智能被稱為人類歷史上的第三次革命,工業革命將人類從體力勞動中解放出來,信息技術把全世界緊密地聯系在一起,而人工智能則是要將人類從繁重的腦力勞動中解放出來。如今,人工智能新技術結合教育、醫療、家居、機器人、電子商務等各行各業,正走入大眾生活,并對人類社會產生巨大影響。[3]阿里巴巴董事局主席馬云認為,未來30年,零售業、制造業、金融業等領域要重新定義:對于零售業,以前零售是賣貨,未來零售是做服務,所有物流、產品流、經營流、服務流,必須合在一起;對于制造業,新制造將會徹底改變原來的流水線、標準化、規模化、集裝箱、低成本,人工智能使機器越來越聰明,機器會越來越會自我學習,定制化則是將來的趨勢;對于金融業,未來新金融必須建立各種各樣以數據為基礎的信用體系。[4]
科技在人類的文明進步中總是扮演著最活躍、最革命的角色,人工智能技術在造福人類的同時也加大了人類危害自身的可能性,這即是技術的負面性與風險的不確定性的失控。傳統社會治理體系無力解決工業社會過度發展而產生的社會問題,這即是法律的確定性與風險的不確定性的背離。[5]史蒂芬·霍金于2017年11月6日在葡萄牙里斯本舉辦的網絡高峰會上表示,人工智能未來發展的潛力,像是協助復原人類對自然世界的破壞、根除貧窮與疾病問題,并“改造”社會每一個層面,但他也承認未來充滿不確定性。“除非我們事先做好準備并避免潛在風險,否則人工智能可能成為人類文明史上最糟的事件。因為它會帶來危險,像是制造致命的自主武器,或是成為少數人壓迫多數人的工具,亦可能對經濟造成巨大破壞。”[6]關于人工智能可能帶來的社會風險,確實不可等閑視之,主要是要防止人們濫用人工智能技術的行為。技術本身并沒有價值判斷,而關鍵在于人們對技術的利用、在于人們怎么樣利用技術。“子非魚,安知魚之樂。”(《莊子·秋水》)我們不是人工智能,又怎么可能知道具有自主意識的智能體會不會傷害人類呢?是非善惡的分別心屬于人類,智能體是否也會具有這種價值判斷?技術一般來說都是中性的、不涉及價值判斷,而人對技術的使用往往具有兩面性,是一把雙刃劍,善者用之則為善,惡者用之則為惡。因而,問題不在于人工智能,而在于人類自身。當然,如果“超人類智能”一旦被濫用,對人類社會帶來的威脅也是巨大的,甚至遠遠超過原子彈對人類安全的威脅。實際上,我們要規范的是人們的技術利用行為,而不是簡單規制技術本身,當然,也要防范技術不確定對人類帶來的安全風險。
人工智能浪潮來勢洶涌,人文法學、社科法學或許不足以面對人工智能將要帶來的挑戰。隨著人工智能等新技術的發展,法學研究也可能會出現“自科法學”這一轉向,一種基于技術理性的法學研究轉向可能會應運而生。法學研究需要各種視角,“自科法學”并非要取代傳統法學研究方法與范式,而是在以往法學研究方法與范式的基礎上,向前更進一步,以使法學研究更好地適應技術突飛猛進帶來的巨大社會變革。當然,“自科法學”僅是一種初步的提法,其本身也必然存在一定的局限,需要在法學研究體系的進一步發展中逐步實現其理論自洽。包括自然科學乃至各種知見本身也存在局限,但又隨著理論探討的深入,不斷突破各種局限,去接近所謂真理性的認知。
人工智能新發展對法學研究職業將帶來沖擊。法學研究是知識事業、知識工作,而基于形式邏輯思維的所謂理性建構的法學大廈,在人工智能面前可能脆弱不堪。因為在這方面,人工智能可能比人的學習能力、分析研究能力更勝許多倍,因為人工智能有大數據庫、大信息庫、大知識庫,人腦對知識的學習、記憶與存儲能力有限,而且人腦神經元細胞的邏輯運算能力也比不上人工智能的電子正負運行物理邏輯。易言之,人腦在知識與邏輯的處理方面沒法與人工智能抗衡。將來的法學研究行為未必還依賴于職業的學者、專家,可能會出現一種去中心化、去權威化的趨勢,而研究成果的質量不僅不打折扣,還可能比現在更加優良。特別是一些基于數據、信息、知識分析進行的法學研究,人工智能的優勢更加明顯,論文機器人可能比專家還要“專家”。但是,超越可以表征的知識與邏輯的問題,人工智能一時恐怕還不能取代人的研究。將人工智能作為一種強大的專家系統,取代傳統知識性研究、邏輯性研究的同時,也將開拓法學理論研究的新領域、新維度與新境界,法學理論研究可能會出現關注人的意識、思維活動本身與規律的轉向。
人工智能、信息技術對法學的知識生產與獲取方式將會帶來巨大變革。尤瓦爾·赫拉利認為,人類認知的升級經歷了三個知識公式:中世紀的歐洲獲取知識的公式是:知識=經文×邏輯,想知道某個重要問題的答案就閱讀相關經文,再用邏輯來理解經文的確切含義;科學革命后獲取知識的公式是:知識=實證數據×數學,想知道某個重要問題的答案就收集相關的實證數據,再用數學工具加以分析;人文主義時期獲取倫理知識的公式是:知識=體驗×敏感性,體驗是一種主觀現象,包括知覺、情緒和想法,敏感性包括注意到自己的知覺、情緒和想法,以及允許這些知覺、情緒和想法影響自己,想知道某個重要問題的答案需要連接到自己內心的體驗,并以敏感性來觀察它們。[7]213,21418世紀人文主義的興起,使人類從以神為中心的世界觀走向以人為中心的世界觀,而21世紀數據主義則可能從以人為中心轉向以數據為中心。[7]352從這個意義上講,信息技術革命之后人類獲取知識的公式就是:知識=大數據×算法。未來法學知識的生成將很可能高度依賴大數據與相應的算法,而不再單純是各種教條,也不再簡單考慮人情與輿情等人文與社會因素。
在司法領域,司法知識、信息的生成方式也在發生重大變革,與互聯網、大數據結合的“智慧檢務”“智慧法院”正在興起。近年來檢察機關堅持把現代科技作為檢察工作創新發展的“新引擎”,檢察信息化建設走過了“數字檢務”“網絡檢務”“信息檢務”階段,已經升級步入了“智慧檢務”階段。全國檢察機關部署應用統一業務應用信息系統,以司法辦案為中心,覆蓋所有檢察業務,全國四級檢察機關各項業務辦案實現一個標準、一個程序、一個平臺,實現了辦案信息網上錄入、辦案流程網上管理、辦案活動網上監督、辦案數據網上統計。[8]“智慧法院”充分利用司法大數據,可以實現“智慧審判”。最高人民法院優化完善形成了五大網系:法院專網貫通至全國3523家法院和9277個派出法庭,實現全國法院干警一張網辦案、辦公;基于法院專網建設專有云,為最高人民法院和全國法院提供資源服務;依托互聯網建設法院開放云,全面支撐司法公開和訴訟服務;按需拓展外部專網、移動專網、涉密網資源。[9]國家司法審判信息資源庫已匯聚多類信息資源,成為全世界最大的司法審判信息資源庫。在審判執行數據方面,匯集全國法院1.22億案件數據、800余萬份電子檔案和600余萬份電子卷宗;外部數據方面,實現了對全國公民身份信息、道路交通事故數據、組織機構代碼信息、律師信息、漁船信息等外部數據協同應用。[9]當然,人工智能在司法當中,可以作為一個重要的輔助手段,但恐怕很難作為一個最終的裁決者,否則,就成了新型的機械式司法。
法律是一種知識體系,邏輯固然在法律實踐中很重要,但法律的生命還在于經驗甚至還有具象與直覺。法律制度往往都留有一定的彈性空間,若將人工智能僅僅視為一種技術,則對現在的法律制度體系難以造出根本性沖擊。易言之,技術發展雖然會影響社會變化,但這種變化是有漸進過程的,我們不能簡單地隨著技術的變革而輕易改變既成規則,而一般應當以法的適用中的法律方法來協調規范與現實之間的沖突。法律作為一種規范體系,也只是人類的一種有限知識;法學作為一種社會科學,也是一種只能研究有限問題的學問;法治,作為一種治世之法,也只是一種有限的方法。技術本身也有生命周期,上一波還叫互聯網+、O2O,轉瞬之間人工智能、虛擬現實又風潮襲來,下一波又會是一個什么技術概念取代現有的技術概念?人工智能恐怕也不是人類“最后的發明”,只不過是人類技術發展史上的一個環節而已,遠不是人類技術發展的終點。實際上,現在的人工智能本身就有很大的局限性,也還是在不斷演進中的技術。因而,對于人工智能的發展,法律先“應作如是觀”,關注其對社會的影響,可視情況先以政策對其發展進行調節。而從未來人工智能對社會帶來巨大變化的可能性來看,人工智能對現代法律制度的影響不容小覷,這種影響可能至少包括法律主體制度、客體制度、權利體系等。所以,法律一方面要促進現在人工智能的健康有序發展,同時也要對人工智能發展的不確定性予以充分考量,特別是要防止人工智能濫用給人類帶來的風險。
就法律主體制度而言,現在一些學者討論可否賦予人工智能以一種法律人格,比如叫作“電子人”或“智能體”。人工智能體現為抽象的“虛擬人”和具身的“機器人”,但實質都是由一定的計算機程序所控制。人工智能能否具有法律人格,關鍵要看其是否具有“自主意識”。如果人工智能在人的可控范圍內,則人工智能可被視為物,包括虛擬物與具體物,其不具有法律人格,只能是法律保護的對象或權利的客體。從這種界定上講,所謂人工智能侵權實際是個偽命題,只能說是計算機程序存在“bug”、出了問題,或者用戶操作不當,要承擔侵權責任的不可能是人工智能本身,而應當按照產品質量責任進行處理。但是如果人工智能具有自主學習能力、深度學習能力,乃至具有了“自主意識”,可以與人類“平起平坐”,那么或許可以賦予這種“智能體”以法律人格。但是,一旦人工智能具有“超人類智能”,人類的整體智能面對如此“超人”也要“甘拜下風”,那可怎么辦?實際這個問題就沒法討論下去了,因為如此這般的話,可能要討論的就不是這種“超人類智能”是否具有法律人格的問題了,而是這種人工智能已經演變成“智神”了,已經步入神壇,人類恐怕只有頂禮膜拜的份了。實際上,后面的情況是人類不希望出現的,人類必須在可控范圍內發展人工智能,否則出現人工智能失控于人類的情況,法律恐怕也早已顯得蒼白無力。
還有一種思路是,直接創設新的法律規則,把人工智能擬制為法律主體,稱為“電子人”或“智能體”。比如,2016年5月31日,歐盟委員會法律事務委員會提交了一項動議,要求歐盟委員會把正在不斷增長的最先進的自動化機器“工人”的身份定位為“電子人(electronic persons)”,并賦予這些機器人依法享有著作權、勞動權等“特定的權利與義務”,也建議為智能自動化機器人設立一個登記冊,以便為這些機器人開設涵蓋法律責任(包括依法繳稅、享有現金交易權、領取養老金等)的資金賬戶[10]。這一動議頗具未來性,但是,界定人工智能為“電子人”只是給了人工智能一個“名份”,從具體操作層面來看,“電子人”的權利根本沒法落實。
就法律保護的對象或權利客體制度而言,人工智能應當屬于法律保護的對象或財產權客體,這方面應當沒有多少異議,因而無需多論。問題是,人工智能也能成為“造物主”,人工智能生成物或創作物(創造物)又要如何保護?這方面討論較多的就是人工智能“寫作”的生成物或創作物是否享有著作權的問題。盡管一般把著作權與版權等同,我國著作權法明確規定著作權即版權,但是應當區分著作權當中的作者權與版權的不同;作者權是大陸法系的傳統,保護的是基于作者創作行為產生的權利,包括基于創作行為產生的身份權與財產權;而版權是英美法系的傳統,重在保護作品版本涉及的經濟利益,而不特別關注作者的身份利益。作者與作品的關系類似于父母與子女的關系,人工智能生成物或創作物這個“孩子”跟別人家的“孩子”看起來并沒有什么區別,甚至比別人家的“孩子”還好看、還可愛、還聰明,那么當然也要獲得保護。可是,這個“孩子”并非自然“孕育(創作)”而來,其“父母”是誰?
對于人工智能生成物或創作物是否享有著作權的問題可以分解為:是否保護其中涉及的作者利益與版本利益兩個層面的問題。換言之,需要從兩個層面來分析這一問題:一是對人工智能生成物或創作物值不值得保護的問題,二是對其如何保護的問題。對于第一方面,如果人工智能“寫作”的生成物或創作物為受眾所認可,具有一定的創造性,存在值得保護和需要保護的經濟利益,而且不侵犯其他作品的版權或著作權,則對這種人工智能生成物或者創作物就應當考慮加以保護。具有自主學習能力、深度學習能力的人工智能的生成物或創作物可能不亞于人的作品,可能就值得保護;而對于基于模板、模塊、算法的機械生成物,則一般不值得保護,甚至其本身還可能存在侵權問題。對于第二方面,如何保護人工智能生成物或創作物,這是個難題。既然不宜確立人工智能的法律人格,即人工智能不具有主體資格,則人工智能不可能成為權利主體,那么人工智能生成物或創作物的權屬如何確定?屬于相關人工智能的開發者還是操作者?抑或屬于二者共有或分別享有?這無疑是個很麻煩的問題,須針對具體情形加以分析。由于這種“創作”活動是人工智能的行為,沒有人的創作勞動,因而人在創作方面的利益根本不存在,按大陸法系作者權傳統,保護作者利益就行不通,但是可以按照英美法系保護版本利益的傳統,強調保護這種人工智能生成物或創作物版本利益,那么就看這個版本是誰“制造”出來的就可以了,也就是要看是誰操作人工智能弄出來的,那么版本利益就屬于操作者,其可以被視為作者,至于人工智能程序本身則按計算機程序或發明專利進行保護。
至于著作權作品創造性的判定,不管是人還是人工智能寫作,都要看是單純依賴符號的形式上的數據重組,還是直接依賴內容的實質上的信息重組。語言與邏輯本身就是對客觀世界的表征,但這種表征終究有局限,因而依賴符號系統與邏輯思維的人工智能必然也存在局限。人類的思維、意識活動很多是難以言表的、難以表征的,只可領悟,難以確切描述。甚深智慧、智能可能是難以言表的,如“達摩西來無一字,全憑心意用功夫”,對這“心意”,人工智能如何讀取與表征就是一個難題。量子計算機、生物計算機或DNA計算機也許是要探索這個問題,但尚需時日。
人類的知見有限、思維有限,基于有限知識與局限邏輯的很多創作創造活動并不見得有多么高深、多么高明、多么“高大上”,很多所謂創作成果只不過是形式的重組、符號的重組。比如撰寫論文,作為讀書人,作為知識分子,我們常常強調要閱讀大量的參考文獻,這樣才能“站在巨人的肩膀上”向前推進一步。而對于不認真讀書的人撰寫的論文,我們總覺得其撰寫出來的文章很“無知”,其實是文獻量不夠,沒有閱讀充分的文獻,因而其知見也是片面的。而依賴大數據庫、大信息庫、大知識庫的人工智能則能更好地進行這種知識再組織,這種移花接木式的知識重新組織,實際效果不亞于很多人的創作活動的成果。比如,使用網上“爆文采集器”生成一篇“爆文”只需10秒鐘,而這種文章從形式上與內容上都達到甚至超過一般創作者的水準。[11]但這種通過廣泛采集拼湊、文字替換的“洗稿”行為,實際是對人類“創作”或“創造”行為的挑戰,而不簡單是對人類法律制度的挑戰。
就權利體系而言,人工智能是知識生產力提高與知識生成形式、組織形式的變革,知識世界發生了變化,權利體系也可能要發生相應變化,但是這方面的研究目前尚屬空白,因而只能暫且擱置。另外,隨著信息網絡技術的發展,網信法將加快成為一個新興的法律部門。網信法學是正在迅速構建的重要法學學科。網信法是信息社會中與信息技術關系密切的權利義務規范,其屬于領域法的一種。目前來看,網信法至少應當包括信息公開法、信息安全法、信息技術法、信息產權法等子部門,人工智能法總體上可歸入信息技術法之中,但也與信息安全法、信息產權法等存在一定的交叉。對信息進行法律調整的規范原理,在法學研究中,無疑非常欠缺。而人工智能法實際是網信法的一個組成部分,隨著對網信法的研究深入,也將逐步形成體系。對人工智能的法律規制不外乎包括兩個方面,一是促進人工智能新技術健康有序發展、發揮其正面效應,二是將其發展不確定性帶來的風險設定在可控的范圍內、避免其負面效應的出現。對于這一波人工智能新科學技術浪潮,中國會積極跟進甚至是引領其發展,政府已經制訂了人工智能發展的規劃,而將來還會制定相應的人工智能規范。