何海鋒 張彧通 劉元興
數字經濟時代呈現(xiàn)出了三個最重要的面相,大數據成為最關鍵的生產資料,人工智能釋放出最強大的生產力,而區(qū)塊鏈改變了生產關系(編者注:詳見本刊2018年第9期,p71~79)。這三大改變對于人類社會生活影響深遠,同時也帶來了新問題。這些新問題包括:大數據的發(fā)展放大了技術漏洞、數據侵權、數據違約、管理不當等問題;人工智能進化中產生了主體性危機;區(qū)塊鏈構建起信任機制存在不確定性。
技術漏洞。在大數據技術不斷迭代、黑客攻擊手段多樣的背景下,數據防控、傳輸等多個技術環(huán)節(jié)如果沒有及時更新,技術漏洞就會存在被利用的風險。而數據泄露的風險隨著漏洞被利用而大大提升,并造成社會風險事件。例如,2017年美國證券交易委員會發(fā)布聲明,其“埃德加文件系統(tǒng)”于2016年遭到黑客入侵,失竊的大量信息被用于交易。又如同年,由于公司數據庫沒有及時更新,美國最大征信巨頭之一伊奎法克斯公司(Equifax)的數據庫遭黑客入侵,1.46億用戶數據“被非法獲取”。
為了應對這類風險,以烏云漏洞報告平臺為代表的一類安全技術平臺應運而生。技術專家通過烏云平臺及時與廠商聯(lián)系發(fā)現(xiàn)的技術漏洞,促進網絡安全水平。但是諸如烏云平臺這樣一類“白帽子黑客平臺”本身也游走于法律邊緣。發(fā)現(xiàn)技術漏洞所采用的技術手段不可避免地會觸及網絡安全,甚至有可能在獲取數據的過程中采用“非法”手段。2016年,烏云平臺就由于涉及“攻擊用戶數據”而停站整頓。

數據侵權。大數據的分析方式決定了其需要對于數據的各類標簽、各方維度做多重使用,使用方式包括二次,甚至多次使用;交叉使用;非法獲取等。數據使用者可能侵犯公民的隱私權、消費者選擇權、知情權、個人信息安全,也可能會侵犯其他公司或組織主體對數據的合法權益。這些行為有可能是數據控制者實施的,例如,一些共享出行平臺對于經常使用平臺的消費者的“殺熟”行為;也可能由于數據的外溢性,由非商業(yè)模式參與者實施侵權行為,例如,數據公司從電信運營商內部人士處獲取用戶原始信息數據,再轉售給小貸公司,小貸公司獲得用戶隱私數據,并將其用于信貸需求分析,推薦產品,甚至開展非法借貸活動。
數據違約。大數據在不同主體之間的流轉和共享一般通過合同約定的方式進行。但是往往會出現(xiàn)合同相對方不按約定用途使用數據的情形。大數據的特性決定了大數據分析和挖掘的監(jiān)督十分困難,在違約成本極低、收益極高的情況下,大數據合約往往出現(xiàn)效率違約的情形。
管理不當。在新技術領域,由于沒有成熟的規(guī)章制度可以依循,公共部門對行業(yè)的管理總是落入兩頭:要么監(jiān)管不足,要么監(jiān)管過度。監(jiān)管不足時,數據控制方的合法權益一旦受到侵害難以獲得有效、及時的救助;監(jiān)管過度時,監(jiān)管措施侵害行業(yè)主體的合法權益。例如,當大數據挖掘、交易等行業(yè)標準不完善、交易平臺定位不明確等問題出現(xiàn)時,行業(yè)主體容易出現(xiàn)數據欺瞞行為從而危害市場秩序。值得特別指出的是,大數據依靠技術手段實現(xiàn)的侵權、違約等法律風險的成本往往遠小于收益。以大數據侵犯隱私為例。大數據使得隱私侵權變得十分容易,普遍侵權行為方式變得更加隱秘,侵權性質更難以確定……侵權行為與結果之間的因果關系更松散。
人工智能帶來多重主體性危機。人工智能的仿生性尤其仿智性,導致人格主體性問題必將成為一個繞不開的問題。人工智能分為弱人工智能、強人工智能、超人工智能三個階段。在第一個階段,智能體類似于人類輔助工具,沒有人格討論的必要和余地。而后兩個階段,尤其是超人工智能階段,因為智能體主體意識和情感意識的覺醒,可能會帶來極大的主體性危機。主體性危機表現(xiàn)在四個方面:(1)哲學上的主體危機:使得理性主義及物理主義下的物質精神二分危機和困惑更加突出,自然主義和人文主義下的精神至上有更加走火入魔、誤入歧途的危險。(2)倫理上的主體危機:控制危機、安全威脅、自由限制、公平喪失、算法歧視、數據隱私、AI犯罪等。(3)法律上的主體危機:主體不明導致法律上難以歸責,勞動者身份的重構與保護、權利歸屬難題(如 AI創(chuàng)作的知識產權歸屬問題)。(4)經濟上的主體危機:人工智能將重構生產、分配、交換、消費四個環(huán)節(jié)的功能定位和銜接機制(如人工智能賽博物理操作系統(tǒng)AI-CPS OS),讓勞動價值定律失效,難以界定價值和產權歸屬。比如分配方面,“按勞分配”將會進一步受到沖擊和瓦解,可能導致兩個極端。一是按照二八定律,智能技術和資源集中于極少大資本家和大財團手中,他們得以操縱資本按資分配,極大加劇社會財富差距;另一個是按需分配,進入馬克思主義的經典社會——共產主義,人們從繁重的勞動中解放出來,實現(xiàn)極大的自由。

人和物之間的模糊地帶。解決主體性危機的關鍵在于對“是否以及如何賦予智能體人格”這兩個問題的回答。如果承認人工智能擁有“人格”,那么人格基礎是什么?僅僅因為長得像人,或者讓人產生對待人類的感情,是否就可以獲得神圣的人之所以為人的權利?如果否認人工智能的“人格”,那么又如何安放人類對其產生的同情心和同理心?在人和物之間,是否可以存在一個模糊地帶,這個模糊地帶的存在,是暫時的擱置,還是永久的和解?另外傳統(tǒng)的權利義務、責任獎懲機制是否適用于智能體?例如在智能金融領域,當機器人交易員表現(xiàn)優(yōu)異時,如何去獎賞他?他們是否也可以疲憊,從而要求休息和度假?他們犯錯了,如何去處罰,“斷電”是不是一種酷刑?
智能體是否被賦予人格,關鍵取決于其是否產生常態(tài)化的自我意識。而這一點恐怕現(xiàn)在的人工智能以及將來很長一段時間都不會達到。因為人類還遠沒有所謂“上帝”或自然的手法,人工智能體或許只能產生程序語言運作而遠非自我意識。那么現(xiàn)在賦予人格的呼聲或者現(xiàn)實案例(沙特阿拉伯賦予“索菲亞”公民身份資格)僅僅是爭相競爭和吸引目光的一個噱頭而已。

區(qū)塊鏈技術能否用算法代替制度?共識機制的存在使得區(qū)塊鏈系統(tǒng)本身就是一個擁有一套通行規(guī)則的社群。20世紀末期開始,一群密碼朋克的運動家利用加密技術、分布式網絡等技術成立了一個屬于他們的社群,旨在“保護個人的自由”,免除政府的控制。在這些前人思想的指引下,中本聰才在2008年發(fā)表了《比特幣—一種點對點的電子現(xiàn)金系統(tǒng)》。保護自由、去中心化的靈感來源于密碼朋克。以共識機制為基礎的“社群認證”就是先賢們想出來的對抗之道。共識機制在一定程度上就是通過代碼算法預先設定的一致性標準。與法律制度有幾分相似,但是它不像制度那樣需要依靠人力去運行、維護。因此在區(qū)塊鏈系統(tǒng)中不需要單獨的“立法”“執(zhí)法”以及“司法”的體系。配合著智能合約,一切制度都可以自動執(zhí)行。但這一切的發(fā)生,卻必須得到現(xiàn)有社會資源分配機制的承認,因此也具有不確定性。
非熟人互信的條件能否得到滿足?如果需要依靠區(qū)塊鏈系統(tǒng)這套幾乎“理想國”的計算機體系來約束人類的社會活動,將原先小圈子的共識機制推而廣之到全體社會成員,從而實現(xiàn)非熟人之間的互信,需要滿足至少兩點:第一點,小圈子的共識機制得到其他社會成員的認可。這意味著這個圈子要盡可能地擴展,從而使得更多的人愿意為互信做“背書”。第二點,非熟人之間的互信存在著“上鏈”這一先決條件。這意味著非熟人互信的前提是雙方甚至多方都在鏈上,一旦“下鏈”互信就不復存在。
對數據記賬的依賴。目前來看,區(qū)塊鏈技術已經在金融、物流等多個領域得到了應用。在金融領域,區(qū)塊鏈技術搭建了票據流轉的平臺、實現(xiàn)了資產證券化產品底層資產的管理、促進跨境外匯轉賬的便捷進行等。在多方參加,且最需要信任的領域實現(xiàn)了各方的互信。除此之外,在物流溯源領域,區(qū)塊鏈技術可以從原材料的生產開始,追蹤直到呈現(xiàn)在消費者手中的全流程。可以發(fā)現(xiàn),這些不同主體之間互信的產生,來自于區(qū)塊鏈記錄下來的信息。這是充分發(fā)揮分布式網絡和加密算法的結果,也是區(qū)塊鏈技術發(fā)展的應有之意。然而,在拓展實踐場景時,區(qū)塊鏈技術除了技術上的難點“不可能三角”(安全性、運算速度、環(huán)保性三者無法同時實現(xiàn))之外,還會遇到法律監(jiān)管對于此項技術的包容性態(tài)度問題。因此,對數據記賬的過渡依賴本身可能造成信任機制的脆弱性。
技術應用所帶來的變革是長期的、多層的。技術始終在更新迭代,但也有發(fā)展的階段和周期。不論是大數據、人工智能還是區(qū)塊鏈技術,勢必要經歷技術進步—新問題—架構改進—社會進步的階段,有時候還會遭遇制度、舊技術等因素的考驗甚至反噬。技術變革也不可能是一蹴而就的,數字經濟時代的新問題也會展現(xiàn)不同的方式和不同的層級。就人工智能來說,其在圖像識別領域的應用已經獲得了十分長足的進步,其針對特定任務的識別率可以高達驚人的99%,但問題仍然在發(fā)生。例如,2015年,谷歌的圖像識別算法曾經將非洲裔美國人劃入黑猩猩一類,“客觀上”造成了對有色人種的歧視。此外,2018年3月,Uber自動駕駛汽車在亞利桑那州路測中撞人致死,引發(fā)了人們對自動駕駛技術安全性問題的擔憂。區(qū)塊鏈自身機制也存在安全問題, 理論上存在的51%攻擊也會成為現(xiàn)實,例如,2018年5月,比特幣黃金(BTG)遭遇51%雙花攻擊,致使損失1860萬美元。
此外,數字經濟時代的新問題還會有動態(tài)的變化。例如大數據的不斷積累,數據侵權、數據盜用等不法行為的外部性越來越多,并且越來越嚴重。比如,技術漏洞的存在,導致酒店的個人敏感信息數據被盜取。在大數據分析方式還沒有發(fā)展到撞庫、深度挖掘等層面時,個人信息數據的泄露影響有限,個人敏感的開房記錄等信息無法被解析從而獲得更多的個人信息;而人工智能技術的發(fā)展,大大提升了開房記錄被復用、解析的可能,除了敏感的個人開房信息,甚至生活、工作、家庭等其他信息都會被挖掘暴露出來。這充分說明數據泄露帶來的數據所有權人信息曝光造成的傷害、數據控制權人商業(yè)利益的損失、全社會為了控制風險而支付的額外成本與數據泄露之間甚至可能超越了潛在的線性關系。
因此,清醒地認識并分析數字經濟時代的各類新問題十分必要。只有對這些新問題進行充分的預判,才有可能穩(wěn)妥應對因生產資料關鍵地位的動搖而引發(fā)的擔憂、因生產力升級換擋所帶來的不適,以及因生產關系的調整而激起的阻礙。
