唐林垚
數據泄露泛濫成災,推動隱私保護法律密集出臺,但過度監管令可合法使用的有效數字資源日益稀缺。以“賦能科技”面目出現的隱私計算(Privacy-Preserving Computation)技術,在打通應用通道、破除行業壁壘、化解信息孤島方面有著得天獨厚的優勢,成為世界各國競相追逐的技術高地。隱私計算也稱隱私增強技術,是“面向隱私信息全生命周期保護的計算理論和方法,是隱私信息所有權、管理權和使用權三權分離時,隱私度量、隱私泄露代價、隱私保護與隱私分析復雜性的可計算模型與公理化系統”。(1)國家工業信息安全發展研究中心:《中國隱私計算產業發展報告(2020-2021)》,https://www.sohu.com/a/472290299_121124365, 2021-05-20。雖有廣闊的應用前景,隱私計算的潛在風險也不可忽視,作為與其他人工智能技術深度融合的底層技術,隱私計算具備顛覆重構算法應用流程的潛力。如果說,對數據共享擊穿隱私保護底線的擔憂尚屬庸人自擾,那么,隱私計算引發轉譯偏誤、放大數據瑕疵、加劇算法歧視等近憂則不應被置若罔聞。
近年來,科技界、監管層和立法者均已意識到問題的緊迫性,發改委、網信辦、工信部和能源局《關于推進“上云用數賦智”行動 培育新經濟發展實施方案》《加快構建全國一體化大數據中心協同創新體系的指導意見》《全國一體化大數據中心協同創新體系算力樞紐實施方案》等政策文件,與中國支付清算協會《多方安全計算金融應用評估規范》以及剛頒布不久的《數據安全法》《個人信息保護法》等形成聯動,規定了信息轉委托、信息共同處理規則,明確了處理者的數據安全保護義務,但在規制隱私計算方面尚存在火候不足、體系不全和應對不利的問題。
隱私計算的風險并非技術變革的產物,而是前沿科技打破傳統算法應用中數據處理慣例的必然結果。(2)參見楊楠:《大國“數據戰”與全球數據治理的前景》,《社會科學》2021年第7期。就此而論,隱私計算的法律規制需要深入反省既有保護機制的外部性溢出原因,厘清風險嵌入隱私計算的技術路徑,與此同時,還應結合我國實情,向前檢視當前數據安全法律體系的制度余量,向后探索符合隱私計算技術發展規律的規制框架。
技術不成熟、安全措施不充裕、結果準確性無法保證,是隱私計算開發和部署中面臨的主要風險。隱私計算由三項核心技術組成,分別是:(1)安全多方計算,即非信任主體在數據相互保密的前提下進行高效融合計算的技術;(2)聯邦學習,即在不共享本地數據前提下,實現機器學習模型多方協同訓練的技術;(3)可信執行環境,即通過硬件形成隔離環境以兌現隱私保護承諾的技術。各項技術在應用前端(代碼編寫)、中端(數據聚合)和后端(結果輸出)均可能引致不同程度的系統性風險。
隱私計算的第一重風險,是加劇數據處理過程中的轉譯偏差。弱人工智能階段,算法邏輯直接映射自然人邏輯,開發者的價值觀負載和內隱性偏見將導致自動化決策系統失誤。(3)參見蔡星月:《算法決策權的異化及其矯正》,《政法論壇》2021年第5期。例如,在代碼編寫環節,美國科羅拉多州公共福利系統的程序員曾將“無家可歸”不恰當地轉譯為“行乞為生”,使得本該獲得政府救濟的流浪者們被算法拒之門外。(4)參見張凌寒:《算法權力的興起、異化及法律規制》,《法商研究》2019年第4期。隱私計算為算法自動化決策施加了諸多限制性條件,使得開發者在前端編寫過程中不得不心懷更多顧慮,轉譯過程的精確性更加無法保證。具體而言,安全多方計算通常以降低數據清洗成本為起點,技術方有時會摒棄清洗成本較高的非結構化數據,采用生成對抗網絡(GAN)生成的模擬數據;聯邦學習中參與“集訓”的初始模型必須具備相當程度的適應性品格,才能在多個數據源間“往返流轉”。為此,開發者在建模時一般不對模型目的進行確定和統一;可信執行環境的硬件嵌套帶來了兼容、銜接和協作方面的問題,也將加劇轉譯過程偏差和耗散。總之,程序員的內心偏見將阻撓正確、中立的意思在代碼中的表達。如何降低轉譯偏差,強化對技術性較高環節的監管,是隱私計算規則構建時需要考慮的第一層問題。
隱私計算的第二重風險,是運算結果不準確。隱私計算擴展了數據來源渠道,但問題也由此產生:首先,互聯網等外部渠道數據的來源合法性難以甄別;其次,共享模式下數據流轉更加復雜和難以控制,數據使用邊界無法限定;再次,各方數據問題可能相互傳染,激發數據安全的連帶風險。本來,多個渠道的數據合并有望修正數據采集的天然瑕疵。最理想的情況是,數據集樣本分布過于離散、過于集中、漏誤等問題,都能因不同數據集之間的取長補短得以彌補。例如,方言數據集的導入,可以提升語音識別軟件的正確率;全國違法數據的加權平均,可以減少警務預測系統對外地人的偏見。(5)參見李成:《人工智能歧視的法律治理》,《中國法學》2021年第2期。但是,隱私計算經常在相互滲透的行業間進行,數據聚合過程反而可能會放大數據集的原本缺陷,使過去存在的問題更加嚴重。如何將數據資源的差異性考慮在內,建立科學的數據篩選和容忍機制,是隱私計算規則構建時需要考慮的第二層問題。
隱私計算的第三重風險,是系統被破解或破壞。隱私計算具有“白盒特性”,各參與方都可以直接獲取完整的全局模型參數,惡意攻擊者同樣可以利用該特性偽裝成誠實參與方竊取運算結果、扭曲模型或破解可信環境。隱私計算的安全研究尚處于起步階段,防御體系的升級速度長期落后于數據量的指數級增長。(6)參見Z. Wang, et al., “Beyond Inferring Class Representatives: User-Level Privacy Leakage from Federated Learning”, 1 Proceedings of IEEE Infocom Conference On Computer Communications, (1)2019, pp.2512-2520。研究表明,即便有所防范,訓練集中只要包含3%的中毒數據,模型誤差將從12%上升至23%。如何引導各參與方懷抱誠實和善意,在“你中有我,我中有你”的格局下做到“人人為我,我為人人”,是隱私計算規則構建時需要考慮的第三層問題。
隱私計算的第四重風險,是算法歧視從個體歧視轉變為群體歧視。“個人信息具有共享屬性,具有公共利益價值。”(7)劉迎霜:《大數據時代個人信息保護再思考——以大數據產業發展之公共福利為視角》,《社會科學》2019年第3期。數據集偏差或數據缺陷可能導致算法歧視,在隱私計算中,不同來源數據間的強搭和錯配可能對聯合數據造成沖擊與擾亂,造成歧視規模性放大。除了數據投毒等極端手段,某些參與方的數據輸入因數據梯度同其他參與方相差過大,也可能間接導致模型被“污染”,輸出歧視性結果。單次歧視的即時危害雖不易被察覺,卻足以在更長時間維度和更長數據鏈條上產生積累式影響,聯邦學習全局模型的不斷輪回最容易導致群體歧視泛濫。例如,當不同學校的畢業生數據被用于訓練招聘篩選系統、當男性占絕對多數的IT行業數據和其他行業數據被共同用于訓練升職評價系統時,同身份緊密捆綁的群體歧視將從數據向模型蔓延。如何減少隱私計算中的算法歧視,是隱私計算規則構建時需要考慮的第四層問題。
隱私計算的第五重風險,是擾亂智能應用市場的良好秩序。在隱私計算應用大規模部署前,面對相似或相異的受眾,傳統的智能應用之間存在競爭關系,只有安全穩定、受消費者信賴的智能應用才能獲得更高市場份額,不重視隱私保護的智能應用將面臨被淘汰的命運,因嚴重違法違規收集使用個人信息而被強制下架的“滴滴出行”即為一典例。(8)國家互聯網信息辦公室:《關于下架“滴滴出行”的通報》,http://www.cac.gov.cn/2021-07/04/c_1627016782176163.htm. 2021-07-08。隱私計算的大規模部署,極有可能導致數據處理模式趨同。對規整性要求不高、通信成本更低的智能應用,或將隨著隱私計算的跑馬圈地,逆向淘汰相對保守的傳統智能應用。如何引導科技向善、避免智能應用“檸檬市場化”,是隱私計算規則構建時需要考慮的第五層問題。
在法治社會中,有風險的存在就定然有規制的需求。面對隱私計算風險,世界各國的立法者制定的一系列監測、識別、防范與救濟的措施,主要包括信任維系、目標規范、集體訴訟、缺陷彌補和強制脫敏等機制,但這些機制尚未聯結成足以應對隱私計算風險的動態規范。
技術的信任維系機制,以技術優勢方的信息披露為基礎。一直以來,算法可解釋性的合規要求,是世界各國人工智能法的核心要旨。(9)張欣:《算法解釋權與算法治理路徑研究》,《中外法學》2019年第6期。在隱私計算嵌套進算法決策過程后,可解釋性變得更加難以實現。隱私計算的各項技術構成了一系列法益依附的黑箱,由于受商業秘密的保護,監管者難以強制技術方公開披露技術細節。公共管理部門的隱私計算方案更是關涉公共安全,將內部技術細節置于公眾審視之下容易遭受輿論非難,且必然削弱系統的防御力。除此之外,隱私計算中環環相扣的符碼規則進一步打斷了算法可解釋性的鏈條;多重加密手段的運用,更是以減少不透明度作為隱私計算中的個人信息保護屏障。(10)參見劉志勇、何忠江等:《大數據安全特征與運營實踐》,《電信科學》2021年第5期。由此可見,算法可解釋性在隱私計算中的匱乏,本就是保障隱私安全的策略和手段,如此一來,基于算法可解釋性的信任維持機制在隱私計算中必將面臨重塑。
知情同意框架,是數據處理活動的基本保護范式,因知情而同意或不同意,共同勾勒出數據主體在數據處理活動中的能動性邊界,使數據處理活動的目的被錨定在合理的區間之內。在數據處理活動中,用戶同意的知情前提常因各種原因被削弱,導致目的規范機制無法發揮作用。例如,用戶協議可能篇幅過長,即便語言平實易懂,用戶也不可能潛心閱讀完畢。由于相當多的意外情況在日后的數據處理活動中才可能發生,數據主體在對一系列關切自身重大利益的事項進行“一攬子同意”時,通常無法準確評估合同的每一條款可能使自身面臨的風險,難謂表意自由。就隱私計算而論,數據主體可能無法想象,允許數據處理者與其他受托方或第三方共享用戶數據,將帶來巨大的數據保護空白;數據主體也可能無法預料,出于實現公共利益的善心,適當允許處理者擴大數據采集范圍,反而將助長數據剩余權利濫用、隱私迫害等情況的滋生。數據處理者可以就隱私計算技術細節提供詳實的用戶協議,數據主體也對此表示同意,但不能因此完全認可此間法律關系的產生、變更或消滅的合理性,畢竟,數據主體根本無力深究長篇累牘用戶協議中可能存在的“雷區”,更無法從技術層面知曉自己的數據何時被調取或使用;意思表示真實性和有效性大打折扣,“同意”與“事實上知情”存在斷層。
隱私計算的涉眾基數,遠大于普通算法應用的受眾基數。一般情況下,集體訴訟被認為是應對大規模侵權行為和群體性小額爭議的“靈丹妙藥”,(11)鐘瑞華:《美國消費者集體訴訟初探》,《環球法律評論》2005年第3期。受害人的維權成本在群體中分擔,數名相同境況的人遭受“共同損害”的事實有助于建立技術使用和損害發生間的因果關系,例如,利用用戶弱點的釣魚營銷對單個用戶而言可能是無法察覺和舉證的“隱形侵權行為”,但當海量用戶都被釣魚營銷時,侵權行為便不再隱秘。(12)參見柯蒂斯·E.A.卡諾、陳吉棟、王冉冉:《運用傳統侵權法理論“迎接”機器人智能》,《產權法治研究》2019年第1期。但是,隱私計算“分布式學習”的技術樣態在事實上降低甚至消滅了受害者的聚合可能。隱私計算的數據傳輸過程,本是通過層層加密手段、服務器分屬不同區域的物理隔絕措施以及去標識化和匿名化等必要處理方式,實現個人數據的“可用不可見”;而受害人身份的群體互識,只有在加密方式被破解、服務器被攻陷以及去標識化和匿名化被逆轉的情況下,才可能發生。易言之,隱私計算本是通過杜絕數據主體之間的相互識別達到提升安全性的效果,這種機制本身導致了隱私計算中數據主體將集體維權困難。
各國立法者從數據主體的“個人信息自決”(information self-determination)入手,賦予了數據主體一系列權利救濟途徑。例如,歐盟《通用數據保護條例》(以下簡稱GDPR)第17條規定了“被遺忘權”:“數據主體有權要求數據控制者擦除關于其個人數據的權利。”實現被遺忘權的方式是“清除同個人數據相關的鏈接、備份或復制”,此舉因實踐成本極高且有悖信息自由而飽受詬病。(13)參見劉文杰:《被遺忘權:傳統元素、新語境與利益衡量》,《法學研究》2018年第2期。美國《加州消費者隱私法案》(以下簡稱CCPA)第三章規定了“刪除權”,“如果服務提供商收到消費者提出的刪除其個人數據的可驗證請求,則應從其系統中刪除消費者個人數據,并指示任何‘從服務提供商’從其系統中相應刪除消費者個人數據”,較之于被遺忘權更具可操作性。(14)參見丁曉東:《被遺忘權的基本原理與場景化界定》,《清華法學》2018年第6期。我國《信息安全技術個人信息安全規范》(以下簡稱《安全規范》)第8條第3款和《個人信息保護法》第47條借鑒了CCPA刪除權的思路,但通過適當降低刪除權實質內涵的方式進一步降低了技術方的合規成本:只要個人數據在日常業務功能所涉及的系統中不能被“檢索或訪問”,即滿足《安全規范》第3條第10款對“刪除”的定義。由于沒有實質性刪除個人數據或清除同個人數據相關的鏈接、備份或復制,《安全規范》為刪除權設定的最低門檻在特定情況下仍然可以被技術性逆轉,恢復“被檢索或被訪問”的狀態。(15)參見唐林垚:《“脫離算法自動化決策權”的虛幻承諾》,《東方法學》2020年第6期。隱私計算本為鏈接數據庫而生,此時,為降低企業合規成本而允許技術方采取“名義刪除”的做法將不再有效。除此之外,被遺忘權、刪除權的實用性在隱私計算中也大打折扣。由于過度依賴在數據集中添加混淆數據以提升安全性,“實質刪除”的難度大大增加;具有不可篡改特性的區塊鏈技術在隱私計算系統中的穿插應用,令不可逆轉的刪除難以實現。總之,隱私計算中的數據主體需要不同于被遺忘權或刪除權的信息自決手段,才能真正實現對自身數據權利的保障和救濟。
技術對個人隱私的侵蝕愈演愈烈,對個人信息進行脫敏化處理已經成為全球個人信息保護立法的共識,信息處理方有責任采取技術手段保證任何人或組織無法以倒推的方式,知曉信息主體的真實身份。《安全規范》規定了去標識化和匿名化兩種脫敏方式,前者是指不借助額外信息便無法識別、關聯或復原個人信息的技術處理方式,后者是讓個人信息不能被識別、關聯或復原的技術處理方式。問題在于,隨著數據如滾雪球般積累,完全匿名化的狀態將不可能保持。(16)參見蘇宇、高文英:《個人信息的身份識別標準:源流、實踐與反思》,《交大法學》2019年第4期。“數據最小化、匿名化等原則,在大數據反向識別和預測性挖掘等技術下失去了應有的保護作用。”(17)徐明:《大數據時代的隱私危機及其侵權法應對》,《中國法學》2017年第1期。單獨看來沒有任何痕跡殘余的匿名化數據,極有可能因為數據聚合而露出蛛絲馬跡。誠然,隱私計算的數據加密和權限管理,在很大程度上阻斷了多方大數據“實質合并”的可能,但機器學習模型在各參與方之間的多次往返流轉也極有可能泄露出足以識別“去標識化”數據的線索。極端情況下,掌握了足夠多的單向反饋和模型變動,完全碎片化的匿名數據也有可能被復原。(18)參見唐林垚:《常態化數字抗疫時代的個人信息保護》,《中國政法大學學報》2021年第4期。總之,隱私計算中數據交流的爆炸式增長,將使得任何匿名化處理手段都難以有效消弭匿名數據的“剩余風險”。
傳統應對機制在上述幾個方面的失靈并非是互不相關的,它們一起共同揭示了這樣的現實:隱私計算的“去中心化”特征,正在逐步瓦解企業、部門和平臺的邊界,基于邊界概念的安全防護體系將不復適用。隱私計算的法律規制應當在充分把控隱私計算發展趨勢的基礎上,補強傳統法律規制的短板,發展出平衡隱私計算各參與方利益、促進技術增益數據價值、保護數據主體綜合權益的法律規則。以“法定義務的履行和技術標準的遵守有機整合”為目標,(19)趙精武、周瑞玨:《隱私計算技術:數據流動與數據安全的協同保護規則構建》,《信息通信技術與政策》2021年第7期。隱私計算的體系化規制策略應由開發行為規范、外部審查體系、動態協商框架、主體賦權制度和統一行業標準共同組成。
促進技術向善最有效的手段,是通過法律將標準和原則植入技術應用的底層行動邏輯,因勢利導出政策制定者期望的結果。就隱私計算而言,立法者可以將倫理先行原則、聲譽評價機制等植入開發行為規范,為不同類型的技術應用創設差異化的社群規則。
隱私計算的技術應用首先需要滿足倫理先行原則,不得游走于現有法律體系的灰色地帶進行監管套利。由于匯聚了海量大數據,技術方極易經不住誘惑,利用算法壓榨個體、攝取不成比例的回報。由于同算法決策息息相關,隱私計算同樣包含價值判斷,立場抉擇關涉多方利益。因此,技術方案選擇不應是簡單的效益至上或是性能擇優。隱私計算的倫理先行體現在,各參與方的效益增長勢必要同步拉動社會公共利益提升。從數據主體的視角來看,隱私計算的技術紅利應當雨露均沾,技術方必須要努力兌現在用戶授權時對用戶的承諾,否則數據主體有權主張隱私計算的合同自始無效。
此外,技術方還應當主動引入聲譽概念作為參與方信任度的衡量指標,凈化隱私計算環境。從可以采取的技術手段來看,多權重的主觀邏輯模型使基于聲譽的可信賴客戶端之間的“朝上競爭”成為可能,配合區塊鏈技術的不可篡改特性,分布式信譽管理不再是癡人說夢,例如,可以利用區塊鏈技術跟蹤全局模型更新,對積極參與隱私計算的用戶給予豐厚獎勵,結合局部模型參數篩選客戶端子集,實現更高穩定性和收斂效率等。不過,自我修復的技術嘗試有時也存在技術間的相互掣肘,隱私計算的主導方需“量力而行”。例如,區塊鏈技術的公共賬本特性存在通信延遲、數據吞吐量大等問題,與隱私計算技術相結合,必然對通信設備、服務器帶寬以及主機算力等提出更高要求。
信息不對等必然誘發權力濫用。隱私計算的層層技術黑箱極大地削弱了算法可解釋性的制約效力。由于技術具有嬗變性,多環節技術疊加還有可能造成脫離造物者預設程序但短期內難以被人察覺的情況。(20)參見唐林垚:《公共衛生領域算法治理的實現途徑及法律保障》,《法學評論》2021年第3期。因此,“心懷善意”的技術方至多作出“自以為正確的解釋”,其實錯誤乃至虛假的信息披露是隱私計算中的常態。職是之故,有必要引入外部審查機制、深入探查隱私計算的潛藏風險。
隱私計算方案的外部審核主體應當由獨立的第三方機構擔任,實施審核的專家委員會由具備相關技術背景、同各參與方無利益往來的專家組成。“專家會診”不宜簡單地將安全凌駕于精準度、效率、公平和收益等價值之上,而需要通過最低限度的盡職調查,平衡縱橫交錯的多元訴求,在保障基本安全的前提下盡可能促進數據效能的最大釋放。功能單一的剛性標準,很難對不同技術手段的差異性訴求給予全面而有效回應,甚至會對個別數據主體的獨特性利益造成壓制。因此,在隱私計算的各個技術場景中,彈性治理的意義大為凸顯。(21)參見李晟:《略論人工智能語境下的法律轉型》,《法學評論》2018年第1期。根據應用場景的不同,可以從審核強度、價值位階和優先防御手段等多個維度共同確定隱私計算的“滑動審核標準”,如表1所示。

表1 隱私計算的滑動審核標準
除了上述標準之外,外部審核主體還應著重關注技術方在降低算法歧視方面是否盡力而為。例如檢視隱私計算的數據聚合機制,(22)參見羅智敏:《算法歧視的司法審查——意大利戶戶送有限責任公司算法歧視案評析》,《交大法學》2021年第2期。尤其隱私計算參與方的自身稟賦、行業特點和地域限制,在何種程度上影響了數據樣本的生成。無論如何清洗,來源于同一主體的數據通常會被打上難以察覺的烙印,具有隱性的身份化表征,在無形之中限定了隱私計算的格局。不同數據間集體身份在隱私計算中的相互排斥和博弈越明顯,得出的運算結果或訓練出的公共模型就越有可能產生歧視。說到底,原本稀松平常的數據,可能由于同其他非適配數據的聯合,導致數據池難以自洽。在隱私計算的過程鏈條上,被污染的數據池無法訓練出穩定的模型,也無法確保準確客觀的結果,最終造成了數據共享機制和自動化決策機制共同構成的整體解決方案走樣。既然,歧視主要根源于數據,外部審核主體應當確保技術方在數據清洗過程中引入缺省數據篩選機制,去除冗余、不相關、不合格數據,降低通信成本、提升運算精度,避免隱私計算的各參與方因為“數據饑渴”而“來者不拒”,從源頭“掐斷”算法歧視群體化的苗頭。
雖然知情同意框架有著諸多缺陷,但至今仍然廣泛地被各國立法者前置為信息處理全周期的“第一閘口”,主要是因為標準化的模式無論對于數據主體還是數據處理主體而言,均為最有效減少交易成本的解決方案。可以預計,在隱私計算作為算法應用基礎設施的全新業態中,知情同意框架仍將發揮巨大的作用,但亟需根據隱私計算的業務特征進行更新和鞏固。
隱私計算的適用場景呈現高度動態化特征,數據處理者必須結合節點狀態、合約策略、加密方式、環境閉合等情況臨機應變,清晰、穩定、透明的數據處理方式不再具有可期待性。這種動態化的業務特征,決定了知情同意框架也必須相應處于動態變化之中,數據主體只有做到與時俱進的“知曉”,才能作出真正符合其意思表示的“同意”,否則無異于“緣木求魚”。例如,因加密或傳輸方式的革新導致數據使用方式的改變、數據處理者對新模型訓練請求的授權、新硬件模塊在可信執行環境中的導入等,數據處理者均需通過正當程序,依次與數據主體之間達成合意。
從學理上看,隱私計算下的知情同意框架所對應的合同類型,不再是多次即時結清的靜態合同,而是當事人各方處于“繼續性合作伙伴關系”的動態合同。合同各方在任何一個時間點上無法準確定性未來的數據處理情況,只能將彼此之間的交易視為“在很大程度上屬于未知領域的整體活動的一部分”。(23)I. R. Macneil, Contracts: Exchange Transactions and Relations, New York: Foundation Press, 1978, p.13.同傳統的靜態合同各方始終受初始條件的拘束不同,動態合同關系中各方的權利和義務將長期處于一種開放式的、不斷修正的狀態之中。由于用戶協議的一攬子授權同意不能覆蓋隱私計算的整個數據處理流程,數據主體的初始同意不應當視為對自身信息權益的永久授權。即使是去標識化、匿名化的個人數據參與隱私計算,數據處理主體也應當“逐次、分別、主動”請求用戶授權。
反復征詢必然降低隱私計算效率,反過來又可能對數據主體隱私權中的安寧權造成損害,而且極有可能導致疲憊之下用戶的一攬子授權或一攬子拒絕。為了避免這種情況的發生,應當為隱私計算中的個別情形設置授權豁免。筆者認為,在兩種情形中,數據處理者無需再次征求用戶同意。其一,當隱私計算的確不涉及個人權益時,數據處理者在履行通知義務后可參與隱私計算,用戶雖無收益但權益不受損害。其二,對于符合《民法典》第1037條規定,自然人“自行公開或者其他已經合法公開”以及基于公共利益與他人權利的維護而需要處理的個人數據是否參與隱私計算,數據處理者有權自行決定。
對于社會福利的衡量,卡爾多—希克斯標準認為,資源配置可能使部分人受益,也可能使部分人受損,但只要受益者的收益足以賠償受損者的損失,那么社會福利就是增加的,即便這種賠償并未實際發生。從《民法典》的相關規定來看,自然人對其個人生物識別信息享有民事權益中的人格權益,而人格權益具備一經成立即附著于復雜社會關系的特殊性。“停止侵害”“返還財產”“賠償損失”“賠禮道歉”等責任承擔方式均無法在實質上消除個人生物識別信息泄露的惡劣影響。因此,在隱私計算中,卡爾多—希克斯效率的計算方式毫無用武之地,宜將“統一增進社會福利”的帕累托標準作為隱私計算的理想目標。雖然為了社會效益的增長,個人數據權益的克減不可避免,但在有多個參與方的交易中,如果部分參與方的利益主要體現為財產利益,其余參與方的利益主要體現為人格權益,人格權益方應當被優先保護。
隱私計算中的數據主體宜享有以自身利益為目的而行使的“自益權”,這種權利的行使應具有便捷性,且限制較少。CCPA中的“選擇退出權(Opt-out)”就是一個極好的范例,允許消費者限制企業同其他第三方分享個人數據。不過,“選擇退出權”的創設背景,是數據主體對數據處理行為的“默認同意”,不適用于數據處理主體應當“逐次、分別、主動”請求用戶授權的隱私計算。將數據主體視為個人數據的最佳處分權人,與隱私計算多環節、多目的特征相匹配,筆者主張設置“斷鏈權”,將《個人信息保護法》第15條的“撤回同意”在隱私計算場景中不折不扣地落實。通過行使該權利,數據主體可以打斷數據主處理者和從處理者對其個人數據的后續處理行為。權利性質上,斷鏈權為形成權,是依照數據主體單方面意思表示即可使已成立的數據處理關系發生變動的權利。斷鏈權同時具備撤銷權屬性,行權結果是使已經發生效力的意思表示歸于消滅。
斷鏈權的坐標定位可以通過同其他權利的比較予以明晰。其一,斷鏈權非刪除權。數據主體行使斷鏈權,中止的是信息處理主體對個人數據的“使用權”,而非“持有權”,數據處理主體將不再有權收集數據主體任何個人新數據,若無特別法定事由,也不得對繼續持有的原個人數據進行任何形式的處理。其二,斷鏈權非更正權。在隱私計算的任何階段,數據處理行為因數據主體的“層層同意”或“逐次授權”具有合法性基礎,數據主體行使斷鏈權,僅對之后的信息處理行為生效,既不產生溯及既往的效力,也不改變既有自動化決策結果。其三,同被遺忘權相比,斷鏈權是“個人信息自決”更為直接的權利表達范式。斷鏈權的行使不以侵權行為的存在為前提,能夠成為過于孱弱的知情同意框架和相對極端的刪除權、被遺忘權之間的良性緩沖。
數字化轉型現狀下,金融、保險、醫療、銷售、教育等行業都向數據處理行業轉型。2021年6月28日,中國支付清算協會發布《多方安全計算金融應用評估規范》,這是我國第一個有關隱私計算的金融規范。數據標準統一、技術規范明晰,是上下游法律聯動的基礎。隱私計算各項技術流派眾多,數據采集和處理方式差別迥異。金融行業之外,其他行業主管部門也應當聯合牽頭制定跨行業共同遵守適用的“數據辭典”,打造數據交換的“通用語言”,做到數據編碼、制式、口徑、格式方面標準的統一,保證數據來源、內涵、處理邏輯可被“反事實校驗”。建立跨行業的統一標準,還將有利于構建新興技術適用的安全漏洞知識庫:行業主管部門應將零散的概念、實例和規則整合成體系化的檢索庫,在地址、端口、服務、屬性、協議五元組層面實現隱私計算的知識圖譜化。
政府部門,處于數據和關鍵信息基礎設施的要沖,是最龐大、最完整的數據擁有者。政府部門向各行各業定向開放“國家教育資源公共服務平臺”“國家科技管理信息系統公共服務平臺”“國家社會保險公共服務平臺”“全國企業信用信息公示系統”“個人信用信息公示系統”等數據庫,有助于賦能各個產業的數字化轉型。目前,國家級和區域級的大數據交易所已在我國漸次成型。2021年3月31日,北京國際大數據交易所成立,系我國首家基于“數據可用不可見,用途可控可計量”新型交易范式的數據交易所。(24)徐佩玉:《北京國際大數據交易所成立》,《人民日報》2021年4月3日。在行業標準統一之后,可以交易所為依托,選擇政府數據作為權威可信數據源開展隱私計算試點,在金融普惠、智慧醫療、教育監管等領域率先打造技術沙盒,之后再以點帶面逐步向全國、全行業示范推廣,有的放矢完善隱私計算的確權模式,循序漸進推動隱私計算的應用落地。
跨場景、跨行業的數據動態利用,是人工智能時代隱私計算技術的生命力之所在。但是數據環境越復雜,技術方就越有可能以合法形式繞開預設約束,迂回實現自身利益的最大化,進而損害社會公共利益。辯證地看,隱私計算的各項風險,也孕育著利用技術治理風險的契機。立法者應從開發行為、業務樣態、代碼規則、技術發展和社會法益衡量等角度,綜合打造以變應變的法律應對體系。一言以蔽之,只有通過聯結化的努力,將零散獨立的應對機制和法律規則整合為成體系的規制策略,隱私計算才能真正發揮其作為“賦能科技”的正向效用。文中對于隱私計算法律規制的系統性思考,希望為日后各項技術規則的單獨細化拋磚引玉。在開發行為規范、外部審查體系、動態協商框架、主體賦權制度和統一行業標準的有機互動下,隱私計算得以強化法律保護,數據共享阻礙得以徹底根除,行業壁壘得以逐漸消解,法律和技術由此相互增益。