婁逸驊
(山東大學 法學院,山東 青島 266237)
算法改變了決策的構成,基于法定規則、人類經驗與有限理性的定性決策逐步被基于大數據技術的定量決策所取代。[1]算法自動化決策技術的廣泛應用使得機器取代自然人成為信息選擇的主體,個人在信息獲取過程中的自主性被削弱。個性化定價、數據壟斷、個人信息泄露等一系列問題在影響數字經濟發展質量的同時也侵蝕著線上消費者的主體性。如何引領算法沿法治化軌道發展,如何達至算法正義,是法治進化的核心主題。[2]在消費領域,算法正義是消費者主體性及其權益的重要保障。
算法逐步成為各個領域的基礎技術架構,原有的社會關系與權力結構在這一過程中得以不斷鞏固和發展。算法自動化決策這一“技術黑箱”強化了經營者在線上交易中的優勢地位,降低了消費者的法律地位和決策能力。
消費者接觸到的交易信息實際上是經營者和算法設計者想讓消費者看到的信息。算法締造的“信息繭房”限制了公眾接受信息的種類和數量。桑斯坦認為,“信息繭房”現象是指公眾通常只關注自己選擇的或能使自己愉悅的訊息,將自己束縛在如蠶織就的“信息繭房”中的現象。[3]“信息繭房”原本是信息接收過程中的一種正常的信息偏食現象,而算法可以將正常的信息偏食狀態異化為信息偏在狀態。[4]算法可控制信息受體接收的信息種類。大量的同質化信息和“標簽化”操作可以強化受眾的固有認知[5],成癮性推薦打造的舒適圈進一步減弱了消費者突破“信息繭房”的內在動力。因此,陷于特定的數據信息領域內的信息接收者難以突破“信息繭房”的束縛,接收外來的信息和觀點。
算法對交易信息的篩選和過濾縮減了可供消費者選擇的經營者范圍和產品范圍,增強了消費者對特定經營者的依賴程度,比如谷歌公司就通過算法將自己旗下的商品信息置于展示頁面的顯眼位置,以爭取更多的交易機會。[6]更為關鍵的是,個性化定價改變了“同物同價”的傳統定價模式,比如某打車軟件依據手機品牌和使用頻率的不同確定支付價格[7]。在算法自動化決策創建的封閉信息場域內,消費者可能會對特定商品服務的種類、價格、交易形式、消費評價形成固有印象,難以掌握市場行情和價格變化的總體趨勢。此外,鑒于算法自動化的定制性和私人性,消費者難以知悉其他消費者接收到的推薦信息,這就導致其難以發現經營者的個性化定價行為和壟斷行為。如此一來,消費者往往只能被動接受經營者安排的價格。
算法加劇了經營者和消費者在信息處理方面的緊張關系。經營者為實現盈利目的,往往會采用強制同意、信息扒取、過度分析、保留識別性等手段,違規處理消費者的個人信息。與此同時,在數據流轉規則尚不完善的今天,企業間的數據流轉并不一定符合消費者的真實意愿。算法也加劇了經營者在數據處理領域的競爭關系。企業既希望對自己數據庫內的信息享有排他性的權利,又希望能夠充分利用其他企業的信息資源。在經營者數據需求難以得到滿足的情況下,不排除有企業鋌而走險,通過非法手段侵占其他企業數據資源。這也意味著消費者信息的實際處理者和預期處理者存在出入。另一方面,算法自動化決策是一種通過數據分析程序自動輸出結果的決策方式,算法自動化決策過程的高度技術性和高度封閉性使得消費者難以抵制其帶來的負面效應。消費者不參與算法設計,不干涉決策進程,自然就難以干預算法自動化決策的最終結果。即便算法自動化決策完全符合有關規定,在消費者需求日漸多元的今天,千篇一律的算法運算程序得出的結果難以完全符合消費者的預期。
隨著《中華人民共和國網絡安全法》《中華人民共和國個人信息保護法》《中華人民共和國數據安全法》(簡稱《網絡安全法》《個人信息保護法》《數據安全法》)的相繼出臺,我國在算法治理層面取得了里程碑式的進步。與此同時,《中華人民共和國消費者權益保護法》和《中華人民共和國電子商務法》(簡稱《消費者權益保護法》《電子商務法》)也正努力適應線上交易所帶來的變化和挑戰。但令人遺憾的是,我國對算法自動化決策的治理還處于起步階段,現行治理體系仍不足以維護消費者在線上交易活動中的主體性地位,數據利用和數據保護之間的矛盾使得立法者在制定規范制度時進退維谷,相應配套措施的缺位更使得消費者的維權之路舉步維艱。
《網絡安全法》第21 條及《數據安全法》第27 條至30 條要求經營者扮演數據安全管理者、算法正義維護者、數據風險評估者、數據風險監測者等多重角色;《網絡安全法》第28 條還要求平臺應當協助支持國安部門和公安部門開展工作。在加鹽訴悠久公司一案①參見(2021)粵73民終5651號判決書。中,法院要求平臺采取預防侵權的必要措施;(2020)浙0192 民初3081號判決更是要求平臺應當保證算法的可解釋性和正當性。就目前的規定來看,我國對平臺治理功能給予了厚望,立法者傾向于將平臺作為算法治理的主力軍和先鋒隊,要求其保障算法自動化準備階段、決策過程乃至決策結果的正當性。但須知平臺本身依靠算法營利,平臺的算法治理與平臺的營利目標存在一定的沖突。在激勵措施缺位的情況下,平臺自身未必有主動實施算法治理行為的意愿。同時,過于沉重的治理責任既可能影響平臺的正常運營,也可能會誘發造假現象,影響平臺算法治理行為的有效性。此外,算法治理是一個多元性、綜合性命題,這一過程離不開公權力主體的介入。既然如此,平臺應當在哪些領域以何種方式為公權力主體的算法治理行為提供支持,有待進一步確定。
目前我國對消費者主體性地位的保護未能打破部門法之間的壁壘,數據安全保障和消費者權益保護之間存在一定的割裂。例如,在《數據安全法》《網絡安全法》中均未有專門條款陳述數據安全與消費者權益保護之間的關系;《消費者權益保護法》既未陳述利用算法侵害消費者權益的表現形式,也沒有闡明經營者在算法治理中的角色和義務。然而,消費者保護和數據安全保障這兩條路徑之間絕非涇渭分明,互不干涉。算法時代的交易大多是沿著“數據收集—數據分析—結果輸出—消費者選擇商品—交易完成”這樣的流程推進的。要想避免算法自動化決策對消費者主體性地位的侵害,就要將抽象的數據安全具體化,從消費者知情權、公平交易權、自主選擇權的角度評估數據處理過程給消費者權益帶來的影響。此外,唯有保障數據處理活動的合法性,才能真正破除數據壟斷,維護消費者在交易中的能動性,保障經營者與消費者的平等地位。聯系松散的治理規則不僅不能有效保護消費者,還加大了法律適用的難度。消費者在具體訴訟中難以找到邏輯嚴密而有說服力的請求權基礎,法院裁判說理的工作量也大幅增加。
消費者的消費信息收集是算法自動化決策的起點。因此,《個人信息保護法》嘗試通過“告知—同意”這一信息采集原則從源頭保障算法自動化決策的正當性。但令人遺憾的是,告知—同意規則尚未賦予消費者控制算法自動化決策啟動節點與方式的能力。網站在設計上往往誘使用戶直接點擊同意,而不去閱讀具體條款[8]。另外,現行的告知—同意原則并未有效提高消費者的理解能力和技術能力,大多數消費者仍然難以掌控算法自動化決策的運行過程。消費者不知道算法自動化決策何時開始、何時終結,即便經營者違規開啟自動化決策,消費者也未必能及時做出反應。最為關鍵的是,告知—同意機制無法應對數據處理的多層次性與動態性。消費者個人數據的流通過程較為復雜,數據處理主體和數據處理方式具有高度不確定性。要求數據處理者一次性取得消費者的概然性同意有違公平,但分別多次向消費者征求同意又難免脫離實際。更為重要的是,無限制地擴大告知義務范圍可能導致交易成本的邊際遞增,不符合經營者和消費者的利益需求。[9]為彌補告知—同意原則的缺陷,有學者提出與“普遍免費”模式并行的“普遍免費+個別付費”雙重模式[10],用金錢支付代替數據支付,但這種做法很容易導致算法權利的進一步擴張。掌握算法的主體可以利用收費權限強迫消費者支付額外費用,長此以往可能會形成新的灰色利益鏈條。最為關鍵的是,鑒于算法的技術性,支付對價的消費者根本不確定自己支付的金錢是否真的足以保障自己的信息安全。
1.責任承擔規則模棱兩可
立法的確要為日新月異的算法技術預留一定的空間,但模棱兩可的責任承擔規則無法為經營者和算法設計者提供有效的行為準則和裁判規范。目前我國有關線上消費者的保障性條款多為不完全條款,針對線上消費者權益保護的法律解釋尚未出臺。《網絡安全法》第10 條和第25 條、《數據安全法》第27 條、《電子商務法》第38 條均提到,不“依法”、不“及時”采取“必要的措施”的主體需要承擔責任。既然如此,“必要的措施”的認定標準是什么?及時處理與不及時處理的時間分界線是什么?這些認定標準是否會因責任主體的變化而不同?另外,從《數據安全法》第52 條和《網絡安全法》第74 條的規定來看,我國在網絡安全、數據治理領域已經確定了民事、行政、刑事三重責任并立的形式。不過,從條文所占篇幅上看,三類責任的規定并不均衡,比如《數據安全法》第六章“法律責任”中,有5 條都規定了罰款和警告、吊銷營業執照等行政法責任形式,民事責任和刑事責任的規定則有待完善。特別值得注意的是,不同的法律法規之間的立法宗旨、具體規定和解釋規則上有時存在沖突,所謂“依法”遵循的到底是哪些法律,值得進一步說明。在確定依據的法律關系以后,如何協調不同法律規范的分歧,值得進一步探究。
2.公私法救濟路徑銜接不當
同用戶相比,平臺具有技術和資源上的絕對優勢,在平臺與消費者發生糾紛時,傳統私法救濟機制的功能難以完全發揮。[11]即便在已經采用過錯推定的個人信息領域,平臺仍可以通過證明自己無過錯,輕易逃避承擔責任,其大可將消費者主體性受抑制的問題歸咎于消費者自身的惰性。而囿于技術原因和信息不對稱,消費者在舉證時難以還原自身主體性地位被剝奪的具體過程。在私權保護的基礎受到動搖的情況下,行政規制路徑日益走入人們的視野。[12]131行政機關可基于對風險的自主研判而及時啟動相應程序。[12]139然而不同于私法救濟以恢復權利原狀為旨[13],公法救濟更傾向于對社會秩序和公共安全的保護。[14]不同的立法宗旨決定了不同的適用范圍,但令人惋惜的是,目前有關立法文件尚未闡明兩種救濟路徑各自適用的范圍及相互關系,如何實現上述兩種救濟路徑的融合和互補是完善當下救濟框架急需回答的問題。
維護消費者的主體性地位不僅是維護消費者經濟利益的關鍵舉措,更是信息化時代下保障個人人格充分自我確定和自我開展的重要內容。[15]消費者主體性地位的下降根源于算法侵占了消費者的決策空間,唯有以保留消費者意思自治能力和意思自治空間為出發點,彌補現行算法治理體系的漏洞,才能減緩算法自動化決策對消費者主觀能動性的侵蝕。
平臺掌握算法設計的一手資料,其可以在技術人員的輔助下對算法運行的原理進行說明。在這一過程中,平臺只需要按照相應文件的要求對有關技術性問題做出解釋即可,原則上不需要專門對算法自動化決策的正當性問題做出回應。事實上,即便平臺對算法自動化決策程序的正當性進行審查和評估,其強烈的主觀色彩也使得評估結果的可信度大打折扣。除此之外,平臺還是公權力主體進行算法治理活動的輔助人,必須如實協助公權力監管主體進行調查取證。平臺應當做好相關文件和交易記錄的保存工作,不得隨意更改、刪除、偽造有關數據。為保證平臺所提供數據的真實性、準確性,第三方中立主體應當介入平臺數據的日常監測活動,分擔平臺的監測工作,并監督平臺的數據管理行為。一言以蔽之,要求平臺成為算法正當性保證人的預設未免脫離實際,平臺在算法自動化決策過程中實際上扮演著“有限度的維護者”這一法律角色。平臺可以在不影響營利目標實現的基礎上為算法自動化決策的治理提供技術支持和證據支持。公權力主體、中立第三方數據管理機構和網絡自治機構才是算法自動化決策治理活動的中堅力量。
增強治理規則之間的聯系既可以簡便法律適用,又可以推進算法治理體系的最終形成。應當盡快消弭數據保護和消費者權益保護之間的界限,擴張消費者的權利版圖,將對算法自動化決策的規制融入到經營者的義務規定中。在制度設計層面,立法者應當盡快為消費者構建針對算法權利的請求權基礎。具體而言,一方面,立法者應當擴大消費者知情權的范疇,將算法運行原理和算法自動化推薦依據納入消費者知情權的內容。另一方面,應當豐富消費者選擇權的內容。有關部門應當加強立法解釋,將利用算法優勢干預消費者自主選擇權的具體方式類型化,為網絡經營者的運營行為和消費者的維權行為提供指導。特別值得說明的是,平臺既可以要求第三方計算機公司設計算法程序,也可以通過內部技術研發部門自行設計算法。但無論哪種情況,平臺都是算法的真正掌控者,因為即便平臺不親自參與算法設計,其也能夠對算法設計結果產生決定性影響。但在第二種情況下,鑒于平臺和算法設計者雙方在行為上的高度協同性,可以要求兩者共同承擔連帶責任。
告知—同意原則不能直接拓寬消費者的信息來源渠道和接觸到的信息種類。要想維護消費者在線上交易中的主體性地位,在平臺經營規則的制定上,應當為消費者預留更大的選擇空間。首先,平臺應當為消費者提供多種推薦機制,允許消費者根據自己的喜好選擇推薦的產品。其次,不得為消費者變更推薦機制設置障礙,必須以顯著位置列明信息推薦模式的轉換渠道,并簡化消費者的操作步驟。再次,在規制算法自動化決策侵權行為時應當尊重消費者的真實意愿,允許消費者在法律范圍內選擇責任主體和責任承擔方式。比如允許消費者在平臺、平臺內經營者之間自主選擇索賠對象,或者賦予消費者選擇終止交易、變更合同內容的權利,等等。最后,確保消費者選擇目的的實現。一方面,市場監督管理部門應當定期審查平臺內經營者的交易記錄,防止平臺內經營者偽造成交量或是虛報商品價格從而影響推薦結果;另一方面,平臺要允許消費者修改、補正個人信息,以保障推薦結果的準確性。
1.明確責任承擔規則
在現階段要注重對立法規則的解釋工作,以詳細周密的制度安排取代籠統的原則性規定。具體而言,立法者應當確立責任承擔的前提條件,在此基礎上明確責任主體的具體范圍和責任減輕事由。比如在(2020)浙0192 民初2295 號判決中,法院將提供個性化反饋途徑認定為一項責任減免事由。另一方面,盡量避免不確定的責任形式和不確定責任份額。另外,在明確責任承擔規則的過程中,還應當重視行業自治規范的指引功能。同法律規范文件相比,行業自治規范文件在專業性和詳細程度上都要更勝一籌。其可以為“必要的措施”和“及時”等條件提供一個兼顧技術專業性和社會公信力的認定標準,避免事實判斷過程對司法資源的過度消耗。最后,應當充分借助《中華人民共和國民法典》《中華人民共和國行政處罰法》《中華人民共和國行政強制法》中對責任承擔形式的有關規定,以之作為輔助性裁判依據,比如《中華人民共和國民法典》中關于幫助侵權的規定和連帶責任的構成要件等。
2.協調公私法救濟路徑
協調公、私法救濟路徑主要包括兩方面內容。一方面是要降低消費者的訴訟難度,充分發揮私法救濟的功能。盡管行政機關與相關領域的專家聯系更加緊密[16],但消費者能夠提供更多更詳細的交易證據,同時也最清楚自身權益的變動情況。因此,消費者的私法救濟在算法自動化決策規制中的地位不容輕視。我國實務界已經注意到消費者訴訟能力有限的問題,在“龐某與北京趣拿信息技術有限公司隱私權糾紛案”①參見(2017)京010民終509號判決書。和申某與支付寶(中國)網絡技術有限公司尋求私法救濟的案件②參見(2018)京0105民初36658號判決書。中,法院通過強調自由心證的作用,適度降低證明標準[12]133,只要按照一般理性人的觀點,算法運營機制足以干擾消費者的信息接收和決策過程,法官即可認定存在壓制消費者主體性的行為。另一方面,應當增加銜接性制度的供給,構建公、私法救濟兩者之間的轉化機制。行政監管和私法救濟之間存在相互轉化的關系,影響力較大的個人訴訟可能會促使行政監管措施啟動,行政監管中發現的違規問題也可能會引發集體訴訟。在行政監管措施啟動后,只有能夠證明自己人身財產權利確實因違規的算法自動化決策活動遭受損害的特定消費者才能申請私法救濟。在消費者提起私人救濟請求后,在有證據表明經營者的算法自動化決策行為可能干預不特定消費者的自主選擇權和公平交易權的情況下,有關部門才能啟動行政監管程序。而在證據制度上,消費者提供的證據和行政機關在監管過程中收集的證據可以相互補強,共同作為認定算法自動化決策行為違法性的判斷證據。在時效制度上,私法救濟過程中,行政監管的開啟可以作為中止的事由,進一步提升消費者的訴訟能力。
算法豐富了現有法律關系的內容,如何避免算法權利的過度擴張,實現人與機器和諧共存,是數據時代法治的新興課題。與此同時,算法加劇了原有交易關系中經營者與消費者的力量差距,對算法的規制也是對經營者線上行為的規制。在制度供給上,一方面要盡可能明確各方主體權利義務,將對算法設計者和經營者的監督管理落到實處;另一方面要為消費者提供便捷高效的救濟路徑,防止消費者求助無門。值得一提的是,單純依靠法律制度還不足以引領算法技術沿法制軌道發展,科學技術也在其中發揮著至關重要的作用。如何實現技術和法律的良性互動,營造技術進步和法律完善相互促進的良好局面,待理論界和實務界進一步探究。