陳遠茵,宋 敏
(廣州大學 法學院,廣東 廣州 510006)
近年來,消費者在網絡打車出行、外賣配送、酒店預訂和購票購物等領域被大數據“殺熟”的經歷經媒體不斷曝光,引發熱議(1)如《淘寶“大數據殺熟”翻車事件:一款洗面奶5個價,VIP比別人更貴一點》,載《互金商業評論》,https://www.jiemian.com/article/4087157.html。2020年3月7日媒體曝出經用戶對比發現一瓶洗面奶在天貓超市的售賣價格在不同的用戶端顯示不同的價格,可謂“千人千面”,最低價與最高差相差一倍多,并且天貓88vip會員購買商品時比普通用戶的價格更高。。2020年復旦大學研究團隊的一篇打車調研報告中提及“蘋果手機用戶平均僅獲得2.07元的打車優惠,顯著低于非蘋果用戶的4.12元”的發現讓公眾對算法價格歧視的討論再度進入白熱化階段(2)《復旦教授瘋狂打車800次,發現大數據殺熟的秘密!》,載搜狐網,https://www.sohu.com/a/456476514_609133,2022年5月12日訪問。。無論是對老用戶購買同一產品或服務在相同條件下設置更高支付價格的“殺熟”行為,還是消費者負擔的“蘋果稅”,其本質都是經營者借助算法,分析消費者信息以得到針對個人的“數據畫像”,針對不同的畫像實施差別化定價,從而實現利潤最大化的算法價格歧視行為。
不同于傳統商業“看人下菜碟”的公開溢價,經營者以“算法”為技術支持實行價格歧視以攫取更多的消費者剩余(3)消費者剩余又稱為消費者的凈收益,是指消費者在購買一定數量的某種商品時愿意支付的最高總價格和實際支付的總價格之間的差額。消費者剩余衡量了買者自己感覺到所獲得的額外利益,經營者通過預測消費者對于價格上限的承受范圍推出消費者愿意支付的消費者剩余,從而設置合適的價格。,歧視手段更加隱蔽。經營者借助算法預測消費者的購買欲望、消費頻率及消費能力以生成“各自的價格”,消費者囿于專業知識受限,難以在價格如此“通情達理”的情況下察覺到被歧視,面對算法擬定的價格,唯有接受或拒絕。即便察覺權益受損,但是由于算法擬價隨變量輸入的不同而快速變化,消費者難以固定價格歧視的證據[1];證明所需的相關材料由經營者掌握,經營者面對消費者協助提供證據的請求時,往往以特別優惠、商業秘密、市場供需變化等理由搪塞,因雙方信息不對稱顯著,消費者難以提出強有力的反駁。消費者處于完全的劣勢地位,其公平交易權、知情權等權利極易遭受損害;經營者的歧視行為也因消費者作出的“自愿支付”而得到進一步掩蓋,游離于監管之外。
為打破算法價格歧視的“隱身”屬性,從源頭遏制差異化定價,需要從算法價格歧視如何形成入手以辨清歧視隱蔽的緣由,使得法律規制有的放矢。由此,本文首先將釋明算法價格歧視的行為邏輯,其次在得出算法價格歧視的行為實質的基礎上,分別從信息收集、處理兩大階段規范經營者的信息處理行為,探討以《個人信息保護法》為依據來防止算法價格歧視行為發生的可行性。
研究算法價格歧視的行為邏輯,首先需了解驅動該行為的底層原因,從底層原因發端,經營者為實現該目的從事系列行為。從農業經濟、工業經濟到現今邁入數字經濟,經營者開展一切經濟活動的目的不外乎追逐利益,其中對每一單位產品或服務收取不同的價格實現“一人一價”是經營者最理想化的追求(4)在“一人一價”中,經營者通過算法預測出每一個消費者對產品所意愿支付的最大貨幣量,并以此決定產品的價格,從而獲得每個消費者的全部消費剩余。“一人一價”因可以達到利潤最大化而成為經營者的理想追求。。因數字時代信息技術的發展,以收集消費者海量信息為基礎、利用算法分析消費者意愿支付的最高價格的“算法價格歧視”使得理論意義的“一人一價”成為可能。
實現“一人一價”,要求經營者以個人信息為質料、以算法為核心驅動開展信息處理活動。第一步,收集信息。經營者憑信息服務協議、隱私政策與消費者協商,獲取消費者的個人信息。收集的信息包括性別、常住地、地理位置等個人屬性信息以及搜索偏好、瀏覽記錄等行為信息。第二步,分析信息。運用各類算法過濾、篩選、組合收集而來的信息,為各類消費者“打上標簽”,精準描繪每一消費者的“信息畫像”,推測其支付意愿以及可以接受的價格上限,以期索取消費者能夠支付的最高價格。第三步,應用算法自動化決策結果,實現價格歧視。對于同一產品或服務,依據消費者“畫像”設置不同的價格,將擬定了不同價格的商品或服務推送給目標消費者[2]。
從算法價格歧視的行為邏輯可知,經營者借助算法工具實現了“完美”的營銷,既能夠面對高支付意愿的消費者制定更高的定價,也能夠對價格敏感的低端消費者群體機動性推送合適的價格[3],而互聯網交易成為價格對比的天然“屏障”,除非消費者花費精力仔細比對,否則很難發現自己被價格歧視。從行為的本質來看,歧視性價格是經營者憑借算法過度收集、不當使用消費者個人信息而造成的結果。算法價格歧視以侵害消費者公平交易權、知情權等權利為外在表現,實質侵害了消費者的個人信息權益[4]。基于此,從源頭上防范算法價格歧視,可以從個人信息保護的角度入手,規范經營者的個人信息處理行為。
2021年8月20日,專門規制個人信息保護的《個人信息保護法》正式通過,其中第24條第1款明確規定:“個人信息處理者利用個人信息進行自動化決策,應當保證決策的透明度和結果公平、公正,不得對個人在交易價格等交易條件上實行不合理的差別待遇。”正式將算法價格歧視行為納入個人信息保護的規制范圍。筆者將從《個保法》(5)《個人信息保護法》的簡稱,若無特別說明,本文以下稱《個保法》均指《個人信息保護法》。第6條“目的原則”——個人信息保護法體系的帝王條款[5]為著眼點,研究經營者的個人信息處理(6)此處的個人信息處理為廣義理解,包括個人信息的收集、分析、應用等。下文若無特別說明,個人信息處理均作廣義理解。規范。
經營者以個人信息為“生產資料”實施差別化定價。經營者作為運用算法系統收集、處理個人信息的主體之一,理當遵守個人信息處理者群體所應遵守的規范。從個人信息收集、處理的運作機制來看,可知一切信息處理活動圍繞著處理目的進行。消費者信賴相關信息處理者會以其告知同意的目的為限處理個人信息,并透過處理者告知的目的知曉信息去向,預估個人信息處理活動可能帶來的風險與損害,[5]最終在利益與風險的權衡后同意處理者收集、處理個人信息。相應地,要求處理者開展信息處理活動應遵守契約誠信,回應消費者信賴,以處理目的為限實施相關行為。《個保法》第6條“目的原則”明確表述信息處理活動應受目的的限制,貫穿信息收集、分析與運用的全階段,常作為個人信息保護法體系的帝王條款而使用。基于此,筆者以為,對經營者信息處理行為的規制可以立足于第6條條文開展分析。
《個保法》第6條第2款規定:“收集個人信息,應當限于實現處理目的的最小范圍,不得過度收集個人信息”,要求收集個人信息的范圍為實現目的所必需。“處理目的”是個人信息處理追求的處理目標和結果,對于目的的實現,消費者與信息處理者追求的結果各異。消費者期望其提供的個人信息能夠經過處理使其獲得相應的信息產品或服務,處理者希望通過提供信息產品或服務而獲取經濟利益,雙方在提供產品或服務的業務功能上達成一致,業務功能成為雙方聯系的橋梁,因此,依照“處理目的”而收集、處理個人信息實際為依照業務功能開展活動,對目的的要求實為對業務功能的要求。
按照《個人信息安全規范》(7)GB/T 35273—2020,《信息安全技術 個人信息安全規范》。規定,業務功能以基本業務功能和擴展業務功能為兩大區分,基本業務功能指提供消費者簽約時最期望獲得的產品或服務,如地圖導航、即時通信等;擴展業務功能則為實現基本業務功能之外的其他目的,如定向廣告推薦、精準新聞推送等。算法價格歧視是經營者收集信息的隱藏目的,不屬于上述業務的任何一種,事實上經營者不會宣稱自己“非法性”的目的,而是以實現個性化服務等籠統目的請求消費者概括授權,實現最大限度的信息收集。為防止消費者過度收集非必要的個人信息,經營者應當遵循《個保法》最小收集范圍之規定,收集個人信息的類型直接關聯生產產品或提供服務,沒有相應信息的提供,產品或服務的功能就無法實現;收集信息的頻率和數量應為可以實現目的最低頻率和最少數量;收集之后應遵循最短存儲時間(8)GB/T 35273—2020,《信息安全技術 個人信息安全規范》。。
依據《個保法》第13條之規定,收集個人信息需取得個人的同意。個人同意既是信息處理最重要的合法性基礎之一,也是建立消費者與經營者之間信任的關鍵,消費者難以接受沒有目的或是超越“告知目的”的合理范圍而收集自身信息。最小收集范圍即消費者同意經營者收集且屬于實現處理目的所必不可少的范圍。對前文“目的”的理解,應當限于經營者同意的范圍,經營者圍繞消費者同意的目的進行相關活動。
如前文所述,算法價格歧視的隱蔽在于算法的不透明性,由此,突破算法“屏障”、提升個人信息處理的透明度是關鍵之策。在信息收集階段,為了保證消費者作出真正的同意,經營者應當具體表述“處理目的”,以便對方了解實現目的所必要收集的個人信息類型及收集信息后的處理去向。為提高信息處理的可理解性,在內容上,經營者可以告知消費者其結果是基于何種信息分類標準、方法模型作出,披露操作的邏輯程序及其他有意義的信息;在解釋方法上,可以使用因果解釋、反事實解釋等方法進行解釋(9)因果解釋方法,即幫助消費者識別輸入變量與特定輸出之間的因果關系。反事實解釋方法,即改變輸入的前提觀察輸出結果的不同以理解信息的處理。;此外,可以運用技術手段將信息使用的步驟可視化呈現,如在彈窗中運用文字導讀、視頻演示等形式清楚展示。對于個性化服務等容易模糊表達、概括授權的擴展業務功能,收集信息時應當在信息使用的具體場景中再次獲取消費者的單獨同意,且逐一告知消費者需要收集的信息,獲得信息獲取權限的逐項同意。實踐中,判斷某一場景收集個人信息是否符合“最小范圍”,可以比照《常見類型移動互聯網應用程序必要個人信息范圍規定》(10)《常見類型移動互聯網應用程序必要個人信息范圍規定》就30余種常見服務類型所需的最小必要個人信息作了詳細列舉,載中國網信網,http://www.cac.gov.cn/2021-03/22/c_1617990997054277.htm,2022年5月12日訪問。出具的示例進行評估。
我國《個人信息安全影響評估指南》(11)GB/T 39335—2020,《信息安全技術 個人信息安全影響評估指南》。將個人信息處理的權益影響概括為四個維度,維度之一的“引發差別性待遇”要求個人信息處理者不得不公平對待消費者的個人信息,導出歧視性的決策結果。算法價格歧視以算法擬定歧視性價格,構成對該條款的違反,算法價格歧視既然是個人權益損害類型的表現之一,理應受到信息處理規范的規制。
《個保法》第6條第1款規定:“處理個人信息應當具有明確、合理的目的,并應當與處理目的直接相關,采取對個人權益影響最小的方式”,要求個人信息處理圍繞目的開展,采取的處理方式是實現其處理目的的唯一方式,或者是對個人信息權益侵害風險最小或損害最小的方式,引起的風險與消費者獲取的信息服務利益符合一定比例[6]。個人權益影響對應個人信息權益遭受的侵害風險或損害,以“影響最小”凸顯風險防范的重要性,同時“影響”作為程度評價語詞有利于信息處理行為在具體場景判斷的靈活運用。
為了正確適用《個稅法》第6條第1款的規定,需要理解“直接相關”與“影響最小”的含義。就“直接相關”而言,如前所述,個人信息處理的系列活動圍繞處理目的開展,處理活動與處理目的直接相關是確認經營者的行為符合目的原則的第一步。我國《個人信息安全規范》規定個人信息控制者“使用個人信息時,不應超過與收集個人信息時所聲稱的目的具有直接或合理關聯的范圍”;歐盟第二十九條資料保護工作組第3/2013號意見書提出:個人資料必須為特定的、明確的及正當的目的而收集,以及不得作出與該等目的不相容的進一步處理。相容性根據個案進行評估需特別考慮以下要素:一是初始收集目的與進一步處理目的的關聯;二是收集個人信息的情境及用戶對其信息被進一步使用的合理預期;三是個人信息的性質及進一步處理對用戶的影響;四是處理者是否采取保障措施以確保信息被公平處理及防止任何對用戶的不利影響(12)歐洲聯盟第二十九條資料保護工作組第03/2013 號意見書,載澳門特別行政區政府個人資料保護辦公室官網,https://www.gpdp.gov.mo/index.php?m=content&c=index&a=show&catid=112&id=12,2022年5月12日訪問。。綜合來看,“直接相關”要求的關聯度是指處理活動與處理目的具有合乎預期的聯系,以一般理性人在閱讀條款時的認知標準判斷處理活動是否有助于目的的實現、是否為消費者同意的目的所涵蓋。“直接相關”注重處理活動對消費者權益的影響,要求處理者進行信息利用時遵照處理目的,后續的處理活動不能創造出與實現目的不匹配的風險或者提升風險[5]。
就“影響最小”而言,在經營者的信息技術和安全防護技術所能實現的范圍內,要求處理的個人信息應為最低識別度的信息、處理信息的頻率最低、處理的信息數量最少、處理活動限于最小的共享范圍;在實現處理目的后應當及時刪除、銷毀信息,恢復到個人信息未進入處理活動前的初始狀態,擦除個人信息在相關應用程序、網絡平臺等的存儲記錄;在個人信息處理活動的全過程,運用符合處理者信息技術水平的數字科技手段防止個人信息泄露、損毀、丟失、篡改,例如采用匿名化措施、分散存儲信息等方式。同時給予消費者自主決定退出處理活動的權利。
最新一期《中國互聯網絡發展狀況統計報告》顯示,截至2021年12月,我國網民規模達10.32億人,互聯網普及率達73.0%(13)中國互聯網信息中心。載http://www.cnnic.cn/hlwfzyj/hlwxzbg/hlwtjbg/202202/t20220225_71727.htm,2022年5月12日訪問。,網絡算法的觸角延伸至每一個人。算法價格歧視行為在“算法”的支持下力圖掠奪全部的消費者剩余以轉化為經營者利潤,此舉不僅直接損害消費者的權利,令消費者對商家的信任土崩瓦解,長此以往將不利于市場經濟進一步的發展;并且作為算法負面利用的表現,引發公眾對“算法黑箱”(14)由于算法部署者知悉掌控核心算法以及算法逐漸具備自主學習能力,從輸入至輸出的過程由于難被公眾理解往往被描述為“黑箱”( black box) 。參見杜小奇.多元協作框架下算法的規制[J].河北法學,2019,37(12):176-190.的愈加擔憂,公眾對于信息利用的懷疑將阻礙大數據的創新發展。因此,有必要規范經營者的個人信息處理行為,防范算法價格歧視的發生。通過分析算法價格歧視的行為邏輯可知,該行為的本質是經營者對消費者信息的過度收集與不當使用,從歧視形成的源頭入手,在風險防范階段設置一道“閥門”,以保護消費者的信息權益的手段達到保障消費者權利的目的,有助于最大程度地降低對消費者權益的損害。《個保法》第6條“目的原則”起到了貫徹立法目的、立足個人信息保護的代表性作用,筆者選擇該條款開展論述分析,希望通過對該原則的理解為經營者的個人信息處理規范提供方向指引,也為算法價格歧視的法律規制提供一個值得研究的角度。
對算法價格歧視的法律規制關涉市場經濟活動對于算法和個人信息的使用,未來的互聯網生態可能就算法和個人信息使用開拓出其他經濟、人文和科技等發展的議題,對于算法價格歧視的規制探討可以作為一個深入研究算法利用和個人信息合理利用的契機,期待未來數字時代延伸人類發展的更多可能。