摘 要:在大數據時代,算法已經成為大數據金融發展的核心底層技術。在享受大數據金融算法優化和重構傳統金融業的商業模式、驅動新興科技金融產品和業務創新的同時,亦必須面對其可能帶來的算法黑箱、算法歧視、價格操縱、隱私泄露、算法魯莽等負面效應。為此,大數據金融算法必須接受法律的規制,需在適度監管理念的指引下,完善大數據金融算法法律體系,重構大數據金融私法關系,建立大數據金融自律機制,并強化大數據金融行政監管機制,通過“多元共治”促進大數據金融算法規范運用。
關鍵詞: 大數據金融;算法黑箱;算法歧視;算法魯莽;金融科技
隨著人類社會進入大數據時代,金融科技的飛速發展正在深刻地改變著現代金融生態,并深層次影響著金融風險的表現形式和傳播機理?,F代金融的本質是科技金融和大數據金融。作為數據科學與算法相互融合催生的現代金融形態,大數據金融已經成為金融業勢不可擋的發展趨勢,而算法正是大數據金融得以運行的核心技術。日益普遍和復雜的大數據金融算法在推動智能決策、優化商業模式、驅動精準營銷、提高金融效率的同時,也對金融公平、金融消費者權益保護、系統性金融風險治理帶來嚴峻的挑戰。在“萬物皆互聯,無處不數據”的大數據時代,大數據金融算法作為一種典型的科技倫理,必須接受法律的規制。
一、大數據金融算法及其應用優勢
在21世紀,信息化時代以各種方式被產生、記錄、存儲、傳播以及使用的數據開始成為信息技術革命的主角。當這些數據的體量超過常規數據庫工具獲取、存儲、管理、分析能力并形成海量數據集,以算法為核心的數據技術的破壞式創新,被數據科學家稱之為“大數據革命”[1]。算法是一系列程序化運算或者自動運算方法的統稱。大數據金融算法是指,利用計算機程序來控制金融決策和金融交易的人工智能運算方法。根據算法對大數據金融決策和交易控制的范圍不同,可以將其分為交易時間算法、交易價格算法和交易成交量算法。根據交易決策模式的不同,大數據金融算法又可以分為主動型算法、被動型算法和綜合型算法。被動型算法僅僅利用歷史數據對交易模型的參數進行估計,在既定的交易方針下進行交易。主動型算法則更為靈活,能夠根據市場的變化調整決策,可以實時地決定成交量和成交價格。綜合型算法融合了前兩種方法的優點,在設定具體交易目標的同時又能夠兼顧市場的實時變化,對交易做出相應調整[2]。大數據金融算法對金融業的深度改造主要體現在兩方面:
(一)優化和重構傳統金融業的商業模式
金融大數據與算法的兩相結合,為傳統金融業務的改造升級提供了理想的科技基礎。在銀行金融領域,大數據金融算法廣泛應用于客戶營銷、產品創新、風險控制、運營優化等方面:通過對客戶金融信息的算法處理,得到客戶的全景畫像,提高新客戶的獲取率和留存率以及潛在客戶的激活率和優化率;通過交叉營銷算法分析、精準營銷算法分析、個性化推薦算法分析等,改善金融業務的營銷模式;通過金融市場風險算法分析、中小企業風險評估算法分析、實時欺詐交易算法分析、反洗錢活動算法分析等提升金融風險管控能力;通過渠道優化算法分析、市場熱點算法分析等大數據方法,優化金融運營質量。在證券領域,由大數據金融算法驅動的人工智能投顧的廣泛應用已經成為現代證券交易的重要商業模式。在保險業領域,大數據金融算法在保險險種創新、客戶營銷、保險資金的有效運用以及風險控制等方面起到了重要的作用。在信托業、融資租賃業、擔保業等傳統金融領域,大數據金融算法也不斷優化和重構著傳統金融的商業模式,并且,在混業經營的大背景下,大數據金融算法在金融理財領域獲得了廣闊的運用空間[3]。
(二)驅動科技金融產品和業務的創新
作為現代金融科技的底層技術,大數據金融算法是互聯網金融、區塊鏈、現代征信等科技金融發展的重要驅動力。目前,我國的征信體系主要由兩大部分構成:一個是中央銀行的官方征信系統,該系統因主要針對傳統金融業采集和提供征信信息,也被稱為行業征信系統;另一個是大數據征信系統,其主要通過大型電商等機構采集和加工非傳統金融行業的信用數據,形成獨立于行業征信的專門征信系統。大數據金融算法是大數據征信體系建設的核心技術,也為未來我國兩大征信系統的合作與互聯提供了科技基礎。此外,算法科技也是互聯網金融、大數據金融指數編制、現代中央銀行數字貨幣發行的基本前提??傊?,大數據金融算法對現代科技金融最重要的影響,突出體現在對金融產業價值鏈的創新上:它使得貨幣需求端融資人與資金盈余端的投資人得以跳過傳統金融中介而直接匹配,減少交易成本,提高金融效率。
二、大數據金融算法的負面效應
科學技術是一把雙刃劍。大數據金融算法在優化傳統金融模式、提升金融效率的同時,也對金融消費者保護和金融風險治理帶來新的挑戰。從大數據金融實踐的視角觀察,主要挑戰包括算法黑箱、算法歧視、價格操縱、隱私泄露、算法魯莽等突出問題。
(一)算法黑箱
黑箱(black box)理論是控制學上一個重要的基礎理論,是指在對系統進行控制學研究時,研究者把系統作為一個黑色的箱子來對待,不關注系統的內部結構及其相互關系,而僅從其輸入和輸出的特點去認知和掌握該系統的規律。在大數據金融實踐中,算法黑箱隨處可見。比如以人工智能投顧為例,其表現出的外觀是一種程序化交易過程。投資者并不知道該程序的設計原理、運行參數、決策依據、交易機制,而只能看見從數據輸入到決策輸出的客觀事實和結果,這個被暗藏的智能決策“隱層”,即所謂的大數據金融算法黑箱[4]。無疑,實現智能化和自動化的前提和基礎是以技術理性替代人類思維,這便意味著,算法將在很大程度上成為金融市場活動所遵循的基本邏輯[5]。大數據金融算法能夠在自運行和自我學習的基礎上,客觀評價證券投資者的風險偏好和風險承受能力,并以此為依據,為證券投資者提供最優的投資決策。然而,大數據金融算法自我學習之后的決策行為也完全有可能會“失控”。如果對算法缺乏監管,過度的資本化和黑箱化有可能催生制度羞辱,并且導致嚴重的金融消費者權利保護危機[6]。因此,大數據金融算法必須接受法律的規制,使其相對透明化,方能保護金融消費者的知情權,緩解算法決策信息不對稱現象,并防止不當的人為干預和利益沖突。
(二)算法歧視
算法歧視又被稱為算法輸出的歧視性或者不公正性。算法本身并不是客觀的,它會以算法歧視的形式給傳統的平等權保護帶來危機,包括平等理念危機、歧視識別危機和平等權保護模式危機等。在計算機科學領域,有一個著名的“GIGO定理”,其全稱是“Garbage in, Garbage out”,意指如果輸入的數據是垃圾數據,那么輸出的也一定是垃圾數據。這與大數據科學領域的“BIBO定理”異曲同工,大意是“偏見進,偏見出”,意指如果數據本身的質量存在問題,那么經過算法運算得出的結果也必然是帶有偏見性的。具言之,算法設計的效率導向、作為算法運行基礎的數據之偏差與算法黑箱造成的透明度缺失共同觸發了算法歧視[7]。由于大數據金融算法廣泛應用于商業銀行的客戶營銷、互聯網金融的投資者匹配、金融理財產品的銷售和風險管理等多種領域,在算法進行數據采集和自我學習的過程中,如果由于算法編制的營利導向、對客戶金融數據進行歧視性采集,那么在算法黑箱的“掩護”下,大數據金融很可能與普惠金融背道而馳,并且成為侵犯金融消費者合法權益的罪魁禍首。2014年美國白宮發布的《大數據報告:算法系統、機會和公民權利》(Big Data: A Report on Algorithmic Systems, Opportunity and Civil Rights),明確指出對于算法歧視,不僅要在技術和倫理方面予以補救,更要通過法律對算法予以治理[8]。
(三)價格操縱
大數據殺熟和動態定價是大數據金融算法價格操縱的主要手段。所謂大數據殺熟是指,金融產品和服務的提供者針對特定的用戶進行差異化和個性化定價,從而達到利潤最大化的行為。在此情況下,金融機構一般根據客戶的年齡、身份、職業、收入狀況、理財習慣、投資偏好、交易方式、消費歷史等金融信息進行數據畫像,并以此為基礎,開展個性化定價,從而導致金融產品或者服務的老客戶見到的價格要比新客戶見到的價格高出許多。大數據殺熟在銀行、證券、信托、融資租賃、擔保等傳統金融以及互聯網金融領域廣泛存在。在大數據殺熟的情形下,金融機構主要利用大數據金融算法在客戶金融信息采集和運用成本、自我學習數據的龐大體量帶來的數據壟斷地位以及其金融產品和服務的缺少可替代性等方面的優勢,同時借助算法局限對老客戶的鎖定效應來實現價格操縱。顯然,在大數據殺熟的場合,數據和算法是價格操縱最大的“幫兇” [9]。動態定價是大數據金融算法“趁火打劫”的又一常見的手段。在大數據時代,金融機構在數據采集的基礎上,通過數據挖掘算法并結合程序化定價交易等方式,可以對其金融產品或者服務提供動態定價。理論上講,如果合理運用這種動態定價,對于優化金融資源配置和提高消費者滿意度是有積極意義的,但動態定價也可以通過修正算法,以歧視性的差異化定價來達到利潤最大化的目的。目前,我國大量的銀行存款和螞蟻借唄、小米金融、陸金所、度小滿金融等互聯網金融中,都曾曝出算法局限、大數據殺熟和動態定價等行為。
(四)隱私泄露
從單個的個人金融信息到金融大數據,算法是金融數據要素化的重要催化劑??梢姷拿魑臄祿豢赡艹蔀閿祿兀挥薪柚谛畔⒖茖W和數據科學,通過金融數據安全多方計算(MPC),確保數據輸入、計算和輸出全程的保密性和計算結果的準確性,并結合數據脫敏、聯邦學習、可信計算、人工智能等技術對數據進行分級處理,在保護數據隱私安全的要求下提升整體的計算效率,實現基于金融數據要素化的金融創新?!按髷祿N含了信息公開的思想,但是這并不意味著隱私權的衰落”[10]。金融數據安全多方計算(MPC)并非天衣無縫,它也會存在系統漏洞,這往往為客戶的金融隱私泄露埋下了伏筆。不僅如此,大數據金融客戶畫像也是隱私泄露的重災區??蛻舢嬒袼惴ㄊ倾y行、證券、保險、信托以及互聯網金融產品研發和客戶營銷的重要算法模型。大數據金融算法在客戶畫像的過程中,通過自我學習,對客戶在互聯網留下的痕跡進行加工并形成客戶標簽,以此形成特定的個人客戶或者群體客戶的特征模型。算法的自我學習本身存在數據泄露的風險,而當其遭遇網絡數據爬蟲的情況下,這些被爬蟲預先布置好的信息或者腳本,可以實現對金融數據的爬取,從而危害金融消費者的隱私。當然,自我學習的客戶畫像算法為了盡可能多的獲取客戶的信息,通過在電子商務合同中的“霸王條款”,“套取”或者“強取”個人金融信息的情況也十分嚴重,并且算法還會對金融數據進行“二次利用”,這就“顛覆了隱私保護法以個人為中心的思想” [11]。因此,大數據金融算法的客戶隱私泄露風險,是現代金融法不得不高度重視的規制對象。
(五)算法魯莽
在大數據時代,人工智能交易和決策日益普及,從智能投顧到智能理財,大數據金融算法幾乎遍及金融交易的各種場景。大數據金融算法通過深度學習投資者個人金融信息,并進行客戶畫像獲取客戶標簽,在程式化的數據運算規則管理之下,不僅能夠克服“以人決策”可能存在的盈利貪婪和風險恐懼等人性弱點,而且能夠通過嚴格的運算法則和高頻交易及時止盈止損,為投資者樹立理性的交易紀律。數據顯示,美國股票市場交易額的一半以上是程序化交易,期貨市場程序化交易的占有量已經超過70%。然而,大數據金融算法在給投資者交易策略升級的同時,也帶來了風險升級,甚至造成嚴重的系統性金融風險。個別金融機構的大數據金融算法利用片面信息實施交易,給金融市場帶來集體恐慌的行為,被人們稱為“算法魯莽”。2013年4月23日,由于黑客盜取了美聯社的Twitter并發布了白宮遭遇襲擊的虛假新聞,道瓊斯工業平均指數隨之大跌150點,標普500指數和納斯達克綜合指數瞬間跟跌,紐約油價也隨之下跌。引發本次金融市場暴跌的根本原因就是美國大多數的對沖基金采用了大數據金融情緒算法策略。在我國,2013年8月16日的“光大烏龍指”事件,實際上也生動展現了大數據金融算法給證券市場系統性風險帶來的挑戰。
三、大數據金融算法的立法現狀與問題
(一)大數據金融算法的立法現狀
目前,我國對大數據金融算法的立法規范散見于法律、行政法規、規章以及金融監管部門一些規范性文件中。在法律層面,《網絡安全法》第四章和第六章專門規定了網絡運營者等主體在個人信息的采集和使用中的法律義務和法律責任,特別是網絡安全保護義務等規定,對大數據金融算法的運用起到了一定的規范作用?!睹穹ǖ洹返?034條明確了自然人的個人信息受法律保護,第1035條規定了處理個人信息的合法、正當、必要等基本原則,第1038條規定了信息處理者的信息安全保密義務。2013年修改的《消費者權益保護法》新增了第29條,規定了經營者收集、使用消費者個人信息的基本原則和基本要求,這些規定大部分被后來的《民法典》所吸收。
2020年7月2日公布的《數據安全法(草案)》第19條明確規定了重要數據管理和風險責任管控制度;第29條規定了數據采集的合規性原則;第30條規定了數據交易的可追溯性原則等。2020年10月12日公布的《個人信息保護法(草案)》在個人信息處理規則方面,特別規定對利用個人信息進行自動化決策的,應當保證決策的透明度和處理結果的公平合理。并且,個人認為自動化決策對其權益造成重大影響的,有權要求個人信息處理者予以說明,并有權拒絕個人信息處理者僅通過自動化決策的方式作出決定。另外,通過自動化決策方式進行商業營銷、信息推送,應當同時提供不針對其個人特征的選項。
在行政法規、規章和規范性文件層面,《征信業管理條例》明確了征信機構采集個人信息必須堅持本人同意原則,該條例還對征信主體的權利以及征信機構的義務作出了明確規定。2020年9月18日,中國人民銀行發布的《消費者權益保護實施辦法》對消費者金融信息保護作出了專門規定,從消費者金融信息安全權角度,進一步強化了信息知情權和信息自主選擇權。2018年4月27日發布的 《關于規范金融機構資產管理業務的指導意見》(銀發〔2018〕106號)(以下簡稱“《資管新規》”)規定了金融機構的算法備案義務,要求“金融機構應當向金融監督管理部門報備人工智能模型的主要參數以及資產配置的主要邏輯”。
(二)大數據金融算法法律規制存在的問題
總體來看,我國大數據金融算法立法仍十分薄弱。主要體現在:缺乏統一的立法理念和完善的大數據金融算法法律體系;大數據金融算法權利、算法義務、金融消費者的金融信息權利等不明確,算法救濟機制不完善;大數據金融算法內控和行業自律機制缺位;大數據金融算法共治體系尚未形成。
1.缺乏統一的立法理念和完善的大數據金融算法法律體系。金融法只有充分借助于法律理念的指引和金融法基本原則對金融立法、監管執法以及金融司法等各大環節的規范,才能最終產生價值釋放、化主觀為客觀、變理想為現實的結果[12]。目前,我國大數據金融算法立法散見于民法、行政法和監管部門的規范性文件之中。這些制度缺乏統一的立法理念,導致大數據金融算法的法律規制缺乏系統性、連貫性和協調性。比如,《民法典》和《個人信息保護法(草案)》在算法設計和運用方面,都涉及個人金融信息的保護問題,但《個人信息保護法(草案)》將個人信息的定義和范圍從《民法典》堅持的“識別說”,拓展到了“關聯說”,并且排除了“匿名化信息”??梢哉f,這在一定程度上直接擴大了個人信息保護的范圍。再比如,這兩部法律在對不完全行為能力人采集信息的同意規則方面也存在較大差異,《民法典》不問是否成年,只要屬于“行為能力不健全的自然人”就只能由其監護人同意,但《個人信息保護法(草案)》中的同意主體是“不滿14周歲的未成年人”,并不包括行為能力不健全的成年人。那么,14~18周歲的未成年人如果涉及個人金融信息同意規則的適用,應如何處理?法律并無明確的規定。同理,《民法典》《網絡安全法》《個人信息保護法(草案)》《數據安全法(草案)》以及相關的監管規定等在金融數據保護與算法治理方面,并沒有形成一個完整的、互補的、相互協調的法律體系。
2.大數據金融算法私法關系內容不明確,救濟機制不健全。目前,我國對大數據金融算法的法律規制實際上主要是一種間接規制,即通過對個人金融隱私權保護、個人金融信息保護、金融數據安全保護等來間接限制大數據金融算法的運用。換言之,立法并沒有將算法作為獨立的規制對象。誠然,對個人金融信息和金融隱私權的保護以及對金融數據安全的保護必要且重要,但圍繞包括大數據金融算法在內的算法法律關系的構建,乃是大數據金融算法法律體系的核心和基石。反觀我國現行立法,在法律的層面,并沒有清晰界定算法的概念、大數據金融算法權利、算法義務和算法法律責任等基本范疇。在與算法密切相關的個人金融信息保護上,對金融信息的法律屬性,立法上語焉不詳,司法實踐中也認定不一。有的法院在司法判決中直接以“一般人格權”對其進行認定,也有的法院以隱私權和名譽權對其進行間接保護[13]。因此,進一步明確以算法為核心的大數據金融算法法律關系的內容殊為必要。在消費者的權利救濟方面,我國法律并沒有規定算法侵權的舉證責任倒置規則,由于算法黑箱的存在,算法運用者牢牢掌握著算法設計權和算法解釋權,這給消費者通過訴訟保護自己的權益帶來極大的困難。同時,懲罰性賠償和精神損害賠償責任在算法民事侵權領域的缺位,導致金融機構違法成本過低,也是算法侵權屢禁不止的重要原因。
3.大數據金融算法自律管理體系不完善,算法風險自控能力不足。就大數據金融算法治理而言,最貼近算法和人工智能金融系統的主體就是算法開發者和算法運營者以及這些主體所在的行業協會。因此,算法自律對于大數據金融治理的意義尤其重大。從國外的自律管理經驗來看,美國計算機協會就要求算法開發者必須通過科學的方法檢驗其算法規則,并且記錄這些檢驗過程和運行效果,從而對其算法規則的可執行性和是否存在算法歧視等問題進行監測,并且鼓勵算法開發者對外披露算法檢測效果[14]。對于以金融機構為代表的算法運營者來說,歐盟高度重視其算法運營過程中的數據安全自律管理行為,要求除了一些小微企業之外,必須建立專門的數據保護機構和數據保護官(Data Protection Officer,DPO),數據保護官是金融機構必須設立的強制性崗位,主要承擔算法運營和數據安全保護的內部控制責任。就我國來看,現實中大量采用大數據金融算法的金融機構,尤其是一些城市商業銀行、農村商業銀行、中小券商等并沒有設立專門的數據保護機構和數據保護官,算法風險管理能力嚴重不足。并且,我國金融行業協會在算法的研發設計與風險測試的行業標準制定和出臺方面,參與也相對較少。
4.大數據金融算法監管體系滯后,算法風險協同治理能力較差。在大數據和人工智能時代,數據和算法基本上主宰了現代經濟與金融的主要活動。現代經濟的典型特征是數字經濟,現代金融的發展趨勢是大數據金融。無論是數字經濟還是大數據金融,數字抑或數據本身是客觀的,沒有任何價值倫理可言,但運算出數字或者數據的算法卻是人制定的,無疑,隱藏在算法背后的算法研發設計者和算法運營者的價值倫理,已經被編進或者輸入并且深刻根植于算法本身。由此,法律視角下的算法必須具有可責性和可解釋性。從金融風險的負外部性以及金融法的社會本位出發,對大數據金融算法實施適當的行政監管具有現實必要性和正當性。美國計算機協會出臺的《算法透明性和可問責性聲明》(Statement on Algorithmic Transparency and Accountability)明確提出了算法的可解釋性原則。2019年4月,美國眾議院和參議院民主黨議員推出的《算法問責法》(“The Algorithmic Accountability Act”) 致力于對人工智能機器學習中的偏見和個人敏感信息的使用問題進行法律規制,加強政府部門對自動決策算法的公平性、可問責性和透明性等問題的行政監管[15]。與美國類似,2018年5月25日生效的歐盟《通用數據保護條例》賦予了數據主體的“可解釋權”,歐盟各國數據立法也相應加強了對大數據金融算法的行政監管。目前,我國對大數據金融算法的行政監管相對滯后,同時,行政監管與行業自律的協同效應較差,給大數據金融算法標準的制定、算法黑箱、算法歧視、隱私泄露、算法魯莽等算法行為的治理造成天然的掣肘。
四、大數據金融算法法律規制的完善
(一)完善大數據金融算法法律體系
金融數據要素化已經成為現代金融發展不可阻擋的必然趨勢。繼黨的十九屆四中全會公報首次將數據從技術中獨立出來并納入可參與分配的生產要素以來,2020年3月30日和5月11日,黨中央、國務院先后發布《關于構建更加完善的要素市場化配置體制機制的意見》等文件,要求“加快培育數據要素市場”,“加強數據資源整合和安全保護,發揮數據資源價值”。金融數據要素化對現代金融法的金融安全觀和金融治理理念提出的新命題是,現代金融安全到底是一種相對安全還是絕對安全,如果堅持絕對安全觀,那么顯然就沒必要發展大數據金融,因此,大數據時代的金融安全應當是一種相對安全。利益平衡原則是數據立法的基本原則之一[16]。金融法應當秉承一種基于平衡協調的適度監管理念,即尋得金融數據要素化、產業化與金融數據安全的平衡。
以此為基本價值理念,重構大數據金融算法法律體系需要正確處理好有關個人金融信息保護、金融數據安全、大數據金融算法的各單行法律之間的關系。具言之,《民法典》“人格權編”專門規定了“隱私權和個人信息保護”,這是我國大數據金融算法運用中涉及到個人金融信息方面必須遵循的一項重要法律,但《民法典》對個人金融信息的保護主要是一種私法保護,并且是以人格權的形式對其進行保護。未來的《個人信息保護法》是一部公私融合的法律,除了私法保護的形式,還專門通過行政監管對大數據金融算法相關的個人信息侵權行為進行規制。兩法沒有效力高低之分,只有出臺先后之別,并且法律機制和手段各異。而《個人信息保護法》和《數據安全法》一個重點保護數據隱私,一個重點關注數據安全,兩者從不同側面共同構筑數據法學的基石。另外,《網絡安全法》是數據科學領域貫徹《國家安全法》關于總體國家安全的重要法律,在大數據時代,其涉及數據治理的問題將逐漸被《個人信息保護法》《數據安全法》所吸收并進行升級保護[17]。長遠看,應在《數據安全法》中加強對算法的規制,在人民銀行行將制定的《個人金融信息保護管理辦法》等其他下位金融專門立法中加強對大數據金融算法的法律規制,在適度監管的理念下,完善大數據金融算法法律體系。
(二)重構大數據金融算法私法關系
在算法侵權的場合下,完善大數據金融算法的權利、義務、責任體系,并構建科學合理的訴訟救濟機制,是大數據金融算法私法法治的重中之重。大數據金融算法私法關系的重構主要涉及兩大方面的內容,即通過完善《個人信息保護法》《個人金融信息保護管理辦法》《數據安全法》等,一方面重構金融消費者(數據主體)的金融信息權利體系;另一方面,明確大數據金融算法的概念、大數據金融算法權利、義務以及大數據金融算法法律責任。在正在征求意見的《數據安全法(草案)》中,有必要對算法治理的基本范疇予以明確規定。
大數據金融算法侵權與一般民事侵權具有較大的差異,突出表現在算法研發者和算法運營者對算法規則、數據、算法參數等信息的壟斷地位上,這是算法黑箱、算法歧視、隱私泄露等不法行為滋生的溫床。如果算法侵權按照一般民事訴訟“誰主張,誰舉證”的舉證規則,數據主體無疑將處于嚴重劣勢證據地位。為此,可以將過錯責任改為過錯推定責任,即首先推定算法研發者和算法運營者有過錯,由其承擔舉證責任來證明自己無過錯方能免責。另一方面,在大數據金融算法侵犯金融隱私、嚴重侵犯客戶資金安全并危及金融市場安全等情況下,可規定無過錯責任。并且,在發生算法歧視、隱私泄露等違法行為場合,其民事賠償責任不僅僅涉及財產責任,可視情形引入精神損害賠償以及懲罰性賠償,明確具體的賠償標準和方式。
在大數據金融算法侵權私人訴訟中,應當將算法運營者確定為法定的直接被告,因為金融消費者大多無從知曉算法的研發者以及人工智能系統的設計者,將算法運營者確定為被告有利于其獲得相應的賠償。對于因算法研發者等的過錯導致的侵權責任,算法運營者承擔賠償責任后可向其進行追償。另外,進一步完善大數據金融算法侵權群體性訴訟制度,對人工智能投顧、大數據征信、大數據保險、大數據信托、大數據理財等涉眾性侵權行為的治理大有裨益。
(三)完善大數據金融算法自律體系
數據治理的技術性和復雜性決定了其不可能完全依賴國家正式法律的制定[18]。對大數據金融算法的法律治理來說,無論其私法權利及其救濟體系如何設計,也無論監管機制如何完善,算法研發者和運營者將相關的法律制度內化于心、外化于行,才是控制風險的第一要務。這就決定了算法自律才是大數據金融風險治理和消費者保護的第一道屏障。一方面,可以強化大數據金融研發者和運營者的數據保護和算法檢測義務,增強算法運用的可靠性和安全性。《數據安全法(草案)》第25、27、28條已有設立專門的數據安全負責人(類似于DPO)和管理機構以及數據安全評估等方面的規定,但對于算法專員以及算法檢測方面的自律要求,尚無明文規定。并且,對于大數據金融算法的運用來說,還需要金融監管部門、金融行業協會相關制度的完善來推動自律體系的進一步完善。
大數據金融算法自律的另一個重要內容是,通過行業自律推動大數據金融算法標準的制定和大數據金融算法風險行業評估,并由此推動算法自律成果在行政監管和司法訴訟中的運用。比如,對于算法規則的研發行為而言,政府監管礙于其在算法專業性方面的欠缺以及涉嫌侵害算法知識產權等方面的顧慮,一般不宜對其進行直接干預,而銀行業協會、證券業協會、期貨業協會、證券投資基金業協會、保險業協會、銀行間市場交易商協會、互聯網金融協會等自律組織可以推動大數據金融算法標準的制定。同時,在對算法魯莽行為的法律規制過程中,行業協會出臺的“算法魯莽行為臨界值”可以成為行政監管的算法認證標準,也可以成為司法訴訟的重要參考指標。
(四)構建大數據金融算法監管體系
對于算法黑箱、算法歧視、價格操縱、隱私泄露、算法魯莽等大數據金融算法違法行為而言,單純通過自律機制或者私法救濟并不足以起到良好的治理效果,大數據金融算法監管體系的構建至關重要。在監管機構的設立方面,《資管新規》雖然已經規定了金融機構的算法備案義務,但并沒有明確到底向哪個部門負責算法備案。筆者認為,由于算法的運用面向的消費者群體甚為廣泛,并且大數據金融算法監管的目標主要是系統性金融風險的防范和金融消費者權益的保護,鑒于中國人民銀行負有維護金融穩定的職能,可由其來負責大數據金融算法的審查。同時,銀保監會、證監會等金融監管部門具有行為監管和微觀審慎監管職能,法律可規定金融機構在這些監管部門的算法備案義務。在大數據金融算法的監管功能和內容上,監管的第一要務是促進算法透明,但算法透明的主要內容并不是算法代碼的簡單公開,而是需要對算法代碼進行解釋和說明[19]。2018年5月25日生效的歐盟《通用數據保護條例》賦予了數據主體的可解釋權,但這種可解釋權并不是算法研發者對所有金融消費者無條件的直接解釋。在我國大數據金融算法監管的過程中,宜確立算法對消費者的有限公開原則,具體立法構想如下:
其一,所有的大數據金融算法,都必須接受監管部門的算法審查和備案。結合我國大數據金融的商業實踐,可以建立一種包括算法準入審查和算法運營審查兩相結合的算法審查機制。前者是算法的市場準入監管,后者是算法的市場運營風險監管,兩種審查機制的根本目的都是消除算法信息不對稱的風險,構建大數據金融算法風險審慎監管體系。其二,對于那些在處于壟斷地位的金融服務和產品中運用的算法、提供公共性的民生金融服務和產品中運用的算法、國家財政支持的金融服務和產品中運用的算法以及大型金融科技公司的金融服務和產品可能危及系統性金融風險的算法,金融監管部門可根據金融消費者的申請,在特定的范圍內要求其予以公開。對于這種公開,申請人必須承擔知識產權和商業秘密保護的法律義務。其三,申請公開的消費者必須同時在監管部門予以登記,當其違反保密義務并對算法研發者和運營者的合法權益造成損害時,應當承擔民事賠償責任,監管部門可對其實施行政處罰。其四,并不是所有的大數據金融算法都對金融消費者公開,但所有的算法都必須接受金融消費者和包括專家學者在內的一切社會公眾的監督。立法可以建立大數據金融算法舉報制度,大數據金融的運用具有空前的涉眾性和廣泛性,在算法涉嫌侵權和危及系統性金融風險的情況下,任何人可以向監管部門進行舉報,對查實違法行為的,監管部門對舉報者予以適當獎勵。
五、結 語
算法本身是冰冷的,他以自動編碼器、貝葉斯分類器、決策樹、分類與回歸樹、隨機森林、支持向量機以及多種關聯學習算法等形式表現出來,并以聯邦學習、多方計算等隱私保護技術為保障,不斷向金融產品和服務的眾領域進軍。但與此同時,作為金融產品和服務的主人而非奴隸的金融消費者,也正在面臨人格工具論的現實考驗。在我國確認金融數據要素化的大背景下,作為現代大數據金融核心底層技術的算法,由于直接關乎金融市場系統性風險的治理和金融消費者權益的保護,已經成為現代金融法治必須予以高度重視的規制對象。
對大數據金融算法的法律規制,必須在大數據思維的指引下,以適度監管理念構建完善的大數據金融算法法律體系,通過算法權利、義務、責任平衡配置、監管部門的算法強制、企業和行業算法自治、社會各界的算法監督機制的結合,形成大數據金融算法的多元共治格局。
參考文獻:
[1] Mcafee A , Brynjolfsson E , Davenport T H , et al. Big data: The management revolution[J]. Harvard Business Review, 2012, 90(10):60-68.
[2] 李勇,許榮.大數據金融[M].北京:中國工信出版集團,電子工業出版社,2016.73.
[3] 劉曉星.大數據金融[M].北京:清華大學出版社,2018.132-134.
[4] 許可.人工智能的算法黑箱與數據正義[N].社會科學報,2018-03-29(006).
[5] 袁康.社會監管理念下金融科技算法黑箱的制度因應[J].華中科技大學學報(社會科學版),2020(1):102-110.
[6] 張愛軍,李圓.人工智能時代的算法權力:邏輯、風險及規制[J].河海大學學報(哲學社會科學版),2019(6):18-24.
[7] 崔靖梓.算法歧視挑戰下平等權保護的危機與應對[J].法律科學(西北政法大學學報),2019(3):29-42.
[8] Executive Office of the President. Big data: A report on algorithmic systems, opportunity, and civil rights[EB/OL].https://www.docin.com/p-2026154775.html, 2016-05-01.
[9] 張莉.數據治理與數據安全[M].北京:中國工信出版集團,人民郵電出版社,2019:99-101.
[10]黎四奇,苗羽亭.大數據背景下金融隱私權的保護[J].財經理論與實踐,2019,40(4):151-155.
[11]維克托·邁爾-舍恩伯格、肯尼斯·庫克耶.大數據時代:生活、工作與思維的大變革[M].盛楊燕、周濤,譯.杭州:浙江人民出版社,2013.197.
[12]劉輝.金融稟賦結構理論下金融法基本理念和基本原則的革新[J].法律科學(西北政法大學學報),2018(5):107-119.
[13]張繼紅.大數據時代金融信息的法律保護[M].北京:法律出版社,2019.453-462.
[14]ACM US Public Policy Council. Statement on algorithmic transparency and accountability[EB/OL].https://www.acm.org/articles/bulletins/2017/january/usacm-statement-algorithmic-accountability, 2017-01-12.
[15]The algorithmic accountability act [EB/OL].https://www.wyden.senate.gov/imo/media/doc/Algorithmic%20Accountability%20Act%20of%202019%20Bill%20Text.pdf, 2019-04-01.
[16]牛彬彬. 個人數據權效力體系研究[J].江西財經大學學報,2020(5):134-147.
[17]何淵.數據法學[M].北京:北京大學出版社,2020.6.
[18]沈巋. 數據治理與軟法[J].財經法學,2020(1):3-12.
[19]徐鳳.人工智能算法黑箱的法律規制——以智能投顧為例展開[J].東方法學,2019(6):78-86.