黃曉偉 天津大學科學技術與社會研究中心教師
隨著近年來人工智能安全與倫理問題的逐漸暴露,全球新一輪人工智能政策部署的重點轉向重新平衡創新與監管之間的關系,更加注重通過協同治理實現人工智能的健康發展。2019年G20大阪峰會前夕成為各國和地區發布人工智能治理政策原則、參與人工智能風險全球治理的一個窗口期,諸如日本的 《以人類為中心的人工智能社會原則》 (2018年12月)、歐盟的 《人工智能道德準則》 (2019年4月)、 《OECD人工智能原則》 (2019年5月),以及 《G20人工智能原則》 (2019年6月)等。2019年6月17日,我國也發布了 《新一代人工智能治理原則——發展負責任的人工智能》,提出了和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協作、敏捷治理的八項原則倡議。
縱觀上述各個政策文本,如何治理數字化經濟發展中的互聯網平臺壟斷問題,已經成為近期人工智能風險全球治理的一大難題。筆者從風險社會理論出發,嘗試剖析互聯網平臺壟斷問題形成的根源,并探討現階段治理這一社會問題的務實思路。
作為支撐數字化經濟的 “基礎設施”,互聯網平臺 (以下簡稱 “平臺”)通常是指那些促進兩個或兩個以上的群體之間的價值交換趨于便利化的中介。
從技術層面看,平臺的技術基礎是海量數據與智能算法。平臺的產生受益于21世紀以來人工智能的突破性進展,其技術創新的基本流程是 “數據采取—數據標注—機器學習—算法模型—識別測試—場景應用”。其中,海量數據是一種服務于平臺的原材料,智能算法是海量數據的提取裝置,據此構建的技術創新生態系統產生了強大的經濟威力。
從經濟層面看, “網絡效應”使得平臺企業具有壟斷的自然傾向。平臺依賴于 “網絡效應”,即特定平臺上的用戶越多,平臺對其他人而言就越有價值。在經濟學意義上,平臺憑借其數據集聚優勢,創造了一個 “雙邊市場”:一方面對用戶個人免費,用免費服務換取用戶的個人數據,僅需要較低的獲客成本;另一方面對其他公司收費,平臺迅速將用戶數據轉售給另一類客戶用于價值開發,由此創造出一種不同于傳統 (管道型)線性價值鏈的新型 (平臺型)商業模式[1]。但是,多個平臺間競爭的結果往往是走向 “贏者通吃” “一家獨大”的平臺壟斷局面,而平臺壟斷者則依靠黑箱化的智能算法成為 “數據寡頭”。這里的 “黑箱”隱喻折射出平臺競爭時代的一個悖論:無論是從寬度還是廣度而言,數據的延展速度都非常驚人。然而,有些與外行公眾具有利害關系、能夠產生重要影響的信息,卻只有那些理解算法模型的 “局內人”才能獲得[2]。
基于上述分析,平臺壟斷就不能僅僅是技術問題,或者經濟問題。那么,平臺壟斷在何種意義上成為社會問題,并需要社會范圍的集體行動加以解決呢?從風險社會理論分析,一旦公眾不幸暴露于平臺壟斷導致的風險之中,算法處理數據過程的不透明性可能導致責任主體模糊、問責機制缺位等 “有組織的不負責任”問題[3],進而加劇公眾對平臺方、監管方的不信任。因此,在一定程度上,平臺壟斷問題成為一大社會問題,意味著 “黑箱化風險社會”的來臨。智能算法將更加廣泛但隱秘地參與到人類的決策過程中去,在推動熟人社會加速轉向陌生人社會的同時,也助長了社會運行與治理的不透明性,侵蝕著公眾對社會的信任基礎。
當前平臺壟斷問題產生的根源何在?這需要從平臺的技術基礎中去探究。在市場經濟條件下,市場競爭這只 “看不見的手”在資源配置過程中起著決定性作用。然而,當市場經濟進入數字化時代,消費者日常生活的各個方面都可以轉化為海量的數據資源,智能算法則貫穿了數字經濟的各個要素和全流程。因此,市場競爭的作用正在悄悄地被一只 “數字化的手”所取代,而后者顯然是一種受控于人類的技術力量。正是在它的作用下,市場上出現了越來越多的反競爭性平臺壟斷行為,而這往往是由 “算法共謀” (Algorithmic Collusion)導致的。
共謀是競爭對手之間共同實施的、可能損害消費者利益的團體利潤最大化策略行為。在數字化時代,算法共謀是將以黑箱化為典型特征的智能算法作為促進共謀的技術因素,從而導致更為隱蔽的新型共謀。根據智能算法所發揮的作用以及導致的不透明程度,英國學者阿里爾·扎拉奇 (Ariel Ezrachi)等區分出四種算法共謀機制:信使型共謀,軸輻型共謀、預測型共謀、自主型共謀[4]。
(1)信使型共謀的隱蔽程度較低,是把智能算法用來執行人類共謀限制平臺競爭的意圖,其角色類似人類的 “信使”。例如民航公司之間可能利用其電子票務系統傳遞價格信息,彼此暗示漲價。這種利用信息技術手段強化現有共謀效果的方式是人類意志在技術層面的延伸,智能算法不過是輔助人類共謀的工具,隱含了一種工具論的算法觀。
(2)軸輻型共謀是指同行業的多個市場對手 (輻)使用了同一套動態定價算法 (軸),該算法給出的價格將成為行業內賣家公認的市場價格。其中,定價算法的開發者作為一個樞紐中心,其任務是策劃全行業范圍內的共謀,從而實現最高定價。例如優步、滴滴等網約車平臺運用獨家的定價算法決定了每一筆出租車服務價格,形成了事實上的 “算法壟斷”。
(3)預測型共謀更為復雜,定價算法充當了企業高管的代理人角色,持續監控市場價格的變化,并根據競爭對手價格的變化與市場數據的更新不斷調整自己的定價。例如高頻交易公司為了在數據傳輸速度上領先對手極小的時間差,不惜投入巨資用于技術研發,以捕捉外匯市場中的價格差從而攫取暴利,可能引發 “閃電崩盤”的系統性風險。由于全行業采用相似的定價算法,企業行為之間相互依賴,更容易產生平臺壟斷。
(4)自主型共謀最為棘手,在機器學習過程中,算法自發找到了優化利潤的途徑。信息技術手段好比開啟了 “上帝視角”,能夠獲取全局視野的商業行動。當智能算法的功能不再局限于定價并進入更多市場時,消費者甚至可能察覺不到市場中的價格操縱力量。這種共謀形式預設了自主論的算法觀,盡管擁有自主學習與決策能力的復雜算法尚處在思想實驗階段,但其潛在危害不應該被低估。
盡管算法在上述共謀機制中發揮的作用有所不同,但需要反思隱含其中的工具論或自主論算法觀,更加對稱性地看待人類與算法在決策過程中的角色與責任。筆者認為,在行動者網絡理論的視域中,算法共謀風險是人類行動者與非人類行動者相互作用的產物。人類已經被納入一個受算法驅動的復雜網絡中,算法作為非人類行動者參與到人類的決策過程中[5]。算法為人類行為賦能,但受所輸入數據的質量以及算法模型本身的限制,內在地嵌入了人類正面或負面的價值觀,并能動地制造著各種風險后果。
工業化時代的風險治理主要依賴屬地化管理的條塊分割體制,但數字化時代的風險生成在時間和空間上往往是分離的, “有組織的不負責任”現象有增無減。特別是,如今人工智能技術迭代升級的速度大大超過了現有治理主體的處理能力或現有治理規則的適用范圍,導致人工智能技術在一定時期內處于無約束發展的局面。
平臺壟斷問題是人工智能技術發展到當前階段引發的一大社會問題。盡管我國政府對數字化經濟總體上采取 “包容審慎”的監管原則,但這并不意味著對互聯網平臺反競爭性的市場行為放任不管,或者一味地放松監管。在人工智能治理體系尚不完善的現階段,多只 “看得見的手”之間的協同治理是破解平臺壟斷問題的務實思路,以多元參與的透明化舉措遏制平臺無序發展導致的黑箱化趨勢。
首先,數據壟斷是協同治理的重點。海量數據是數字化時代的戰略性資源,是平臺形成信息優勢地位的先決條件。監管部門應該深入調研不同行業的市場集中度情況,不僅要考察獨角獸企業的營業額,也考察其依賴數據擴張的交易額情況。要增強用戶對個人數據的控制范圍,尤其警惕那種旨在實現平臺壟斷的數據驅動型并購行為,防止平臺濫用其市場支配地位,在未經知情同意的情況下就收集用戶數據。國家要推動公共數據的開放共享和基礎數據的互聯互通,減少數據孤島和數據壁壘。
其次,算法壟斷是協同治理的難點。定價算法是平臺得以實施共謀的關鍵技術手段,由算法驅動的市場策略使一些核心平臺企業成為最大受益者。誠然,算法壟斷的治理面臨不少技術上和制度上的現實阻礙,但監管機構應該主動探索對平臺的事前預防性監管試點,加強對平臺定價算法的備案與審查,引入用于監測平臺價格波動的人工智能技術,逐步改變問題倒逼式的事后監管局面。同樣重要的是平臺企業自身的責任建設,平臺企業在保護自身算法模型知識產權的條件下,應該向相關監管機構和公眾進行必要的信息披露。
最后,話語壟斷是協同治理的盲點。從政策落實角度看,各國人工智能治理原則普遍缺少關于公眾參與機制的設計。客觀地講,當前的人工智能風險治理原則還只是精英共識,在執行過程中甚至有可能淪為技術精英的專家話語壟斷。筆者認為, 《新一代人工智能治理原則》下一步的重點應該是推動行業自律和公眾參與,使得精英共識邁向社會共識。在平臺治理問題上,人工智能行業協會、平臺企業應該將公眾利益優先、負責任創新等原則進一步細化為從業人員可操作的行為規則;學術界應該暢通自然科學與社會科學間的對話渠道,深化對人工智能相關法律、倫理和社會問題的研究,持續開展面向公眾的風險溝通;公眾應主動提升 “數字素養”,樹立人機協同共生的前瞻意識,并在風險面前保持合理的懷疑精神。
綜上所述,互聯網平臺作為支撐數字化經濟的關鍵基礎設施,在廣泛增進公眾利益和社會福祉的同時,在一定程度上也預示著 “黑箱化風險社會”的來臨。海量數據與智能算法相結合的威力使得市場競爭這只 “看不見的手”逐步為 “數字化的手”所取代,較為隱秘的新型算法共謀機制將導致平臺壟斷現象向更多行業擴散。由于目前人工智能風險的全球治理體系仍不健全,破解平臺壟斷問題的務實思路是推動政府監管、平臺有為、行業自律、學術對話、公眾參與等 “看得見的手”之間的協同治理。