吳松波
(中國社會科學院大學 北京 100020)
算法時代的開啟,使得數字技術不僅改變科技,也在改變著生產方式,改變著商業模式以及人與人之間的關系。算法已不僅僅是特定的技術,更是社會權力運行體系中的重要變量。掌握算法的企業和組織利用技術優勢,把控社會的信息及資源,引導政府的決策,甚至進入司法程序之中,形成了一種非國家力量的“準公權力”。所以,在如今的人類社會,由于算法權力的興起和異化出現了“修昔底德陷阱”。人工智能時代背景下的各類數字技術為現代社會治理拋出了挑戰。算法的日益強大讓人類感到恐慌。正因為如此,當算法技術深度嵌入人類生活之時,算法權力將傾軋個人權利,算法權力和個人權利之間的沖突和平衡,是憲法時刻下的嚴峻挑戰。在這樣的沖突中,算法權力的治理路徑應當符合憲法價值,不得背離現代國家的要求,提防技術對人的統治。
在人工智能時代的背景下,數據的龐大與繁雜遠遠超過了人工算力的范疇,我們只能通過只能智能算法對數據進行分析。然而,智能算法本身不能生產任何目的,它只能作為手段在大量數據分析下尋找問題的最優解。隨著人工智能的持續發展,人類將進入一切皆可計算的時代。大數據是當今時代最為重要的資源,而數據掌控者往往是最先進入這些領域的企業,算法又依靠著大量數據開始運行,故這些企業可以利用數據和算法把控社會資源,從而作出最利于自己利益的決策甚至可以影響政府的公共政策。算法權力就是這些人工智能技術發達且擁有大量用戶數據的企業利用自身算法的先進性和隱蔽性來對公民、社會甚至國家產生影響的一種力量。馬克思·韋伯曾指出,“權力意味著在一種社會關系里,哪怕是遇到反對也能貫徹自己意志的任何機會,不管這種機會是建立在什么基礎上”。可見,權力根植于支配他人并使他人受其影響和控制之中,是一方對另一方的支配與控制。算法權力就是基于其要求的專業水平高、準入門檻高以及其內容的隱蔽性來徹底地實現自己的意志。故算法權力是一種算法支配者通過自身的技術優勢在算法運行的過程中影響和調控算法相對人的新型技術性權力。算法權力的運行邏輯就是利用算法的隱蔽性來使得算法相對人將其自主支配的決策權讓渡給了算法支配者預先設定好的算法技術之中。
現代憲法的根本原則就是維護公民的自由與平等,同時現代憲法精神也一直不斷地強調隱私權和個人信息保護,而在算法時代里,這些構成我們賴以生存的價值與基礎很有可能在無法察覺間遭受損害。
“人的尊嚴”的憲法價值內涵主要來源于康德所述“人是目的,不是手段”。人的尊嚴是一種寶貴的憲法價值屬性:尊重和保護人的尊嚴是構成整個人權系統的規范基礎。堅持人的主體性,禁止將人當作客體看待,秉持“人是目的”的原則,這就是“人的尊嚴”價值的主體要求。公民作為具有獨立自由意志的主體應當享有得到尊重的權利,“人的尊嚴”的基本價值取向就是保護這種權利。然而,算法權力的興起將給“人的尊嚴”的憲法價值帶來前所未有的挑戰。
一些權勢集團能夠憑借著“天然優勢”形成對公共領域的“權力凝視”。由于算法在設計操作上的不透明性容易被一些權勢集團所利用,通過影響個體行為以達到自身利益。即在算法運行過程中,從數據輸入到結果輸出,存在著由算法支配者所掌握的隱層空間,所以算法支配者可以通過這種隱層空間來達到自身的利益和目的。在這個過程的同時,作為“人的尊嚴”的價值也將被算法侵害,例如美團、餓了么等外賣平臺企業就通過算法的運用來對勞動力進行最大化壓榨,以達到平臺企業利潤最大化的目的,與其說外賣騎手“被困在了算法里”不如說這是算法支配者運用算法權力對勞動者個人權利的傾軋。一張精心設計的算法網絡將配送員包裹在內,無法自拔。在外賣平臺企業的算法邏輯中只顧利潤的追逐,不顧人的主觀能動性的局限性,一味地按照算法最優解給騎手派單,實現對騎手精準的控制。這不僅是漠視憲法“人的尊嚴”的價值,同時也是資本對勞動力的壓榨。在算法系統里,只有數據,并沒有人的存在,我們只是一個0編碼的碳基人,就更無法談上對人的尊嚴的價值判斷。
算法權力在運行的過程中很有可能形成算法歧視,算法作為預測分析技術,可能會因為內置性編碼凝視,有限、不相關或不正確的訓練數據造成算法歧視,將給平等權保護帶來挑戰。
在海量數據的分析下,算法支配者可以通過算法捕捉每一個公民的畫像,即形成公民的“數字人格”,這些數據有可能相伴公民的一生。這種“評分社會”將使得個人權利的自我救濟和保護在算法權力面前無法伸張。在算法權力的支配下,根據支配者的不同目的來獲取公民的“數字人格”,這就不可避免地將公民劃分成了“三六九等”。常見的是,算法通過用戶數據分析用戶的行事風格及愛好,對不同群體進行分類與身份建構,從而量身定制反映其支付意愿的價格,實現同物不同價的價格歧視。同時這種算法歧視也將排斥個人在社會生活中發展的多樣性,由于算法黑箱的存在,算法本身也并非純粹客觀的數據處理技術,其存在諸多不為使用者知曉的因素,我們讓算法代替自己做出選擇,就將減少我們自身發展的可能性。其實算法在替代我們做出選擇之時,我們就減少了自己人生的發展際遇。
現代憲法圍繞著限制公權力做了一系列的努力。“公權力”屬于他賦權,我們之所以愿意走進這個社會接受這個政權的統治并為此讓渡自身的權利,那是因為我們相信這是一套好的社會制度,是可以帶領人民走向富強的政權。這就是所謂政權合法性的來源,是我們所賦予其的。如今在算法時代之下,算法權力的運行并不屬于“人們的賦予”,而是自賦權,從算法被帶有目的性地設計運行后起,它便有了這種權力。因為算法的算力優勢使得政府機關在決策過程中,需要算法依賴算法來提高自身的效率,這種技術依賴性使得算法權力在政權運行的角落里逐漸嵌入“公權力”。算法決策正在代替行政、司法決策。且有的人工智能技術日漸增強,賦予了非國家行為者特別大的權力。然而,算法權力為自賦權,其并不具有權力的合法性來源,一旦算法權力嵌入或入侵“公權力”,個人權利難以得到保證或者說個人權利難以對抗算法的黑箱化,造成個人權利和算法權力的失衡。
人是目的,不是手段。以人為本才是現代社會發展的前提和基石,尊重人的尊嚴,強調人的價值是現代憲法價值的精神。雖然,算法的時代將不可避免地到來,站在經濟發展和社會公共利益上的角度來說,算法的發展是合乎理性的選擇。但是,人在算法面前不能保持主體性的話,如若算法的發展不以人為本,不受這些憲法價值的制約,其發展很有可能變成洪水猛獸,吞沒基于憲法價值所要求的一切。也意味著現代憲法體制對算法發展和科技發展的退讓,一旦退讓,我們個人的自由與權利將沒有持續存在的空間。2019年4月8日,歐盟委員會AI高級專家組制定并發布了《可信AI的倫理指南》,其中將人的尊嚴作為人工智能發展的核心價值,提出了可信AI的七項原則,其中包括人工智能不應該踐踏人類的自主性,人們不應該被AI系統操縱或脅迫,并且,人類應該能夠干預或監督軟件作出的每一個決定。只有先設定好算法權力運行的限制機制,算法權力才能得到健康的發展。缺乏憲法價值的指引將導致技術的發展背離“人的關懷”,背離現代國家的要求,這樣的技術發展將是無序的野蠻生長,將不受我們的控制。人的主體性地位必須貫穿科技發展的始終。
算法倫理的基本價值取向應當是是保障人的價值和尊嚴,充分尊重個人權利。智能技術對大量信息的掌握會導致人類失去隱私和主體性價值,受到算法支配者效率為主算力邏輯的引導,算法設計者和開發者往往將注意力集中在吸引甚至迎合用戶上。這種偏好原則可能將用戶鎖定在“信息繭房”中,從而忽視了用戶的數字福祉(digital well-being)。故需要進行算法倫理的設計從算法設計的基礎上引導算法邏輯的走向。算法倫理的設計首先要將人視為有權利的及有價值的個體,尊重人的自由和人格。其次要保證信息的完整性和私密性,用戶隱私需要有所保障。算法倫理是從源頭上限制算法權力的有力手段,算法倫理的合理設計能夠降低控制算法權力的成本,對算法倫理應當投入更大的關注程度。
政府的算力如若得不到強化,其在監管算法及算法權力面前是無力的。平臺企業聘請的人工智能專家都被支付了巨額的薪水,政府是無法在薪酬與這些致力于發展人工智能的企業媲美的。所以政府沒有強大算力支撐,其也不了解這些企業的算法開發和算法運行,無法實現有效的監管。只有政府擁有一流的人工智能專家,能夠了解算法的開發與運行,才能使得這些掌握大量數據的平臺企業套上法律的韁繩。
首先,政府要加大對算法設計和研發的重視,進行政策扶植,建立算法研發科技中心,將智能算法系統的核心技術掌握在政府手中,避免演變為逐利的工具,確保國家在智能轉型過程中的技術安全。從現有政府使用的智能治理系統的研發主體來看,表面上是不同層級的政府聯合有關企業進行研發的,但智能治理系統的核心算法是由少數企業研發出來的。為了有效降低國家和社會對于主導算法設計和研發過程的資本的技術依賴,國家必須加大對算法設計和研發的投入力度,來打破企業對少數企業的算法技術依賴。其次還應當通過建立一些糾偏機制來獲得與企業共同監管算法的空間。例如可以建立風險監控機制,對屬于網絡關鍵信息基礎設施的網絡平臺企業,應當要求其和政府的算力部門共同建立針對算法失靈、算法崩潰的應急預案機制。故從算法技術上進行反壟斷,打破少數企業的算法壟斷是政府強化算力的重點。反壟斷不僅體現在技術研發上,也應當有配套的法律制度,雙管齊下來打破技術壟斷,強化政府算力。
面對人工智能時代下已經來臨的憲法時刻,我們更需要憲法價值的指引。同時,隨著算法在各領域深度應用從而涌現出“算法歧視”“算法黑箱”“算法獨裁”等諸多問題。算法支配者通過算法過于人的算力以及算法黑箱的存在將自己的意圖隱蔽的嵌入算法之中試圖形成新的行為規范而直接或間接調控算法相對人行為使算法權力最終得以生成。普通的算法相對人無法抵抗掌控算法權力的算法控制者和算法設計者的侵害,所以我們需要通過為算法相對人設置權利來平衡雙方不平等的地位,增加算法相對人的博弈資本,使其免受算法權力的侵害。只有跳脫出技術崇拜,充分意識到技術運用的非理性,在以尊崇憲法價值為核心的導向去構建和完善算法運用的規制路徑才能捍衛人的尊嚴及主體性。