魏廣萍
(華東政法大學 經濟法學院,上海 200050)
隨著大數據和人工智能的發展、算法社會的到來,算法對運動員產生的影響越來越大,逐步成為社會關注的熱點問題。算法作為執行計算的基礎,通過技術設計輸出結果,其過程不公開透明,其結果具有決定性,深度影響社會生活的方方面面。算法積極介入體育場景,從運動員訓練和比賽中的競技表現提升情況到運動員相關數據的商業化利用,算法起到決策出更優訓練或比賽方案的作用。如:數據收集者在時域上跟蹤一些關鍵點以記錄人體運動[1],獲取準確的運動員動作反應信息,將數據記錄、集合形成具有參考性的數據庫;以數據庫為基礎,分析運動員的動作行為、活動方式和位置信息,實現目標跟蹤[2],并對運動員的下一步訓練計劃做出提示。同時,算法與運動員健康信息分析相結合,深度嵌入體育訓練和比賽,給運動員健康信息保護帶來諸多挑戰。算法社會下運動員作為“強信息主體”[3],面臨過度商品化及其健康信息保護不平等、人體極限生物性特征暴露等問題。
本文以分析運動員健康信息的內涵、處理類型和保護價值為出發點,指出算法危機給運動員健康信息保護帶來的核心挑戰;分析運動員健康信息保護的傳統路徑,探究不同類型個體賦權理論的形成機理、治理效能與理念轉向;基于理論和現實問題,結合現有規范,提出運動員健康信息保護制度構建的基本原則、實現路徑和初步方案。
算法對運動員大數據價值的深度挖掘引發焦慮,算法權力控制下的不安全性因素使社會充斥著算法危機。算法具有智能化和自動決策的特征,依托數據收集和算力支持,推動數字體育和深度分析技術的發展。作為計算機執行計算或解決問題時的一系列指令,算法是計算機運行的基礎,也是所有人工智能系統的根本[4]。然而,算法呈現出的現實圖景并不理想,應用于體育場景的算法“黑箱”、算法歧視、算法“暴政”以及算法設計中的價值預設使運動員健康信息保護的風險進一步加劇,需要制度積極干預[5]。目前,我國法律制度對運動員健康信息保護中的法律關系缺乏特殊性規定,且一般規定在體育場景下的適用存在模糊性,而運動員健康信息反映的生物性特征具有特殊內涵,因此,需要結合我國現有制度,明確其處理類型和保護的法律價值,以分析運動員過度商品化及其健康信息保護不平等、人體極限生物性特征暴露等算法社會下運動員健康信息保護的核心挑戰。
算法社會下運動員健康信息保護具有特殊性,運動員健康信息屬于個人信息中的敏感部分,同時也被看作運動員訓練或比賽數據的組成部分。算法在數據權利生產中處于中心位置,數據價值以算法為核心,經過算法收集、加工、處理后的衍生數據集合具有價值密度高的特征[6]。算法在具體體育場景下決策出更優的訓練或比賽方案,這對自動化決策的公開性、公平性與可信任程度要求極高。算法危機下運動員健康信息保護需明確其內涵、處理類型以及保護價值。
(1)算法社會下運動員健康信息保護需要明確運動員健康信息的內涵。運動員在訓練和比賽中具有一定程度的勞動者身份屬性,運動員健康信息與雇員的生物識別信息均屬于個人敏感信息。雇員生物識別信息是為了企業需要或在職場空間中被收集的,與雇員生理特征相關聯,能夠標示雇員身份特征的個人敏感信息[7]。企業應對勞動者隱私信息的獲取和使用嚴格限定在法定范圍內,使企業智能化勞動管理既尊重勞動者在隱私信息上的自主決定權,又基于合同實現勞資合意[8]。
算法社會下運動員健康信息保護涉及多方主體,主要包括:①作為個人健康信息的來源主體,運動員是被收集者;②從廣義上而言,運動員健康信息的收集和處理主體是與運動員之間達成相關協議、對運動員的訓練和比賽發揮一定指導和監督作用的組織和機構,如體育俱樂部、體育行政部門、各級體育協會、體育賽事機構等;③算法控制者作為第三方技術主體,負責運動員健康信息算法的技術研發,為收集和處理者提供算法設計方案,能夠掌握所有收集和處理者所掌握的運動員健康信息,其提供的自動化決策算法對運動員具有決定性影響。基于此,本文所涉運動員健康信息指運動員在訓練或比賽過程中產生,能夠反映其健康情況和人體極限狀態下生物性特征,被數據收集和處理者、算法控制者獲取并通過語言文字、圖像、視頻等形式表現出來的數據。
(2)算法社會下形成的算法權力通過對運動員健康信息的深度分析和挖掘,產生多種運動員健康信息的處理類型,干預運動員的訓練和比賽,為數據收集和處理者、算法控制者帶來經濟利益。算法權力通過引導主體能動性和干預主體行為,產生控制、干預現實和未來的可能性[9]。
處理后的運動員健康信息主要被運用于以下3個方面。①監測與預防運動員傷病。數據收集者通過對運動員肢體、技巧、動作等數據的分析和監測,掌握運動員健康信息,實現對運動員傷病風險的智能化管理。如體育組織通過對運動員肌肉類型和生活習慣等信息的前期數據收集組建數據庫,預估每個運動員的受傷風險、傷病情況診斷、恢復情況等[10],對運動員安全和受傷的預防起到關鍵作用[11]。研究[12]發現,運動傷病預防相關的數據分析服務平均可減少球隊約40%的傷病時間,幫助運動員了解其傷病變化的可能性,輔助教練員調整訓練或比賽計劃。②提升運動員競技比賽成績。算法控制者通過對運動員動作數據的匯總、分析、處理,自動決策出適合運動員身體狀態的運動方案,實時調整,提高比賽勝率。動作識別技術通過收集運動員日常訓練中以數據形式為載體的信息,分析運動員的薄弱環節,優化其競技狀態和技巧表現。如:集成了各種傳感器的GPSPORT可穿戴設備可實時監測運動員的身體狀態,實現對運動員體能和戰術的分析[11];基于足球運動員跑動、鏟球、位置、控球時間等被記錄的數據點可進行運動狀況分析,并形成比賽數據報告在賽后提供給教練員[13]。③商業化利用。數字時代權力的來源形式發生變化,大數據、人工智能和算法的集合代表新型權力的形成。算法設計中的不透明性和價值預設使運動員健康信息極易被過度商業化利用。互聯網上的連接都可以被轉化為數據,進行跟蹤、記錄、分析和預測,網絡會因商業模式和技術的發展影響個體社會行為和法律概念[14]。運動員健康信息的商業化利用能為算法控制者帶來經濟利益,符合數字時代商業運作模式的發展規律,將隨著人工智能的發展、大數據量級的增長、算法和算力的升級演變為更深層次的使用需求。
(3)算法社會下數據收集和處理者、算法控制者對運動員健康信息進行處理,需要重新梳理運動員健康信息的保護價值。①運動員健康信息保護具有保障運動員人格尊嚴和隱私不受侵犯的價值。運動員處于社會共同體中,既具有個體性也具有社會性特征,保護其健康信息是對運動員自我人格的保護。運動員對其健康信息享有自由支配的權利,是保護其人格尊嚴價值的體現。同時,運動員健康信息作為算法自動決策的數據基礎,由多方主體掌握,這使其泄露風險增強,導致運動員人格和隱私利益受到威脅。運動員健康信息保護的法律價值在于保護運動員人體極限生物性特征信息免于被泄露和濫用,促進運動員人格獨立,這是算法社會下保護個人主體性的必要價值追求。②運動員健康信息保護具有反對算法歧視、保護主體間平等的價值。算法歧視具有隱蔽性和無意識性特征[15],算法經由人主觀能動性的選擇設計而成,其中隱含著設計者的價值判斷[16]。算法控制者通過算法中的價值預設侵犯運動員健康信息的隱私價值,以及主體間的平等價值。運動員與算法控制者之間掌握的數據和信息不對稱,使運動員處于弱勢地位。算法控制者通過自動決策對運動員健康信息的處理是對運動員“勞動過程”中產生的健康信息的自主性侵犯,違背了運動員人身、人格發展的精神內核,使其與算法控制者之間地位不平等,應賦予運動員防御性權利以實現對主體平等價值的保護。
通過運動員健康信息進行傷病分析、成績預測和商業使用等使其人格尊嚴、隱私和平等保護的法律價值受到挑戰。算法社會下存在運動員過度商品化及其健康信息保護不平等、人體極限生物性特征暴露等問題,而我國現有法律制度難以解決這些特殊問題。
2.2.1 運動員過度商品化及其健康信息保護不平等
算法使運動員健康信息具有交易性和流通性,造成運動員趨于商品化和處于弱勢地位,導致其作為人的主體性被消解,處于不平等地位,且現有法律規定中運動員健康信息的基本概念與內涵較為模糊。①運動員健康信息的收集和使用增加了其商品化程度,帶來健康信息泄露風險。商業化程度越高的體育運動對人工智能、大數據和算法的需求越迫切,如有研究[17]發現,體育俱樂部高管通過數據收集可以在與運動員談判中占優勢,也可為聯賽提供新的數據來源,并將其出售給第三方以獲取商業利益。尤其在體育博彩行業,運營商都在尋找收集信息的機會以獲取商業利益。算法對運動員健康信息的深度分析減少了運動員因傷病減損職業生命周期導致對比賽獲勝率的影響,這也可轉化為算法控制者的經濟利益。但相對于復雜的人體,目前收集的運動員數據有限,而這些并不全面的數據正在變成衡量運動員的重要指標,加劇運動員的商品化[13]。②運動員與數據收集者、算法控制者掌握的信息不對稱,使其處于弱勢地位,權利與義務關系模糊造成不平等問題。算法控制者通過對運動員健康信息的分析,實現對其職業生涯的全程監控,增強了對訓練和比賽過程的“信息性控制”[14]。如有研究[18]發現,不同質量下男子抓舉動作的生物力學特征是通過拍攝運動學數據,并使用數據處理軟件和分析計算軟件進行處理和計算而得的。
目前,我國在法律概念的界定、責任劃分、規范的相互銜接、個體權利的有效實現等方面的制度安排,并不能回應運動員過度商品化及其健康信息保護不平等的問題。運動員健康信息可以適用一般性法律規定。《憲法》第33條關于國家尊重和保障人權的規定是運動員健康信息保護的基礎性法律規定。《民法典》關于個人信息的相關規定對構建運動員健康信息的私法保護體系具有基礎性作用。《民法典》第1032條、第1034條關于個人信息和隱私在“私密信息”范疇內的概念發生重合,第1033條對處理“秘密信息”侵害隱私權行為的情況加以規定。運動員作為勞動者,可以依據2018年修訂的《勞動法》第3條、第4條關于勞動者權利保護的原則性規定,以及2012年修訂的《勞動合同法》第8條關于用人單位的告知義務的規定等,保障職業運動員健康信息受侵害后的部分權利。《網絡安全法》《數據安全法》《個人信息保護法》等法律制度的出臺逐步確保自然人個人信息的安全,為運動員健康信息保護創造更好的法律環境。《網絡安全法》第40~45 條規定了關于個人信息保護義務規則的9類情形,第76條也規定了“個人信息”的定義。此外,全國人大常委會法制工作委員會曾對“私密信息”做出列舉,認為屬于隱私的私人生活信息內容包括身體秘密、私人空間、個人事實、私人生活等[19]。根據立法者解釋,私密信息的范圍非常寬泛。
綜上所述,運動員過度商品化及其健康信息保護的不平等難以通過目前的法律制度予以保障。從內容上看,一般性保護規定多為法律概念的界定和一般原則性的規定,且個人信息、隱私、秘密信息等概念的交叉性可能會導致法律適用的困難。同時,缺乏基于義務視角對法律責任歸屬進行界定,導致對運動員從屬地位保護不充分,缺乏對其知情同意的特殊規制。
2.2.2 運動員人體極限生物性特征暴露
基于大數據的算法分析更加深入且預測性更強,運動員在人體極限狀態下可能暴露出異于常人的生物性特征,算法能夠分析出運動員更為敏感的、具有特殊性的健康信息。然而,目前的體育法律制度在這方面供給不足,一般性保護規定在健康信息收集和處理的事前、事中、事后的法律規制存在范圍不清晰、法律適用模糊的問題。
目前,法律制度構建僅著眼于一般個人信息保護,對運動員主體的敏感個人信息保護的關注度不足,缺乏以運動員為特殊主體的健康信息權利保障。縱觀我國體育法律制度和政策文件,《體育法》的立法目標多元,法律條文多為原則性規定,但缺乏關于運動員健康信息保護的體育法律制度依據。1999年國家體育總局發布的《大型運動會檔案管理辦法》第2條、第9條、第10條規定,對于運動會及其他重大比賽中形成的、具有保存價值的、各種載體的文件材料,應配備適宜保存檔案的裝具和必要設施,但運動員健康信息的保存并不適用這一規定。
2016年《國家體育總局購買體育科技服務管理辦法》第2條規定,體育科技服務主要包括生理生化指標監測與調控、傷病防治、體能訓練與運動康復、技術診斷與分析、專項運動素質診斷與監測、信息情報收集與分析等內容;并在第4條、第10條、第11條、第12條、第14條中規定,體育科技服務的承接主體所承接的體育科技服務工作要以公益性為主要目的,購買主體應與承接主體簽訂合同,合同應當明確雙方的權利義務事項和違約責任等內容,購買主體應當加強購買合同管理,承接主體應當按合同履行提供服務的義務并妥善保管信息。這一規定并未涉及運動員生物信息保護,且對承接主體的權利義務內容的規定較為粗略,但國家正在逐步加大對運動員訓練中的信息監控和科技服務的投入。
2019年《體育強國建設綱要》規定,建設國家隊訓練大數據管理系統,加強對運動員基本信息、訓練過程機能指標監控、訓練專項指標測試、體能指標測試、傷病及康復等數據的規范和管理,科學分析、指導訓練與參賽工作。上述制度規范符合算法社會發展中技術進步對制度構建影響的規律:法律制度構建總是落后于社會實踐。相較于一般性敏感信息保護,體育強國建設為運動員人體極限生物性特征提供了良好的保護基調,但仍需進一步探究理論基礎和制度轉向。
運動員健康信息保護可以適用《個人信息保護法》的規定,但從《個人信息保護法》相關事前、事中和事后規定看,存在事前知情同意效力弱化、事中正當程序和權利保障失效、事后說明難度大且缺乏特殊性保護等問題。
(1)算法危機下運動員健康信息保護應注意事前預防,其核心在于保障運動員對其健康信息被收集和處理的知情同意。《個人信息保護法》第13條、第44條關于個人信息的處理、個人信息知情權的規定具有模糊性,難以適用于運動員健康信息保護的特殊場景。通過算法分析運動員人體極限生物性特征,正是運動員健康信息保護與一般民事主體健康信息保護的根本區別。數據再識別技術的發展導致個人信息再識別的可能性隨著時間推移逐步增加[20]。當前,由于技術的發展,在運動員健康信息的分析過程中增強了對人體極限生物性特征的探測,這一獨特的敏感性特征尤其需要特殊保護,但顯然目前法律供給尚存在不足。
(2)運動員健康信息的事中保護使其免受算法決策,其核心在于明確運動員有權根據正當程序對數據收集者、處理者和算法控制者對其健康信息的侵犯享有撤銷、修正、刪除的權利。《個人信息保護法》第45條、第46條規定,個人對其個人信息享有查閱權和更正權。但此條規定在適用運動員健康信息保護時存在的問題是運動員健康信息處理者“及時”提供信息的時間范圍如何確定,以及請求信息轉移需要符合的條件等規定過于繁瑣和復雜。因此,運動員處于弱勢地位,健康信息保護的事中救濟權利實現難度較大。
(3)目前的體育法律制度缺乏關于算法對運動員健康信息分析的專門保護規定,對運動員健康信息保護的事后解釋不具有清晰的適用性,對運動員獲得解釋和提出異議的規定較為模糊。《個人信息保護法》第24條規定,通過自動化決策方式做出對個人權益有重大影響的決定,個人有權要求信息處理者予以說明,并有權拒絕其僅通過自動化決策的方式做出決定。但關于“重大影響”的范圍并無清晰界定,如在算法決策影響個人權益時,運動員的解聘等是否屬于重大影響范圍不得而知,法律規定缺乏明確的可適用性。同時,《個人信息保護法》第73條第2項對自動化決策做出規定。體育競技賽場是運動員健康信息保護的特殊場景,個人信息在一般情景下免受自動化決策權的適用,而運動員健康信息保護在特殊場景下的適用需要法律進一步規定。
總體而言,我國運動員健康信息保護存在不平等性,人體極限生物性特征暴露等問題缺乏法律規制。個人信息的概念存在交叉,原則性規定較多,侵權行為的認定并未明確,法律規范龐雜且分散,法律體系缺乏相互銜接和聯動,導致制度的可操作性和實施效果相對弱化。
面對算法社會下運動員健康信息保護的核心挑戰,學界相關理論研究主要涉及隱私權保護路徑、數據財產權保護路徑和個體信息自決權保護路徑。不同個體賦權路徑雖有差異,但均未結合算法社會的背景,缺乏對算法危機下信息保護中個體賦權實際效能減損的考量。運動員健康信息保護的制度構建可以考慮轉向數字人權和技術批判的規制理念。
(1)運動員健康信息通過個體隱私權的路徑實現保護。運動員健康信息被納入隱私權保護范疇,建立在隱私保護基礎之上。美國是將健康信息納入隱私保護的典型代表。美國聯邦政府以保護隱私為目標,對不同行業中的數據處理行為分別制定單行法,規制數據處理主體,設置相應的行業監管機構,形成分散式的個人數據保護體系,確立個人的知情同意機制[21]。知情同意作為隱私保護的實現基礎,對運動員健康信息免于被泄露、侵犯具有一定作用。美國《國家生物識別信息保密法》[22]規定,“私人實體”應合法合規地處理個人生物識別信息。雇主有保護員工隱私和數據所有權的義務,收集和使用這些數據需要征得雇員的同意[23]。同時,雇主應明確告知運動員其健康信息的使用期限以及保護計劃等,以避免在未經同意的情況下將運動員健康信息出售給第三方[17]。基于數據收集者、處理者與運動員之間的管理監督關系,數據收集者在一定程度上扮演雇主的角色,其與運動員之間的地位并不平等。運動員人體極限生物性特征應被納入隱私權保護,數據收集行為在獲得運動員的知情同意后才具有合理性,如對NBA運動員進行生物識別數據收集僅限在非比賽且本人知情同意的情況下[24]。運動員健康信息的個體隱私權保護路徑也有一定局限性,隱私與信息并非相同的概念,運動員健康信息中包含屬于隱私的部分,但隱私范圍的判斷存在主觀性,賦權路徑導致立法規范的模糊,需要司法發揮作用。網絡傳播使風險不確定,個人信息受到第三方主體侵害時無法得到有效保護,需要在司法實踐中進行擴大解釋[25]。
(2)運動員健康信息通過個體數據財產權的路徑實現保護。運動員數據具有財產屬性和信息公共性,現有的人格權、隱私權法律保護體系覆蓋面不足,導致運動員知情同意機制的實際效力存疑,應將運動員自身相關數據納入財產權保護[21]。有學者[26]在闡述數字時代的數據財產私法規制體系時,提出數據財產應從歸屬、利用和保護3個層面規制,個人數據利用的基本原則是促進合理利用和增強透明度,情景完整性理論為數據合理利用的判斷提供了綜合分析的模型,對數據財產進行賦權保護是數據立法的應然之道。還有學者[27]在論述企業數據保護的財產權化路徑時,關注企業數據形成和運營的重要地位和制度設計的復雜性,指明企業數據保護呈現出具有極強外部協同性的復雜財產權形態,雖具有權利之名但功能和結構更加復雜。從數據收集者的角度看,運動員健康信息被納入體育俱樂部的整體數據,成為體育俱樂部“企業數據”的組成部分,因此,基于對這些信息的合理利用與保護,將運動員健康信息納入財產權保護具有合理性。
運動員健康信息的財產權保護制度構建需要考慮運動員健康信息的財產屬性,賦予運動員健康信息以數據財產權符合運動員自身呈現商品化的趨勢。運動員健康信息的商業利用價值顯著,具有經濟利益和交換性特征,通過賦予其個體數據財產權的價值,實現對數據收集和處理的規制,同時推動健康信息的合理利用和流通。有學者[28]指出,數據內容契合民事財產法領域的規范目的,數據信息具有重要使用價值和交換價值,可以從財產秩序維護角度對財產信息進行規制以促進市場交易。運動員健康信息在商業化數據流通背景下交易性極強,運動員對自己的健康信息享有在商業化流通中獲得等價使用價值的權利。賦予運動員健康信息以財產權對平衡體育分析需求和運動員健康信息保護之間的關系,規范數據收集者和算法控制者的行為具有重要意義。數據內容的流通具有交易性質,運動員健康信息的財產權路徑保護有利于規制體育組織、俱樂部和算法控制者的信息收集和處理行為。
(3)運動員健康信息通過個人信息自決權的路徑實現保護。個人信息自決權的保護路徑源于德國。1983年德國聯邦政府開展人口普查,聯邦憲法法院經過嚴密論證后,判決其使用的人口普查法違憲。個人信息自決權的出現基于德國《基本法》的規定:人的尊嚴不可侵犯,尊重和保護人的尊嚴是所有國家權力的義務;不侵害他人權利和違背憲法秩序、道德規范的前提下,人人享有自由發展人格的權利[29]。從人格權保護角度,應充分保護人格尊嚴不受侵犯,明確個人信息具有自主性、控制性、排他性保護的人格特征。個人信息自決權的核心是人作為主體自由獲知和決定基于自身產生的、與自身相關的信息。基于此,運動員健康信息的個人信息自決權保護路徑的基礎在于保障運動員在信息收集和處理中真正知情同意,使運動員對其健康信息在被數據收集者和算法控制者不當利用時有權拒絕,知情是拒絕的前提。
個人信息自決權保護的確立更多地是針對國家公權力介入私人信息保護的力度和范圍。算法社會下形成了有別于公權力的算法權力,但算法權力形成的壟斷地位給運動員健康信息保護帶來了挑戰,因此,將運動員健康信息納入個人信息自決權保護具備合理性。有學者[30]對知情同意的擇入機制與擇出機制進行了探討,主張采取擇入機制為主的知情同意的缺省規則;明確信息采集的告知是知情同意原則的必備前提,應符合特定標準履行告知義務;在用戶同意規范中進一步區別用戶同意類型,企業對用戶行為信息的采集應取得用戶的明確同意,除此之外的其他情境則取得一般同意即可;其他應受法律保護之價值的存在是知情同意原則的例外。將運動員健康信息保護納入個人信息自決權保護,明確運動員健康信息的自主控制性,能夠為運動員健康信息提供原則性保護。但算法社會下運動員的自主、自由與算法權力地位不平等,運動員健康信息保護的具體制度設計不能只強調權利屬性,需要合理設定算法控制者的義務,建立分擔風險的監管體系。
算法社會下運動員健康信息需要制度體系的保障,僅從對個體賦權的角度出發構建具體制度,會因為運動員的行動能力不匹配、知情同意難以實現、外部力量監管缺乏導致賦權路徑的治理效能減損。
(1)運動員個體對信息的控制能力與賦權不匹配,賦權型保障路徑下運動員知情同意的效果弱化,使3種個體賦權類型均對運動員健康信息保護的實際效能有所減損。在運動員健康信息收集階段,運動員在算法權力下的知情同意和自決控制存在有限性,如大數據和算法決策下知情同意往往面臨無效或實際效果減損的情況。知情同意制度并不能很好地處理不斷變化的復雜情況和社會價值觀以及其他不可預測、不可知的情況。知情同意程序是為了尊重人的決定,實現有益、公正等必要目標,但事前的供閱讀并同意的公式化語言往往達不到這個目標,似乎不太可能充分預測并通知當事人[31]。運動員對信息收集、處理的控制能力有限,在信息收集、處理過程中個體的知情同意難以真正實現。反映運動員生理極限的健康信息雖被納入賦權型保護路徑,卻難以有效應對作為隱私利益在不同場景下出現的新變化。數字時代運動員的身體隱私轉變為信息隱私,這使得傳統隱私理論中運動員的知情同意產生理論障礙,信息隱私的理論重構應以環境標準的選擇為依據[32]。實際上,無論哪種賦權路徑都無法避免算法社會下人工智能和大數據的發展使個體自主性減弱,難以實質性地實現運動員對其健康信息的知情同意,降低了運動員對健康信息的實際控制程度。
(2)基于運動員健康信息保護的個體賦權制度設計與運動員個體的行動能力不匹配,造成個體賦權路徑的實現效果弱化。運動員健康信息的隱私權、財產權和個人信息自決權保護路徑無法保障個體擁有對抗算法權力的行動能力,如在運動員與數據收集者簽訂的合同中,約定通過算法收集、處理運動員訓練、比賽的相關數據,由此獲得運動員對其健康信息被收集和自動化決策的知情同意,但這種情況下運動員難以察覺信息的泄露和濫用,個體賦權保護路徑的知情基礎無法實現。運動員與數據收集者、算法控制者之間的信息不對稱導致其權利與義務的不對稱,存在運動員不知情也無法知情的情況,因此,運動員健康信息難以得到全面保護。即使數據主體充分獲得了自動化決策的相關信息,但囿于時間成本和專業知識,可能幾乎沒有能力提出異議并獲得實質性改善,導致去中心化的個體賦權路徑在算法治理領域效能不佳[33]。
(3)運動員健康信息的個體權利保護路徑缺乏對算法自動決策影響與公共利益保護維度的考量,以及外部監督和集體行動的介入。算法社會下運動員主體性被消解,依靠個體賦權的內部權利保障體系和有限的權利救濟難以有效對抗算法權力的侵害。算法自動化決策本身并非保持價值中立,算法的價值預設和數據收集偏差會導致運動員健康信息賦權保護路徑的實際效能降低,給權利人造成傷害[32]。個體的權利是制度保障的首要前提,但運動員健康信息不僅作為運動員個體的權利存在,在不同商業和公益場景中也可能關涉公共利益。運動員并非專業技術人員,面對公權力和算法權力很難感知自己正在被分析、預測,難以估計自身健康信息的泄露程度和造成的損害后果。這就導致個體賦權型保護路徑缺乏對個體與公共利益維度、算法自動決策影響的考量,使得實際治理效果減損。
實際上,運動員的知情同意被架空,行動能力無法對抗數據收集者和算法控制者,個體賦權路徑并不能賦予個體對抗算法風險的能力。僅通過個體賦權路徑保護運動員健康信息可能會導致救濟有效性降低。可見,運動員健康信息保護的賦權型理論出現困境,傳統隱私權、財產權、個人信息自決權等理論難以適應算法社會的發展,需要及時尋求理念轉向。
算法社會下運動員個體賦權型健康信息保護路徑效果不佳,原因在于對運動員個體面對算法權力的弱勢性缺乏考量,其行動能力和保障其權利實現的外部制度設計不足。從人權法視角出發,應在數字人權理念指引下把握運動員健康信息保護的理論命題,通過共同體實現運動員權利保障與數據收集者、處理者和算法控制者義務的履行;從技術批判的角度,通過算法規制實現對運動員健康信息脫離特定使用背景的規制。
(1)數字人權理念引領運動員健康信息保護制度的構建。從數字人權保護的高度重新審視運動員健康信息保護,將人權保護作為評判標準以保障信息自主的行動能力和侵害救濟的實現。數字化發展使物理時空消解,產生生物—數字的雙重人性,應在公共政策中注入數字人權價值,強化權益平衡[34]。將運動員健康信息納入數字人權的保護體系:一方面,數字時代的人從生物人過渡到信息人,存在形式上的數字屬性[35]。算法社會下運動員所參加的社會活動體現出高度智能化特征,所收集的運動員健康信息體現出高度人體敏感性特征,運動員活動中的各項記錄呈現數字化、信息化特征。另一方面,人權經歷了數字化重塑,人的信息存在方式被賦予了人權的數字屬性[36]。通過大數據和算法自動化決策為運動員提供訓練和指導等數字化服務,實際上是在形塑運動員的數字化人格,聯結了物理和虛擬空間,進一步實現了虛擬和現實的交互。數字人權保障強調權利義務體系的建立,運動員健康信息的數字屬性是運動員人體極限生物性特征的體現,是數字人權的基礎。數字人權理念可為重新審視運動員健康信息保護的制度構建提供指導。
運動員健康信息保護需要在共同體中保障權利,并以集體為導向實現義務制約,通過明確運動員與數據收集者、算法控制者之間的權利義務關系,確立運動員健康信息保護的制度基礎。具體包括:①算法社會下運動員健康信息保護需要在共同體中進行。算法給運動員健康信息保護帶來的風險包括對運動員主體性價值的侵犯,以及對其在社會中被評價和認可的影響。個體作為權利主體能適應共同體生活、與公共權力沒有分歧和沖突,將個體置于共同體之中才能為權利沖突的評判找到標準[37]。此外,還需符合社會共同體的評價,與公共利益相互協調發展。②運動員健康信息保護以權利為中心,通過確定數據收集者、算法控制者的義務實現對權利的保障。現代社會以個人為基本單位,個體之間享有平等的人格尊嚴和價值,義務的履行是對個人權利的保障,且權利屬于道德范疇,具有優先保護性[38]。面對算法風險,明確算法控制者的義務是保障運動員健康信息收集、使用和處理秩序的基礎。義務能夠確保秩序和社會安定的實現,使國家和社會個體之間保持穩定的平衡關系[39]。賦予算法控制者明確的義務性規定,才能在算法社會中實現運動員健康信息的合理使用。運動員健康信息保護需要通過確定義務實現法律的強制性和制裁性,確保運動員主體權利的實現。
(2)算法規制理念保護算法社會的運動員健康信息。①技術批判理論堅持人的解放的價值目標,能夠為算法社會下運動員的主體性消解提供價值理念指引。算法社會下運動員健康信息的處理是運動員主體性消解的過程,也是運動員勞動異化的過程。盧卡奇認為,勞動發展過程是科學技術產業化的過程,這個理性征服自然的過程也是人性異化的過程[40]。科學技術的異化性使其由解放的力量變為奴役的手段,使一切社會關系變成單一、片面的技術關系[41],而技術的發展及其引發的社會關系中的價值目標是在社會文化環境中產生和確立的,面對算法權力帶來的人的異化,需要堅持人的解放的價值目標。防止科學技術的異化需要建立和諧的自然觀和倫理觀,重構人與自然的關系,批判、反思技術的發展,使人、自然、社會協調發展[41]。②運動員健康信息保護需規制算法,將價值判斷預先注入其中,并結合具體的應用場景設計合理的算法。技術的設計與價值相關,技術體系設計中含有社會價值,技術存在于應用的情景中[42]。在運動員健康信息保護的算法規制中,應將運動員人格、隱私、平等、自由等主體性價值注入算法設計,同時注重結合社會公益的價值要求。對技術規制的共有價值判斷的基礎范式是對技術本質的判斷,技術并非是中立的,技術研究主體需對技術應用后果承擔責任[43]。算法控制者作為第三方對運動員健康信息進行處理時,需要考量信息不對稱導致的運動員弱勢地位,在具體法律關系中合理進行算法規制。③社會建構論的技術研究方法使法律能夠對技術和社會進行建構,為運動員健康信息保護中的算法規制提供解決方案。技術的形成有賴于設計者的意向,技術并非在形成之初就是確定的,技術的發展離不開使用者的需要,設計者的意向和使用者的需要都存在于一定的社會文化中,因此技術與社會是相互形塑和建構的[44]。算法社會下需要對算法帶來的風險進行事先預防、事中和事后規制,運動員健康信息保護需要對權利、權力、技術的價值進行解釋,同時結合智能社會進行考量。技術發展需堅持人的解放的價值目標,堅持從民主的理性化到技術的民主化,表現為技術設計的民主和技術行為中權利分配的民主,現實世界的多樣性決定了理性分化的相對性[45]。
綜上所述,運動員健康信息保護的個體賦權路徑在算法危機下失靈、治理效能減損,不能有效解決運動員過度商品化及其健康信息保護不平等、人體極限生物性特征暴露的問題。運動員健康信息保護的制度構建應立足數字人權保護的價值理念,通過技術批判的方式規制算法對運動員健康信息的影響。
在算法社會下,需要探討運動員健康保護的制度構建基本原則、公法與私法并重的保護路徑,以及社會共同體保障權利的實現,強化對運動員健康信息保護義務的履行,通過算法治理與信息保護相聯結的技術規制,初步實現制度構建。
運動員健康信息保護的基本原則包括以下幾個方面。
(1)運動員主體性原則。堅持運動員主體性原則是堅持運動員作為人的目的價值,即健康信息的收集和處理需要運動員主體的明確知情,不能超過既定的、明確的目的。現代社會是以主體性支撐的社會,算法中個體的數據化和計算化使人面臨客體化的危險[46]。針對算法社會下運動員主體性消解、運動員過度商品化的問題,運動員健康信息保護需要堅持人的主體性,將人作為目的而非手段來對待。法律上貫徹以人為本,就是承認人是法律的根本目的,人是具有道德人格的法律主體,尊重附屬于人的主體性因素[47]。
(2)知情同意原則。確立知情同意原則是為了實現運動員健康信息收集和處理中的自主、自由。《民法典》第1035條第1款第1項規定,處理個人信息應當遵循合法、正當、必要原則,企業收集信息遵守知情同意規則。國家互聯網信息辦公室、工業和信息化部、公安部、國家市場監督管理總局于2021年11月16日聯合審議通過的《互聯網信息服務算法推薦管理規定》第十六條規定,個人享有算法知情權,要求算法推薦服務提供者應當以顯著方式告知用戶其提供算法推薦服務的情況,并以適當方式公示算法推薦服務的基本原理、目的意圖和主要運行機制等。算法風險下個體賦權路徑使運動員的知情同意被架空,需要上升到數字人權保護的高度保障知情同意。
(3)法律主體間實質平等原則。數據收集者、算法控制者與運動員之間掌握的信息不對稱,加上算法“黑箱”帶來的不公開、不透明,使運動員處于弱勢地位,很難知曉和理解健康信息的收集范圍和處理過程,因此需要確立實質平等原則。平等權要求公民根據法律平等地享有權利和履行義務,保持法的公正性,但算法形成的個體性規則帶來了實質性的不平等[4]。運動員健康信息保護受到算法風險的影響,在事實上造成人與人之間的不平等,需要通過差別對待實現實質平等,防止算法“黑箱”和算法歧視。
(4)合理保留原則。技術與法律互動中需要合理規制,算法自動化決策中運動員健康信息保護應遵守合理保留原則。算法的適用領域應由法律設定限制和適當保留,對運動員健康信息中包含的敏感個人隱私和能夠反映人身、影響人格的信息等應采取嚴格的法律保留,對其他反映運動員主體性特征的信息采取類型化的合理保留。
運動員健康信息保護可以參考檢察院個人信息保護的公益訴訟模式,采取公法與私法并重的制度構建路徑。公法規制就是頒布各種規范個人數據的管制性法律或法規,私法賦權的方式是通過私權制度對大數據時代的個人數據給予保護[48]。民法保護個人信息與公法保護相區別,奠定了個人信息保護的正當性基礎,也為個人信息保護立法提供了基本法律依據,但個人信息保護應采取公法與私法并重的綜合性保護方法[49]。這是現代法律體系中公法與私法之間互動趨勢的要求,也是運動員人權保障的要求[50]。私法對健康信息的保護具有局限性,依靠私法保護路徑很難有效規制對運動員健康信息的侵權行為。私力救濟對運動員健康信息的保護更多地是起到事后救濟的作用,而算法社會下需要對健康信息風險進行事前預防,公法規制能夠更好地保護數據在市場中的流通和發展,并保障流通的有序性。應對個人權利和數據企業進行私法上的權益界定和平衡保護,并通過公法保護機制加強人權保障,在法治框架下進行數字權益的平衡保護[34]。
檢察機關除依法追究違法主體的刑事責任外,還根據信息的公共利益保護要求違法主體的公益損害賠償,通過高額的罰金增加違法成本以實現對個人信息的保護。具體而言,關于運動員健康信息保護,檢察機關需要進一步明確運動員個人信息侵權的立案標準,結合人體極限生物性特征暴露的特點,制定特殊的起訴條件,實現實體和程序的實質正義。綜上所述,對運動員健康信息的收集者、處理者、算法控制者與運動員個體之間權利義務關系的調整,需要建立公法、私法并重的制度體系。
以運動員健康信息保護機制的確立為基本出發點,筆者嘗試為構建算法社會下個人健康信息保護的制度體系提供參考視角。運動員極為敏感的健康信息受到算法自動化決策的影響,由于相關主體對運動員健康信息的收集、處理和控制,運動員健康信息保護的制度構建應嵌入算法治理機制中考量。算法社會下賦權運動員個體的健康信息保護模式需配合外部監管的問責機制,強化算法控制者義務的履行,確立運動員健康信息保護與算法治理相互聯結的理念,形成可信算法實現技術與健康信息保護的良性互動。
4.2.1 形成監管合力,規范監管機制
(1)以運動員健康信息損害結果為導向,算法權力自身規范與公權力介入形成合力進行監管。算法規制試圖建立以結果責任認定為核心的政府事后監管模式,以及以個人權利為中心的救濟模式,但這種規制對于嵌入算法技術程序的隱蔽算法偏差作用不大[46]。運動員健康信息保護中的第三方技術機構作為算法控制者,是政府監管的對象,也是擁有算法權力的主體,算法形成的權力必須作為考量對象。在具體制度設計中,應設立專門的運動員健康信息保護委員會,通過制定相應的規則和制度,保護運動員主體性,實現實質性公平。
(2)運動員健康信息保護需發揮社會共同體在職業或行業內部規范制定中的協商和監督作用。運動員健康信息的收集者、處理者與算法控制者作為相關主體是法律規制的對象,作為重要參與者也與運動員形成職業共同體,在共同體中應加強集體協商、有效對話以解決沖突。通過集體介入,保護隱私利益群體維度的正當性,平衡保護與利用的關系,認可群體的隱私利益[51]。
同時,運動員團體和行業協會應發揮集體協商作用,作為第三方社會組織為爭取運動員權利與算法控制者進行談判,并在一定程度上對其進行監督。這方面可以參考美國運動員通過集體談判,并加入服務于自身利益的運動員組織以獲得集體勞動權。此外,美國職業體育協會在保障運動員隱私方面發揮了集體協商和監督作用,對發揮社會共同體的外部監督作用具有重要的參考意義。如:美國國家橄欖球聯盟(NFL)欲將通過現場任何傳感器記錄的信息用于醫療目的,都必須尋求美國國家橄欖球聯盟球員協會(NFLPA)的許可;美國職業體育協會在保護運動員個人信息權利方面發揮著巨大作用,職業運動員作為雇員可以通過NFLPA等組織對抗NFL[52];美國職業體育中廣泛的集體談判協議可確保運動員的最大利益,尤其是減少在運動過程中可能對運動員隱私產生的影響; NBA在籃球運動員簽訂合同的談判過程中明確禁止使用運動員的健康信息,其“可穿戴設備委員會”有審查和批準運動員使用可穿戴設備的權利,并且規定共享數據僅出于運動員健康和戰術目的[17]。
美國不同職業體育聯盟與職業體育協會之間的協議保護水平參差不齊,作為代表運動員的社會團體,職業體育協會仍承擔了其在健康信息保護問題上的社會責任。具體而言,職業體育聯盟或體育行業工會等組織可設立專門針對健康信息保護的小組,聘請專家和專業技術人員對運動員健康信息收集和處理過程中的合理性進行監督,通過共同體力量代表運動員個體實現協商和監督。基于問責性外部監督制度,專業組織和特定群體通過集體行動發揮重要的監督作用,實現對公共利益的保護[33]。
4.2.2 合理披露相關義務,履行法定責任
(1)通過合理限制數據收集者收集運動員健康信息的范圍,披露算法中涉及運動員健康信息處理的內容,確立數據收集者和算法控制者的義務,明確使用目的和方式,這也是運動員健康信息保護中實質平等原則的要求。算法設計具有復雜性,應將運動員健康信息收集的范圍和數量控制在最小必要程度,實現其收集的合理性以控制算法權力。政府監管部門可以要求算法平臺和企業定期發布社會責任報告,強制披露數據使用風險,公開數據使用目的、數據處理者和接收者的相關信息[46]。算法控制者需定期披露其算法自動化決策中對運動員健康信息等個人敏感數據的泄露風險和數據的準確性,通過運動員可以認知和了解的語言準確告知風險,使其自由決定個體健康信息被處理的情況。
(2)明確數據收集者、處理者和算法控制者收集、處理運動員健康信息的安全保障義務,加強數據安全的技術保障和監管,并通過制定內部算法和信息安全規定,保障運動員健康信息安全存儲、防止泄露。數據收集者、算法控制者應在收集、存儲、傳輸、使用過程中遵守法律制度和內部規范,保證收集、處理程序的安全性。為推進數據收集者、處理者和算法控制者信息安全義務的履行,應設立專業性技術監管部門對其進行定期技術審查,設立運動員個人信息保護的法律監管部門,對數據收集者、處理者和算法控制者的操作是否符合法律和規章進行審查。
(3)算法控制者應更為嚴格地履行運動員健康信息保護的合規義務。算法控制者對數據處理行為有更嚴格的合規性要求,須采取必要措施保障個人信息的安全性,防止數據泄露、篡改和丟失[53]。運動員健康信息相對于其他運動員個人信息具有敏感性和特殊性特征,因此需確立更為嚴格的合規義務。這也是基于《民法典》第1035條的規定,企業應在符合該規定的原則下設定標準化、精細化的內部規定,嚴格履行保障運動員健康信息的義務。
4.2.3 配合法律治理,實現算法規制
(1)通過技術治理與法律治理的相互配合,實現算法規制形塑社會。運動員健康信息保護的算法設計應參照法律價值標準,保護人的主體性特征中人格、隱私、平等、自由等基本要素。這也符合歐盟《一般數據保護條例》第25條的規定,數據處理者應在決定處理方法和進行處理時,以有效的方式采取適當的技術性和組織性措施,將必要的安保措施納入數據保護原則[54]。因此,運動員健康信息保護的制度構建需引入算法規制的理念,使算法治理與運動員健康信息保護制度相協調。
(2)通過事前監管實現算法預設價值的規制,通過算法解釋實現事后救濟。①事前監管應側重于算法設計的價值預設。算法設計的價值預設并非中立,而是帶有算法控制者的主觀價值判斷的,這一判斷受到經濟利益等多種因素的影響。因此,對算法設計的審查應從技術層面注重運動員權利保護、實質平等,保護人的主體性價值。2019年國家體育總局《關于進一步加強和規范體育領域事中事后監管的若干意見》規定,各級體育行政部門強化監管,在國家“互聯網+監管”系統監管事項目錄清單基礎上,自上而下全面梳理本部門職責范圍內的監管事項,統一規范監管主體、監管對象、監管措施、設定依據、處理方式等內容,形成本部門監管事項目錄清單,并實行動態管理。②事后救濟應側重于算法的可解釋性,使相對弱勢的運動員能夠從算法解釋中獲得合理救濟。“意思表示是合同效力的核心要素,而算法解釋是當事人基于意思自治同意用戶協議的必然推論。”[55]算法解釋有助于運動員了解自己的健康信息被如何使用和有可能對自己不利的后果,是知情同意和意思表示的關鍵。提高算法自動化決策中的透明度只能作為事前監管的手段,對算法自動化決策受到損害的救濟需引入算法解釋,使當事人了解不利決定的做出過程和事后救濟方式[55]。應將提升算法透明度與算法解釋相結合,通過事前監管和事后救濟規制算法給運動員健康信息保護帶來的風險。
(3)對于算法偏見和歧視造成的對運動員健康信息的侵犯,應堅持法律的可責性要求。算法控制者應對運動員健康信息的算法設計進行詳細記錄,向運動員解釋其中存在的風險和缺陷,明確算法偏見和歧視造成的損害和所要承擔的責任,提高算法的可信度,實現算法規制與運動員健康信息保護的良性互動。
在數字時代,算法對運動員健康信息保護的影響逐步增強,算法的自動化決策和深度分析除了能提升運動表現、預防疾病等之外,也帶來運動員過度商品化及其健康信息保護不平等、人體極限生物性特征缺乏規制等問題。應構建算法社會下運動員健康信息保護的制度體系,通過共同體保障個體賦權的實現,強化義務履行和算法規制。對3種個體賦權型保護路徑的形成機理和治理效能進行反思,認為運動員健康信息保護的隱私權、數據財產權、個人信息自決權路徑均具有合理性,但算法危機弱化了個體賦權保護路徑的實際效果。運動員健康信息保護應轉向保護運動員數字人權的理念,結合技術批判與算法治理的視角,進一步構建運動員健康信息保護機制。
面對算法社會,運動員健康信息保護應遵循基本原則,采取公法和私法并重的制度構建路徑,通過公權力和算法權力聯結形成監管合力,實現運動員權利的共同體保障;通過強化算法控制者義務的履行實現其權責一致;通過運動員健康信息保護與算法治理理念的結合實現技術規制。總之,算法社會下運動員健康信息保護應從個體賦權邁向結合算法規制,立足數字人權保護理念和技術批判視角構建制度體系。算法社會下運動員主體的數字人權保護還存在許多未解決的難題,值得密切關注和進一步研究。