摘要:在大數據時代,算法的廣泛運用給消費者權益帶來了新挑戰。盡管現有法律提供了一定保護,但仍有局限。因此,需要采取更多措施來保護消費者權益。政府應加強算法監管,確保其公平和透明。企業應探索減少算法偏見和歧視的技術手段,并加強數據安全保護。消費者也應提高對算法的認知和意識,了解自己的權益和保護方式。只有這樣,我們才能更好地應對算法挑戰,保護消費者權益。
關鍵詞:算法失衡;算法規制;算法黑箱;司法規制困境
中圖分類號:F25文獻標識碼:Adoi:10.19311/j.cnki.16723198.2024.15.011
1國內算法法律規制發展的現狀
1.1《個人信息保護法》與國內算法法律規制的發展
《個人信息保護法》施行至今,已逾兩載。在此期間,我國對個人信息保護的監管力度持續加大,法律體系也日趨健全。“截至2020年12月,我國網民規模達989億,互聯網普及率達704%。”個人信息保護面臨著挑戰,且低文化網民數量多,初中、小學及以下網民占比分別為405%和192%,對網絡個人信息了解不足。僅188%的人受過85PVZ6VfQDfcR3Q+2xEN6ggm3WzAaQzLyCxE+7Pi+5o=大專及以上教育,對網絡個人信息了解有限。
《個人信息保護法》對“個人信息”的定義進行了完善,與《民法典》和《網絡安全法》中的定義不同,明確經匿名化處理后不屬于個人信息。該法第24條增加了算法平臺對重要事項的說明義務,旨在制約算法權力擴張。此外,我國還通過規定個人信息的采集和使用等方面,對算法使用實施間接限制,實現多層次的算法治理。
1.2我國基層司法判例現狀
在大學生創新創業項目調研期間,項目成員接觸了大量新型案件。這些案件涉及隱私權和信息安全侵犯以及原告信息被平臺公開等。從請求權基礎角度看,平臺沒有合同或類合同請求權,但當事人擁有信息自決請求權。根據民法典1037條,當事人可以申請更正信息,如果平臺處理不及時,則構成侵權行為。《個人信息保護法》出臺后,使用者維權意識增強。新型案件中,個人對平臺的訴訟案件開始出現,當事人認為平臺不應收集過多個人信息,在法院調研期間,我們發現大平臺都進行了個人信息模塊更新,但功能仍需細化。比如APP將讀取設備內信息作為必選條件,不同意就無法使用APP。這種授權看似給用戶主動權,實際上仍是強制使用個人信息,且無法關閉,這種授權為算法失衡現象提供了土壤。
1.3算法對個人用戶的滲透影響
算法在現代生活中占有重要地位,對個人和社會產生影響。新經濟模式下,算法被用于評估個人社會信用和標簽化個體。作為信息中介的算法,還影響著人們對信息的獲取。我們小組通過問卷調查收集了大量數據,發現算法在大數據時代已深入人們的日常生活。
在調研對象的社會身份里,將近一半的調研對象是大學生,高校教師、法律工作者、公共專業類或者會計專業類人士占總數的4成、退休人員、中學生、其他占比1成。
調研圖2顯示,網購平臺已成為人們生活中的必需品,因此,如何把控好平臺對個人用戶的數據收集變得至關重要。同時,圖3顯示,超過一半的用戶因為需要使用app而不得不讓渡個人信息。因此,探索算法的規制路線成為大數據時代的首要任務。
最后,我們在訪談“對電子個人信息被侵權的現象有什么意見想法”中,得到以下這些建議:加強個人隱私的保護,加大對個人信息使用范圍的監管,明晰使用企業的責任,倡議用戶不要亂點鏈接,系統減少個性化推薦等。
2歐美日算法法律規制的發展及經驗借鑒
2.1歐美日的個人信息保護發展
歐盟在2019年發布《算法責任與透明治理框架》,要求公共部門將各責任主體帶進算法評估機制,對私營部門使用分級管理方案;2021年4月發布《歐洲議會和理事會關于制定人工智能統一規則(人工智能法案)和修訂某些歐盟立法的條例》,對人工智能系統定義,表明算法失衡規制對象不僅包括黑箱AI,還包括傳統邏輯推理、線性回歸等算法,對私營部門作系統性管理規定。
美國在立法方面不斷完善算法的監管機制。早在1914年所制定的《聯邦貿易委員會法》中指出,FTC有權“防止商業中或影響商業的不公平的競爭方法和不公平或欺騙性的行為或做法”。該法案明確了責任歸屬,也為FTC有權介入算法的監管提供了依據。2017年,全美第一部《算法問責法》在紐約市通過;2019年,《2019年算法問責法案》指示FTC制定評估規則,要求各公司評估自身算法的缺陷;同年,《過濾泡沫透明度法案》則以AI算法(系統)設計相關要求的視角去規制算法;2022年,美國國會提出的《算法問責法案》相較于2019年的法案,仍在《聯邦貿易委員會》框架內設計,但更加精細化地對算法進行監管。
1988年,日本制定了第一部有關數據安全的法律《行政機關持有的計算機處理個人信息保護法》,但此法僅針對行政機關;2001年,出臺了提出保護用戶信息安全的《高度信息通信網絡社會形成基本法》;2021年,頒布了從各方面對數字平臺進行了規劃的《數字社會形成基本法》;日本最新的《改善特定數字平臺上的交易的透明度和公平性法》是以事中監管式和事后救濟式的視角出發,通過日本經濟產業省部檢查年度報告以及用戶報告去監管特定數字交易平臺。
2.2經驗借鑒
2.2.1治理主體:責任主體明確,多元化
歐盟在《通用數據保護條例》中授予各數據主體可獲取相關信息的權限;美國明確責任部門FTC對算法影響評估進行監管,以及各企業應承擔的職責;日本在2019年通過內閣發布文件,由政府各責任部門對其所負責板塊進行監管。
2.2.2治理工具:算法影響評估
算法影響評估要求設計或運營算法的主體闡述算法系統的技術特征和實現目標,識別潛在風險,準備補救措施。歐盟和美國的《算法責任與透明治理框架》與《2019年算法問責法案》,前者提出了算法評估機制,后者明確了算法評估規則,二者都從算法影響評估入手,從目的、設計、數據及個人信息獲取安全問題等多方面、多維度對算法進行規制。
2.2.3治理對象:多層次、多方面、多角度
歐盟通過立法規定將公共部門和私營部門列入算法治理監管范圍內,要求各部門承擔相應責任;美國紐約通過第一部《算法問責法》,其對政府及司法部門進行算法監管,而在《2019年算法問責法案》中則是囊括網絡平臺的各公司;日本最新的《改善特定數字平臺上的交易的透明度和公平性法》是以事中監管式和事后救濟式的視角出發,通過日本經濟產業省部檢查年度報告以及用戶報告去監管特定數字交易平臺。
3現有電商平臺算法規制實踐之困境
隨著算法權力的擴張,導致信息不平等和算法失衡等問題。為此,需要對算法進行有效的規制。當前的算法規制方式包括算法透明、反算法歧視和個人數據賦權三大類,但這些手段在實際應用中存在局限性,難以全面適應現實需求。
3.1算法透明的規制方式可行性與效益不足
針對算法黑箱的問題,提高算法透明度有助于降低不確定性,但實施面臨挑戰。公開算法代碼與知識產權保護存在沖突,企業如淘寶、拼多多、京東等將其算法視為核心競爭力并采取措施確保機密性,所以公開算法可能影響企業競爭優勢。2019年,日本政府試圖立法要求亞馬遜等平臺公開其A9推薦算法的具體內容和運作機制,但實施過程中面臨阻力,未能如愿。于消費者,公開算法無實質性意義,因為披露技術秘密僅涉及保密內容,而算法黑箱與商業秘密的原理存在差異,主要源于編程設計的復雜性。因此,對不具備專業知識的消費者公開算法源代碼和架構無實質性益處。
3.2反算法歧視規制措施未能根治問題
個性化推薦算法的歧視主要分為算法人格歧視和算法價格歧視。本文將重點探討算法價格歧視,它涉及到消費者權益。電商平臺利用個性化推薦算法搜集消費者信息,為其賦予標簽并進行分類,根據消費習慣、能力和身份特征等因素進行自動化決策,實施定向內容推送和差異化定價策略。
雖然我國法律框架下已有規范實踐,但實際效果不理想。電商平臺現在采用更難以察覺的方式進行“價格殺熟”,例如針對特定用戶發放定向優惠券、實施價格組合等策略,導致不同用戶購買同一商品或服務的價格差異過大且難以察覺,同時也規避了相關法律規范的要求,使得法律難以有效實施監管。
3.3個人數據賦權規制的成效尚不顯著
近年來,全球各國圍繞個人數據賦權核心,強化個人信息保護及對算法的約束。歐盟和德國分別頒布了《通用數據保護條例》(簡稱GDPR)和《聯邦數據保護法》等法律法規,賦予用戶知情選擇權、刪除請求權、被遺忘權等多項權利。個人數據賦權模式既明確了用戶的主體權利,又為數據收集、處理者及算法持有者設定了相應責任,要求其在協助個人行使數據權利的同時,保障數據安全。
我國《民法典》和《個人信息保護法》也確立了個人信息受法律保護原則和“同意+告知”的個人信息利用模式,賦予個人算法解釋請求權和算法排除權。然而,實際操作中個人數據賦權對算法的規制作用有限,用戶對隱私風險的認知也有限,企業利用優勢地位實施“選擇綁架”,用戶反對權無法真正落實,且個人數據賦權面臨救濟困境。
4電商平臺算法困境的治理路徑
在大數據時代,隨著算法應用范圍的不斷拓展,無序發展可能導致的風險和危害將進一步加劇。為此,我們應秉持發展與監管并重的原則,一方面積極推動算法相關技術的進步,另一方面強化對算法的監管及對算法所引發困境的治理。
4.1算法公開不如特定監管
算法公開本質是為了防治算法黑箱的問題,大多數消費者難以發現在消費過程中網站的“殺熟”行為,僅僅意識到自身消費或許與周圍新用戶的金額相比較高,但并不理解其核心問題,更不知維護的權利是什么,去哪維權以及如何維權。因此,與其將算法給看不懂的人看,不如政府發揮職能,在市場監督局內部讓專門的人員對算法進行定期審查,吸收日本讓日本經濟產業省部對各企業的算法報告進行審查的制度,通過事中監管和事后救濟的手段去治理算法黑箱問題。
4.2算法歧視問責
對于反算法歧視規制會導致算法歧視“隱蔽化”的問題,算法歧視在實踐中的問題不可估量且屢禁不止,企業為爭奪經濟效益對群眾利益進行損害,被發現也只是不了了之,所以,應當建立相關政策對算法歧視問題進行處罰,可以借鑒美國的《算法問責法案》,對發生了算法歧視的企業進行罰款整改等行政處罰,通過事后救濟和后果震懾的方式對算法歧視進行規制。
4.3個人數據賦權與倫理結合
個人數據賦權需要動態調控和倫理約束,為算法高效運作創造條件。過去數十年間,算法進展有限,提高準確率主要依賴于大數據的發展。大數據核心特征為全面性、復雜性和關聯性。因此,部分法律原則如目的限制原則和限期存儲原則不適應大數據時代算法運作規律。
面臨大數據時代的算法挑戰,個體難以有效行使多項數據權利。在這一背景下,法律應更多地對數據控制者和處理者履行職責,而非僅依賴個人數據控制。過度依賴個人對數據的控制可能導致個體陷入無法有效維護合法權益的困境,同時數據收集和處理者也可能失去對數據與算法進行有效治理的積極性。
為實現通過個人數據進行算法治理的實際效果,有必要將責任倫理融入數據收集、流通和處理的各個環節,從而推動算法治理。在此基礎上,企業和個人共同參與數據與算法的協同治理,既能確保個人權益得到保障,又能促進數據資源的合理利用和共享。
5結語
在大數據時代,算法與生活緊密相連。面對算法,我們應積極應對其問題和挑戰,對于算法失衡產生的新問題,我們不能直接用理論處理案件,而應在案件中總結共性,結合我國國情進行處理,為構建法治社會貢獻力量。
參考文獻
[1]丁曉東.論算法的法律規制[J].中國社會科學,2020,(12):138159+203.
[2]喻玲.算法消費者價格歧視反壟斷法屬性的誤讀及辨明[J].法學,2020,(09):8399.
[3]梅傲,李坤佳.日本數據安全治理制度述評及其啟示[J].情報理論與實踐,2023,46(07):195200.
[4]張惠彬,何易平.平臺算法監管的困境與出路——基于美國算法監管模式的研究[J/OL].科學學研究:125[20231210].
[5]曾雄,梁正,張輝,等.歐美算法治理實踐的新發展與我國算法綜合治理框架的構建[J].電子政務,2022,(07):6775.