999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

論算法的法律規制路徑

2024-06-11 15:43:41郭宏璟
中阿科技論壇(中英文) 2024年4期
關鍵詞:法律信息

郭宏璟

(海南大學法學院,海南 海口 570228)

數字時代背景下,算法的應用已經滲透到各個領域,從搜索引擎到社交媒體,從自動駕駛到金融交易,無所不在。然而,隨著算法的普及和應用,其帶來的法律問題也日益凸顯。算法決策的透明度、公正性以及潛在的歧視和不公平現象,都引發了社會各界對算法法律規制的關注和討論。“如何規制算法?”[1]在近年來逐步成為主流法學界關注的焦點。對于算法的法律規制,目前存在諸多爭議和挑戰。一方面,算法決策的高效性和準確性給很多領域帶來了巨大的便利,如果過度限制或監管算法,可能會阻礙科技創新和經濟發展。另一方面,如果不對算法進行法律規制,可能會導致算法歧視、信息操縱等一系列問題。如何在保護公民權益和維護社會公正的同時,促進算法技術的健康發展,是擺在我們面前的一個重要課題。本文旨在深入探討算法的法律規制問題,從多個角度分析當前面臨的挑戰和困境,并在此基礎上提出可能的解決方案和立法建議。

1 法律介入算法的正當性

自動化決策與算法治理是數字經濟時代的重要話題。所謂算法,指“計算機完成一個任務所需的一系列步驟”?;谒惴ǖ淖詣踊瘺Q策已廣泛運用在各種領域,雖然理論上算法應是客觀且中立的,但現實中基于數據庫及運算邏輯的偏差,算法也時常會給當事人帶來損害。

一方面,算法克減數據主體的表意自由。當前,各類商業機構正利用各種建模或算法精巧地將人們的生活轉化成他人的商機,致使參與數據化生活的個人幾乎成了“被算法定義的人”。自動化決策技術本身具有復雜性、高效性和精確性等特征,需要利用計算機技術與算法程序對海量個人數據進行收集,并高效整理成數據庫,在此基礎上通過深度學習技術、人工智能技術、神經網絡技術等對數據進行分析、處理,最終自動生成如用戶數字畫像等結果。數據主體被動且盲目地接受經算法篩選的信息,從而難以充分行使信息自決,維護自身權益。

另一方面,運算邏輯引發算法歧視。算法設計者的個體偏見與技術本身的局限,使得錯誤、充滿歧視色彩的自動化決策結果屢見不鮮。決策過程的“隱晦不明”使得被決策者無法質疑、反對或參與決策過程?;趯祿黧w長期產生的數據的分析,算法可以在運算層面將其“標簽化”,從而在分類篩選的過程中,限縮具有某類標簽的數據主體的權利或機會。同時,數據泄露或買賣使得分類篩選與歧視得以秘密化和便利化,導致那些具有特定標簽被列入 “黑名單”的數據主體無從知曉自身的權益受損。

算法是由帶有主觀色彩的人類設計者創造的,因此很難不偏不倚地作出絕對客觀的判斷。決策結果的偏差可能嚴重影響個人的選擇,體現傾向性和歧視性特征的個性化推薦不斷強化“回聲室”效應,將人們圍困在信息繭房中,忽視對個體的尊重并侵犯個人隱私和信息安全,從而進入持續性的歧視與偏見的循環當中。因此法律規制算法具有正當性。

2 商業秘密視角下算法保護的突破

當前,雖然多數國家的法律體系尚未對算法技術進行全面的規制,但隨著技術的發展和社會的進步,對算法進行規制的需求越來越迫切。傳統的法律原則,如透明度、公正性和責任性,在算法決策的背景下可能難以直接應用。這是因為算法決策涉及復雜的數據處理和機器學習過程,這些過程對人類來說可能是不透明甚至難以理解的。此外,算法決策遠超傳統人工決策的速度和規模,以及算法的商業秘密屬性均使得傳統的法律監管手段難以有效應對。

2.1 算法的商業秘密保護

商業秘密是指不為公眾所知悉、具有商業價值并經權利人采取保密措施的技術和經營信息。實證法上,將算法歸類為技術信息從而受到商業秘密規范體系的保護?!蹲罡呷嗣穹ㄔ宏P于審理侵犯商業秘密民事案件適用法律若干問題的規定》第一條第一款規定:“與技術有關的結構、原料、組分、配方、材料、樣品、樣式、植物新品種繁殖材料、工藝、方法或其步驟、算法、數據、計算機程序及其有關文檔等信息,人民法院可以認定構成反不正當競爭法第九條第四款所稱的技術信息”。明確了算法能夠作為商業秘密所涵攝的技術信息而受到特別保護和特殊規制。

算法的商業秘密屬性與算法規制之間的矛盾主要體現在商業秘密的保護需求與增加算法透明的要求之間的沖突。這種矛盾源于商業秘密的法律定義和保護目的,即防止競爭對手獲取并利用這些秘密信息,從而保持企業在市場中的競爭優勢。而規制算法則強調算法決策的公開性和可解釋性,以便公眾理解和信任算法的決策過程。

為了解決這一矛盾,需要從多個角度進行探討和實踐。首先,從法律層面來說,需要對算法進行合理的規制,以保障公眾的知情權和公平交易權等基本權利。同時,也需要充分考慮到商業秘密的保護需求,避免對企業的創新和發展造成過度限制。其次,從技術層面來說,需要發展更加透明和可解釋的算法技術,以提高算法的可靠性和可信度。此外,還需要加強數據管理和隱私保護等方面的技術研發和應用,以保障個人信息和隱私的安全。最后,從社會層面來說,需要加強公眾對算法的認知和理解,提高公眾的數字素養和信息素養。同時,也需要建立健全的監管機制和責任體系,以保障算法的合法、合規和公正應用。

總之,算法規制與商業秘密保護之間的協調是一個復雜而重要的問題。需要從多個角度進行探討和實踐,以實現算法的透明、公正和合法應用,同時保護企業的商業秘密和合法權益。

2.2 公共利益視角下商業秘密的限縮

商業秘密作為企業核心競爭力的重要組成部分,一直以來都受到法律的嚴格保護。然而,隨著社會的不斷進步和技術的迅速發展,商業秘密的保護與公共利益之間的矛盾漸深,尤其在涉及重大公眾利益的情況下,如何平衡商業秘密的保護與公共利益,是一個亟待解決的問題。

在公共利益視角下,商業秘密可能面臨兩方面的限縮:一是國家或社會在緊急狀態或非常情況下的強制披露或使用;二是與社會公共利益相關時的限制。

首先,在國家或社會的緊急狀態或非常情況下,為了維護國家安全、社會穩定和公共利益,商業秘密可能會被強制披露或使用。例如,在新冠肺炎疫情防控期間,政府為了確保防疫物資的充足供應和有效調配,可能會要求相關企業披露其生產、銷售、物流等方面的商業秘密。在這種情況下,企業可能需要放棄對其商業秘密的保護,以滿足國家和社會公共利益的需求。

其次,當商業秘密與社會公共利益相關時,其保護應受到一定的限制。例如,商業秘密涉及環保信息時,其披露和使用應符合環保法規的要求,不得隱瞞或虛假披露環境風險。此外,商業秘密的保護也不應妨礙政府監管和社會監督。關涉社會公共利益的算法保護必須為透明度和可追責性讓路。盡管在商業領域保護商業秘密有妥適的理由,但在社會公共利益面前,基本的透明度與民主價值優先。

當然,商業秘密的限縮應遵循合理、必要和比例原則。在維護公共利益的同時,應盡量減少對商業秘密權利人的影響,并保障其合法權益不受侵犯。需要注意的是,商業秘密的限縮并不意味著放棄對商業秘密的保護。在維護公共利益的同時,也應加強對商業秘密的保護和管理,防止其被濫用或泄露。

綜上所述,在維護公共利益的同時,應充分考慮商業秘密的保護需求,避免對企業的創新和發展造成過度限制。通過合理的法律規制和政策引導,平衡商業秘密的保護與公共利益,促進社會的和諧穩定發展。

2.3 針對算法商業秘密屬性的私權抗辯

隨著科技的快速發展,算法在商業領域中的應用越來越廣泛。然而,算法的商業秘密屬性也引發了一些關于個人信息保護和私權的問題。針對這些問題,有必要進行私權抗辯,以保障個人信息主體的合法權益。

信息自決是個人信息保護規范體系所追求的目標,而“告知同意”則是法律確立的個人信息保護核心規則,是保障個人對其個人信息處理知情權和決定權的重要手段[2]。只有在個人知情并同意的情況下,個人信息才能被處理和使用。因此,應該充分保障個人信息保護的知情同意規則。

《個人信息保護法》第二十四條從算法透明義務及個人賦權角度出發[3],要求個人信息處理者應當保證決策的透明度和結果公平、公正。這意味著在利用算法進行個人信息處理時,個人信息處理者應當公開算法的原理、目的、方法等,以便信息主體了解自己的信息被如何處理和使用。此外,個人信息處理者還應當保證決策結果的公平和公正,不得對個人在交易價格等交易條件上實行不合理的差別待遇。

通過自動化決策向個人進行精準推送時,個人信息處理者應當同時提供不針對其個人特征的選項或便捷的拒絕方式。這意味著個人有權選擇是否接受算法的自動化決策,并有權拒絕將自己的信息用于算法決策。面對不正義的算法,個體應享有拒絕其自動化決策的權利。

數據主體的知情權要求算法平臺承擔保證算法透明度和可解釋性的義務。這意味著個人信息主體有權要求個人信息處理者解釋說明通過自動化決策方式作出的對個人權益有重大影響的決定。如果個人信息主體無法憑借自身信息和技術能力充分理解,那么信息和技術優勢一方的解釋就成為知情同意的前提。

綜上所述,對算法商業秘密屬性的私權抗辯是必要的。通過保障個人信息主體的知情同意權、公平交易權等基本權利,可以平衡商業秘密的保護與個人權益之間的關系。同時,加強算法的透明度和可解釋性,也可以提高算法的可靠性和可信度,進一步保障個人的合法權益。

3 法律規制算法的具體路徑

3.1 算法公開

算法的公開、披露,以及保證決策結果在事實和法律上公平公正,這是《個人信息保護法》對自動化決策中個人信息處理者的要求。如前所述,自動化決策本身可能帶來“大數據殺熟”“算法歧視”等風險,甚至輿論引導等負面影響。復旦大學孫金云教授團隊的《2020打車軟件出行狀態調研報告》證實大數據用戶畫像、大數據產生的消費陷阱侵害了消費者的公平交易權。

因此對抗算法妨害,通過法律規制算法的第一步,就是要求算法的公開透明、公平公正。公開透明是《個人信息保護法》的基本原則,欲在增強算法的可問責性和解釋性。在自動化決策中,透明度原則要求決策者公開運算的數據以及用于自動化決策的計算系統的源代碼[4]。簡單來說,個人信息處理者應履行告知義務,將其利用算法處理的個人信息的范圍告知個人,公開源代碼的本質要求是提高算法的透明度,但源代碼的公布或導致知識產權、商業秘密的泄露[5],而且過于專業的源代碼用戶難以理解,可能導致用戶更不愿意閱讀《隱私政策》這種適得其反的結果。因此,有研究認為,算法透明的要求可能是不可取的,源代碼公開是否有必要,以及是否能夠證明算法的公平性,這些問題使得算法公開遭到質疑[6]。

歐盟《通用數據保護條例》(GDPR)第12.1條規定,數據處理者使用算法進行自動化決策的行為,應當通知數據主體算法的存在,并提供算法邏輯的相關信息,及實施算法的目的和預期后果。我國也針對平臺算法出臺了多部法律法規,其中《電子商務法》《個人信息保護法》規定了算法自動化決策的自然結果展示義務和自動化決策的透明度要求。2022年1月4日,國家互聯網信息辦公室和工業和信息化部等四部門聯合發布的《互聯網信息服務算法推薦管理規定》明確了算法披露的內容為算法推薦服務的基本原理、目的意圖和主要運行機制等。在監管方面,2022年8月12日國家互聯網信息辦公室發布了《境內互聯網信息服務算法備案清單》,其中包括算法名稱、類別、應用產品、主要用途及備案編號等內容。從部分互聯網企業的披露情況來看,事前公開與事后備案均是為提升算法的透明度,保證結果公平性的策略?!八惴ㄍ该髟瓌t的最終落腳點是對于算法自動化決策的規制”,盡管關于算法公開的必要性和有效性存在諸多質疑,但透明度要求仍然是算法規制的重要手段。我國的規制策略始終以提高算法透明度為目的。因此,自動化決策的透明度和結果的公平公正是算法規制的首要要求。

3.2 解釋算法

作為算法的規制手段,“算法解釋權”漸入立法視野[7]?!秱€人信息保護法》規定了個人拒絕自動化決策的權利與要求解釋說明的權利;《互聯網信息服務算法推薦管理規定》第十二條鼓勵算法推薦服務提供者優化算法決策規則的透明度和可解釋性;GDPR一系列條款規定的算法解釋和免受自動化決策約束權[8]。

算法解釋存在“權利”與“禁令”之爭[9],學界對于是否要從個人數據賦權角度應對算法問題也存在較大分歧。有學者認為應當賦予個人具體的數據權利,而算法解釋權本質是一項請求權[7],但考慮到商業領域保護商業秘密的需要,立法應賦予消費者弱化的算法解釋權[10]。例如,在凌某某訴北京微播視界科技有限公司隱私權、個人信息權益網絡侵權責任糾紛案中,法院認為算法可能涉及商業秘密,因此告知和公開算法不屬于對原告的個人信息進行保護的必要措施①。

當前更多的觀點認為算法解釋權創設沒有必要性,從可行性與可欲性層面來看,算法解釋權不一定能很好回應算法決策或輔助決策帶來的問題[11],并且將會帶來更多的難題,應將算法解釋權視為一種程序性權利而非實體性權利。個人信息權完全可以替代算法權利在自動化決策過程中規制算法運行、制約算法的功能發揮,算法權利存在的必要性被消解[12]。最后,多數學者認為有效的規制路徑還是強化監管,最終通過構建起精細化、多層次的監管體系來規范算法[13]。

盡管學界爭論如此,算法解釋權仍不失為一條規制算法的有效路徑。至少通過解釋算法能夠保證數據主體充分理解自動化決策的原因。而在如何解釋的問題上,有觀點認為自動化決策解釋義務應僅限于事后的具體解釋[5],應從事前的告知同意,事后的說明義務,結合結果拒絕權來規制自動化決策[14]。本文認為,事前的告知是為了實現算法的公開透明,事中的說明則是真正針對算法的解釋,但個人是否真正能夠理解算法,有多少需求需要解釋算法,因此解釋是否要權利化確實值得商榷。實際上,個人信息權益在內容與功能上同樣能夠包含算法解釋權,要求說明解釋實際上也是一種知情權內容的體現,如能夠被知情權所包含,則無須再獨立設置算法解釋,但算法解釋的路徑應被重視。

4 結語

大數據時代,算法廣泛應用帶來的“算法歧視”和“信息操縱”問題亟待解決。然而,算法的商業秘密屬性使其成為一個難以觸及的“黑箱”,給實現算法公平正義帶來了挑戰。從公眾利益和私權保護的角度來看,限縮商業秘密的保護是合理的。

首先,需要從法律層面介入對算法的規制。盡管商業秘密的保護對于促進創新和保護企業利益至關重要,但在面對算法歧視和信息操縱等社會問題時,法律應當進行合理的平衡?!秱€人信息保護法》第二十四條為算法規制提供了一定的依據,個人信息處理者需保證決策的透明度和結果公平、公正,減少信息不對稱,防止算法歧視和信息操縱。然而,要實現算法的公開和透明,還需從商業秘密保護的角度出發,探討法律規制算法的依據。一方面,要充分認識到算法作為商業秘密的價值和重要性;另一方面,也要看到商業秘密保護在面對算法正義問題時的局限性。在此基礎上,可以對商業秘密進行合理的限縮,以實現商業秘密保護和社會公共利益的平衡?;谛畔⒆詻Q的理念,本文提出了兩條具體的算法法律規制路徑:一是要求算法公開,以便公眾了解算法的決策過程和原理;二是賦予用戶算法解釋權,使其能夠在認為算法決策不公平時要求算法提供者進行解釋。這2條路徑旨在提升算法的透明度和可解釋性,同時保護用戶的知情權和選擇權。

總的來說,合理規制算法是必要的,需在商業秘密保護和算法正義之間找到平衡。通過法律手段對商業秘密進行合理的限縮,可以更好地實現算法的公開和透明,從而進一步保護用戶的權益和維護社會公共利益。

注釋:

①參見北京互聯網法院(2019)京0491民初6694號民事判決書。

猜你喜歡
法律信息
法律推理與法律一體化
法律方法(2022年1期)2022-07-21 09:17:10
法律解釋與自然法
法律方法(2021年3期)2021-03-16 05:57:02
法律適用中的邏輯思維
法律方法(2019年3期)2019-09-11 06:27:06
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
讓人死亡的法律
山東青年(2016年1期)2016-02-28 14:25:30
“互助獻血”質疑聲背后的法律困惑
中國衛生(2015年1期)2015-11-16 01:05:56
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
讓法律做主
浙江人大(2014年5期)2014-03-20 16:20:27
信息
建筑創作(2001年3期)2001-08-22 18:48:14
健康信息
祝您健康(1987年3期)1987-12-30 09:52:32
主站蜘蛛池模板: 国产成人亚洲精品无码电影| 亚洲男人的天堂视频| 草逼视频国产| av在线无码浏览| 国产一在线观看| 国产精品一区不卡| 91精品啪在线观看国产60岁| 久久综合九九亚洲一区| 沈阳少妇高潮在线| 中文一区二区视频| 99这里只有精品免费视频| 免费人欧美成又黄又爽的视频| 成人午夜在线播放| 无遮挡一级毛片呦女视频| 日韩午夜伦| 国产网友愉拍精品| 亚洲无码高清一区| 色婷婷国产精品视频| 亚洲精品视频网| 高清视频一区| 国产一区二区三区在线精品专区| 热伊人99re久久精品最新地| 午夜限制老子影院888| 91福利一区二区三区| 久久久久免费看成人影片| 国产一区自拍视频| 国产精品人莉莉成在线播放| 狠狠色综合久久狠狠色综合| 99re这里只有国产中文精品国产精品| www.91在线播放| 91www在线观看| 欧美a级完整在线观看| 一区二区三区高清视频国产女人| 国产网友愉拍精品视频| 一级毛片免费高清视频| 精品国产福利在线| 中文字幕有乳无码| 成人午夜网址| 伊人丁香五月天久久综合 | 国产三级成人| 华人在线亚洲欧美精品| 日本中文字幕久久网站| 99在线小视频| 国产日产欧美精品| 伊人久久大线影院首页| 国产色图在线观看| 啪啪啪亚洲无码| 亚洲精品动漫| 香蕉精品在线| 99人体免费视频| 怡春院欧美一区二区三区免费| 国产v欧美v日韩v综合精品| 最新亚洲av女人的天堂| 国产精品久久久久久久伊一| 国产第二十一页| 69国产精品视频免费| 人妻一区二区三区无码精品一区| 国产精品视频久| 国产精品v欧美| 真人高潮娇喘嗯啊在线观看| 蜜芽一区二区国产精品| 在线观看亚洲精品福利片| 91免费国产在线观看尤物| 美女一区二区在线观看| 99视频在线免费| 亚洲成网777777国产精品| 欧美一级色视频| 女人天堂av免费| 性色一区| 色网在线视频| 成人蜜桃网| 久久五月天国产自| 久久久久久尹人网香蕉 | 色偷偷男人的天堂亚洲av| 国产成人精彩在线视频50| 伊人福利视频| av色爱 天堂网| 亚洲人成电影在线播放| 婷婷丁香在线观看| 亚洲AV电影不卡在线观看| 狠狠色丁婷婷综合久久| 国产日韩精品欧美一区喷|