999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能時代算法法律規(guī)制與數字人權保護問題探析

2022-02-05 00:30:43李文靜楊洪斌
四川警察學院學報 2022年3期
關鍵詞:法律

李文靜,楊洪斌

一、選題緣由

“算法”這一名詞源于9 世紀波斯王國的一位數學家,它被當作數字的運算規(guī)則。有學者認為算法在廣義上是一種解決所有領域問題的操作步驟,是明確且具有目的性的。有的學者更傾向于狹義上的算法概念,認為它是一種純粹性地解決問題的科學技術,主要應用于解決數學難度或者是電腦程序問題。還有學者認為算法就是一套有公式的指令。其實,算法并非簡單意義上的數學算法,也不是僅指個人決策的算法,而是兩者都是,是人機交相決策的算法。目前,算法深入到了人類社會的各個方面,例如借助消費者的個人信息和使用習慣等數據,實現(xiàn)用戶需求和服務的快速精確匹配,又如司法系統(tǒng)應用算法來提高案件判決的效率與公正性。但是,不當應用算法會造成社會危害,比如過度采集用戶信息侵犯個人隱私、大數據殺熟、不當操縱流量分配干預平臺商家經營等。

算法作為一項技術,可以說是科技日益發(fā)展的結果,其應該是中性的,具有客觀性。但算法也有其自主性,其借助統(tǒng)計方法可推到出新命題或者新的規(guī)律。互聯(lián)網領域是算法應用的重要場景之一。在信息技術方面,算法是人工智能的焦點,是處理以及運用大數據關鍵環(huán)節(jié)。算法運用的結果會通過一定的途徑傳播給大眾網民,網民通過算法大數據的結果獲得信息,借助網絡平臺交流信息,這一過程會影響他們的知識、眼界、思維角度,也會影響他們對生活、社會、國家的看法。因為算法是有自己獨立的邏輯以及方式,并非完全具有客觀性,也可以是主觀的,這就是學者哈貝馬斯的觀點“算法也可以是一種意識形態(tài)”。

技術也需要不斷革新,回避壞的結果,實現(xiàn)自我完善。技術的不當使用可能會破壞社會的穩(wěn)定和危害到個人的利益。算法作為一項先進的科學技術,一定的具有自主性,可能會引發(fā)風險。因此,需要對技術人員適當強調風險和注意義務。技術人員應及時根據不同的場景預估不同的風險,從而更好地應對不必要的危險。

科技日新月異的發(fā)展,雖然會帶來一定的未知風險,但其因為具有先進性,在推動社會向前發(fā)展以及提高公民生活質量上發(fā)揮著重要作用。所以,在面對法律規(guī)制與科技發(fā)展的關系問題上,我們要找準平衡點,處理好兩者的關系。對此,立法機關應完善、制度體系,維持社會穩(wěn)定。

目前,具有代表性的相關研究主要有:沈偉偉在《算法透明原則的迷思——算法規(guī)制理論的批判》提到,與事后規(guī)制相比,算法透明度原則作為一種事前規(guī)制方法,其效力存在天然缺陷[1]。就算法透明性原則在算法規(guī)制中的合理定位而言,它應該處于非通用和輔助的位置。與本質性強、以算法透明度為代表的事前規(guī)制相比,以實用主義為指導、以算法責任為代表的事后規(guī)制更為合適。譚九生、范曉韻的《算法“黑箱”的成因、風險及其治理》認為,算法技術的復雜性、相關法律政策的缺乏、算法的局限性、公開算法的力量不足以及算法安全性的維護不足等因素導致了算法“黑箱”[2]。要治理算法“黑箱”,關鍵是實現(xiàn)“有意義的算法透明度”,這可以遵循建立政府責任和義務體系的路徑,促進科技公司的對外開放,發(fā)揮社會組織監(jiān)督作用。鄧志宏、孫佳靈的《我國人工智能法律規(guī)制問題初探》的主要觀點是:當前人工智能法律規(guī)制的難點在于人工智能發(fā)展階段與法律規(guī)制范圍的差異;法律只能規(guī)范已經發(fā)生的和社會上可以預見的風險;算法知識的盲區(qū)和有限的立法技術使得人工智能系統(tǒng)規(guī)制的目標難以實現(xiàn);法律規(guī)制應更加關注人工智能應用的特定領域,即遵循中國采用的分散立法的保護方式,合理借鑒國外的保護方式,結合具體行業(yè)進行規(guī)制[3]。蘇宇在更深層次上討論了該算法的規(guī)則,并對其價值目標和機構設計進行了分析。他認為,任何規(guī)制活動都應在具有法律價值的特定目標下進行。因此,確定算法規(guī)制的價值目標是解決法律規(guī)制這一重大問題的關鍵。確定價值目標的具體選擇應由立法者決定,因此由行政和司法機構在立法決定的框架內通過法律程序加以解釋。趙學剛、馬羽男在《算法偏見的法律矯正研究》中指出,無論我們多么強調對算法的監(jiān)督,不扼殺創(chuàng)新和行業(yè)競爭力都應該是管理的底線。如果苛責太多,因噎廢食,我們將落后于時代。可以建立一個新的內部和外部監(jiān)管機構來監(jiān)管數據公司[4]。本文在借鑒上述研究的基礎上,將歐美等西方國家的相關立法制度與我國現(xiàn)行的算法法律規(guī)制相比較,分析了我國現(xiàn)行法律規(guī)制的不足之處,并提出了建立未來立法規(guī)制體系的可行性建議。本文的創(chuàng)新點主要有以下三個方面:一是在詳細梳理、分析相關的法律法規(guī)以及指導性文件基礎上,提出算法法律規(guī)制的路徑;二是擴展了研究視點,不局限于研究特定應用場景下的法律規(guī)制和技術手段的完善;三是在研究內容上,較為全面地總結了算法的不透明性以及算法可能導致的算法歧視等法律問題,并分析了這些問題背后的真正原因,較為系統(tǒng)地闡述了規(guī)制算法的具體方式。

二、人工智能算法法律規(guī)制面臨的困境

(一)算法的不透明性

作為一種新興技術,算法本身具有技術的難度和復雜性,算法的應用過程還不為普通大眾知曉。這也是算法迅速發(fā)展壯大路上的絆腳石。

首先,算法透明化缺乏可操作性。算法透明,換種語言可以說是算法公開。算法公開其實是對算法數據運算的發(fā)布,還包括對數據代碼的公開。算法的不透明性,本質上是算法技術的復雜性造成的,并不是人們主觀故意使然[5]。不是學習專業(yè)代碼技術這類人,即使算法公開透明,也無法理解其內容。算法究竟是如何運轉的,即使是有一定專業(yè)技術知識的人也并不十分清楚。

其次,算法透明的實現(xiàn)面臨風險挑戰(zhàn)。假使算法的透明性部分實現(xiàn),算法具體向相關主體披露或解釋,那么,算法的透明性可能仍然存在是否可取的問題。例如,算法一旦實現(xiàn)其透明性,有的人就可能通過設置相應的參數和制造數據,利用計算類方法達成自己相關意圖,進而對其他人的正當權益形成損害。算法的公開還有可能導致算法的知識產權受到侵犯。從原理視角上分析,不管是基于勞動價值論還是基于促進投資的功利主義原則,將算法作為商業(yè)秘密來保護知識產權都是正當的[6]。人們會簡單地將算法徹底公開等同于算法正當,忽視了算法隱含的價值觀念以及對公共事務產生的影響。

再次,算法黑箱普遍存在。算法是一種典型的技術工具,應該是客觀中立的,但由于其身特性和技術應用不當,算法黑箱化現(xiàn)象比較普遍。算法黑箱的存在,在一定程度上會損害個人的合法權益,影響公眾對算法的認知,造成政府法治現(xiàn)代化推進的緩慢[7]。算法黑箱使得人們無法保護自己合法信息方面的相關利益,黑箱運作是一個專門的場域,公眾不知道也看不到其中的規(guī)則,參與不到決策的流程,那么,風險的規(guī)避就無從談起,只有默默無奈接受最后的結果。算法可以說不光是在預測,更是在幫助、主導用戶的行為[8]。

(二)算法正義遭遇危機

作為一項技術,算法是客觀中立的,所以大部分人認為應用算法技術得出的結果,也是客觀的,會有效避免人為操作可能造成的不公正問題的發(fā)生。其實不然,在人工智能算法決策中,算法歧視和不公正現(xiàn)象并不鮮見。

所謂算法歧視,是指人們在操作人工智能時采用的算法運算導致不公平或者錯誤結果出現(xiàn),造成用戶基本權利的損害。比較常見情形是價格歧視,大數據“殺熟”現(xiàn)象屢見不鮮。出現(xiàn)算法歧視的原因,一方面是算法編程人員或者使用人員的主觀偏見。設計者帶著自身的偏見與歧視,將其編入算法程序,自然算法決策出來的結果也是不公正的。除此之外,收集數據的過程可能也存在許多歧視機制。算法在不停更新學習自我完善的過程中也體現(xiàn)這種趨勢。大數據合集的不完備性依賴于人類社會相關不確定性和復雜客觀事實[9]。有些歧視可能造成不了什么影響,可是假如算法歧視牽涉到個人或者企業(yè)的信用評估、犯罪風險預測等重要事情,算法決策相關結果可能會牽涉到貸款額度、刑罰輕重等問題。這類情況則需要引起我們足夠重視。

面對日益擴張的信息鴻溝,用戶普遍缺乏足夠的能力和必要的知識對抗實力懸殊的數據掌控者,但又難以拒絕誘惑而不得不在魚或者是熊掌之間艱難抉擇。最終的結果很可能是為了獲取便利而逐漸舍棄對平等權的守護[10],這必然使得用戶識別算法歧視的閾值越來越高,長此以往,用戶就會產生耐受心理,甚至對社會不公表現(xiàn)出“格式化”和麻木的心態(tài)。這種情形勢必會給平等權保護帶來可怕的后果。

(三)規(guī)制算法的針對性條款存在欠缺

為應對大數據時代的潮流,維護社會穩(wěn)定,我國立法部門也對算法進行了法律層面的規(guī)制。主要包括我國的《網絡安全法》《數據安全法》《個人信息保護法》,此外,我國最新頒布的《民法典》中“人格權編”也對此有規(guī)定。但是,我國這些法律是偏回應型的,更偏重對算法結果的規(guī)制。法律規(guī)范文件多而密集,反映出立法機關對這一問題的高度重視,但是,從另一方面看,法律規(guī)范文件的紛雜也不是好現(xiàn)象,這可能引發(fā)數據主體的濫用風險。

《網絡安全法》對行政機關監(jiān)測網絡和維護網絡相關職責的規(guī)定,重點涉及網絡運行與信息安全維護。單從文本上看似乎是科學合理和清晰的。可是我們對照實際情況會發(fā)現(xiàn)很多問題。例如,該法第41 條規(guī)定:“網絡運營者收集、使用個人信息,應當遵循合法、正當、必要的原則,公開收集、使用規(guī)則,明示收集、使用信息的目的、方式和范圍,并經被收集者同意。”但負責網絡運營的人怎么公開以及明示信息,其公開明示義務在何種程度上可以滿足信息被收集者相關了解范圍?網絡運營者實際上可以應用算法自動關聯(lián)技術規(guī)避這條規(guī)定,即這條規(guī)定沒有辦法阻止數據主體的個人信息被單方面收集。由于其自動關聯(lián)性,該算法仍然可以繞過上述規(guī)則,在未經用戶授權的情況下提取個人私密信息。

我國《民法典》制定了數據保護規(guī)則,意義重大。這主要體現(xiàn)在該法典第1035 到1039條。但是除了規(guī)定保護個人的隱私權益,規(guī)定對自身信息的查閱、刪除、更正等權利之外,該《民法典》中并沒有對一些類似于“私密空間”“私密話語”進行范圍界定[11],也并沒有認可諸如限制處理權、數據可攜權。其規(guī)定個人信息處理的法律原因是個人同意,這沒有辦法打破強制束縛,沒有更多有針對性的權利,例如拒絕算法自動處理數據的權利。

三、人工智能算法法律規(guī)制的完善

(一)做好算法透明的頂層設計

在頂層設計上,政府需要對算法公開的相關內容以及公開的度,完善相關的法律法規(guī)。

這里的算法公開,應該是根據不同的算法內容區(qū)別處理,即不同的算法內容,公開程度是不一樣的。作為一般原則,算法都應該采取一定的方式進行公開。開放式算法在不侵犯知識產權的情況下,有關部門決策者需要借助算法進行決策的,應嘗試以普通人能夠理解的方式對算法進行逐一解釋并予以公開。在這種情況下,算法相關開放性和透明性為法律討論供給一條良好途徑[12]。此外,可以就算法引發(fā)的危害進行等級劃分,不一樣的等級采取不同的公開方法。這種體系的構建必須有個前提,即在算法中的任何一風險等級,用戶都有權擁有最簡單明了的基本操作方法,并告知用戶有對算法結果提出異議的權利,對于不理解的地方也享有要求對方解釋的權利。風險可以大致分為三個等級:一級風險、二級風險和三級風險,風險等級依次遞增。算法中的一級風險和二級風險,可以設定恰當的公開范圍,同時把征得用戶同意的依賴程度降低。具體實施上,對于一級風險的算法數據,技術公司在公開的時候不用征得用戶的同意,減輕公司企業(yè)的壓力。具有二級風險的算法,應當讓用戶以顯著的方式意識到風險的后果,并采取積極主動的措施,減少應對風險的迫切需要。如果用戶不愿意做出一些措施去降低風險,就應該立即停止算法的運作。高風險場景的算法應重點公開,對于數據的收集分析要經主體同意,告知其數據處理的情況以及涉及的邏輯信息與處理的重要性與后果。在面對第三等級算法風險時,收集數據信息時需要征得主體同意,同時需要告訴他們處理相關數據的具體情形、收集這些數據的必要性以及需要面對的后果,這是需要重點公開的方面。另外,我們還可以采取小規(guī)模披露的方式。所謂小規(guī)模披露是指算法可以向企業(yè)的決策者披露,也可以向企業(yè)的其他人員披露。在企業(yè)決策體系內部設立算法專業(yè)法律委員會,選舉產生部分專業(yè)委員,加強對算法的評審[13],通過這樣的方式去保證算法運行的合理合法性。

(二)加強算法監(jiān)管

為了能更好監(jiān)管算法,防止算法歧視,需要加強算法監(jiān)管。2022 年3 月1 日起施行的《互聯(lián)網信息服務算法推薦管理規(guī)定》,將算法推薦服務全面納入監(jiān)管。該文件規(guī)定,算法推薦服務提供者應當向用戶提供不針對其個人特征的選項,或者向用戶提供便捷的關閉算法推薦服務的選項。該規(guī)定涉及的個性化推薦如何更加規(guī)范,仍然面臨挑戰(zhàn)。但是,該規(guī)定的出臺促進了互聯(lián)網平臺的算法技術進步,有利于推進相關行業(yè)的數字化轉型與平臺經濟的健康發(fā)展。

算法監(jiān)管可以從兩個方面雙管齊下,其一是算法制定者的內部監(jiān)管,即設立數據保護負責人團隊。負責人需要擁有法律知識和技術知識,是復合型人才。為了有效決定自動決策算法,立法還需賦予數據維護負責人對自動決策算法結果的抵制以及上訴權利。數據主體享有數據訪問權、算法拒絕權以及申訴復議權,在對自動決策算法結果不滿意時,可以行使上述權利。算法控制者應當定期檢測算法模型中的數據偏差,避免對服務對象產生歧視性影響,如果其未能履行此項義務,算法控制者就應該被問責。其二是加強外部監(jiān)管。雖然這兩年,國家有成立政府的數據監(jiān)管局,但其職能更多體現(xiàn)在政務公開層面。所以我們需要建立一個專門的算法監(jiān)督管理機構,來應對算法歧視的泛濫。數據主體可以通過專門算法監(jiān)督機構去找尋政府救濟,更好地保障自身相關合法權益。因此,這類監(jiān)督機構,首先要保持自身獨立性,可以借鑒監(jiān)察委相關設立模式。同時也要保證其財政獨立。對于哪些被算法監(jiān)督機構監(jiān)管,即監(jiān)管相關對象必須明確。既可以是技術企業(yè),亦或以是算法本身,也可是算法使用者。更重要的是算法監(jiān)督機構人員的構成,必須要求是專業(yè)技術強,法律意識充沛的人。監(jiān)管機構要把風險預防作為目的,通過對數據進行篩查、評估以及專業(yè)恢復等方式,加強對數據質量的剖析。

(三)細化立法條款,明確問責機制

細化立法條款,明確問責機制是一項挑戰(zhàn)性強的工作,需要一個過程。但是,這項工作已迫在眉睫。

首先,對于已經頒布的法律,有些內容和法律概念應予以細化。由于算法的設計、操作是放在網絡環(huán)境下進行的,所以,《網絡安全法》的相關規(guī)定適用算法的規(guī)制。例如就該法的第22 條,網絡相關產品以及服務應遵守國家標準強制性規(guī)定,那么,必須對惡意程序進行限制性約束,網絡產品和服務符合不得設置惡意程序。法律禁止組織或個人使用算法侵犯他人權利或公共利益。但可以針對該法第41 條,對網絡經營者的公開和明示義務作出規(guī)定,例如牽涉到公民個人利益的,在不侵犯其知識產權的情況才必須公開。

其次,還需明確算法責任制度。在算法問責主體上,可以將設計者、操作者或者第三方侵權人當作問責主體。如果算法內部出現(xiàn)問題,則將算法設計者當作問責主體。如果是使用過程中發(fā)生侵權事件,則追究算法操作人員相關責任。在歸責問題上,過錯推定原則具備正當適用性。關于侵權因果關系的認定問題,由于算法與客觀損傷之間沒有直接的因果關系,需要綜合考慮算法模型、主觀意圖和損傷大小來確定[14]108。在算法侵權舉證責任分配相關問題上,可以采取舉證責任倒置更加方便舉證以及質證。因為侵權主體一般都是擁有專業(yè)技術知識的人。算法侵權責任相關承擔方式應包括賠禮道歉、經濟賠償、積極消除算法影響等類型。針對造成嚴重財產侵害的情形,可以建立懲罰性賠償制度。由于我國關于算法規(guī)制的法律過于分散與模糊,立法機關也可以借鑒國外的相關立法經驗制定符合我國國情的《算法責任法》,整合有關規(guī)制內容。

四、涉人工智能算法數字人權的保護

數字技術發(fā)展也應樹立以人為本的理念。算法規(guī)制的實現(xiàn)離不開數字人權保護。數字人權的涵蓋面極為廣泛,數字技術的各個應用場景中,都存在數字人權保護問題。我國正在致力于構建人類命運共同體,加強數字人權保護可以增強中國在科技立法和數據治理方面的國際發(fā)言權。算法的法律規(guī)制手段只能解決算法公正的短期目標和中期目標,長遠來看,算法公正需要借助數字人權保護來實現(xiàn)。

(一)數字人權理念

眾所周知,前三代人權的內容主要是公眾參與、生活標準和物理世界的公平發(fā)展,牽涉到實質層面上的人、物和行為,是不涉及到數據信息的。現(xiàn)在,隨著數字時代的到來,一切從個人隱私到公共生活和財富,從服裝、食品、住房和交通到公共安全,都在加速計算機化和數字化進程。離線狀態(tài)下的純活動較少。虛擬世界和現(xiàn)實世界的區(qū)別正在失去其原有的意義,所有人的數字生活將更加詳細。因此,所有人權,包括生命和財產、工作和就業(yè)、社會保障、文化和教育,通過計算機化和數字化,如:隱私和個性、智能政府和公眾參與、保護虛擬財產、網上言論自由等,已經被解構和重建;或者迎接了數字分形、算法歧視、算法霸權、公司監(jiān)控等新的挑戰(zhàn)。在當今,數字生活中由數據信息填滿,不可或缺。它也成為新時代人權的新載體和日益重要的表達,人權內容或人權形式正在從前三代人權的物質支持轉變?yōu)楫斍叭藱嗟臄底种С郑@構成了第四代人權的發(fā)展動力和基礎。

當今數字時代,海量信息數據是人們身份、行為、關系的具體顯示和場景再現(xiàn),是人的數字屬性、數字定位和數字生態(tài)的必要資源,也是構成人的資格的核心要素。算法的黑匣子,算法的霸權和算法的差別等問題被強調和普及,人腦的決策也日益會被算法這類自動化決策所替代。目前,核心問題不再是合同自由和產權,而是數字人格,包括個人電子信息的知情權和個人電子信息不被非法披露、篡改和破壞都是個人人格權的重要內容。因此識別數字人格是保護數字人權必然途徑。

(二)數字人權面臨的壓力和挑戰(zhàn)

首先,黑箱陰謀現(xiàn)象正在變得越來越嚴重。用戶最終選擇接受結果,是因為他們無法看到規(guī)則、表達不同意見和參與決策過程。因此,有的算法“不僅是預測,而且有助于控制用戶行為”,這當然會構成各種“陰謀”的黑匣子,歧視、不公正、不當利潤甚至欺詐在所難免,人權保護自然面臨挑戰(zhàn)。其次,沒有監(jiān)測方向的擴張。一些國家的貿易組織和政府經常隨時以各種名義監(jiān)測和檢查個人數據信息。再次,數據控制的嚴重不對稱非常突出。所有數據都是我們自己生成的,但所有權不屬于我們。個人背景的透明度越來越高,外人對各種信息的收集和了解甚至超過了自己,加之,一些新黑科技的應用,網絡竊賊可能正利用你的腦電波竊取個人信息,因此,一般公眾很難知道他們有多少個人數據和信息被他人控制。這意味著日益增長的“信息壟斷”和“信息鴻溝”可能危及個人隱私,自由平等和人的尊嚴,損害數字時代的公平機會、社會教育、工作和社會保障等各項人權。

近年來,種族、性別、身份、宗教和健康狀況等方面的算法歧視在不少領域都有發(fā)生。借助自動信息處理,算法運營主體可以繞過反歧視限制,對特定群體進行分組。因此,掌握算法的公司和政府機構依靠一系列隱藏而強大的信息和精確的計算能力,通過虛擬空間實現(xiàn)遠程存在,為所有特定對象提供其所需要的資源,并實現(xiàn)抽象和廣泛的自動識別。其后果具有普遍性、長期性和深遠性,自現(xiàn)代化以來嚴重侵蝕了反歧視人權。事實上,信息隱私和算法歧視都不是簡單的個人現(xiàn)象,其在一定程度上已經演變?yōu)橐环N社會現(xiàn)象。在其他領域,民眾參與智能政府決策、網絡言論發(fā)聲、虛擬社會組織,平等和正義等權利的變化也很普遍。在這些場域,民眾的私人權益往往處于更為脆弱的地位,難以得到有效保護。

事實表明,自計算機問世以來,技術變革的主要問題是權力的轉移,這導致人類從工業(yè)社會向算法社會轉移。最初,算法社會的主要目標是提高智能和人類的自主性。這些自動化系統(tǒng)已經從簡單的行政工具轉變?yōu)橹饕獩Q策者,收集了大量個人數據,使政府和私營公司能夠采用新的監(jiān)測、控制、歧視和操縱形式。人們自己去主導的時代,已經被高效便捷的算法來主導。有學者預測,人工智能可能會逐漸成為國家和國際經濟的主導者,這一趨勢說明經濟自由和資本主義結束了。因此,加強個人自主權,反對集權。

(三)數字人權保護機制的構建

首先,將人權和道德的相關價值觀融入算法中。算法和價值選擇的優(yōu)缺點與互聯(lián)網公司可以獲得的用戶數量和流量有關,也關系到互聯(lián)網公司的利益。只有通過完善規(guī)則和管理人性,我們才能充分享受科技的紅利。在數字技術驅動的數字經濟和數字社會背景下,研發(fā)公司的知識產權保護必須嚴格遵守尊重公民人權的原則,如隱私權、數據權和知識利益共享[14]117。科技發(fā)展的最終方向是人。互聯(lián)網公司開發(fā)和應用新技術的目標應該是最好地為人們服務,在服務提供過程中獲利,不是為了利益而傷害人們。當下,我們必須高度警惕推薦算法正在改變信息披露的邏輯和規(guī)則。要確保符合主流價值,以主流價值取向控制算法,大幅提升輿論導向能力,我們可以確保算法的識別和應用不會偏離軌道,更好地服務于社會。我們不僅要注意從技術層面對數據和算法的區(qū)分,還要從價值層面對數據控制員進行引導,避免基于自然利潤需求引入偏差數據和算法。

其次,促進數據和信息自主的制度化進程。對于數字人權這一概念具有重要影響意義的就是“信息自決”這一概念了,這一概念的提出對保護數據信息以及權利具有劃時代的意義。其意義主要體現(xiàn)在,個人數據不受國家的無限收集、存儲、使用和傳輸。但它不是一項絕對的權利,實際上它受到一定程度的限制,與其他原則一樣,這影響著數字化的發(fā)展前景。我們應找到平衡點,并予以制度化,以更好地保障信息權益和數字人權。

再次,我們必須確立算法的倫理原則。算法歧視、算法控制和算法投喂等問題的解決,僅靠法律的外部規(guī)制是不夠的,最基本、最頻繁的是決策算法的內部自律。公正的實現(xiàn)需要借助算法的質量監(jiān)控。因此,有必要將人權和法治的必要價值納入算法決策中,并定義算法自律的標準,即:在國家立法、行業(yè)自律和社會評價中確立算法符合“良法”的倫理原則,以尊重人權價值,維護數字人權,促進社會公平正義。

猜你喜歡
法律
見義勇為的法律保護
新少年(2023年9期)2023-10-14 15:57:47
法律推理與法律一體化
法律方法(2022年1期)2022-07-21 09:17:10
法律解釋與自然法
法律方法(2021年3期)2021-03-16 05:57:02
為什么法律推理必須是獨特的
法律方法(2019年4期)2019-11-16 01:07:16
法律適用中的邏輯思維
法律方法(2019年3期)2019-09-11 06:27:06
法律擬制與法律變遷
法律方法(2019年1期)2019-05-21 01:03:26
非正義法律之解釋與無效
法律方法(2018年2期)2018-07-13 03:21:38
《歡樂頌》中的法律“梗”
學生天地(2016年23期)2016-05-17 05:47:10
讓人死亡的法律
山東青年(2016年1期)2016-02-28 14:25:30
“互助獻血”質疑聲背后的法律困惑
主站蜘蛛池模板: 色老二精品视频在线观看| 国产9191精品免费观看| 国产成人一级| www.91在线播放| 国产免费自拍视频| 全部免费毛片免费播放| 亚洲日韩图片专区第1页| 好吊色国产欧美日韩免费观看| 国产一级视频久久| 午夜精品区| 日韩欧美在线观看| 日韩福利在线视频| 熟妇丰满人妻av无码区| 国产簧片免费在线播放| 国产人人乐人人爱| 亚洲欧洲AV一区二区三区| 亚洲中文精品人人永久免费| 88av在线看| 91福利在线观看视频| 国产精品无码久久久久AV| 在线观看国产精美视频| 九九热精品免费视频| 国产一区二区精品福利| 欧美一级视频免费| 国产成人精品亚洲日本对白优播| 67194亚洲无码| 激情综合五月网| 伊人久久精品无码麻豆精品| 亚洲伦理一区二区| 永久免费av网站可以直接看的| 制服丝袜亚洲| 亚洲人成网站18禁动漫无码| 午夜国产大片免费观看| 免费Aⅴ片在线观看蜜芽Tⅴ | jizz亚洲高清在线观看| 欧美日韩免费在线视频| 亚洲人成亚洲精品| 白浆免费视频国产精品视频| 精品91视频| a级免费视频| 日韩久久精品无码aV| 成人综合在线观看| av一区二区人妻无码| 波多野结衣一区二区三视频 | 丁香综合在线| 91久久性奴调教国产免费| 毛片免费视频| 亚洲午夜天堂| 欧美午夜视频在线| 国产成人精品一区二区不卡| 国产手机在线小视频免费观看| 国产精品女同一区三区五区| 色网站在线免费观看| 精品一区二区三区水蜜桃| 久久黄色视频影| 青青热久免费精品视频6| 精品欧美一区二区三区久久久| 国产精品毛片在线直播完整版| 色婷婷在线影院| 欧亚日韩Av| 日韩一区二区三免费高清| 久久人搡人人玩人妻精品一| 国产亚洲精品在天天在线麻豆 | av一区二区三区高清久久| 国产日韩欧美精品区性色| 伊人久久影视| 久久美女精品国产精品亚洲| 国产色伊人| 国产女人18水真多毛片18精品| 99精品久久精品| 98超碰在线观看| 亚洲天堂网视频| 国产精品漂亮美女在线观看| 天天爽免费视频| 亚洲啪啪网| 黄色网页在线观看| 内射人妻无码色AV天堂| 人妻熟妇日韩AV在线播放| 毛片基地美国正在播放亚洲 | 国产一区二区三区免费观看| 亚洲va欧美ⅴa国产va影院| 91丝袜乱伦|