999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能應用的倫理風險及法治應對

2022-12-17 14:31:36
學習與探索 2022年7期
關鍵詞:主體人工智能法律

潘 志 玉

(山東政法學院 民商法學院,濟南 250014)

在新一代信息技術革命浪潮的推動下,人工智能應用越來越廣泛,尤其在以大數(shù)據(jù)和深度神經(jīng)網(wǎng)絡為代表的前沿領域取得了重大創(chuàng)新與突破。人工智能實際就是創(chuàng)造開發(fā)出能夠最大程度模擬甚或超出人類大腦智力的一套原理、技術、方法及應用系統(tǒng),其最終目標是讓智能機器進行各種類人化操作[1]。當前,人工智能已成為新一輪科技革命和產(chǎn)業(yè)變革的重要驅動力量。特別值得一提的是,作為年度熱詞的“元宇宙”開始走上了社會產(chǎn)業(yè)發(fā)展舞臺,(1)“元宇宙”實際就是人們借助VR技術如身臨其境一般進入虛擬的數(shù)字世界,簡言之,即是3D版的網(wǎng)絡世界。2022年1月12日騰訊新聞聯(lián)合復旦大學新聞學院傳播系發(fā)布的《2021元宇宙年度報告》預測,在未來幾年,元宇宙的核心維度將越來越強,包括算力、響應力、逼真性、沉浸性、互動性、 用戶自主性、數(shù)字財產(chǎn)保護、數(shù)字貨幣支付等,在制造業(yè)、城市規(guī)劃、零售業(yè)、教育、醫(yī)療、娛樂和社交等方面的應用也將越來越多。在元宇宙的世界里,人工智能也將出演重要角色,為元宇宙賦予智能的“大腦”以及創(chuàng)新的內容。在人工智能快速應用、快速發(fā)展的同時,它也給我們帶來了諸多的風險和挑戰(zhàn),有必要從倫理哲學角度深入認識人工智能的法律人格,從而推進人工智能治理的法治化進程。

一、人工智能的法律人格

近年來,伴隨人工智能的廣泛應用,學界開始重視并持續(xù)審視人工智能技術與人的關系,對人工智能進行倫理反思。這一反思首先要探討的就是人機關系的定位問題,即人機關系屬于一種平等的人際關系,還是人類主宰機器的主客體關系?根據(jù)馬克思主義物質和意識的辯證關系理論,人工智能在本質上是由人類創(chuàng)造的,是人們在認識和改造世界過程中通過實踐活動所創(chuàng)造的一種工具。人工智能的生成原理是模仿人的思維及人腦的作用進而設計相應的算法運作,人工智能仍然是人的意識的反映,是人腦的智慧創(chuàng)造的結果。人類創(chuàng)造智能產(chǎn)品的目的是使其更好地為人類服務,而一旦人工智能產(chǎn)品通過高端科技形成類人化意識,存在控制人類或加害于人類的現(xiàn)實可能性時,人機關系就可能產(chǎn)生倒置錯位[2]。因此,在人工智能的發(fā)展和應用過程中,人工智能產(chǎn)品只應該作為服務于人類的客體而存在,人機關系應當是目的與手段、利用和被利用的關系,唯有如此,才能推動人工智能的研發(fā)運行于正確的軌道,才能保證人的道德主體地位。從法律的角度來看待人機關系的定位問題,首先要厘清的就是人工智能的法律人格問題。

所謂法律人格,是指由國家法律所認可的一種享受權利、承擔義務的資格,具體分為自然人主體人格和法律擬制主體人格。隨著人工智能技術的進步和變革,其自身的功能及應用在現(xiàn)實生活中與許多法律問題相互交織,因此,規(guī)范人工智能的法律人格具有重要意義。對于是否承認人工智能享有法律主體資格,目前學界主要存在否定說、代理說、電子人格說、有限人格說、新主體說等多種界定,其中否認說為主流觀點。否認說認為,具備法律上的人格或者成為擬制法律人,需同時具備生理學、心理學和社會學等要素。人工智能產(chǎn)品(如智能機器人)盡管有一定的意思能力,甚至能夠擔當一定的職業(yè)任務,但其仍然屬于物的范疇,不能成為民事主體,其能擁有的僅僅是經(jīng)由人類制造的無限靠近自然人意思能力或水平的民事法律地位。如果人工智能產(chǎn)品給社會帶來安全隱患或風險,再或者給他人的人身或財產(chǎn)造成實際損害,應當適用民法上的產(chǎn)品責任規(guī)范[3]。

然而,對于人工智能究竟能發(fā)展到何種程度,是否永遠不能擁有法律人格,現(xiàn)下定論還為時尚早。根據(jù)人工智能的發(fā)展,大體可以將其劃分為弱人工智能、強人工智能和超人工智能三個階段。目前的人工智能的發(fā)展尚處于弱人工智能階段,也即這些智能機器沒有自主意思,不會真正地推理和解決問題,其能夠從事的工作領域依然很有限。而強人工智能機器不僅是一種工具,還具有知覺、思維或自我意識,有真正推理和解決問題的能力,其智慧程度相當于人類大腦,可以基本完成人類的全部工作。(2)強人工智能階段機器的智力已經(jīng)與人類相當,但科學家還沒有真正掌握這種技術。而美國谷歌公司開發(fā)的人工智能程序“阿爾法圍棋”已經(jīng)邁出了堅實的一步。現(xiàn)在還有一種智能的數(shù)據(jù)分析平臺,可以根據(jù)輸入的信息給出投資建議。超人工智能則在綜合智慧力、聰明度、算法、認知、創(chuàng)意、思維、通識、社交等幾乎所有領域都能趕超人類大腦的智能階段。(3)超人工智能將打破人腦受到的維度限制,其所觀察和思考的內容,人腦已經(jīng)無法理解,人工智能將形成一個全新的社會。我們應該根據(jù)人工智能發(fā)展的不同階段,對人工智能的法律人格作出不同的認定。在弱人工智能時期,人工智能產(chǎn)品猶如民法上的“物”,與其所有權人具有一定的依附關系,此時無需相關法律來判定它的人格地位。而在強人工智能甚至超人工智能階段,就需要對人工智能的法律人格給予重新審視和考量,因為否定說無法完全解決無人駕駛、智能醫(yī)療等領域引發(fā)的侵權問題。(4)無人機駕駛、人工智能醫(yī)療事故等侵權案件涉及的責任主體較為復雜,不能把事故產(chǎn)生后的責任完全推給生產(chǎn)者或者設計者,單靠產(chǎn)品責任規(guī)范力有不逮。另外,人工智能之所以不被認為具有獨立法律人格地位,還因為其意思表示能力受限。但是,從我國民法典的最新立法精神來看,母體懷孕期間的胎兒可以享有一定的民事權利、具有一定的民事權利能力,那么,由此可以看出,試圖通過無意思表示能力來限制人工智能的法律主體資格也不具有完全的說服力。

所以,承認人工智能的法律人格,在強人工智能和超人工智能時代具有重要意義。可以預見,隨著人工智能技術的不斷進步,人們對于人工智能在法律體系中的主體資格會有認知上的轉變,即由從法律關系的客體到法律關系的主體的轉變。雖然當前人工智能還處于弱人工智能階段,但是十分有必要未雨綢繆探討超強人工智能的法律人格問題。以下四種學說雖然還很不完善,但對于解決未來人工智能的法律人格問題具有一定的借鑒價值。

(一)新主體說

該學說認為,伴隨發(fā)展,人工智能將來會具有一定的獨立意識和思考能力,能夠獨立進入法律關系之中作為新的主體而存在,故可以將人工智能作為一種新的主體賦予其法律人格。法人和非法人組織也是隨著立法的進步與完善在自然人之后逐漸成為法律關系的擬制主體的。而且人工智能的發(fā)展目的是為人類服務,所以認可人工智能的法律人格地位不僅可以保障既存民事主體的合法權益,也可防止出現(xiàn)因人工智能的民事法律地位不明而給既存民事主體帶來損失的情況[4]。當然,該學說也注意到,法人、非法人組織仍然是由人組成的,通過內部的決議機構形成決策意見進而對外部作出意思表示,本質上還是人的組織,體現(xiàn)的是人的意志;而人工智能作為一種物出現(xiàn),作為法律關系主體得到確立,既是對立法技術提出更高的要求,也是對立法成本的提高。

(二)代理說

該學說主張,人工智能應被認定為其所有人或使用人的代理人,按照代理法律關系處理相關爭議,即人工智能產(chǎn)品對外實施的侵害“行為”,最終由其被代理人承擔所有法律后果。該學說也具有一定的局限性,因為代理的適用前提是代理人必須具有完全民事行為能力,且無法適用于事實行為,那么對于人工智能自身運行中所產(chǎn)生的對外致害如何擔責,又是難以自圓其說的。

(三)電子人格說

該學說主張賦予人工智能以一定的“電子人”身份人格,可以在相應的領域內參與一定的法律關系。該學說主要針對的是解決由人工智能產(chǎn)生的損害賠償問題。《歐洲機器人民事法律規(guī)則》旨在通過賦予人工智能以民事主體資格,以便對其產(chǎn)生的損害賠償?shù)葐栴}進行歸責。應當說,“在對人工智能進行科學分類后,對強人工智能賦予法律主體地位具有一定科學性,但需要在實際操作中施加一定限制;同樣,在分析了智能機器人的認知與行為理性后,也有必要在刑事責任層面確認其主體地位與法律人格。”[5]適用該學說似乎也有一個預想前提,即未來的人工智能應當具有獨立財產(chǎn),否則損害賠償仍然無法實現(xiàn)。

(四)有限人格說

該學說考慮到人工智能無論智能到何種程度,本質上畢竟不同于人,其與自然人主體在意識、思維、行動、情感、認知等方面存在質的區(qū)別,故只是附條件且有限地承認其法律人格,承認人工智能有限的法律主體地位。該學說嘗試借鑒法人和非法人組織的法律擬制規(guī)則,并結合登記備案制度來健全人工智能體的責任體制[6]。

二、人工智能技術應用的倫理風險與挑戰(zhàn)

人工智能的快速發(fā)展和應用將不可避免地給社會帶來更多的倫理風險和挑戰(zhàn),(5)人工智能倫理風險源于技術—人—社會—自然之間的復雜交互,主要包括技術倫理風險、社會倫理風險和人類生存?zhèn)惱盹L險等,另包含技術內生型倫理風險和技術應用型倫理風險兩大生成路徑。這些挑戰(zhàn)和風險應該引起我們的警醒和重視。人類對人工智能所秉持的倫理原則和價值觀將直接影響其發(fā)展路徑和方向,也決定著構建何種人機關系。如果我們能對人工智能技術加以科學利用、合理管控,并始終堅持維護人類命運共同體利益的最高倫理規(guī)范,人們就可以充分享受人工智能技術帶來的便利和利益,人類生活將變得更加舒適美好。

(一)人類主體地位受到?jīng)_擊

人與人工智能的關系及人類的主體地位,是人工智能發(fā)展過程要探討的首要問題。從目前的發(fā)展來看,人工智能只是我們創(chuàng)造出來的產(chǎn)品,處于弱人工智能階段,仍然是民法上的“物”的范疇,人類對于其享有物權或者說是知識產(chǎn)權。但是,放眼不遠的未來,人工智能很可能具有類似人類的思維活動以及情感體系,能通過自己的內部程序表達出自己的“意志”,通過自己的“意思表示”與人類或者與其他人工智能進行交流。這樣一來,就會脫離當下與人的從屬關系,成為新的法律主體。那么,它們的發(fā)明能力、創(chuàng)造能力是否會超過我們?當它們具有思維活動和意思表達能力后,是否可以具有與人類一樣的法律主體資格?在法律上,它們的地位與我們是否處于同樣的位置?我們是否會被人工智能統(tǒng)治,主體地位遭到破壞呢?除此之外,人權是我們能夠獲得保障、主張權益的最基本權利。如果人工智能同樣享有婚姻、人格、名譽等權利,乃至與人組成家庭,這些都將是對人性倫理的巨大挑戰(zhàn)。(6)2017 年 10 月 26 日,一臺名叫 Sophia(索菲亞)的機器人被沙特阿拉伯授予國籍,自此索菲亞成為世界歷史上第一個具有公民身份的機器人。

(二)利益權衡與價值選擇遇困

技術進步應始終以人為中心,當技術出錯時,一些關于倫理設計和政策的前瞻性思考可以幫助引導技術發(fā)展,從而使我們人類免受其害。在具體設計人為人工智能提前設置相應程序時,將會面對價值選擇與利益權衡的困難。縱使我們賦予人工智能以正義、平等、效率、秩序等價值理念,執(zhí)行的效果也可能不盡如人意。比如,當人工智能汽車行駛過程中遇到行人闖紅燈,它是遵循“交通信號燈”運行規(guī)則還是停車避讓以保護行人的安全?再或者遇到“緊急避險”情況,人工智能汽車無論如何都會撞上行人時,它是否會選擇撞向少數(shù)人一邊?為實現(xiàn)正義、平等、效率、秩序等價值理念,人們一般會根據(jù)實際情況將原則性和靈活性相結合,進而在行動上作出一定的取舍,而且這要求遇到問題的人必須具有一定的思想高度才能實現(xiàn)這些價值觀的“最大公約數(shù)”。反觀人工智能,需要我們將這些價值的含義轉換成算法植入其系統(tǒng)內部作為作出判斷的依據(jù),甚至算法在原有的道德規(guī)范嵌入基礎上,還要不斷學習新的道德規(guī)范,通過持續(xù)增強其道德能力水平,才能讓其在風險來臨之際作出更為合理的道德選擇[7]。總之,讓人工智能在關鍵時刻作出在道德價值判斷與倫理規(guī)范上的權衡和取舍,將是人工智能應用中不可回避的倫理風險和挑戰(zhàn)。

(三)個人信息安全風險劇增

人工智能技術的廣泛應用離不開海量大數(shù)據(jù)的采集與精準的算法設計。所以,人工智能技術一旦被濫用,也必將造成可怕的后果。隨著數(shù)字化技術的迅猛發(fā)展和進步,算法推薦技術正將人們帶入個性化、定制化、智能化更強的信息傳播時代。在這個新的時代,我們每個人的喜好以及購物、上網(wǎng)習慣都會被大數(shù)據(jù)精確地發(fā)現(xiàn)。據(jù)《中國大安全感知報告(2021)》顯示,有七成受訪者認為算法能獲取自己的喜好、興趣,從而“算計”自己,近五成受訪者表示在算法束縛下想要逃離網(wǎng)絡、遠離手機卻又很難。日常生活中,人們對于在線支付、圖像采集、生物識別、衛(wèi)星導航以及社交軟件等的運用已經(jīng)習以為常,但商家、政府、網(wǎng)絡平臺等采集的這些數(shù)據(jù)是否能夠被合理利用、是否得到充分保護,還沒有形成透明的機制,還沒有完善的程序和規(guī)制措施。因此,隱私及個人信息泄露仍然是人工智能技術發(fā)展應用中亟待解決的關鍵問題。除此之外,人工智能若被濫用于非法集資、非法經(jīng)營、竊取情報、泄露國家秘密等違法犯罪方面,也將會給個人合法權益以及國家利益、社會公共利益帶來重大損害。

(四)安全責任主體缺失困境

近年來,伴隨著網(wǎng)絡技術的更新?lián)Q代,責任倫理逐漸步入學界視野、走入時代舞臺。“新的道德思維是責任倫理精神中最深層次的東西,責任倫理所具有的他者思維、復雜思維和境遇思維等特點,使其能夠突破傳統(tǒng)道德思維的局限,有可能解決當代人類社會所面臨的道德難題。”[8]人工智能應用離不開算法,而算法設計也很可能會被濫用而引發(fā)糾紛,甚至在某些領域出現(xiàn)人類不能預見又不能克服的安全風險和隱患。那么,到底哪些主體應該為這些不確定性的安全事故買單,是人工智能體本身還是研發(fā)者、設計者或應用者,其所引發(fā)的責任歸屬問題一直困擾著人類,一時還沒有得到解決。(7)依據(jù)群體劃分,一方面是算法設計者、使用者應當擔負的重要責任,另一方面是人工智能體應承擔的責任;依據(jù)主要環(huán)節(jié)劃分,責任歸屬則體現(xiàn)在人工智能設計階段的倫理責任嵌入和人工智能體的倫理責任監(jiān)管,即所謂的“前端嵌入”與“后端規(guī)約”。例如,無人駕駛汽車應用后,誰應為汽車事故負責?人工智能代替醫(yī)生進行醫(yī)學診斷時,如果出現(xiàn)診斷失誤,誰應為這些醫(yī)療事故承擔責任?如果這些責任事先沒有明確劃分,那么當人工智能在應用中出現(xiàn)事故時,就會出現(xiàn)責任主體缺失問題,研發(fā)者、設計者或應用者各方相互推卸責任,不利于人工智能的進一步應用和社會的穩(wěn)定。安全責任主體多元復雜以及主體責任的缺失或不明,是新一代信息技術倫理困境的總源頭。盡管國家已經(jīng)制定了一些有關人工智能應用的規(guī)范,但仍然缺少完備的、體系化的必要執(zhí)行機制。

(五)勞動者面臨失業(yè)挑戰(zhàn)

人工智能的迅猛發(fā)展對于勞動者具有多方面的威脅和挑戰(zhàn)。其一,人工智能具有對于簡單、機械工作的高頻率重復特性,能夠在短時間內完成人力所不及的生產(chǎn)數(shù)量,而且能夠忍受更為艱苦的工作條件和生活環(huán)境。與人力勞動力相比,人工智能體具有低成本、高效率、普適性的優(yōu)勢。在市場經(jīng)濟高速發(fā)展的今日,用人單位為了獲取更多的利益,更青睞于選擇人工智能這一新興的“勞動力”。由此,便出現(xiàn)人工智能取代普通勞動力的情況,特別是一些從事簡單生產(chǎn)勞動的底層勞動者將喪失勞動機會,從而引發(fā)嚴重的社會保障壓力,進一步拉大貧富差距,影響社會和諧穩(wěn)定[9]。其二,人工智能作為一種技術、一種高級資源,在市場競爭中,掌握了人工智能便是占據(jù)了資源的優(yōu)勢,從而容易形成“馬太效應”,即優(yōu)勢企業(yè)公司可以利用自身掌握的算法來識別、打擊弱勢企業(yè)進而形成行業(yè)壟斷,造成強勢企業(yè)更強、弱勢企業(yè)更弱的局面[10]。由此,弱勢企業(yè)被強勢企業(yè)兼并,強勢企業(yè)取得壟斷地位,小企業(yè)的生存發(fā)展空間減少,勞動者的就業(yè)機會也會大大減少,對社會保障也形成挑戰(zhàn)。其三,根據(jù)人工智能的“擬人性”,如若人工智能獲得相應的法律人格,那么在人工智能參與勞動就業(yè)時,對其是否應該堅持民法的主體平等、意思自治原則,受到與自然人勞動相同的保護呢?這也是人工智能快速發(fā)展應該面對的問題。

四、人工智能應用倫理風險的法治應對

人工智能技術具有突飛猛進的發(fā)展和變革態(tài)勢,將對我們所處社會的政治、經(jīng)濟、文化、教育等各個方面都帶來不可預估的影響。為了確保人類的主體地位,科技絕不能凌駕于倫理之上,面對在人工智能發(fā)展過程中產(chǎn)生的倫理風險和挑戰(zhàn),必須以法治思維和方式最大限度地加以管控,通過立法對人工智能技術發(fā)展的邊界作出限定,確保人工智能的安全、可控、健康發(fā)展。

(一)確立和發(fā)展“數(shù)字人權”理念

新興的智慧社會催生了 “第四代人權”——“數(shù)字人權”,(8)數(shù)字人權是2020年7月全國科學技術名詞審定委員會批準發(fā)布的大數(shù)據(jù)新詞,但實際上在2019年6月張文顯教授于“知識產(chǎn)權與相關權利的法理”學術研討會上即首次提出“數(shù)字人權”概念,引發(fā)學界熱議。也有學者認為,“數(shù)字人權”既缺乏憲法的規(guī)范基礎,也不符合“人的尊嚴”標準和“最低限度基礎性”標準,無法被證立為憲法未列舉基本權利。其本質是在數(shù)字經(jīng)濟和智慧社會發(fā)展中作為人而應該享有的權利[11]。隨著互聯(lián)網(wǎng)、即時通訊、線上課堂、在線支付、云計算、智能機器人等成為人們日常生活的重要組成部分,社會大眾對數(shù)字網(wǎng)絡形成慣性依賴。如果把人們對人工智能產(chǎn)品的利用作為其享受生活便利和舒適的一項權利看待,在此背景下普及數(shù)字人權理念就成為一種必然。為適應新興數(shù)字時代的客觀發(fā)展要求,必須推動從傳統(tǒng)物質世界人權觀到新興數(shù)字世界人權觀的提級轉變。要發(fā)展數(shù)字人權,首先在基本價值理念上要堅持科技以人為本,貫徹以人民為中心的發(fā)展理念,人工智能技術的應用不能背離人性,不能傷及人類尊嚴。其次,在制度上,要求我們的政府以及參與人工智能研發(fā)、設計的主體必須堅持社會主義核心價值觀,切實承擔起尊重和保障人權的責任和義務,讓科技遵循人文主義,符合倫理規(guī)范,并積極向廣大群眾普及法律知識、科學知識、智能技術的使用方法等內容,不斷提高人民群眾的數(shù)字化應用水平,從而填補、彌合社會公眾特別是弱勢群體面對高科技智能產(chǎn)品的“數(shù)字鴻溝”,真正讓人工智能技術始終掌握在人民手中并造福于民。

(二)強化對算法倫理的法治監(jiān)管

一些惡意軟件運用算法偏差、算法黑箱、算法壟斷等進行“大數(shù)據(jù)殺熟”“用戶畫像”和“算法推薦”,引發(fā)了公眾對算法推薦技術倫理風險問題的恐慌和憂慮。對于這一涉及個人信息自動化決策的熱點問題,《個人信息保護法》給予了明確回應,即規(guī)定個人信息處理者應當確保決策的公開透明和結果的公平、公正,不得對個人在交易條件上實行不合理的歧視性差別待遇。2022年3月1日起生效施行的《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》,更是對于算法推薦服務作出了全面細致的規(guī)范,著重強化對算法相關數(shù)據(jù)、模型等進行評估審查,細化用戶知情權、退出個性化推薦等權利內容,明確了算法推薦服務提供者的信息服務規(guī)范和算法治理體系,合理構建了網(wǎng)絡平臺問責機制,實行事前事中事后全流程、全鏈條政府監(jiān)管。然而,畢竟該管理規(guī)定在形式上屬于部門規(guī)章,強制效力較低,內容上條文數(shù)量不多,還有繼續(xù)完善的空間。比如在責任主體方面,該管理規(guī)定只限定了算法推薦服務提供者這一單個主體,而對于算法推薦技術運行、管理時的其他參與主體以及政府監(jiān)管部門的責任承擔卻有疏漏。另外,算法推薦也會參考流量收益、用戶喜好、用戶人群量等方面進行計算與運行,對于具體的算法推薦的“濫用”“排除限制競爭”等方面,還需要拿出可以量化的具體標準來進行規(guī)制。總之,要實現(xiàn)對算法倫理審查和治理的制度化、標準化、規(guī)范化、法治化,要建立健全人工智能倫理安全風險評估、算法審計及認證、大數(shù)據(jù)缺陷檢測、人工智能技術監(jiān)管、備案管理等配套制度體系[12],促成全社會形成“法網(wǎng)大于互聯(lián)網(wǎng)”“國法高于算法”“算法不能算計”的集體共識和行動,真正形成政府監(jiān)管、企業(yè)履責、行業(yè)自律、網(wǎng)民維權、社會監(jiān)督的多元共治體系。(9)2022年2月28日,中國互聯(lián)網(wǎng)協(xié)會法工委副秘書長胡鋼在接受《新民晚報》記者采訪時表示:“我們要行正算、懲濫算、倡公算、促同算、致上善。算法歧視、大數(shù)據(jù)殺熟、誘導沉迷等算法濫用因踐踏權利、壓榨利益而成為普通網(wǎng)眾的心頭之恨,而‘算法邪惡’甚至成為扭曲真相、撕裂社會、禍亂宇內的罪惡之源,必須嚴懲不貸。”

(三)以立法阻卻人工智能應用對個人信息權益的侵害

如前文所述,在人工智能技術應用過程中不可避免地存在海量個人信息的收集、存儲、使用、加工、傳輸、提供、公開、刪除等現(xiàn)象,生物識別技術實施過程中也將采集大量公民的個人圖像、身份識別等敏感信息甚或隱私信息。這些信息一旦被泄露或者非法使用,很容易導致公民的人格尊嚴受到侵害或者人身、財產(chǎn)安全受到危害。(10)《個人信息保護法》第28條規(guī)定,敏感個人信息包括生物識別、宗教信仰、特定身份、醫(yī)療健康、金融賬戶、行蹤軌跡等信息,以及不滿十四周歲未成年人的個人信息。從法律規(guī)制方面看,隨著《網(wǎng)絡安全法》《民法典》《個人信息保護法》以及《數(shù)據(jù)安全法》的陸續(xù)出臺,基本實現(xiàn)了對公民個人信息權和隱私權的保護,也填補了人工智能技術應用對個人信息權侵害的立法空白,一定程度上為個人信息保護提供了較為安全可信的客觀預期。然而不可否認,立法具有一定的滯后性,現(xiàn)有立法步伐永遠跟不上人工智能技術跨越式發(fā)展的腳步,隨著人工智能技術的不斷推陳出新,現(xiàn)有立法必然要不斷修補完善。當前我國互聯(lián)網(wǎng)領域專門立法較多,相關規(guī)定較為零散,還沒有形成體系,尤其對各類技術主體的法律責任的規(guī)定,基本都是重事后懲處、輕事前預防。未來立法應在阻卻人工智能對個人信息權侵害上適度引入侵權懲罰性賠償和保護獎勵制度,建立健全統(tǒng)一的多元化侵權責任體系。

(四)推進人工智能治理法治化進程

從倫理學角度來看,道德與法律同屬于上層建筑,它們所體現(xiàn)的價值目標是一致的,又都是實現(xiàn)社會倫理精神的重要手段或工具。道德是內心的法律,更是法律的最高追求;法律是成文的道德,也是最低限度的道德;法律以道德為基石,道德以法律為保障。因此,在信息技術迅猛發(fā)展以及全面依法治國的時代背景下,建立完備的人工智能法律制度刻不容緩。2018 年1月,中國電子技術標準化研究院發(fā)布了《人工智能標準化白皮書(2018 版)》,針對人工智能倫理提出了人類利益和責任兩大基本原則;2019年6 月,國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能治理原則——發(fā)展負責任的人工智能》,進一步明確了為確保人工智能安全可靠可控,共建人類命運共同體,人工智能發(fā)展相關各方應遵循的八項原則;(11)八項原則包括和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協(xié)作、敏捷治理。同年9月25日,國家新一代人工智能治理專業(yè)委員會又發(fā)布了《新一代人工智能倫理規(guī)范》,旨在使倫理道德規(guī)范融入人工智能研發(fā)、管理、供應、使用等環(huán)節(jié)的全生命周期,并充分考慮當前社會各界有關隱私、偏見、歧視、公平等倫理關切,對從事人工智能相關活動的各方主體提出了六項基本倫理要求和四方面特定倫理規(guī)范。從這一系列規(guī)范文件的出臺可以看出,國家非常重視倫理入法,正努力通過倫理規(guī)范來引導人工智能技術穩(wěn)步健康發(fā)展。當然,這離人工智能法治化目標還相差甚遠,因為這些文件層級較低,至多算是行業(yè)內的自律性規(guī)范,沒有強制約束力。建議國家立法機構組織人工智能技術、倫理、法律等相關方面專家學者盡早啟動人工智能治理的專項立法工作。立法源于實踐,又要指導實踐。鑒于“法不溯及既往”原則,事前的行為不能用事后制定出來的法律進行調整和規(guī)制,這容易讓那些違背人工智能技術安全應用標準的不法分子鉆法律空子,進而進一步增大危害性。相比于發(fā)現(xiàn)問題之后的“亡羊補牢”,問題產(chǎn)生之前的“未雨綢繆”應該受到重視。我國應該盡快開展對人工智能應用的立法,明文規(guī)定人工智能技術研究和應用的領域、應當遵循的倫理原則,明確規(guī)范人工智能技術的倫理要求、安全標準、監(jiān)管機制,界定人工智能研究開發(fā)、設計、制造、生產(chǎn)、銷售、使用、管理等各方參與主體的權利、義務以及侵權責任的歸責原則、責任主體、責任承擔方式等。正像Uber無人駕駛汽車導致?lián)p害一案,立法設計要按照人工智能的有限人格進行責任承擔與追責,同時也要根據(jù)具體情況追究其設計、開發(fā)、制造、使用等環(huán)節(jié)的人類主體責任,避免某單一主體的責任風險成本過高[13]。總之,要增強立法前瞻性,著重加強無人駕駛、智慧傳媒、智慧醫(yī)療、智能教育、智能家居、智慧風控等人工智能領域的立法,逐步建立起一整套規(guī)范人工智能應用的法律體系。

猜你喜歡
主體人工智能法律
論自然人破產(chǎn)法的適用主體
南大法學(2021年3期)2021-08-13 09:22:32
法律解釋與自然法
法律方法(2021年3期)2021-03-16 05:57:02
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
關于遺產(chǎn)保護主體的思考
讓人死亡的法律
山東青年(2016年1期)2016-02-28 14:25:30
“互助獻血”質疑聲背后的法律困惑
論多元主體的生成
主站蜘蛛池模板: 国产亚洲欧美日韩在线一区| 亚洲国产中文综合专区在| 成人欧美日韩| 岛国精品一区免费视频在线观看| 久久精品中文字幕免费| 91久久国产综合精品女同我| 国产视频入口| 国产一级妓女av网站| 色婷婷在线播放| 97国产精品视频自在拍| 香蕉综合在线视频91| 国内精品手机在线观看视频| 欧美午夜性视频| 十八禁美女裸体网站| 欧美成在线视频| www亚洲精品| a级毛片网| 91精品国产91久久久久久三级| 精品国产亚洲人成在线| 欧美第二区| 亚洲国产日韩欧美在线| 亚洲中文字幕在线观看| 全部毛片免费看| 欧美高清三区| 国产精品手机在线观看你懂的| 欧美日韩精品综合在线一区| 久久五月天综合| 97国产精品视频人人做人人爱| 97se亚洲综合| 99久久精品免费看国产免费软件| 亚亚洲乱码一二三四区| 伊人婷婷色香五月综合缴缴情| 国内精品91| 好紧太爽了视频免费无码| 日韩欧美成人高清在线观看| 老司机精品久久| 国产成人AV男人的天堂| 久久精品最新免费国产成人| 91精品啪在线观看国产| 欧美日本在线一区二区三区| 日本不卡视频在线| 特级aaaaaaaaa毛片免费视频| 国产美女在线免费观看| 一区二区三区高清视频国产女人| 亚洲国产日韩欧美在线| 99久久亚洲精品影院| 欧美中文字幕在线视频| 精品无码专区亚洲| 毛片手机在线看| 精品一区二区无码av| 亚洲热线99精品视频| 亚洲成人在线网| 97精品伊人久久大香线蕉| 久久国产精品国产自线拍| 国产二级毛片| 亚洲码一区二区三区| 精久久久久无码区中文字幕| 亚洲视屏在线观看| 国产视频入口| 蜜臀av性久久久久蜜臀aⅴ麻豆| 国产流白浆视频| 亚洲综合中文字幕国产精品欧美| 天天综合色网| 免费看的一级毛片| 欧美日韩午夜| 9啪在线视频| 黄色网页在线播放| 热热久久狠狠偷偷色男同| 国产日韩精品一区在线不卡| 美美女高清毛片视频免费观看| 国产白浆在线观看| 亚洲综合18p| 找国产毛片看| 91小视频在线| 亚洲v日韩v欧美在线观看| 丰满的熟女一区二区三区l| 欧美激情第一区| 亚洲精品国产精品乱码不卞| 欧美激情第一区| 亚洲国产看片基地久久1024| 福利在线一区| 国产另类视频|