999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能的倫理困境及其法治化解決路徑

2024-10-09 00:00:00魏龍凡
知與行 2024年3期

[摘要]ChatGPT等大語言模型的出現(xiàn)掀起了新一輪的人工智能發(fā)展狂潮。人工智能的發(fā)展對傳統(tǒng)社會秩序和社會道德體系產生了強烈的沖擊。在人機關系層面,人工智能在法律、醫(yī)療、教育等領域的廣泛應用也對人類的“主體性”產生了威脅。這些不同層面的倫理困境阻礙人工智能的進一步發(fā)展以及社會進步。現(xiàn)階段人工智能治理缺乏具有影響力的國際行業(yè)規(guī)范。與此同時,在技術發(fā)展過程中人的價值在一定程度上被迫讓位于科技價值。人工智能發(fā)展如何走出“科林格里奇”困境仍然充滿挑戰(zhàn)。因此,我國必須以人本主義的核心立場去審視人機關系,推動構建國際性人工智能行業(yè)規(guī)范,探索如何用法治化的手段走出人工智能發(fā)展的倫理困境,最終達到科技進步與保障人類福祉的平衡。

[關鍵詞]人工智能倫理;人機關系;人工智能法治化

[中圖分類號]D90[文獻標志碼]A[文章編號]2096-1308(2024)03-0066-11

早期的人工智能研究主要集中于創(chuàng)建能夠模仿人類解決問題技能的程序,如紐厄爾和西蒙等邏輯理論家。這些基礎研究為AI設定了核心目標——創(chuàng)造能夠復制人類智能方面的機器。20世紀80年代向機器學習的轉變代表了從基于規(guī)則到基于數(shù)據(jù)的方法的范式變化。21世紀初深度學習的出現(xiàn),將AI帶入了應用性時代。而近幾年生成式人工智能的出現(xiàn)更是將人工智能的發(fā)展推到一個新的頂峰,2022年11月30日,OpenAI發(fā)布了ChatGPT,不足兩年時間OpenAI推出的生成式視頻人工智能模型Sora再次成為全球關注的焦點。Sora能將文字、圖像、音頻等信息轉化為逼真的視頻,讓人嘆為觀止。從人工智能技術驅動的自然語言處理工具ChatGPT到如今的Sora,從自動生成文字、圖片,再到自動生成視頻,短短幾年時間人工智能基于大語言模型技術所迸發(fā)出的顛覆性的創(chuàng)造力讓人驚呼震撼。與此同時,在人工智能高速迭代的背景下,人工智能的倫理問題也層出不窮。例如,新型的違法犯罪案件、人機沖突帶來的人類主體性的缺失、人工智能的道德危機等。由此可見,人工智能的倫理困境,成為人們亟須解決的現(xiàn)實問題。

本文將歸納人工智能倫理困境的現(xiàn)實樣態(tài),分析人工智能倫理困境出現(xiàn)的成因,探索中國特色法治化人工智能倫理困境解決進路。

一、人工智能的倫理困境

2023年10月,中國發(fā)布了《全球人工智能治理倡議》,圍繞人工智能發(fā)展、安全、治理三方面系統(tǒng)闡述了中國關于人工智能治理的方案,具體包括在人工智能治理方面堅持倫理先行,建立并完善系統(tǒng)的人工智能治理準則、規(guī)范及相應的問責機制。倫理觀念影響法律規(guī)范所體現(xiàn)的價值和指引的方向,因此在人工智能治理和規(guī)制的過程中需要“倫理先行”,在明確倫理困境的基礎上再進行具體的法治化探索。人工智能的倫理困境主要包括社會倫理困境和對于人類“主體性”的沖擊。

(一)人工智能對社會規(guī)則體系的沖擊

社會倫理主要是指在社會生活中調節(jié)人與人、人與社會之間的道德規(guī)范和準則體系。社會規(guī)則體系是社會倫理的制度化表達。而人工智能對社會規(guī)則體系的沖擊主要表現(xiàn)在對社會法律秩序的挑戰(zhàn)和重塑以及對于就業(yè)的影響。

1.人工智能應用中的法律挑戰(zhàn)

在民商法律方面,人工智能的應用目前最突出的問題體現(xiàn)在個人隱私和數(shù)據(jù)安全方面。在人工智能系統(tǒng)中,海量的數(shù)據(jù)被用于訓練算法模型,以提高人工智能的實踐表現(xiàn)。然而,如果那些個人敏感信息被錯誤處理,則必然損害個人權益。2024年2月,斯坦福大學發(fā)布的白皮書《反思人工智能時代的隱私問題——針對“以數(shù)據(jù)為中心”世界的政策建議》指出隱私和數(shù)據(jù)保護框架無法擴展,讓個人在數(shù)百甚至數(shù)千個數(shù)字關系和渠道中承擔管理其數(shù)據(jù)的主要責任,無法成功保護個人隱私,也無法化解人口或社會層面的隱私風險和危害。

以ChatGPT為代表的新一代生成式人工智能應用于各種藝術創(chuàng)作領域,人工智能生成內容(AIGC)在外觀形式上高度趨同于人類作者創(chuàng)作的作品,受限于AIGC創(chuàng)作主體認定的困境,也引發(fā)了AIGC“作品”屬性的爭議。人工智能決策的責任歸屬也是一個難題。由于人工智能系統(tǒng)的決策往往基于復雜的算法和模型,這些算法的運作方式往往是不透明的,缺乏解釋性。[1]

在人工智能產品侵權案件中,責任認定往往出現(xiàn)多種責任競合。因為人工智能具有智能性的特點,使用者在使用人工智能產品的時候,更多的是選擇人工智能運行模式或基本設定。因此,導致人工智能在使用過程中往往無法由使用者作出預先判斷,并加以干涉。而使用者在使用人工智能產品的過程中出現(xiàn)侵權行為時,就會產生侵權責任與產品責任的競合。因為同時涉及使用者與研發(fā)者、運營者共同侵權的可能性,兩種責任的區(qū)分將變得困難。

在刑事法律方面,生成式人工智能因其“類人性”強,極易引起非法侵入計算機信息系統(tǒng)罪、破壞計算機信息系統(tǒng)罪等。例如,“山寨版”ChatGPT會產生惡意鏈接,用戶按照指令點擊后,惡意軟件會攻擊用戶電腦設備、入侵用戶特定的計算機系統(tǒng)、非法獲取用戶的個人隱私數(shù)據(jù)。生成式人工智能憑借自身的海量數(shù)據(jù),通過深度學習形成非法對話內容,用戶在進行特定主題對話時,更容易獲取違法犯罪信息。另外,在刑事司法中,使用人工智能司法工具容易出現(xiàn)“算法黑箱”和“數(shù)字鴻溝”,從而影響司法的公平公正,降低司法機關的公信力。

2.人工智能司法工具的價值判斷困境

一方面,傳統(tǒng)的司法三段論的法學方法論模式是大前提—小前提—結論。法官在作出司法裁判的過程中,自由心證過程是包含價值判斷的。人工智能司法裁判在進行價值權衡時是依據(jù)海量數(shù)據(jù)形成的規(guī)則模型,但是人工智能如何對這些海量的司法數(shù)據(jù)進行分析與判斷是廣泛存在于各國法律人工智能發(fā)展過程中的難題。另一方面,從當前人工智能技術發(fā)展的現(xiàn)狀來看,人工智能司法很容易會被社會政治因素“控制”,從而滑向另一個深淵。

當前人工智能技術在我國司法裁判的價值判斷過程中的應用主要存在四個方面的障礙:

第一,司法數(shù)據(jù)不充分。我國各級法院的大量裁判文書并沒有在裁判文書網(wǎng)上予以公布,裁判者在進行案件的審理和裁判活動中所運用的自由心證過程無法體現(xiàn)在已經發(fā)布的裁判文書中。

第二,司法數(shù)據(jù)的真實性存在疑問。在現(xiàn)實中存在公開司法文書中的裁判理由與法官在審判過程中實際的裁判理由存在很大出入的情況。

第三,司法數(shù)據(jù)存在主觀性。不同地區(qū)的法官甚至同一地區(qū)的不同法官在面對同樣的案件時可能有不同的處理結果,這也決定了公開的裁判信息具有主觀性。

第四,司法數(shù)據(jù)缺乏文本上的統(tǒng)一性。全國各地基于現(xiàn)實情況的差異,公開的裁判文書中的司法數(shù)據(jù)在文本上可能存在很大差異,這種差異性體現(xiàn)在人工智能司法上就會導致人工智能識別困難。[2]這些司法數(shù)據(jù)方面的問題,成為對人工智能進行正確司法價值判斷的阻礙。人工智能系統(tǒng)是在大量數(shù)據(jù)集上訓練的,這些數(shù)據(jù)集可能會受到歷史偏見的影響,而人工智能的機械客觀性可能通過“技術清洗” 讓這些偏見不易被發(fā)現(xiàn),因此也在某種程度上強化了偏見,影響決策的公正性。[3]事實上,在其他國家,這種數(shù)據(jù)方面的技術障礙也同樣存在。

這種數(shù)據(jù)的不充分和不“完美”就導致人工智能在進行司法裁判過程中只能進行一些簡單的價值判斷,但是面對復雜多樣的現(xiàn)實案件,僅僅具有簡單價值判斷的能力是完全不夠的。公正的司法裁判要求的顯然更多。

人工智能應用于司法很容易使司法成為政治歧視的工具。以美國部分州法院使用的再犯危險性智能評估工具 COMPAS為例,COMPAS曾經對一名黑人女性

Brisha Borden和一名白人男性Vernon Prater進行社會危險性打分,Brisha Borden因為四次青少年時期的違法行為被判定危險系數(shù)為7(high risk),而Vernon Prater則以兩次武裝搶劫既遂,一次武裝搶劫未遂,一次攜帶兇器盜竊被判定危險系數(shù)為3(low risk),而后Brisha Borden與Vernon Prater均因犯罪被捕,Brisha Borden因社會危險性系數(shù)高被判定為重罪。法院這一判決也使開發(fā)COMPAS的公司因種族歧視問題被調查。

這種人種的歧視,其實是美國社會種族歧視問題折射到司法領域的體現(xiàn)。與傳統(tǒng)法官裁判不同,人工智能進行司法裁判的速度非常快,在一定程度上稀釋了法律程序在司法裁判過程中的作用。如果人工智能被廣泛應用于司法的各個環(huán)節(jié),那么可以預見的是這種“歧視”將很難被監(jiān)督,而且很難進行侵害彌補。對于人工智能是否可以追責是一個值得研究的問題,但是就目前人類認知水平來看,人工智能在適用司法過程中產生的侵害,很難通過傳統(tǒng)的救濟手段進行調整。最終,司法的“歧視”很可能會在人工智能的“掩護”下全身而退。

3.人工智能對現(xiàn)有就業(yè)結構和模式的沖擊

2024年5月14日,國際貨幣基金組織總裁表示,未來兩年,對于發(fā)達經濟體而言,人工智能可能會影響60%的工作崗位;而對于全球所有國家而言,人工智能將會沖擊40%的工作崗位,以教育和法律行業(yè)為例。

基于大語言模型的生成式人工智能教育工具的革命極大地改變著知識傳播的途徑。學習空間從線下更多地轉移到線上,從“有形”逐漸變?yōu)椤盁o形”。試想有一個百科全書式的“老師”24小時在你書桌旁守候,你關于所有領域的問題都能得到他的解答,這樣的學習模式是不是完全顛覆了以往?事實上ChatGPT技術已經讓這種想象成為現(xiàn)實。首批11家國產大語言模型已經通過國家監(jiān)管部門備案。[4]生成式人工智能的文本生成、語言理解、知識問答、邏輯推理等方面能力對于教育教學具有極大的應用潛力和價值。[5]

在法學教育的培養(yǎng)目標層面,生成式人工智能的加速迭代,也向傳統(tǒng)的法律實務工作和法學研究工作提出了新的要求。法學教育所培養(yǎng)的法律人才需要具備應對人工智能沖擊的更高層次的技能。

人工智能相比一般律師有以下優(yōu)點:第一,即時處理海量的數(shù)據(jù)并給出結論;第二,永不疲倦并且可以隨時工作;第三,無非理性因素的影響,更加中立和客觀;第四,能夠最大限度地避免錯誤的發(fā)生。目前來看,人工智能對一些初級工作和重復性工作具有明顯的替代作用,這就意味著未來會有相當多的律師,特別是初級律師會失去工作。高端法律工作者利用人工智能的能力將成為其核心競爭力的重要組成部分。可以預見,精通使用生成式人工智能技術來協(xié)助法律研究和分析的“超級律師”可能會更受歡迎,因為他們能夠為客戶提供更準確和全面的法律建議。[6]

而人工智能對于法律共同體就業(yè)的影響只是其具有代表性的“冰山一角”。事實上,除了已經消失的一些傳統(tǒng)崗位,所有重復性強、規(guī)律性高、標準化的工作在不遠的將來都會走向“末路”。

(二)人工智能對社會道德體系的沖擊

道德不僅體現(xiàn)在人們社會生活的方式中,而且部分構成人們社會生活的方式[7],人工智能的廣泛應用可能導致道德的虛無化以及對人的本質帶來挑戰(zhàn)。[8]這種道德危機會動搖人類社會原有秩序的情感基礎,從而使社會走向不可控。

道德的虛無化是指人工智能使人類脫離實踐的人際關系,從而失去道德發(fā)生的情感因素來源。道德是一種實踐理性,是人與人在社會交往過程中所產生的用于規(guī)范人的行為和調節(jié)人們之間關系的準則與規(guī)范。在人工智能時代,人的傳統(tǒng)社會聯(lián)系減少,人們更多的是通過人工智能工具交流,甚至直接與人工智能工具交流。目前,我們熟知的AI對話工具,百度的文心一言、阿里的通義千問、ChatGPT、微軟Copilot、谷歌Gemini等都得到了不錯的市場反應。隨著生成式人工智能的迅速迭代,其情感溝通能力會更加接近真實的人類對話。而缺乏真實社會人際交往,人類道德也會逐漸發(fā)生異化,并且在缺乏監(jiān)管的“網(wǎng)絡世界”,人的道德會更難以受到制約。

與此同時,人工智能時代,人類以“數(shù)字人”的形式存在于社會,同時與“機器的智能”共存。人類也會產生對于人的主體性的懷疑。馬克思主義哲學認為,勞動是人的本質。通過勞動人得以實現(xiàn)價值,也正是勞動將人與其他生物區(qū)分開來。但是,人工智能的大規(guī)模運用會造成大量的“無用階級”[9],也就是說,不遠的將來人工智能會代替人類從事大量的工作,社會生產力因此得到極大發(fā)展,人類不用付出勞動即可獲得體面的生活。這也就是人工智能專家所鼓吹的人工智能積極性的根本立足點。但是,假如這一天真的到來,“無用階級”勢必會成為社會的大多數(shù),到時又如何控制人類因本質迷失所帶來的道德的“潰堤”?這是很多人工智能研究者不愿意正面回答的問題。

(三)人工智能對人類主體性的挑戰(zhàn)

AI按照功能可以籠統(tǒng)地分為兩類:專用人工智能(簡稱 AXI)和通用人工智能(簡稱AGI),前者側重對“智能”行為外在的模擬,后者的技術路徑則致力實現(xiàn)機器內在的思維和情感,也就是讓機器像人一樣“思考”。我們已接觸過許多專用人工智能的例子,如AlphaGo和ChatGPT,AXI非常擅長完成特定的任務,但是缺乏在相當狹窄的領域之外應用其資源的能力。而AGI的圖景尚未降臨,理想中的AGI具備符合人類情感與倫理道德的觀念,能做到自主化感知、學習,甚至進行社會協(xié)作,這幾乎就是對人類的要求。目前,AGI因為數(shù)據(jù)、泛化、技術方面的瓶頸,在技術上尚且沒有被攻克。與此同時,僅從社會需求角度而言,AGI產品產生之后是否會被投入使用,仍然面臨許多倫理困境,其中最大的爭議就是其是否能夠取代人類的“主體性”地位。

馬克思主義反對就人的本質進行抽象預設和簡化還原,主張將人置于由生產力與生產關系、經濟基礎與上層建筑構成的社會結構之中進行考察,揭示人的多重本質及動態(tài)發(fā)展性。[10]隨著人工智能在教育、醫(yī)療、建筑、法律等行業(yè)的廣泛使用,人的主體地位在一些腦力和體力勞動中被淡化,而人工智能的使用又不能顯著提升社會整體生產力水平,ChatGPT等生成式人工智能的快速發(fā)展引起社會各界對相關行業(yè)的就業(yè)問題的擔憂。有學者坦言,在AI時代,社會整體之間的真實的命運共同體可能更難以形成,相反人類可能陷入更大的分裂。

如果說社會層面的問題還不是人工智能的人機關系沖突所亟須面對的問題,那么人工智能的主體性問題則是迫切需要重視的問題。國家網(wǎng)信辦聯(lián)合七部門于2023年7月10日聯(lián)合公布的《生成式人工智能服務管理暫行辦法》,也僅就技術發(fā)展與治理、服務規(guī)范、監(jiān)督等環(huán)節(jié)作出規(guī)定。目前,國際社會也并沒有就人工智能的主體地位達成共識。

AI 是模擬、延伸和擴展人類智能的機器。[11]人類需要意識到,人工智能只是我們創(chuàng)造出來的工具,它應該為我們服務,而不是成為我們的敵人。

二、人工智能倫理困境多重歸因

人工智能之所以在發(fā)展過程中產生如上倫理困境,一方面是因為人工智能技術的飛速發(fā)展,法律出現(xiàn)了一定程度的滯后性;另一方面,過度的控制也導致人工智能技術發(fā)展全球范圍內的不平衡。另外,討論人工智能的倫理問題的前提是人們對人機關系的認知問題,人們對人機關系的認知狀況直接決定了其對人工智能社會倫理困境與規(guī)制方向的判斷。[12]對于人機關系的認知爭議,也導致相關國際性準則的缺失。

(一)人工智能技術發(fā)展的“科林格里奇”困境

科林格里奇困境,簡單來說就是技術發(fā)展的雙刃劍效應。一方面,我們擔心技術的不良后果而過早實施控制,可能會阻礙技術的發(fā)展;另一方面,如果對于技術發(fā)展的管控遲緩,技術已經深入到社會生活的方方面面,再想解決由技術產生的各種問題就變得困難且成本高昂。

伴隨著人工智能的飛速發(fā)展,2021年11月,聯(lián)合國教科文組織發(fā)布的《人工智能倫理問題建議書》規(guī)定了四項基本價值觀,即明確尊重、保護和促進人權和基本自由以及人的尊嚴。2021年,美國正式頒布《2020年國家人工智能倡議法案》,其目的是保證美國在人工智能領域長期處于世界的引領者地位,強調要進一步強化和協(xié)調國防、情報界與民用聯(lián)邦機構之間的人工智能研發(fā)活動,同時美國還設立了國家人工智能倡議辦公室,具體推動國家人工智能戰(zhàn)略的實施。此外一些聯(lián)邦機構和地方政府也針對特定領域發(fā)布了政策文件和地方性立法。2024年2月,歐盟通過了《人工智能法案》,這是全球第一部對于人工智能進行監(jiān)管的綜合性法律。整體來看,世界各國對于人工智能發(fā)展的立法側重點不同,而人工智能作為各國綜合國力競爭的主陣地,關于對于人工智能進行監(jiān)管的全球性法律出現(xiàn)較晚,導致在人工智能發(fā)展早期處于“野蠻生長”的狀態(tài)。

以輿論討論最熱烈的生成式人工智能ChatGPT為例。第一代GPT模型于2018年產生,已經是一種強大的語言理解模型。雖然它在判斷句子語義關系、文本分類、問答和常識推理方面表現(xiàn)出色,但不適合作為對話式AI模型,并且參數(shù)數(shù)量相對較少。而經過短短五年的更新迭代,最新的GPT-4于2023年3月14日發(fā)布,不再大規(guī)模增加參數(shù),而是著重提升利用現(xiàn)有數(shù)據(jù)的能力。它的準確度比前一版本提高了40%,主要用于整理和搜索網(wǎng)絡信息,還支持視覺輸入和圖像識別。這使得GPT-4能夠完成更具實踐性的任務,如圖像故事生成等。人工智能技術的飛速發(fā)展讓規(guī)范的制定陷入兩難境地:一方面,如果限制過寬,則很難切實解決人工智能應用過程中所產生的負面影響;另一方面,如果限制過嚴,則不適應人工智能技術蓬勃發(fā)展的現(xiàn)狀。

(二)人機交互過程中人機地位的國際性準則缺失

生成式AI是目前人工智能發(fā)展的技術前沿,以 ChatGPT 為代表的生成式 AI 的崛起是人工智能領域的一次重大變革,也可能成為由專用性人工智能轉向通用性人工智能的關鍵轉折點。[13]針對生成式人工智能人機交互過程中所產生的人機沖突以及道德困境,目前國際社會缺乏統(tǒng)一的共識。

整體來看,大部分國家有關人工智能的立法還是以原則性的規(guī)定為主,但是各國立法側重不同。歐洲立法最為超前,特別關注對高風險人工智能系統(tǒng)的劃分和限制;美國立法是在鼓勵行業(yè)發(fā)展和創(chuàng)新的前提下,對特定領域進行規(guī)范;印度選擇暫緩監(jiān)管;中國則是在數(shù)字社會的整體治理框架下,對產業(yè)發(fā)展較為成熟的領域進行了規(guī)范。國際社會在人機交互過程中人與人工智能產品的關系問題,尚未形成國際共識。

(三)人機交互過程中人的價值遭到忽視

為了保證 ChatGPT 輸出信息的正確性 ,OpenAI 在訓練過程中采用了“人類反饋強化學習”(reinforcement learning from human feedback,RLHF)的思路[14],這也為生成式人工智能注入了設計者以及開發(fā)者的主觀意識。而這些技術開發(fā)的最終目的必然服務于資本市場。資本必然以盈利為目的,所以人工智能開發(fā)的底層邏輯是否有利于人的價值的實現(xiàn)有待考慮。

OpenAI公司首席執(zhí)行官Sam Altman認為:OpenAI是“人類用的工具”,不是在創(chuàng)造生物;而人類充滿偏見卻往往不自知。人工智能是人類科技樹上的新工具,人類沒必要害怕超級智能的人工智能,每個新模型的缺點也是它們持續(xù)迭代的動力,與未來的模型相比,每個新模型都被認為能力不足,進而推動了持續(xù)的改進。可見,人工智能研發(fā)領域也沒有足夠動力在人工智能產品研發(fā)上對人機關系中人的主體性地位做太多努力。

馬克思主義認為,人的價值在于對社會的貢獻。人工智能時代,人工智能在一些領域剝奪了人類的勞動機會,并且逐漸使人類減少了產生良好道德的社會人際交往場景。人工智能的出現(xiàn)會進一步鞏固資本的統(tǒng)治,不斷削弱勞動者在勞動中的主動性,使其成為智能網(wǎng)絡的“神經末梢”,任何勞動個體不再具備不可替代性,只能以降低自身勞動成本的形式換取勞動機會。[15]而這種對人的價值的忽視會隨著生成式人工智能的迅速迭代,更加明顯地表現(xiàn)在社會領域。

三、人工智能倫理困境的法治化解決路徑

基于對人工智能倫理困境的反思與展望,借鑒歐盟、美國等先進國家及國家組織的治理經驗,結合我國國情,提出適應我國人工智能發(fā)展現(xiàn)狀的法治化解決路徑。

(一)加強人工智能風險分類分級立法和監(jiān)管

2024年3月13日,歐盟議會審議通過《人工智能法案》(EU AI Act),標志著全球人工智能領域監(jiān)管邁入全新時代。基于人工智能的不透明性、復雜性、對數(shù)據(jù)的依賴性、自主行為性等特征,《人工智能法案》將人工智能的風險等級區(qū)分為“不可接受”、“高”、“中”以及“低”四個風險等級。這一分類決定了相關企業(yè)需遵守的義務程度,其中風險級別越高,合規(guī)要求越嚴格。特別是處于高風險類別的人工智能提供商,在對外提供服務之前,必須進行徹底的風險評估,并確保其產品完全符合法規(guī)要求。違規(guī)企業(yè)將面臨嚴厲的經濟處罰,罰款范圍介于750萬~3 500萬歐元(相當于820萬~3 820萬美元),具體罰金額度將基于侵權行為的性質及企業(yè)規(guī)模決定。

我國于2023年7月10日公布的《生成式人工智能服務管理暫行辦法》第四章第六條第二款規(guī)定國家有關主管部門針對生成式人工智能技術特點及其在有關行業(yè)和領域的服務應用,完善與創(chuàng)新發(fā)展相適應的科學監(jiān)管方式,制定相應的分類分級監(jiān)管規(guī)則或者指引。由此可見,目前我國立法并沒有對基于生成式人工智能服務可能存在不同等級風險進行詳盡的分類分級治理,這種“一刀切”的做法,一方面會導致高風險的生成式人工智能服務產生的大量法律問題不能及時得到解決,另一方面又會阻礙低風險的生成式人工智能服務的正常發(fā)展,遲滯技術進步的腳步。[16]

我國可以根據(jù)人工智能的算法透明性、數(shù)據(jù)依賴性、對經濟社會的依賴性來劃分人工智能風險等級,通過立法落實相應風險等級,為人工智能發(fā)展設立方向標。

同時,加強對人工智能發(fā)展的監(jiān)管,嚴格按照法律法規(guī)所劃分的風險等級進行“敏捷治理”,加強公眾對國產人工智能設備的信任度。

(二)推動國際性人工智能行業(yè)規(guī)范的形成

構建人工智能倫理風險的全面治理體系,需要多方的參與,其中人工智能行業(yè)作為技術的創(chuàng)造者與產品的生產者,承擔著重要的倫理責任。推動國際性人工智能行業(yè)規(guī)范的形成對促進人工智能技術健康發(fā)展,保障技術的安全性和可靠性具有深遠意義。

生成式人工智能由人研發(fā),亦為人所用。倘若生成式人工智能應用過程中引發(fā)了倫理危機,應當依照有關規(guī)定追究相關主體的倫理責任,維護生成式人工智能應用的人本主義立場。[17]與此同時,合理地規(guī)范人工智能應用的研發(fā)也是解決人工智能倫理困境的重要途徑。隨著世界范圍內人工智能技術的快速發(fā)展,基于預防風險以及解決人工智能產品危機的需要,制定國際性的人工智能行業(yè)規(guī)范成為大勢所趨。而如今不論是歐洲委員會、經濟合作與發(fā)展組織(OECD)、歐盟,還是人工智能全球伙伴關系(GPAI),都未能制定出適用范圍廣、實踐性強、具有強約束力的國際性人工智能行業(yè)規(guī)范。

而國際性人工智能行業(yè)規(guī)范的形成確實充滿阻礙。基于國際間政治、經濟、文化、科技發(fā)展水平的巨大差異,成立類似于聯(lián)合國政府間氣候變化委員會(IPCC)這樣的開放性人工智能治理政府間機構并實際起到作用,顯得越來越困難。因此,我國應立足本國人工智能發(fā)展現(xiàn)狀,加強人工智能行業(yè)規(guī)范的制定和完善,在促進我國人工智能行業(yè)有序健康發(fā)展的同時,為國際社會提供可供參考的實踐范本。

我國高度重視人工智能行業(yè)的發(fā)展,針對人工智能行業(yè)發(fā)展過程中的現(xiàn)實困境,一方面,要繼續(xù)完善人工智能生產開發(fā)責任法律規(guī)范,加大對違反國家新一代人工智能治理專業(yè)委員會發(fā)布的《新一代人工智能倫理規(guī)范》的開發(fā)行為處罰力度。另一方面,鼓勵支持更多的法學專家以及法律實務工作人員參與到人工智能產品的開發(fā)和設計中。

(三)落實憲法對人機關系中人的主體性的回應

目前,我國在立法層面對于人機關系中人的主體性地位缺乏明確回應。《生成式人工智能服務管理暫行辦法》規(guī)定了一系列行為規(guī)則,如遵守堅持社會主義核心價值觀、采取有效措施防止歧視、依法開展預訓練、優(yōu)化訓練數(shù)據(jù)處理活動、制定技術研發(fā)過程中的數(shù)據(jù)標注規(guī)則等。[18]目前,我國已頒布的人工智能法律規(guī)范性文件中包含了對于個體主體性的尊重和保護,但都未明確人機關系中人的地位。中央網(wǎng)信辦于2023年10月18日發(fā)布的《全球人工智能治理倡議》指出:發(fā)展人工智能應堅持“以人為本”的理念,以增進人類共同福祉為目標。這體現(xiàn)了我國在人工智能領域始終堅持“以人為本”的理念。

科技領域中的國家干預行為是保障生命健康與科研自由基本權利,落實發(fā)展科技事業(yè)任務,滿足風險防范現(xiàn)實需求的關鍵。[19]我國《憲法》并沒有直接涉及人機關系中人的主體性地位的規(guī)定。隨著人工智能技術的快速迭代,特別是擁有深度學習能力的生成式人工智能的進一步發(fā)展,在《憲法》中明確人機關系中人的主體性地位具有相當程度的緊迫性。

《憲法》作為國家的根本大法,通過《憲法》的形式確認人機關系中人的主體性地位對于人工智能相關立法具有重要的指引作用。人機關系中人的主體性地位被確認將促進相關人工智能立法的完善,提高我國人工智能相關法律法規(guī)的強制效力。

四、結語

以人工智能技術為核心驅動力的“第四次工業(yè)革命”悄然來臨,有關人工智能的倫理困境隨著人工智能的加速迭代愈加嚴峻。只有時刻堅持人機關系中人的主體性地位,把握好人對于人工智能工具的使用意義,人工智能才能為人類發(fā)展造福,有關人工智能發(fā)展的困境才能得到解決。當然,不能陷入“科林格里奇”式的怪圈,制度制定者應既致力于增進人類福祉,又不能阻礙科技發(fā)展的腳步。而這些顯然不是某一個國家憑借一己之力就可以完成的任務,人工智能的長遠發(fā)展還需要國際社會通力合作,共同把握好這一“人類解放”的歷史機遇。

[參考文獻]

[1]謝明敏.人工智能視角下的民法諸問題研究[J].民商法爭鳴,2020(1):23-30.

[2]左衛(wèi)民.關于法律人工智能在中國運用前景的若干思考[J].清華法學,2018,12(2):108-124.

[3]李容佳.論人工智能在刑事司法決策中的應用[J].網(wǎng)絡安全與數(shù)據(jù)治理,2023,42(8):21-27.

[4]經濟觀察網(wǎng).11家AI大模型產品今日起將陸續(xù)上線,騰訊華為訊飛等也將開放[EB/OL].(2023-08-31)[2023-09-21].http://www.eeo.com.cn/2023/0831/603409.shtml.

[5]肖君,白慶春,陳沫,等.生成式人工智能賦能在線學習場景與實施路徑[J].電化教育研究,2023,44(9):57-63+99.

[6]王祿生.從進化到革命:GhatGPT類技術影響下的法律行業(yè)[J].東方法學,2023(4):56-67.

[7]麥金太爾.倫理學簡史[M].龔群,譯.北京:商務印書館,2003:23-24.

[8]王鋒.人工智能對道德的影響及其風險化解[J].江蘇社會科學,2022(4):44-50,242.

[9]赫拉利.未來簡史[M].林俊宏,譯.北京:中信出版集團,2017:286.

[10]姚偉.人工智能與人的本質發(fā)展——兼論社會制度系統(tǒng)的適應性變革[J].學習與探索,2023(10):35-41.

[11]程承坪.人工智能:工具或主體?——兼論人工智能奇點[J].上海師范大學學報(哲學社會科學版),2021,50(6):5-12.

[12]章文光,賈茹.人工智能的社會倫理困境:提升效率、輔助與替代決策[J].東岳論叢,2021,42(8):92-100,192.

[13]陳永偉.超越ChatGPT:生成式AI的機遇、風險與挑戰(zhàn)[J].山東大學學報(哲學社會科學版),2023(3):127-143.

[14]OUYANG L,et al.Training Language Models to Follow Instructions with Human Feedback[J].ArXiv Preprint,2022,No.2203.02155.

[15]李楠.人工智能時代勞動價值論再審視[J].馬克思主義理論學科研究,2024,10(3):39-46.

[16]吳大奎.基于生成式人工智能服務風險的分級法律規(guī)制研究[C].智慧法治,2023第三卷:195-203.

[17]馮子軒.生成式人工智能應用的倫理立場與治理之道:以ChatGPT為例[J].華東政法大學學報,2024,27(1):61-71.

[18]徐繼敏.生成式人工智能治理原則與法律策略[J].理論與改革,2023(5):72-83.

[19]石晶.生命科技風險的憲法回應[J].法學,2023(2):47-61.

〔責任編輯:曲丹丹〕

主站蜘蛛池模板: 久久久久久久97| 天堂网亚洲综合在线| 青青青伊人色综合久久| 午夜啪啪网| 亚洲第一成年人网站| 国产jizz| 国产自在线拍| 最新痴汉在线无码AV| 国产在线观看成人91| 国产在线观看91精品亚瑟| 久久久久亚洲精品成人网| 亚洲国产理论片在线播放| 无码av免费不卡在线观看| 久久综合伊人 六十路| 久久综合色播五月男人的天堂| 欧美啪啪视频免码| 91精品久久久久久无码人妻| 91无码人妻精品一区二区蜜桃| 中文字幕日韩久久综合影院| 99精品在线视频观看| 国产视频大全| 精品无码一区二区三区电影| 456亚洲人成高清在线| 亚洲欧美日本国产综合在线| 在线精品亚洲国产| 亚洲色精品国产一区二区三区| 免费毛片在线| 国产极品美女在线| 亚洲中字无码AV电影在线观看| 久久综合色天堂av| 99热这里只有精品国产99| 亚洲中文字幕在线观看| 国产在线精品99一区不卡| 久久精品国产精品一区二区| 久久久久青草大香线综合精品| 国产69精品久久| 精品日韩亚洲欧美高清a| 国产真实乱子伦视频播放| 国产在线无码av完整版在线观看| 国产高潮视频在线观看| 中文成人无码国产亚洲| 日韩大乳视频中文字幕| 久久综合五月婷婷| 男人天堂亚洲天堂| 国产成人无码AV在线播放动漫| 色久综合在线| 精品欧美一区二区三区久久久| 婷婷亚洲最大| 97se亚洲综合不卡| 97精品伊人久久大香线蕉| 国产精品白浆无码流出在线看| 亚洲福利视频网址| 色综合久久88色综合天天提莫 | 国产99久久亚洲综合精品西瓜tv| 国产成人综合在线观看| 99热这里只有精品免费| 久久精品国产999大香线焦| 亚洲精品无码人妻无码| 女人18毛片一级毛片在线 | 国产尤物视频在线| 亚洲色图综合在线| 久久99精品久久久久纯品| 91视频区| 国产午夜精品鲁丝片| 日韩精品亚洲人旧成在线| 国产成人一区| 麻豆AV网站免费进入| 国产自无码视频在线观看| 亚洲乱强伦| 91麻豆精品视频| 亚洲无码日韩一区| 日韩A级毛片一区二区三区| 国产福利一区二区在线观看| 啊嗯不日本网站| 久久国产高清视频| 成人免费一级片| 无码在线激情片| 91在线国内在线播放老师| 不卡的在线视频免费观看| 亚洲av无码片一区二区三区| 综合色在线| 国产精品无码一二三视频|