999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

生成式AI的融貫性法律治理

2023-11-10 15:33:20郭春鎮
現代法學 2023年3期
關鍵詞:人工智能法律

郭春鎮

關鍵詞:生成式AI;生成式預訓練模型(GPT);融貫性治理;法律3.0

引言

生成式AI(GenerativeAI)是指能夠自主生成新的文本、圖像、音頻等內容的人工智能系統。①生成式預訓練模型(GenerativePre-trainedTransformer,以下簡稱GPT)是生成式AI重要的模型之一,且其從文本模型到多模態模型的新進展,引發了產業界研發熱潮。2022年11月,美國OpenAI公司研發的聊天機器人ChatGPT一經推出,僅兩個月時間月活躍用戶便突破1億,成為史上用戶增長速度最快的消費級應用程序,且其增長速度遠遠超過了之前在用戶增長率上表現出色的應用軟件。①但這一紀錄又很快被打破,微軟將ChatGPT嵌入其Bing搜索引擎,一個月后Bing日活躍用戶即突破1億。②圍繞生成式AI產業,微軟、谷歌、Meta、亞馬遜和國內的百度、阿里巴巴等公司都迅速跟進,均希望在這一新技術領域內占領一席之地。③

生成式AI在給生產力帶來巨大提升空間的同時,也給相關產業發展、公民權益保護帶來一系列的沖擊與風險。一方面,生成式AI不僅是一種生產工具,還是一種生產要素。它不僅能夠作為技術手段應用于生產過程,還能夠在這一過程中進行一定程度的創新,取代人類的某些工作,甚至給生產力帶來革命性進步。另一方面,恰恰是由于它在內容生產中的高效率高質量的表現,給包括文秘、教育、軟件設計、圖像設計等在內的行業發展帶來潛在的巨大沖擊并造成心理恐慌。④同時,它在訓練過程中需要被“投喂”海量數據的來源所涉的相關法律問題、它所生產的內容中潛在的歧視⑤和“黑化”⑥等問題,給數據安全、算法安全、網絡謠言及數據主權、國家安全等都帶來潛在風險。因此,如何從法律上理解和對待生成式AI,如何從法律上理性地對待其產業發展和風險預防,是當前面臨的重要問題。

一、生成式預訓練模型GPT的產生與發展

對科技引發的問題從法律和法學的角度進行討論,并不意味著法學研究是以俯視的姿態唱獨角戲。在權衡是否應對技術進行治理、應如何治理時,了解技術的基本內容與特點,是對技術問題的基本尊重,也是讓法學研究具有現實意義、法律能夠發揮作用的前提與基礎。因此,有必要對生成式AI進行簡要的介紹。

隨著大規模數據集、計算能力和算法等新興技術與資源的爆發式增長,以GPT為代表的生成式AI迅猛發展。基于自注意力機制的Transformer模型是GPT技術的基礎,它是一種處理序列數據的深度學習模型。①,Transformer模型是一種用于處理序列數據的深度學習模型,是生成式AI取得顯著進展的關鍵技術之一。②它解決了傳統模型在處理長文本、并行計算、信息損失和長距離依賴關系等方面的問題,在語義特征提取能力、長距離特征捕獲能力、任務綜合特征抽取能力③、并行計算能力及運行效率④等維度上,都強于傳統自然語言處理模型并引領了自然語言處理領域的革命。⑤OpenAI公司基于Transformer模型研發出GPT、GPT-2、GPT-3、ChatGPT并迭代升級到GPT-4,生成式AI從文本模型狂飆突進發展到文本、圖像等多模態模型。

2018年6月,OpenAI發表論文介紹了一種基于Transformer的生成式預訓練模型,即GPT(GenerativePre-trainedTransformer)。⑥GPT改善了傳統自然語言處理模型難以處理長文本、需要大量標注數據的缺點,通過無監督的預訓練來獲得模型的初始參數,并經過受監督的微調適應不同的下游任務。⑦GPT能夠根據給定的提示生成連貫且語法正確的文本,并進行某些簡單的自然語言處理任務。然而,由于GPT的訓練數據集只有1.17億個參數⑧,使其生成能力、生成文本的質量和連貫性、生成內容的篇幅往往都受到一定限制,缺乏復雜性和多樣性。

2019年2月,OpenAI推出了GPT-2模型。⑨相較于GPT,GPT-2在結構上沒有太多的創新和設計,而是使用了更多的參數和更大的數據集。GPT-2的參數量達15億,由于模型規模和參數數量顯著增加,GPT-2能夠更好地處理復雜的自然語言任務。除了理解能力外,GPT-2能夠生成長的、連貫且多樣化的文本,不僅能夠閱讀摘要、聊天、續寫、編故事,還能夠生成誤導性新聞、垃圾郵件或網絡“釣魚”內容。此時,GPT-2展現出了普適而強大的能力,并在多個特定的語言建模任務上實現了彼時的最佳性能。

2020年5月,OpenAI推出GPT-3模型。GPT-3具有更大的模型規模和參數數量,包含多個版本,其中最大的版本包含了1750億個參數和96個Transformer編碼器層。相較于GPT-2和GPT-1,GPT-3的顯著提升不僅來自更大的模型規模和參數數量,還源于更先進的架構、更多的訓練數據以及更多的優化技術。GPT-3幾乎可以完成自然語言處理的絕大部分任務,例如,問題答案的搜索、閱讀理解、語義推斷、機器翻譯、文章生成和自動問答等等。同時,該模型在諸多任務上表現卓越,在“法譯英”和“德譯英”機器翻譯任務上達到當時的最佳水平,自動生成的文章幾乎讓人無法辨別是由人還是機器所寫的(正確率達52%)①,還可以依據任務描述自動生成代碼。②GPT-3能夠將網頁描述轉換為相應代碼、模仿人類敘事、創作定制詩歌和生成游戲劇本。③

2022年2月,OpenAI公布InstructGPT模型。④該模型是在GPT-3的基礎上進行了新一輪的增強優化,主要區別在于引入了人類反饋強化學習(ReinforcementLearningfromHumanFeedback,RLHF),也被稱為GPT-3.5。2022年11月,OpenAI推出基于InstructGPT的新型AI聊天機器人ChatGPT,同樣使用了人類反饋強化學習訓練模型。⑤用戶僅需向ChatGPT提出需求,即可實現文章創作、代碼編寫、回答問題等功能。ChatGPT除了能夠與人類進行語言交互外,還可以完成多種相對復雜的語言工作,包括文本自動生成、自動問答、自動摘要等,甚至能夠編寫和調試計算機程序。⑥盡管ChatGPT在自然語言生成方面表現出色,但它仍然存在一些局限,例如:生成的文本可能缺乏常識性知識;容易受到偏見和歧視的影響;對話連貫性存在問題;容易受到對抗性攻擊的影響導致生成的輸出出現錯誤或攻擊性內容。⑦

2023年3月,OpenAI公司推出了最新版本GPT-4。GPT-4是一個多模態模型,意味著它既可以理解文本這一“模態”信息,還可以接受圖像作為輸入并生成字幕、進行分類和分析。⑧GPT-4在各種專業和學術基準上表現優異,比以往的模型都更具創造力和協作性,可以生成、編輯并與用戶一起完成創意和技術寫作任務,諸如創作歌曲、編寫劇本或學習用戶的寫作風格等。此外,它還可以處理超過25000個單詞的文本,允許使用長內容創作、擴展對話以及文檔搜索和分析等。⑨有研究者認為GPT-4擁有全世界的常識性知識并能在此基礎上作出推理,可被視作AGI(ArtificialGeneralIntelligence,通用人工智能)的早期版本。①在微軟團隊進行的測試中,GPT-4滿分通過了亞馬遜公司的模擬面試,超越所有參與測試的人類,可以被聘用為軟件工程師。②

二、圍繞GPT的紛爭及其根源

作為一種技術現實,生成式AI正以指數級方式發展并影響著我們的世界;作為一種高科技應用,它在經濟、教育、生活等方面具有造福人類的潛力,同時也可能給對個體、社會、政府帶來巨大風險。③盡管法律學人正在貢獻大量的學理探討、時事評論、法律和政策提案,并呼吁企業和國際組織對人工智能注入倫理,但由于缺乏足夠的人工智能知識與技術能力,常常被譏諷為“盲人摸象”式的研究,難以承擔起解決這些問題的任務。④但是,對生成式AI不同的理論觀點進行梳理,仍是必要的前置性研究。

(一)圍繞GPT的紛爭

在論及如何面對以GPT為代表的生成式AI及其未來前景時,無論是學術界還是產業界都存在著諸多紛爭。整體而言,主要有支持、反對和中立三種態度。

不少學者和專家對GPT給予高度的評價,將其視為一種顛覆性突破,并認為它將在賦權賦能方面有所作為。在大西洋雜志發布的2022“年度突破”中,德里克·湯普森(DerekThompson)將ChatGPT視為不可思議的工具,認為其可能會改變我們對工作方式、思維方式以及人類創造力真正含義的看法。⑤比爾·蓋茨(BillGates)更是將它視為目前最重要的創新,是1980年以來最具革命性的技術進步,它將會改變我們的世界并使其更加高效。它不僅會為閱讀和寫作提供產生巨大影響的優化,而且可以切實提高醫療保健和教育領域的效率并顯著改善效果⑥,甚至能夠創造可以治愈或預防疾病的疫苗蛋白質,提供更安全的自動化駕駛以及將所有領域的認知錯誤最小化。⑦喻國明認為ChatGPT利用人類反饋信號直接優化語言模型,生產出與人類的常識、認知、需求盡可能匹配的文本,彌合了不同層級、不同地域民眾在信息整合和使用方面的“能力溝”和“使用溝”,是對人類的又一次重大賦能賦權。同時,它突破了不同個體在資源使用與整合方面的能力差異,使每個人都能夠以社會平均線之上的語義表達和資源動員能力進行社會性的內容生產和對話,進而實現對弱勢群體的賦權賦能。①

反對GPT的學者主要從知識增長與人的主體性、權力控制與法律風險的角度進行論述。以美國哲學家和語言學家諾姆·喬姆斯基(NoamChomsky)為代表的學者從知識增長與人的主體性角度進行批評。喬姆斯基將ChatGPT視為一種高科技剽竊,一種逃避學習的方式,認為學生本能地使用高科技來避免學習是“教育系統失敗的標志”。②愛麗絲·吳(AliceWu)等強調ChatGPT和AI聊天機器人只是簡單地重復一般信息,它們的興起可能會削弱我們的創造力。③汪民安則認為ChatGPT的文本生成是一種抽象的、概括式的結構主義活動,其目的是去尋找最均平化的意義,會造成有個性的、活生生的東西越來越少并可能帶來某種意義上福柯所說的“人之死”。④姜奇平認為以ChatGPT為代表的生成式AI因為缺乏與眾不同的洞見而難以用于前沿專業判斷。⑤從權力控制與法律風險角度批判ChatGPT的觀點強調,ChatGPT、AIGC其實是傳統力量的延伸,是互聯網中心化壟斷模式的進一步強化。每一個與AIGC相關的產業和公司,后面都站著一個巨頭,甚至自己就是巨頭本身。如果說區塊鏈技術的原教旨價值是“去中心化”,希望打破這種壟斷,并重構一種新的分布式網絡,讓普通人重新擁有自己的數據主權。那么,ChatGPT、AIGC則完全無視人的主權,無所顧忌地抓取全球數據進行訓練,最后制造出一個屬于自己的“超級大腦”。⑥控制這樣超級大腦的寡頭公司,不僅在面對消費者或使用者時具有外在的影響力和控制力,還通過“超級大腦”擁有了影響人們決策的更為直接的支配力。在歐洲,AI法案的主要立法者貝尼菲(Benifei)和都多拉奇(Tudorache)提議,AI系統在沒有人類監督的情況下生成復雜文本應該被列入“高風險”列表。⑦此外,馬克·墨菲(MarkG.Murphy)進一步指出,ChatGPT和OpenAI代表了一種沒有責任感的無意識,這是對社會紐帶的威脅,它沒有為我們仍然遭受的隔離以及基本的孤立和對抗提供任何解決方案。⑧

目前國內外學術界和實務界對GPT更多地秉持中立立場。這一立場從辯證的角度看問題,對ChatGPT技術的革命性影響、技術優先性及其弊端都有所考量。美國眾議院科學委員會民主黨代表劉云平(TedLieu)在《紐約時報》最近發表的一篇評論文章中表示,他既“對人工智能感到興奮”,又“被人工智能嚇壞了,特別是不受控制和監管的人工智能。”⑨研發ChatGPT的OpenAI公司的首席執行官薩姆·奧特曼(SamAltman)也認為,人工智能最好的情況是“好得令人難以置信”,“我可以想象當我們擁有令人難以置信的豐富和系統,可以幫助我們打破僵局,改善現實的方方面面,讓我們都過上最好的生活”,但他擔心最糟糕的情況是“所有人都會出局(lightout)”,“更擔心在短期內發生意外誤用”,所以他認為“不可能夸大人工智能安全和校正工作的重要性”。①邁克爾·安(MichaelJ.Ahn)和陳玉哲(Yu-CheChen)指出ChatGPT可能會徹底改變我們與技術交互的方式,有潛力幫助機構實現更高的效率。但這可能會使得人們嚴重依賴技術使用,使我們記住特定事實和批判性思考的能力下降,進一步降低平民在決策制定中的地位與作用。②

在我國,有學者認為ChatGPT作為生成式AI領域的重大顛覆性應用,具有廣泛的商業化前景,將推動眾多行業的快速變革,有望在客戶服務、醫療健康、教育、家庭陪護等領域快速落地。但ChatGPT目前尚處于發展的早期階段,存在關鍵核心技術發展不成熟、算法模型不完善、理解能力不足、回答問題不夠靈活和對語料庫依賴過多等突出問題,距離大規模的商業化應用還需要很長一段時間。③也有學者認為,ChatGPT既有可能讓師生對其過于依賴并導致未來學生思維更加趨同化和單一化,也有可能在技術上使以蘇格拉底式對話為代表的古典意義上的批判性思考重新回歸。④還有學者認為,如果以智人的大腦結構和自然語言的理解與交流為基礎的人類文明可以稱之為“人類紀文明”,那么ChatGPT以及AIGC的出現則在某種意義上預示著“后人類紀文明”的到來,這將把人類帶向希望與恐懼并存的不確定的未來。⑤

(二)圍繞GPT的紛爭原因

任何一個觀點背后總有支持它的原因,雖然很多時候論證其間存在因果關系較為困難甚至是不可能的,但從相關性和邏輯性的角度進行剖析,會發現觀點與影響因素之間存在合乎邏輯與情理之處。圍繞GPT的紛爭中,支持其發展的觀點暫且不論,對其進行質疑、批判乃至否定的觀點,大體可以從認知、經濟利益與權利保護的角度進行分析。

1.GPT紛爭的認知根源

認知是對事物的認識和感知,它是理解事物的前提和基礎。這種理解可能是對事物本質的理解,也可能是由于偏見或前見而產生的對事物表層的理解。GPT目前代表在自然語言處理領域的最高水平,但囿于對現代科技認知的局限,很多人對它并不理解,并由此產生猶疑恐慌的態度。這種態度,可以分為兩類:技術恐慌和奇點恐慌。

技術恐慌并不僅僅是由于對某一類技術不了解而恐慌,還包括由于不了解這一技術及其帶來的影響而對未知的恐慌,尤其是直接牽涉自身重要利益甚至根本利益時,由于難以預測未來自己的利益將會受到何種影響而恐慌。比如,GPT由于技術上的不斷進步,在很多領域表現得比人類更加出色,可以輔助甚至替代人類工作,這自然會給從事這些行業的人帶來恐慌。①

與技術恐慌不同,學界關注奇點恐慌更多的是由于擔心人類自己被人工智能替代。奇點是科技預言家們口中令人感到絕望的終點,第一次在科技領域使用“奇點”概念的是“計算機之父”馮·諾依曼(JohnvonNeumann),他指出:“圍繞技術的加速進步和人類生活模式的改變,這讓我們看到了人類歷史上一些本質上的奇點。一旦超越了這些奇點,我們所熟知的人類事務就將無法繼續下去了。”②美國數學家計算機專家弗諾·文奇(VernorVinge)進一步指出,新的超級智能將持續自我升級,并以不可思議的速度在技術上進步,這將標志著人類時代的終結。③斯蒂芬·霍金(StephenHawking)和埃隆·馬斯克(ElonMusk)等公眾人物對人工智能將會導致人類滅絕這一可能性地表達了擔憂。④

艾倫·圖靈(AlcmTuring)也指出那種認為“人工智能不能思考、沒有意識”的觀點存在的不足:“你要是肯定一臺機器是否能夠思考,唯一的途徑就是成為那臺機器,并且去感受這臺機器的思維活動。”⑤也正是基于這一理念,他提出了著名的“圖靈測試”(TheTuringTest)標準,即人工智能在打字對話中模仿人類,如果機器讓平均每個參與者做出超過30%的誤判,即人類交談者無法有效區分對方是人工智能還是人類智能,那么這臺機器就通過了測試,并被認為具有人類智能。⑥雖然圖靈的辯駁有“濠梁之爭”⑦的嫌疑,但他從弱意義上理解智能和意識、從功能的角度觀察人工智能運行結果的思路也有其合理之處———人類從未有過鳥一樣的翅膀,但仍可以像鳥一樣根據空氣動力學原理制造飛機,以極快甚至更快的速度從一個空間移轉到另一個空間。侯世達(DaglasR.Hofstadter)的論斷也回應了圖靈的觀點:“我們所知的屬于我們自己的意識不過是人類大腦的物理活動……關鍵的是組織的模式,而不是構成物的本性。”⑧因此,有學者認為,因果推斷能力讓人工智能向人靠近了一步,故而“主體性問題不再會構成我們理解奇點是否會到來的原則性障礙”⑨。同樣是基于功能視角,雖然人工智能不是由原生質構成的,無法進行新陳代謝,且計算機系統不像大腦神經系統一樣是連續系統,但這并不妨礙人工智能在功能意義上代替人類大腦。比如,原生質的馬可以在軌道上拖動列車以較快速度前行,非原生質的蒸汽機完全可以取代馬拉列車的工作,而且做得更好。人工智能的進化從來不是依靠原生質屬性,而是依賴于算法的迭代升級。因此,有觀點認為,盡管奇點是否實際會到來是一個經驗問題,但從因果推斷的角度來看,奇點的到來在邏輯上是可能的。

2.GPT紛爭的經濟考量

在某種意義上,任何一個觀點和訴求背后總有或隱或顯的主客觀利益。對于GPT的理論紛爭背后的利益考量,至少受包括公益性分歧和市場競爭份額因素的影響。

OpenAI設立初期為非營利機構,隨著它的市場潛力與價值一步步被挖掘,它轉向了盈利模式,這引發了對它及GPT的質疑。OpenAI是由薩姆·奧特曼(SamAltman)、埃隆·馬斯克(ElonMusk)、AmazonWebServices(AWS)和YCResearch等人和組織捐款創辦的非營利性機構,這些捐贈者承諾投入共計10億美元,后因資金不足在2019年轉型為有限營利機構,開始接受風險基金的投資,微軟公司更是分別在2019年、2021年和2023年三次向OpenAI追加投資數十億美元,紅杉資本、基巖資本、科斯拉風險投資公司等緊隨其后,使OpenAI經過6個回合的融資籌集到110億美元。①這體現了OpenAI、微軟等公司的前瞻性和不追求短期盈利的態度,而這與它們資金的豐裕度直接相關聯。但也有觀點認為,OpenAI從非營利機構轉變為營利機構,背離其初創精神。這家公司的“主要受托責任是對人類”,其目標是“為每個人而不是股東創造價值”,而轉向盈利模式則使它放棄了最初堅持的崇高使命宣言。②

近期的一封關于生成式AI研究風險的公開信,背后也有市場與利益的考量。美國產業界人士發表公開信并有千人聯署,主張所有人工智能實驗室應立即暫停訓練至少6個月。信中寫道:“只有在我們確信其效果是積極的,風險是可控的情況下,才應該開發強大的人工智能系統。”③雖然這在表層上體現為因人工智能風險不確定而應慎重對待的穩健態度,且簽署公開信的是包括馬斯克和蘋果聯合創始人斯蒂夫·沃茲尼亞克(SteveWozniak)在內的1000多名行業高管和專家,④似乎表明他們更多的是從技術安全的角度考慮此事。但“對于各種觀點、社會運動、人們的所作所為,都應該考慮它們對誰有利,誰獲益最多”⑤。馬斯克曾對OpenAI投資,但中途退出,在GPT快速迭代升級且功能越來越強大的時候,他已經不占有相關股份。此時,他若重新投資相關產業,需要時間。除了擔心自己的工作被生成式AI取代的群體,呼吁暫停的產業界人士,基本上在生成式AI領域都不是領跑者。

從政治經濟學角度來看,呼吁暫停甚至禁止大規模人工智能研究,與數字圈地運動相似。⑥平臺企業在資本的驅動下開啟圈地運動,通過所提供的免費基礎設施將其他服務有效接入其中,不斷延伸平臺系統的作用范圍,使非平臺企業被迫使用平臺才能繼續經營,進而最終使用戶永遠無法離開封閉的生態系統。⑦從GPT到GPT-4,由于技術路線已明晰,在投入大量人力、物力和財力后重現類似產品的可能性并不小,谷歌、百度等相繼發布類ChatGPT的人工智能競品,但高昂的訓練成本和頂尖科技人才自然而然地形成了一種競爭壁壘,使有能力進入該市場的僅限于那些科技巨頭。這些科技巨頭將生成式AI與其既有的業務相結合,不斷強化已有的業務優勢,①在錨定效應的作用下將該優勢延伸到相關聯的市場之中,不斷拓展自身的勢力范圍,通過這種圈地運動的產業策略,在生成式AI的市場競爭中尋求一席之地。

總之,對生成式AI質疑、否定乃至主張暫停的態度,不能僅僅從技術發展與安全的角度來理解,更應該從政治經濟學的視角觀察態度背后所蘊含的利益訴求和行為動機。

3.GPT紛爭的權利保護考量

GPT的訓練數據集存在著侵犯他人權利的風險。人工智能的迭代升級需要大量數據“投喂”,OpenAI之所以能夠在數年內將生成式AI從GPT迭代到GPT-4,與投入的數據量直接相關聯,數據規模在超出特定閾值后引發算法模型從量變到質變的轉換。ChatGPT是預訓練基礎模型應用的典型例子,預訓練技術通過使用大量技術和任務來訓練通用模型,這些數據和任務可以在不同的下游應用程序中輕松地進行微調,②且隨著數據規模的增加,預訓練模型的參數越多,算法輸出的精度越高。OpenAI不斷擴展預訓練模型的參數規模,GPT訓練數據集只有1.17億個參數,GPT-2的參數量達15億個,GPT-3具有更大的模型規模和參數數量,包含了多個版本,其中最大的版本包含了1750億個參數,GPT-4更是達到了一百萬億。GPT使用互聯網的海量文本數據集進行訓練,其主要數據來源是新聞文章、網站和在線論壇等多樣化文本集合構成的WebText數據集,其中包含從互聯網收集的大約800萬個公開可用的網頁,以及其他包括書籍、文章、維基百科等在內的數據集,以增強訓練數據集的多樣性。③但OpenAI公司沒有公開披露ChatGPT以及GPT-4訓練數據集的確切來源,且GPT所提供的答案缺乏可信性的驗證,無法知悉其所提供的內容是真實或虛假的,抑或是憑空捏造的,這些都可能構成對他人合法權益的不當侵損。

GPT的生成內容存在著侵犯版權的風險。一方面,GPT的迭代升級需要從互聯網上抓取海量的數據集進行訓練,然后通過識別和復制數據中的關系和模式來生成代碼、文本、音樂和圖像。這些數據本身是由人類創建的,且以某種方式受到版權保護,但AI公司往往采用爬蟲技術在互聯網上收集數據集,并將其輸入到訓練模型中,此時使用這些數據集是否有侵犯他人版權的風險?AI公司認為使用這些數據集(至少在美國)受到合理使用原則的約束,該原則鼓勵使用受版權保護的作品來促進自由的表達,但不少律師和分析家認為這必然會侵犯版權,并可能在不久的將來面臨嚴重的法律挑戰,尤其是權利人無從知曉自身的作品被爬取使用的情況下。④目前國外有新聞媒體指責OpenAI在未經其許可且未支付任何費用的情況下使用其數據集來訓練GPT,《紐約郵報》《華爾街日報》等新聞集團正準備通過法律手段向OpenAI、微軟和谷歌要求賠償。①另一方面,GPT是一種生成式語言模型,能夠通過學習已有的語料、文本規則、語法構造來生成新的內容,其實質是在一定的抽象限度內對已有的知識進行重新組合,②如果GPT所生成的內容與現有受到版權保護的材料相似,則所生成的內容可能會侵犯現有作品的版權。即使是對他人已有作品的改編、整理、翻譯而成的演繹作品,如果沒有獲得現有著作權人的授權,仍可能構成對他人版權的侵犯。③GPT是基于機器學習的自然語言處理技術,沒有人類的創造性,其所生成的內容主要是基于已有的語料數據與統計模型,這往往會導致相似輸入相似輸出,會給他人現有版權造成不確定風險。

GPT可能對隱私權與個人信息權益帶來挑戰。GPT以大型語言模型為基礎,需要海量的數據資源才能運行和改進,OpenAI為該模型提供了大約3000億個從互聯網上收集的數據集。首先,這些訓練數據集面臨著來源合法性問題。OpenAI未經許可使用有關個人的數據,這顯然構成對當事人隱私的侵犯,尤其是敏感數據且可以被用來識別當事人及其家庭成員時,即使是那些公開可用的數據,其使用也超出了最初公開時的場景脈絡與合理期待。更何況OpenAI也沒有為它從互聯網上抓取的數據付費,無論是個人還是網絡所有者都沒有獲得補償。④GPT采用的預訓練模型無需人工介入、監督,這使GPT得以自動爬取互聯網上的數據資源,可能會獲取非法來源的數據信息,侵犯他人的知識產權、隱私權等,甚至構成非法獲取計算機信息系統數據罪。⑤其次,這些訓練數據集聚合后可能會揭示用戶的私密信息或敏感信息。OpenAI將海量的訓練數據聚合重組,這些數據單獨來看是無關緊要的,但經過組合和分析,可能揭示個人的敏感事實或隱私,現代數據分析技術更是能夠從數據足跡中推斷出關于個人的廣泛信息,尤其是那些已公開的個人信息,個人往往無法對公開的成本與收益作出有意義的判斷,⑥從而使公眾的隱私權與個人信息權益時刻處于風險之中。當然,這些訓練數據集來源廣泛,有時本身就蘊含著敏感數據。最后,這些訓練數據集面臨著數據安全性問題。數據安全是生成式AI的底線性要求,要求OpenAI等公司采取技術與管理措施保障數據安全,但實踐中個人信息泄露事件的頻發不僅威脅著用戶的隱私權和個人信息權益,還侵蝕著公眾對相關技術的信任度。2023年3月20日,因Redis客戶端開源庫redis-py中的一個錯誤導致ChatGPT發生了嚴重的數據泄露事件,使一些ChatGPT用戶不僅能夠看到其他用戶的聊天內容,還能看到他人的姓名、賬單地址、信用卡類型、到期日期等。⑦正是因此次數據泄露事件以及對使用個人數據訓練聊天機器人的法律基礎表示擔憂,意大利數據監管機構在該國境內暫時禁止了ChatGPT。

總之,生成式AI的發展依托于從互聯網上爬取的海量訓練數據集,這些數據集不僅可能侵犯他人現有的版權,還可能給他人的隱私權、個人信息權益等帶來風險,這些權益侵損風險使眾多專家學者對人工智能秉持質疑、否定的態度。

三、注重技術方案的法律3.0及其融貫性治理

作為一種代表互聯網技術和數字科技發展的高科技成果,GPT在提高生產力、推動社會發展的同時,也帶來了一系列社會風險、法律風險,以及潛在的法律問題。即便當前不立即通過立法進行應對,但進行未雨綢繆式的思考和研究仍有必要。科技問題不僅需要在法律的框架內理解和解決,更需要對技術問題有一定的理解和把握才能更好地應對。囿于法律人知識架構的特性以及法律學科自身的特點,在對GPT及與之類似的科學技術帶來的問題進行治理時,容易在擅長的規范分析領域做文章,而對如何進行技術治理則缺乏抓手和著力點。此時,注重技術方案的法律3.0理論可以在治理思路方面為我們打開一扇門。

(一)注重技術方案的法律3.0

法律的滯后性與現實的快速發展使得二者之間存在著張力,這種張力在技術更新與迭代迅速的當代社會尤其明顯。除了通過不斷制定新的法律來緩解這種張力外,還有一種思路就是嘗試通過對法律進行更廣義的理解、把科學技術和政府規制納入法律范圍來應對技術發展帶來的問題。①法律具有滯后性,經常落后于現實的發展,尤其是技術狂飆猛進這一現實。對此,巴洛(JohnPerryBarlow)曾略帶戲謔地說,相對于現實世界“以令人目眩的速度變化”,“法律以不斷改進的方式進行調整,其節奏的莊嚴程度僅次于地質變化”。②一個常見的解決路徑就是通過不斷制定新的法律來緩解這種張力。不過,即便我們對法條和法教義的效用抱有信心,在一定情況下現有的法律條文可以“應對”新技術帶來的法律問題,但它們未必能夠“解決”這些問題,更難稱得上“有效”或“令人滿意”地解決這些問題。互聯網和GPT發展帶來的隱私保護、個人信息保護及相關問題的治理即為例證。因此,一種更為靈活的解決思路是,對法律進行更廣義的理解,把科學技術和政府規制納入法律范圍,通過法律解釋將包括新技術在內的新興事物與現象涵攝進現有的法律條文內,以不變應萬變地解決新事物帶來的新問題。由此,除了在規則完善方面通過國家立法應對新事物和新問題外,還要嘗試對法律進行不斷升級地理解,以較低的立法成本實現更有效的應對。

布朗斯沃德的法律3.0理論,是發展法學理論以動態應對社會發展的嘗試。在布朗斯沃德的理論架構中,對法律概念與含義的理解不斷升級,從法律1.0升級到法律3.0,分別對應著英國場域下的普通法、成文法和替代法律規則的技術方案。從功能比較的角度來看,大陸法系和中國語境下的法律1.0和法律2.0分別對應的是法教義學和法政策學,運行場景分別是法院和廣義的立法機構(包括擁有法規和規章制定權的政府機構),而法律3.0則同樣指替代法律規則的技術方案。③法律3.0既關注規則的修改,也關注技術方案,是一種雙管齊下的思路和方法。法律法規需要隨著法律目的或政策的調整而被更新或修改,支持這些規則的機構與資源需要被維系和升級,以保障規則在紙面上和實踐中契合立法目的。除了規則之外,還應該尋求可能的技術性解決方案,以補充或代替規則,使技術本身成為解決方案的一部分。這些措施可以被融入產品或工作流程的設計當中,甚至被融入穿戴設備,乃至人類自身當中。①

需要強調的是,法律3.0不僅是一類廣泛的法律興趣領域,更是一種特別的對話和思維模式。②之所以說它是一個領域,是因為它不是法律2.0或法律1.0的終結者,而是一種和它們共存、兼容的升級版;之所以說它是一種特別的對話和思維模式,是因為在這種升級共存的基礎上,法律3.0不斷在和法律2.0與法律1.0“對話”,經由對話的方式,使“新版本”在“老版本”限定的空間里“帶著鐐銬跳舞”,以更為精細和更具針對性的方式,解決社會發展和技術進步帶來的新問題。

(二)法律3.0中技術與規范的融貫性

法律3.0理論對話和升級版的屬性,實質上是一種融貫性,是法律、政府規制和技術之間的融貫。從法律適用的視角來看,融貫性意味著動態流暢地保持著內在一致性,它既包括基于主體源自客觀世界的感知和內省而產生的信念之間的融貫,也包括同一主體不同信念和不同主體的信念之間的融貫。③融貫性經常出現在法教義學及與之有密切關聯的法解釋學的研究中,并成為法教義學最核心的特征之一。在法教義學的學術理念中,“法律概念、原則、制度以及由此構成的法律規范”是一個結構化的網絡,在這個意義上,法教義學又可稱作“法網結構學”④。在法解釋學的學術旨趣中,融貫性不僅僅體現為主體對客體本身既有特征的把握,還被視為法律推理和解釋主體在理解法律材料時能動、積極地賦予這些材料的屬性。

法律3.0理論超越了法教義學意義上的融貫。在法教義學和司法理論中,融貫性有三個層次,遵守規范與判例、體系內的融貫和法律體系外的融貫,⑥法律3.0則超越了這種對融貫性的理解。這主要體現為:首先,在規范體系上,法律3.0架構中的規范包括立法機構制定的國家法,也包括執法過程中規制機構制定的相關規則,還包括一系列解決真實世界中現實問題的技術方案和技術規范。其次,法律3.0理論所涉及的治理主體不僅包括法教義學和司法理論所指向的司法機關,還包括強調以行政過程為中心的現代行政法學中的行政規制主體,⑦對技術進行規制的私主體,⑧以及運用技術進行技術治理的所有相關主體。再次,相對于法教義學和司法理論所關切的判例、規則和原則及其運行過程中的程序,法律3.0理論強調結果導向,更關注從結果來理解和評價實踐、技術和規范。以個人放飛無人機影響飛機行駛安全為例,如果通過射頻干擾的方式使得機場附近無人機無法起飛的同時又不影響飛行安全,那么這個技術方案就能替代設置禁飛區這樣的規則設計。此時,技術與規則運行具有同樣甚至更好的效果。最后,法律3.0理論強調從功能的角度觀察和分析技術與規范(包括法律和政府規制)的融貫。在功能替代意義上,“architecture和設計可以用來保護人身和財產的想法與金字塔和鎖一樣古老”①。在符合法律理念與目的的前提下,支持規則運行的機構和資源與技術解決方案可以并行不悖,彼此對話甚至互相替代。值得強調的是,這里的architecture不僅是建筑學意義上規劃、設計與構建建筑物和物理結構的過程和產物,還包括當下計算機工程和互聯網技術中描述功能、組織和計算機系統實現的一組規則與方法,②即通過程序代碼實現軟件系統的結構與行為設計。

法律3.0超越了司法導向的法解釋學、政府規制意義上的現代行政法學,成為在兼顧二者基礎上容納并強調技術方案的“新”法學。也正是在這個意義上,法律3.0是一種強調對話和融貫的理論:它強調司法導向的法解釋學、行政過程為中心的規制法學和技術方案之間的兩兩對話,注重國家法律、行政規制和技術方案之間的融貫。這種融貫,是保持不同主體制定的不同層級法律規范內在一致性和統一性的規范性融貫,也是一種將技術方案融入規范,進而使得技術方案與不同層級規范及引領這些規范的原則與價值融合的整體性融貫。如果說,在現代行政國家,高度復雜化、技術化的規制事項和現代社會中的各種風險,使得原有立法機關的立法難以有效應對,因而行政機關不得不制定規則填補法律罅隙,補全立法機關劃定的藍圖,并借助其專業化的行政技術官僚應對高度專業性的問題,③那么法律3.0則是在吸收制度發展成果、堅持價值融貫的基礎上,進行了專業升級,以更專業的技術方案、更低的治理成本高效應對社會發展和技術發展帶來的問題。

規則、治理思路與方案的變化是社會變遷的體現。如果說以法解釋為核心的法教義學是前工業化時期和工業化初期對相對簡單社會的治理方式,將問題的解決主要放在下游的司法環節,那么以行政過程和與之相應的行政規制為主導的法政策學則是在工業化時期對復雜社會的治理方式。由于社會生活復雜性的增加和社會風險不確定性的提高,需要專業機構和專業人士根據專業化的法制度做專業的事情,以關注行政過程和規制的方式將問題解決在中上游。法律3.0則在尊重前述兩個版本的法律和規制措施的前提下,強調應對和解決問題的技術方案,是應對工業化社會、信息社會更加復雜、更具有技術挑戰性問題的新思路。需要再次強調的是,法律3.0并非要求技術方案取代行政規制和立法,而是在尊重立法、行政規制的前提下,通過與前兩個版本的融貫性互動,盡可能以低成本的技術方案應對和解決問題。

四、對GPT進行融貫性治理的框架

融貫性治理將技術方案、政府規制和國家立法進行融會貫通,把技術和制度、專家和公眾進行結合,為治理高科技技術提供了一個相對整全與系統的思路和框架。在對某一技術進行規制時,精通某類技術的專家們既有可能提出高效的、具有針對性的治理策略,也有可能“扎堆犯傻”①,還有可能被技術及技術背后的資本俘獲,以“專業”的方式制定出偏向某個或某些產業機構的公共政策。融貫性治理力求將聚集專家的規制者與代表民意的立法者進行對接整合,同時把技術方案納入治理的工具箱,力求既通過技術應對技術問題,又努力把技術也關進制度的籠子里,實現技術與制度“兩手抓,兩手都要硬”。

(一)用“魔法”制約“魔法”

在互聯網世界中,有“用魔法打敗魔法”的說法,意思是以其人之道還治其人之身或以彼之道還施彼身。但是,當我們面對以GPT為代表的人工智能時,很難用“打敗”這樣的表述。或許,自人工智能誕生的那一天起,它就和其他技術一樣,與人類形成一種共生共存的關系。就像我們已經看到的互聯網技術那樣,人類與人工智能共同生長,人類在創造人工智能的同時,也在被人工智能塑造著。不過,面對功能越來越強大的人工智能,人類能夠從自己的治理工具箱中尋找到多種工具對其進行制約。

從當前科技發展的成果來看,制約GPT的技術架構中,至少包括區塊鏈和人工智能。除了用人工智能技術檢測人工智能技術進而對其進行制約外,區塊鏈成為另一個可靠選項。區塊鏈有助于提升生成式人工智能的安全性。如果我們采取措施,將重要個人信息、重要的決策依據,關鍵的數據生成式人工智能的能量系統等交給區塊鏈智能合約管理,將確保生成式人工智能對人類的安全性。由此不僅緩解公眾對生成式人工智能的安全焦慮,還能在事實上認人工智能更安全。更重要的是,如果說GPT自身的迅速迭代發展代表了技術更新的效率,那么它高效處理自然語言并對現有某些工作的替代,則體現了它提升社會整體效率的潛力與能力。與效率相伴而行甚至被優先考量的是公平,在法學的視野中,盡管對公平有不同的理解,但將其視為首要的價值則已形成基本的共識。②如果以GPT為代表的高科技代表了高效率,那么區塊鏈則體現了技術的公平取向。對此,有網友精彩評論,科技之神在工業革命兩百年之后,再一次同時在“效率”與“公平”的天平上加碼放大招,在放出強人工智能這個瓶子里的精靈的同時,也把駕馭這個精靈的咒語書交給人類,這就是區塊鏈。③

狹義區塊鏈是按照時間順序,將數據區塊以順序相連的方式組合成的鏈式數據結構,并以密碼學方式保證不可篡改和不可偽造的分布式賬本。廣義區塊鏈技術是利用塊鏈式數據結構驗證與存儲數據,利用分布式節點共識算法生成和更新數據,利用密碼學的方式保證數據傳輸和訪問的安全,利用由自動化腳本代碼組成的智能合約,編程和操作數據的全新的分布式基礎架構與計算范式。④盡管區塊鏈獨創的token、挖礦和炒幣等模式,讓很多人對區塊鏈充滿了質疑,認為區塊鏈只是資本催生出來的噱頭,是一種投機和炒作的工具,⑤但其特有的功能與價值使其成為不可忽視的技術。2019年10月24日,在中共中央政治局第十八次集體學習時,習近平總書記強調,“我們要把區塊鏈作為核心技術自主創新的重要突破口”“加快推動區塊鏈技術和產業創新發展”①。區塊鏈技術帶來的一個重要的產物是token,作為一種便捷和有公信力的記賬工具,它與智能合約結合之后,在線上線下均可以作為衡量工作貢獻、獎勵工作成效、代表個人身份和所有權的憑證。從政治經濟學的角度來看,商品的價值源于凝結于其中的無差別人類勞動。在當前社會,人類的勞動方式日益多樣化和多元化,人們在日常生活中對網頁的瀏覽、小程序的使用、發布視頻、展示朋友圈甚至回復他人的評論都構成一種勞動,②即便這些勞動的價值相對較低,但仍然為網絡服務的提高、網絡產品品質的提升等帶來積極效用。這些勞動行為,都可以token的形式記賬。通過token,可以實現人工智能技術發展帶來的收益更公平地為公眾和用戶享有,同時為那些被人工智能發展影響其工作的人們提供了尋找工作、得到報酬的新途徑。比如,有些用戶提供了顯卡并由此提供了算力,有些用戶對人工智能進行數據“投喂”以完善和提高其性能,③有些用戶按照平臺發布的任務寫代碼,在此基礎上可能發展出真正的共享人工智能,算力、模型構建、數據投喂全部由用戶通過去中心化的框架來完成,根據用戶的貢獻來獲取token,token可以換取相應的AI使用權限和相應的服務。因此,區塊鏈提供了新型的勞動計劃,同時為那些提供了勞動的人們享受到相應的服務或得到相應的報酬提供了可能性,使人工智能技術發展的成果能被更多人更公平地享有。

(二)把理念注入“魔法”

當一個組織、技術或其他主體主張進行自我約束時,人們往往會懷疑這種約束的效果。這種懷疑有經驗和邏輯的支撐:從歷史上看,“作為制度的皇帝”即便能夠在短期內進行自我約束,但難以長期制度化和規范化,最后也難逃越權和覆滅的結局。④從邏輯上看,任何權力都有擴張的沖動,直至權力擴張的成本與收益達到邊際平衡。⑤由此人們自然會懷疑人工智能技術及掌握這些技術的機構自我約束的動機、動力和執行力。

對于這一質疑,可以從內外兩方面進行理解和回應。從內在角度來看,一個期待長期效益的機構,有動力進行自我規制和自我約束。規制是“對構成特定社會的個人和構成經濟的經濟主體的活動進行限制的行為”⑥,進行限制的主體,可以是行政機關,也可以是為自己設定行為標準或行為模式的私主體。規制的結果,除了有助于公共利益的實現,也有助于私主體長期利益的實現。比如,我國國有企業的環境監督員制度、食品企業的自愿認證體系、互聯網協會的產業自律規范等。⑦在這個意義上,自我規制是一種“主體責任”,即主體做好分內之事所應主動承擔的積極作為和不作為的義務。⑧從外在角度來看,很多自我規制除了有自我約束、自身利益和社會公益的追求外,還有來自社會和國家的監督這一外在因素,是一種法律、國家和社會“凝視”下的自我規制。外在“凝視”是使內在自我約束具有動力和執行力的重要因素。自我規制實際上是一種公權力和社會權力影響下的自律,故我們不必過于擔心自我規制的效果,因為這是他律下的自律。也正是在這個意義上,自我規制是個體理性在追求自身整體利益最大化的時候,從人與人的“交互性關系”“互依性關系”理解人的存在,因而也在踐行公共理性。①

建設“有道德”的人工智能。當向GPT提出關于種族歧視的問題時,它的回答都是非常政治正確的,這是注入了倫理規范、設置了禁止性規則的緣故。②就整體而言,ChatGPT并未出現系統性違反倫理的情況。有學者在評估了“阿西洛馬人工智能原則”、人工智能社會責任發展論壇發布的《蒙特利爾宣言》、2017年出版的《道德一致的設計:通過自主和智能系統優先考慮人類福祉的愿景》(第二版)、歐盟委員會發布的《人工智能、機器人和“自主”系統》、英國上議院人工智能委員發布的《英國的人工智能:準備好、愿意和有能力?》報告中提出的“人工智能代碼的五項總體原則”“與人工智能伙伴關系”等六個文件47項原則之后,認為這六套原則之間的連貫性和重疊程度令人印象深刻,且這些原則與生物倫理學中常用的仁慈、非惡意、自主和正義四項核心原則相通。③與之相呼應,在對大型語言模型(LargeLanguageModel,LLM))進行研究時,學界系統地確定六個風險領域:歧視、排斥和毒性,信息危害,錯誤信息危害,惡意使用,人機交互危害,自動化、訪問和環境危害,并對這些領域違反人類基本倫理的情況進行研究。結果顯示,在最新的語言模型系統中,沒有跡象表明這些危害會發生。④此外,歐盟2019年4月8日制定發布了《可信AI倫理指南》,將人的尊嚴作為人工智能發展的核心價值。⑤有學者在考察了2018年《多倫多宣言》的主要規制思路后,將算法視為一種特殊形式的立法。⑥這些現象似乎都說明,在對ChatGPT進行設計與學習時,算法被嵌入了相對穩固的倫理。當然,這并不意味著對它的倫理要求與監管就高枕無憂了。實際上,當有人要求ChatGPT寫一首詩贊美特朗普時,它以技術中立為由拒絕,而當要求它寫詩贊美拜登時,它迅速給出了一首雖然粗鄙但高度肯定的贊美詩。⑦與之類似,當人們向它提問中國的氣象氣球飄入美國時,美國應如何處置,與美國的氣象氣球飄入中國時,中國應如何處置,它給出了截然相反的答案。⑧這意味著,即便現有的人工智能或GPT受基本的倫理約束,但也受到意識形態和國際關系的影響。因此,應當時刻關注人工智能的倫理約束,將倫理理念注入魔法的施展中。

(三)用“市場+規則”助力“魔法”發展

融貫性治理意味著將技術、規制和立法都作為治理工具,解決真實世界中的問題。從功能的角度來看,無論是立法機關的立法、行政機關的規制,還是司法機關的判例或指導性案例,都具有規則的屬性,能夠對不特定多數人的行為進行指引、評價、預測、教育和強制。在某種意義上,市場對資源配置的基礎性作用,幾乎具有法律強制外的其他所有功能。因此,在技術、規制和立法的罅隙中,存在著市場的位置與發揮作用的空間。

從資源配置和經濟發展的角度來看,市場天然具有公平屬性。當然,當市場主體發展到一定程度之后,也會出現通過壟斷扭曲市場、對資源進行不公平配置以及對弱勢者進行不合理分配的現象。就人工智能的發展而言,由于它正處于發展階段,且對經濟發展和社會進步具有不可估量的潛力,因此在其所帶來的風險與不利影響尚不充分和明顯時,不急于通過法律對其進行約束,而是通過市場讓其充分發育,充分發揮其能級提升的潛力。當蒸汽機火車取代馬車的時候,我們不應為了馬車夫的工作而限制火車產業;當電腦的普及使得人人都可以打字的時候,我們不應為了打字員而禁止電腦產業發展。相反,火車和電腦產業的發展,在讓一部分人失業的同時,也創造了更多代表生產力發展方向的和更高待遇的崗位,正是在這種產業升級的過程中,生產力不斷提升,社會不斷發展,人自身不斷得到解放。與之類似,當人工智能開始迸發活力并對某些產業和人們的心理產生沖擊力的時候,我們可以審慎對待、關注其帶來的各種積極和消極影響,但不應急于對其進行限制。在這個意義上,對待生成式AI的態度可以參考互聯網產業發展初期的“非法興起”。那時互聯網作為一種新型生產方式,不斷連接線上與線下各類生產性資源,在社會范圍內調動匹配,從而創造性地產生有效利用資源的新方法,①并引發生產方式的持續性變革。②

市場和產業發展會對人工智能技術的發展產生反應,靜觀其變和見招拆招、在未發現“明顯而即刻的危險”③之前對它秉持寬容態度,或許是最優策略。從當前人工智能發展的現狀來看,該產業是重資本產業,需要投放大量的人力、物力和財力,對其進行人工“投喂”,才可能讓其功能越來越優化,而能投入這樣資源的企業和國家并不多。因此,被監管的主體數量有限。在其發生潛在威脅和危險需進行監管時,監管的廣度會使得監管難度降低。與此同時,ChatGPT和文心一言這樣的人工智能產品,對其產業鏈中其他環節的技術風險,也能在現有的法律規則體系所要求的框架內,以較低成本通過自我監管和規制降低風險。盡管人工智能的性能不斷提升,并在某些辦公室工作、學術輔助工作甚至音像視頻制作工作中表現優異,④但也沒有必要對此過于擔憂。比如,某些人工智能制作的畫作、音頻質量很高,這是使用高質量作品反復訓練的結果,當信息反饋或者資料收集方面沒有更新、更有創造性的內容之時,帶來的有可能僅是低水平或較高水平的重復。因此,人工智能生產的產品,并不會威脅到人類真正有意義的創新。

除了用市場及其底層邏輯與規則引導人工智能外,法律規則也不能缺位。實際上,我國現有的法律規則并沒有缺位,比如,現有的關于版權、隱私權、個人信息權益和網絡安全、國家安全的立法,基本上涵蓋了人工智能產業發展所涉及的法律領域。盡管存在某些所謂“空白”,比如個人信息到底是否具有權利地位、數據財產權應如何確定等,①但這更多的是由于對于產業發展和權利屬性尚未形成社會共識,當前法律不適于或不急于介入,是一種有意為之的“留白”,待時機成熟、共識形成之時再進行法律上的確認。整體而言,我國現有的包括國家立法、政府規制和技術方案在內的規制架構處于“基本夠用”的階段,因此,我們似乎不應過于焦慮和著急對人工智能進行規制,而應在推動產業發展、科技進步的同時,關注人工智能產業發展的潛在風險,不強求體系化一勞永逸地解決問題———實際上這也不可能,而是采取逐一解決、逐漸升級的思路:對于已經發現或有較強現實性的風險,首先嘗試可否通過技術方案解決,因為對于某些權利,代碼可以與現實中的法律和社會規范進行雙重保護,甚至比法律更有效;②對于技術方案難以完全奏效的風險或行為,嘗試通過標準、政策、政府具體和抽象的行政行為解決,這樣既可以降低立法成本,也可以調動職業官僚中的專家團隊,對問題進行針對性解決;對于前述行為仍難以解決且已基本形成社會共識的規則方案,再考慮通過立法機關進行專門立法。

結語

當ChatGPT產生之時,產業界和學界興奮地宣稱,這是另一個“iPhone時刻”③,將ChatGPT視為與iPhone手機一樣偉大的發明,認為它在解決人與人工智能交互方面是一次偉大的革命,人們可以像用iPhone手機那樣方便流暢地使用人工智能。④在iPhone手機存續至今的十余年里,我們也看到了智能手機和移動互聯網理論、應用、產業模式等各個領域對社會和世界帶來的積極影響。它不僅提供了優質的交流方式,還提供了高效和高質量的移動互聯網平臺、便捷安全的生活。⑤

實際上,當iPhone剛產生之時,并沒有多少人認為它會給我們的生活帶來多大的風險,有多么迫切的需要對其進行規制。與之類似,以GPT為代表的生成式人工智能方興未艾,它的產生運行所涉及的法律問題,在現有的法律體系框架內基本上能得到有效應對,比如關于隱私、版權、個人信息等。有些在法律上存在模糊的地方,如信息權屬的性質、數據財產權的屬性等,目前尚未形成社會共識,無論GPT是否產生,這種模糊都存在。因此,就現在GPT所涉的法律問題而言,在形成社會共識之前,我們不應也沒有必要通過立法對它進行規制。對于它帶來的現實、急迫且法律沒有明確規定的問題,我們可以嘗試進行融貫性治理,即優先考慮技術方案用“魔法”制約“魔法”、通過內在和外在方式把價值理念注入“魔法”以建設“有道德”的人工智能,營造一個好的市場讓生成式人工智能公平競爭并催生出高質量算法模型,在確有必要的時候通過政府規制和國家立法引導、約束生成式人工智能的發展。

猜你喜歡
人工智能法律
法律推理與法律一體化
法律方法(2022年1期)2022-07-21 09:17:10
我校新增“人工智能”本科專業
法律解釋與自然法
法律方法(2021年3期)2021-03-16 05:57:02
法律適用中的邏輯思維
法律方法(2019年3期)2019-09-11 06:27:06
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 04:56:22
讓人死亡的法律
山東青年(2016年1期)2016-02-28 14:25:30
主站蜘蛛池模板: 扒开粉嫩的小缝隙喷白浆视频| 丁香六月综合网| 免费jjzz在在线播放国产| 欲色天天综合网| 亚洲天堂久久新| 成人毛片免费观看| 色精品视频| 久久99精品国产麻豆宅宅| 国产精品55夜色66夜色| 尤物成AV人片在线观看| 日韩福利在线视频| 亚洲国产精品无码AV| 青青草原国产免费av观看| 日韩欧美中文| 精品久久久久久成人AV| 中文无码精品A∨在线观看不卡| 国产幂在线无码精品| 91口爆吞精国产对白第三集| 午夜福利网址| 中文字幕在线观看日本| 亚洲男女在线| 国产欧美日韩在线一区| 国产成人精品18| 一区二区日韩国产精久久| 日韩第一页在线| 久久久久中文字幕精品视频| 在线永久免费观看的毛片| 91精品免费高清在线| 欧美一级高清免费a| 午夜色综合| 免费va国产在线观看| 免费在线播放毛片| 国产三级成人| 囯产av无码片毛片一级| 中国特黄美女一级视频| 免费高清a毛片| 久久久亚洲色| 国产亚洲精品97在线观看| 天天干伊人| 亚洲成人免费在线| 国产伦精品一区二区三区视频优播 | 国产真实乱了在线播放| 亚洲中文字幕久久精品无码一区| 日本午夜视频在线观看| 国产亚洲美日韩AV中文字幕无码成人 | 色婷婷在线影院| 片在线无码观看| 青草午夜精品视频在线观看| 国产精品福利尤物youwu| 一本大道香蕉久中文在线播放| 亚洲国产精品日韩欧美一区| 久久综合伊人77777| 91口爆吞精国产对白第三集| 成人亚洲国产| 亚洲国产日韩视频观看| 2021国产精品自产拍在线观看 | 亚洲AV无码乱码在线观看裸奔| 久久亚洲AⅤ无码精品午夜麻豆| 欧美亚洲一二三区| 国产精品9| 国产精品乱偷免费视频| 国产欧美在线观看精品一区污| 久久精品波多野结衣| 精品人妻AV区| 欧美在线天堂| 午夜国产理论| 色播五月婷婷| 18禁不卡免费网站| 亚洲精品无码久久毛片波多野吉| 亚洲伊人电影| 国产精品永久不卡免费视频 | 日韩欧美中文字幕在线精品| 国产精品伦视频观看免费| 亚洲综合久久成人AV| 2020极品精品国产| 亚洲男女天堂| 在线播放国产一区| 91成人免费观看在线观看| 91在线中文| 国产精品尹人在线观看| 在线欧美日韩| 在线国产三级|