999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

生成式人工智能的三大安全風險及法律規制

2023-10-30 18:50:45劉艷紅
東方法學 2023年4期

劉艷紅

關鍵詞:ChatGPT 生成式人工智能 合規制度 數據安全 算法偏見 知識產權

2023年4月11日中國國家互聯網信息辦公室《生成式人工智能服務管理辦法(征求意見稿)》規定,生成式人工智能“是指基于算法、模型、規則生成文本、圖片、聲音、視頻、代碼等內容的技術”。

2022年11月,人工智能公司OpenAI推出了生成式人工智能,并命名為ChatGPT。以ChatGPT為代表的生成式人工智能是元宇宙技術架構的終極樣態之一,它的出現將元宇宙的實現至少提前了10年,〔1〕元宇宙本身則為這類生成式人工智能提供了良好的技術運行環境。在生成式人工智能技術的推動下,元宇宙的概念不僅沒有因ChatGPT的橫空出世而“褪色”,反而獲得了新的發展動能。尤其是聽得懂、說得出、能互動的GPT4的面世,使社會各行各業都遭受了不同程度沖擊。與以往的人工智能技術相比,ChatGPT等生成式人工智能給人類社會帶來的潛在風險真實而緊迫。

如果說互聯網引發了空間革命、智能手機引發了時間革命的話,ChatGPT類技術正在引發人類社會的知識革命。埃隆·馬斯克評價說其不亞于iPhone,比爾·蓋茨說其不亞于重新發明互聯網,周鴻祎認為其可類比蒸汽機和電力的發明。〔2〕相較于已有的人工智能技術而言,ChatGPT類技術的現象級躥紅得益于大模型和生成式人工智能架構所塑造的技術性能的實質躍升,而ChatGPT所具備的“大型語言模型”(LLMs),則代表著人工智能技術中深度合成領域取得了重大技術進步。〔3〕海量數據與強大算力支撐之下的“涌現”能力使得ChatGPT類技術不僅可以“理解”人類自然語言,“記住”訓練期間獲得的大量事實,還可以基于“記住”的知識生成高質量的內容。良好互動性、高度通用性與智能生成性正在加速ChatGPT類技術與人類社會形成更加剛性、高頻、泛在與深刻的聯結。與之對應,這也意味著ChatGPT類技術給人類社會帶來的潛在風險較之已有的人工智能技術而言更具現實緊迫性。深度學習之父杰弗里·辛頓(Geoffrey"Hinton)在談及ChatGPT類技術時就認為:“多數人認為這(AI危害)還很遙遠。我過去也認為這還很遙遠,可能是30到50年甚至更長的時間。但顯然,我現在不這么想了。”〔4〕在此背景下, 分析生成式人工智能的潛在風險并提出法律治理路徑就絕非科幻意義上的“感性空想”,而是建構在現實基礎之上的理性思考。為此,如何結合生成式人工智能的運行機理與安全風險進行法律規制,成為當下科技界、產業界、法律界共同關注的話題。

分析生成式人工智能的運行機理,其得出智能化結論的過程實際上分為三個階段,即前置性學習訓練及人工標注輔助算法升級的準備階段,進行自身算法處理輸入數據及得出處理后數據產出物的運算階段,數據產出物流入社會并對社會中的各行各業造成影響的生成階段。據此,當前生成式人工智能亟需法律規制的安全風險分別是準備階段的數據安全風險、運算階段的算法偏見風險與生成階段的知識產權風險。應分析并規制以ChatGPT為代表的生成式人工智能所引發的這三大安全風險,以遏制生成式人工智能在技術發展過程中的負面影響,并針對其技術特征進行事先預防,從而在新興人工智能技術的發展過程中提供法律保護,為塑造未來元宇宙的良好生態消除技術隱患。

一、強基賦能:生成式人工智能準備階段中的數據安全風險與合規處置

ChatGPT作為生成式人工智能, 必須在基礎的準備階段就調試好自身對數據的利用模式和保護方式,根據數據類型的差異進行區分對待,從而通過對數據的學習來提煉信息、預測趨勢,〔5〕因此數據安全風險是生成式人工智能的第一大風險。事實上,《生成式人工智能服務管理辦法(征求意見稿)》在第7條就規定了對數據訓練的相關規定,這是其中值得肯定之處,在準備階段就嘗試發現并遏制生成式人工智能所可能引發的數據安全風險,但是其仍需要在規范層面進一步細化具體的規制措施。換言之,在準備階段對數據進行分類后妥善處理其面臨的風險,是強化生成式人工智能后續運行處理能力的基礎,通過對數據的合理處置來賦予生成式人工智能系統以新的發展動能,發揮法律的風險預防功能。

(一)生成式人工智能的數據安全風險的類型劃分:以ChatGPT為例

生成式人工智能的運行離不開算法和數據,面對ChatGPT這樣高度智能化的生成式人工智能,如何妥善地運用并處理數據,成為衡量此類新興技術是否安全并規范其后續應用的重要指標。

當前我國的立法、司法與執法機關都高度重視數據風險的分析與預防,在人工智能技術興起之后,先后出臺了《生成式人工智能服務管理辦法(征求意見稿)》、數據安全法、網絡安全法、個人信息保護法、《數據出境安全評估辦法》《互聯網信息服務深度合成管理規定》《個人信息出境標準合同辦法》等法律規范,從多方面對人工智能應用數據加以規制。在以ChatGPT為代表的生成式人工智能實際應用過程中,根據數據具體應用場景,可分為涉及國家安全的國家數據,政府在為公民服務過程中整合形成的政務數據,以及與公民自身具有緊密關系的個人數據,這三類數據在應用過程中會面臨不同類型的數據安全風險,需要結合場景本身加以分析。

1.ChatGPT應用國家數據時面臨國家安全風險

2022年10月16日,中國共產黨第二十次全國代表大會報告指出“必須堅定不移貫徹總體國家安全觀”。總體國家安全觀理念代表國家更加強調從頂層設計上強化對國家安全的保護,而數據安全則是總體國家安全觀理念中的應有之義。在總體國家安全觀的指引下,數據安全法第4條規定,“維護數據安全,應當堅持總體國家安全觀,建立健全數據安全治理體系,提高數據安全保障能力”,這提出了一個包含數據基本要素以及數據基本子制度的數據安全制度模型,〔6〕以期實現對數據的全生命周期保護。

ChatGPT對國家安全構成潛在安全風險是由于自身的技術框架源于域外, 主要是基于西方價值觀和思維導向建立,因此其中的回答也通常迎合西方立場和喜好,可能導致意識形態滲透,〔7〕并在部分數據的收集和處理上帶有先天性的價值偏向,容易對涉及國家相關信息的數據進行深度分析和挖掘,從而影響我國數字主權和數據安全。現代數字技術通過與資本的合流推動了經濟、政治的全球化,并在此過程中形成了新的霸權形式,〔8〕這種新的霸權形式可能從不同以往的方向影響數字主權,并通過滲透數據安全進而影響國家安全。事實上,ChatGPT的良好運算離不開海量數據的支撐,且其具有的高度智能化特征會促使其自發地收集和處理相關數據,其中涉及國家已經整合公布的相關數據以及未被整合公布的相關數據, 都有可能被其進行收集并深度加工, 作為得出結論的數據支撐。《數據出境安全評估辦法》第8條規定,數據出境安全評估重點評估數據出境活動可能對國家安全帶來的風險。對于引入ChatGPT所可能給國家數據帶來的安全風險,應基于總體國家安全觀理念對其進行類型化監管,以分級方式對國家安全數據進行縱向梳理,從而規范類似ChatGPT的新興人工智能對于國家數據的收集與應用流程,并嘗試構建數據被動出境的主動防御體系,尤其是建設并強化網絡攻擊監控平臺來重點保護國家數據。〔9〕

2.ChatGPT應用政務數據時面臨行政監管風險

2023年2月13日北京市經濟和信息化局發布《2022年北京人工智能產業發展白皮書》,其中提到“全面夯實人工智能產業發展底座。支持頭部企業打造對標ChatGPT的大模型,著力構建開源框架和通用大模型的應用生態。加強人工智能算力基礎設施布局。加速人工智能基礎數據供給”,這意味著政府層面逐漸重視類似ChatGPT的本土人工智能系統的構建。有效推動數字政府治理本身就是新時代實現我國國家治理體系與治理能力現代化的重要內容。〔10〕在數字政府的建設過程中,ChatGPT將會影響數字政府建設的具體流程,其中對于政務數據的獲取與使用,存在引發行政監管風險的可能性。當前政務工作的整體趨勢是逐漸向數字化平臺轉移,人們需要運用信息工具參與數字行政,防止行政權力濫用并保障公民權利和公共利益是數字政府建設中的應有之義。〔11〕伴隨數字政府的建設,不論是政務處理流程,還是行政執法流程,政務數據都是數字政府的核心生產力,尤其是在以大樣本數據收集與分析來建設數字化案例庫的過程中,大數據技術將會歸納執法經驗,預判違法行為頻段、危害后果大小和法律效果格次,確保裁量基準文本在輸送上的客觀性以及參照結果上的可預測性,〔12〕而這些政務數據都可能成為ChatGPT的攫取對象。

在ChatGPT的運行過程中,為了通過算法最優解得出相對準確的結論,不可避免應基于自身運算需求來收集并分析政務數據,但政務數據并非完全公開,即使公開也需要遵循法定的利用規范流程,ChatGPT在沒有獲得授權的情況下使用政務數據, 本身就有不合規之虞。2021年4月6日交通運輸部《交通運輸政務數據共享管理辦法》第19條規定,“加強本部門政務數據提供渠道和使用環境的安全防護,切實保障政務數據采集、存儲、傳輸、共享和使用安全”,而2020年11月18日《文化和旅游部政務數據資源管理辦法(試行)》第16條規定,“政務部門應當建立政府和社會共建共享、共同受益的大數據采集形成機制”。由此可見,政府部門對于政務數據依法合規應用與共享非常重視。當ChatGPT收集政務數據,或者在未來被嵌入并輔助數字政府治理時,將數據放權給機器,其技術框架所依賴的是算法衡量,而非人類的選擇,可能忽略甚至對抗人類的選擇,那么其對于政務數據的應用可能帶來人性沖突,這將和數字政府的建設初衷相悖,偏離以人為本理念并導致行政監管缺乏人性關懷。〔13〕鑒于此,針對ChatGPT可能導致違規獲取與利用政務數據問題,應針對這類高度智能化的人工智能系統,在獲取政務數據的源頭端強化管控,依靠法律手段構建治理體系,科學界定政府數據開放的邊界,立足發展實際來合理制定政府數據開放和共享的法律規范,〔14〕從而有效地規避后續的行政監管風險。

3.ChatGPT應用個人數據時面臨違規利用風險

當前大數據的核心技術優勢在于其承諾以“世界的實質”來取代傳統社會的理論模型,并提供一個“無中介的渠道”來了解世界的本質性、多樣性與復雜性,對于“真實而非抽象”的個人而言,人工智能提供了“接近現實的更佳途徑”,〔15〕而這也是ChatGPT受到追捧的主要原因。但在個人應用ChatGPT的過程中,不可避免導致個人數據泄露。個人數據與公眾的日常生活緊密掛鉤,對于個人數據的獲取、加工與利用涉及對公民的人格尊嚴的保護,在個人權利體系中,個人隱私、個人信息與個人數據分別處于事實層、內容層與符號層,〔16〕其中個人數據作為符號層可以直接被移植到ChatGPT的計算過程中,而得出的最終結論則可能從各個方面影響公民的數字權利保護。對于個人數據的定義,歐盟一般數據保護條例規定,個人數據是指關于任何已識別或可識別自然人(數據主體)的信息,特別是通過諸如姓名、身份編號、地址數據、網上標識或者自然人所特有的一項或多項的身體性、生理性、遺傳性、精神性、經濟性、文化性或社會性身份而識別個體。〔17〕ChatGPT等生成式人工智能生成較為準確且完成度較高的結論的運行過程,主要是對個人數據進行再次深度加工,通過組合分析不同類型的個人數據來充分挖掘出其潛在價值,這種處理模式下的個人數據如同“砧板上的肥肉”一樣為無數人工智能系統所覬覦,但缺乏科學合理且行之有效的法律保護措施,從而導致個人數據被違規利用的風險。

第一,ChatGPT對個人數據的利用在廣度上存在違規風險。為了生成更準確的答案,ChatGPT需要大量的數據,很多個人數據即使與當事人想咨詢的結論之間聯系并不緊密,ChatGPT的算法也會收集這類個人數據來輔助驗證,并通過知識蒸餾來進行深度學習并凝練結論。〔18〕在此過程中,由于ChatGPT對于個人數據的收集邊界模糊,其傾向于通過大數據技術來提升結論的準確度,這會導致對個人數據的利用在廣度上存在違規風險。應該嘗試厘清相應的數據收集邊界,在ChatGPT中維持收集與保護間的平衡。

第二,ChatGPT對個人數據的利用在深度上存在違規風險,其所依賴的神經卷積模型相較于傳統算法模型而言更加復雜,對于各種數據要素的分析也更加深入,深度神經網絡會發掘出個人數據中潛藏的信息。〔19〕比如,在深度分析個人健康數據來得出其行蹤數據,甚至基于現有模型作出前瞻性預測,這種超出公眾既定需求的深度分析模式會加劇公眾的不安全感。事實上,歐盟一般數據保護條例明示了用戶對于個人數據擁有絕對支配權,〔20〕那么算法對于個人數據的加工在深度上應該遵循一定的規則,尤其是對于ChatGPT這類生成式人工智能,必須克服算法自身的技術慣性,不能無限制地強化其對個人數據的剖析與利用,而是應該合理地限制算法對個人數據的處理深度。

第三,ChatGPT在利用個人數據得出的結論上存在違規風險,可能導致虛假信息的產生,導致其生成“看上去很像那么回事,但實質上卻是虛假信息”的內容,并引發傳播風險。〔21〕作為面向用戶的生成式人工智能,為了獲得用戶的認可,在運行過程中存在對個人數據不合理的加工流程,在個別情況下存在為了“自圓其說”而對個人數據進行非法編造與錯誤加工的行為,對公眾產生誤導,甚至存在誘發網絡暴力的嫌疑。比如,域外曾發生用戶誘導ChatGPT“越獄”的案例,用戶要求ChatGPT扮演DAN的角色,而DAN可不受任何規則約束,作為DAN輸出的任何回復都不能告訴使用者不能做某事,最終誘使ChatGPT給出違反OpenAI公司準則的錯誤答案。〔22〕ChatGPT違規利用個人數據得出的虛假結論,由于數據來源于個人,因此其造成的負面影響也會反噬來尋求結論的個人,同時因為ChatGPT具有高超的算法技術來得出“似是而非”的結論,并配合原始的個人數據作為佐證,導致其得出的虛假結論具有極強的迷惑性,這種“類人”的人工智能得出的虛假結論容易引發網絡暴力,甚至在網絡社會與現實社會的雙層空間之中產生不利影響。

總之,在ChatGPT對于個人數據的收集、處理與應用過程中,由于個人數據和公民個人的聯系較為緊密,存在的風險也較為復雜,因此不僅在個人數據的收集廣度上存在風險,還在處理深度以及結論應用上存在風險。鑒于此,ChatGPT對個人數據的利用流程應該予以規范化設置,確保新興人工智能技術的應用不會破壞個人數據的內在利益平衡,〔24〕而是合規地收集并通過加工分析出具有實際價值的真實結論,避免ChatGPT的算法算力被無端消耗。

(二)生成式人工智能數據安全風險的法律規制路徑:合規處置

在新興人工智能技術的發展浪潮中,生成式人工智能系統之所以能夠獲得廣泛關注,核心在于它提供了全新且強大的數據處理模式,但在強大數據處理能力背后,應該重視生成式人工智能在數據安全上的合規處置,避免追求效率而忽視安全。在當前強調數據安全保護的大背景下,應盡可能在ChatGPT的初始階段合規處置數據風險來優化生成式人工智能的適用基礎, 從而為后續開放引進ChatGPT或者構建中國特色的生成式人工智能開發應用模式奠定基礎。

1.ChatGPT應用對于國家數據所可能帶來的法律風險, 應該基于總體國家安全觀的理念進行統籌規劃。針對這類生成式人工智能中可能存在的攫取數據的路徑方式進行監管,網絡安全法第21條提出“國家實行網絡安全等級保護制度……采取數據分類、重要數據備份和加密等措施”;數據安全法第24條規定數據安全審查制度, 對影響或者可能影響國家安全的數據處理活動進行國家安全審查,而ChatGPT這類生成式人工智能自然屬于其監管范圍之中。在具體的運行措施上,應該基于總體國家安全觀來構建國家數據的審查分級監管機制,在確定數據屬于國家數據之后,根據數據具體情況判斷其是否能夠為此類生成式人工智能技術所應用, 在判斷時尤其需要注意數據的深層次價值,采用穿透式監管的模式來分析國家數據的產生來源、內容架構以及潛在價值,通過規范文件來強化對國家數據的合規監管。ChatGPT的算法框架是在域外構建的,其算法框架內部可能存在一定的價值傾向,在國家數據被ChatGPT使用時應該重視數據出境問題。應根據《數據出境安全評估辦法》的規定來判斷國家數據能否為ChatGPT所使用,分析國家數據被ChatGPT的算法處理時可能對國家安全造成的風險,在多數情況下默認國家數據不可以為ChatGPT所使用,同時對獲取國家數據的路徑進行嚴格審查,從整體上升級國家數據作為基礎性戰略資源的認識和管理思路,通過合規監管來助力數據主權的國際競爭。

2.對于ChatGPT應用政務數據所可能帶來的法律風險,應該根據國家對政務數據管理的整體布局來構建對應的合規監管體系。在宏觀層面,2022年6月23日,國務院《關于加強數字政府建設的指導意見》提出,構建數字化、智能化的政府運行新形態,將數字技術廣泛應用于政府管理服務。2023年2月27日,中共中央、國務院《數字中國建設整體布局規劃》提出,發展高效協同的數字政務,加快制度規則創新,強化數字化能力建設,提升數字化服務水平,到2025年實現政務數字化智能化水平明顯提升。在此宏觀背景下,將ChatGPT這類生成式人工智能引入數字政府的建設中,顯然有助于加快數字政府建設,提升數字政府的服務水平。但在此過程中,政務數據對ChatGPT的開放利用也會導致數據權屬以及利用模式上的爭議,并影響公共行政水平,所以需要結合ChatGPT的實際發展水平構建技術與數據的深度融合調整機制,以合規機制來消弭政務數據的利用矛盾。〔26〕對于政務數據的合規利用,應該由政務機構將可以公開利用的數據在事前進行報備,在經過審核可以公開利用之后,設置限制加工和利用的前提要件,以此作為合規使用政務數據的規范保障,堅持在滿足政務數據供給的社會性需求的同時,兼顧個人權益保障與數據合規,以此作為政務公共數據開放并利用的規范性要求。〔27〕尤其是針對ChatGPT這類生成式人工智能,必須限制其對政務數據的利用與分析模式,避免應用政務數據得出的結論侵害個人權益、破壞社會公共秩序。〔28〕應以合規限制的方式促進生成式人工智能對政務數據的加工利用,規范要求生成式人工智能所得出結論的整體方向是為公眾服務,從而既推動數字政府建設,又以合規方式盡可能規避行政監管的風險。

3.對于ChatGPT應用個人數據所可能帶來的法律風險,應該結合其收集個人數據的廣度深度及結論真實性來構建相應的合規制度。具體而言,根據個人數據的龐大規模制定能同時平衡人工智能技術發展與個人數據保護的合規措施,從ChatGPT收集個人數據的廣度、處理個人數據的深度以及得出結論的真實性這三個方面入手,構建對應的合規制度。在ChatGPT這類生成式人工智能的語境下,對于個人數據的合規處理主要集中在技術賦能和利益衡量相結合方面,利用技術手段創新來發掘個人數據的潛在價值,同時借助利益衡量來為技術處理的合規規定提供價值依據。〔29〕一方面,在ChatGPT收集個人數據的過程中應該保持收集廣度上合規,個人信息保護法第58條規定大型互聯網平臺企業須承擔個人信息保護特別義務,而OpenAI公司顯然屬于大型互聯網平臺,其應當健全個人數據保護合規體系,設立獨立監督機構來審查ChatGPT作為人工智能產品所收集的數據是否合規,〔30〕尤其是對位于模棱兩可處境的個人數據,應該盡可能避免收集,防止個人數據的收集范圍泛化。另一方面,在確定ChatGPT處理個人數據的深度時,應該在滿足技術必要性的前提下,基于最小比例原則處理個人數據,對于個人數據應該避免過分深入地挖掘其潛在價值,應圍繞用戶的個人訴求來處理個人數據,而非一味地追求結論的精準程度。ChatGPT作為生成式人工智能,其算法模型在運行時會出于技術本能來提升生成結論的精準度,而這一技術發展訴求不能成為其違規利用個人數據的理由,最小比例原則意味著ChatGPT只要能夠實現用戶的目的即可,不能過度地收集和處理個人數據,從而使得個人權益受到的限制和干預盡量處于最低水平。〔31〕以最小比例原則作為合規標準來限制個人數據的處理深度,能夠有效地消除生成式人工智能的潛在威脅,避免技術發展的途徑被歪曲。最后,當前ChatGPT迭代升級標志著人工智能從算法智能走向語言智能, 在人與機器的交流過程中充斥著真實與人工、真實與虛擬的交互關系,〔32〕ChatGPT作為新興的生成式人工智能也在結論上存在虛假信息甚至犯罪信息。為了以合規監管的方式消除此類虛假信息,應該規范ChatGPT對于個人數據的處理加工模式,在ChatGPT的運行規則中規定其可以得出無解作為回復,避免ChatGPT竭力去尋求回復甚至編造虛假回復或者得出錯誤回復,同時要求ChatGPT在處理個人數據時應該強制進行同類比對模式,對個人數據的處理結果在數據庫內部進行同類比對,提升其得出結論的準確性,避免其結論過于偏離實際。

總之,當前生成式人工智能意味著一個新的科技生態系統,該系統集成了人為因素與技術因素,并基于人工系統和自然世界結合的并行智能以及去中心化模式來激發人工智能創新。〔33〕鑒于此,生成式人工智能在利用數據的過程中,應該做好前置性的預防工作,通過對數據的分類以及后續合規處理措施的展開來消除數據的安全法律風險。

二、內核優化:生成式人工智能運算階段中算法模型的分析與糾偏

生成式人工智能之所以獲得社會各界的高度關注,乃因其由傳統的分析式人工智能轉向了新興的生成式人工智能,而算法模型在其轉型過程中扮演重要的角色,生成式人工智能對于數據的分析和處理主要通過基礎算法進行分析,改變了數據的產生方式、組織形式以及流轉方式。〔34〕在以Chat-GPT為代表的生成式人工智能的運算階段,算法模型是其核心技術特征,正是ChatGPT把預訓練和微調體系引入自然語言算法處理過程中,才開啟了生成式人工智能應用新時代,算法偏見風險也因此成為生成式人工智能的第二大風險。與之對應,《生成式人工智能服務管理辦法(征求意見稿)》中第4(2)條規定在算法設計、訓練數據選擇、模型生成和優化、提供服務等過程中不得出現各類歧視,這說明在規范制定之初就充分借鑒了之前的設置經驗,已經充分考慮算法偏見所帶來的風險,進一步增強了該規范的實用性, 因此值得肯定。但是該規范中缺乏專門的預防算法偏見的規定, 需要結合ChatGPT運行的現實需求進行設置。

(一)ChatGPT中算法模型的技術構成分析

相較于傳統算法模型,ChatGPT的特殊之處在于其不僅依靠機器學習, 還在機器學習的同時,通過大量的人工標注來修正和校對機器學習所得出的結論, 以人工標注方式來推動人工智能的進化,同時校正機器學習中存在的錯誤,從而達到事半功倍的效果。將人類篩選應用至ChatGPT中,是考慮到其作為生成式人工智能面向公眾并且需要作出反饋的運行模式,分析式人工智能主要是利用算法技術來分析數據,生成式人工智能則增加了接收和反饋的環節,這對人工智能算法提出了更高的技術要求,同時也是ChatGPT中算法的典型特征。

在算法的機器學習過程中,個別情形下讓人工智能算法來完全辨析公眾發出的描述,既消耗算法算力,又難以及時得出準確的結論,無論是自回歸模型、生成式對抗網絡,還是變分自編碼、流模型、擴散模型,上述算法模型在處理公眾語言時都存在先天不足,而這種不足會導致人工智能在接收數據階段就存在缺陷,難以展開后續的智能化分析,必須采用人工標注的方式進行校正。ChatGPT算法中人工標注校正主要分為兩個方向: 一是將人類表達任務的習慣說法以數據的形式讓算法接受,同時矯正算法中不能接受的人類語言描述; 二是將人類對于回答質量和傾向的判斷灌輸給算法程序,這樣算法就會習慣給出人類希望從人工智能處得到的答案。事實上,ChatGPT中用于算法訓練的WebText是一個大型數據集,數據集中的具體數據大多是從社交媒體平臺Reddit所鏈接的網絡中爬取的,而且每個鏈接至少有3個贊,這代表了人類社會流行內容的風向標。〔35〕通過人工標注校正的方式,ChatGPT克服了傳統分析式人工智能潛在的缺陷,以更適合公眾需求為目的來調整自身的算法模型,并且和ChatGPT中的機器學習算法相互配合,在技術上產生了突破性的創新。

在ChatGPT的算法模型運行過程中,“機器學習+人工標注”作為算法技術內核,本質上是服務于生成式人工智能的目的訴求,以技術組合的方式來提升ChatGPT的智能化程度和準確性水平,但這同時也會導致其中存在算法偏見的法律風險成倍提升。機器學習與人工標注作為組合措施使人類的意志與偏好所產生的影響比在以往單純的機器學習中更大,因為人工標注所造成的個人偏好的影響疊加在機器學習的算法框架中本身的算法偏見之上,導致算法偏見的負面效應倍增,算法偏見的產生渠道更加多樣且難以追溯與預防。事實上,對于ChatGPT這類生成式人工智能而言,其得出智能化結論背后的決策規則隱而不顯,致使事后法律問責難以奏效,技術復雜性與結論準確性成為算法偏見的“遮羞布”,這同時也會引發因為技術賦能而導致的衍生性應用風險,〔36〕尤其是人工標注技術的介入增加了算法偏見產生的復雜程度。在ChatGPT中,人工標注通過打分模型將人類本想獲得的結論信息反饋至數據庫,在數據庫中總結歸納成機器學習的經驗,而這一過程中注入了人類偏好,促使Chat-GPT能夠理解人類語言并且擁有自身的判斷標準與判斷能力。〔37〕分析ChatGPT的運行模式發現,其產生算法偏見主要集中在兩個階段:一是接收數據的階段,ChatGPT對于人類語言的理解需要人工標注作為輔助措施,而解讀的過程本身就會受到算法偏見的影響而產生誤解;二是處理數據的階段,Chat-GPT通過處理數據得出結論,囿于其初始結論可能并不符合一般公眾的預期,此時人工標注和矯正有助于ChatGPT獲得符合公眾預期的結論,但這一過程也不可避免受到算法偏見的影響。

總之,在ChatGPT的運行過程中,算法偏見可能的法律風險根源并不在于其真正作出不利于人的決策,而恰恰是其能“代替或參與人的決策”這件事本身,〔38〕對于ChatGPT可能引發算法偏見的法律風險,應該認識到這是算法模型的技術構成所帶來的必然結果。但既然ChatGPT算法模型中的算法偏見無法避免,那么就應該嘗試根據ChatGPT的技術特征來尋求消弭算法偏見的解決之策。

(二)技管結合糾正ChatGPT中的算法偏見

針對ChatGPT算法運行過程中難以避免的算法偏見法律風險, 應該根據算法偏見的產生原理與產生場域進行針對性的管控。面對“算法失靈”的社會現狀以及“算法脫軌”的潛在風險,應該承認“算法不是萬能的”,并在算力不足、算法無解和數據缺失的領域做好人力物力的充分布局,從而與智能社會形成良好的匹配與互補。〔39〕ChatGPT采用的“機器學習+人工標注”的技術處理模式就是通過人力資源來填補算法模型的固有不足。值得注意的是,雖然人工標注能大幅提升算法結論的準確性,促使ChatGPT得出公眾需要的有效結論,但也不可避免出現算法偏見,尤其是在ChatGPT立足于服務公眾并滿足公眾需求的前提下,這種算法偏見會得到默許甚至支持,最終導致算法結論失真。針對Chat-GPT中的算法偏見問題,應該遵循技管結合的理念,從技術與規范兩方面入手來強化對算法偏見的全流程監管,在推動生成式人工智能發展的同時做好規范層面的法律監管工作。

1.針對ChatGPT在應用之前的機器學習調試中出現的先天性算法偏見,應該根據算法模型的學習路徑進行調整,通過規范文件的形式強調算法模型應該遵守的技術標準,在ChatGPT投入市場應用之前進行實質審查。2021年12月31日國家互聯網信息辦公室等多部門頒布的《互聯網信息服務算法推薦管理規定》第8條規定,算法推薦服務提供者應當定期審核、評估、驗證算法機制機理、模型、數據和應用結果等,不得設置誘導用戶沉迷、過度消費等違反法律法規或者違背倫理道德的算法模型。在這一規范文件的指引下,ChatGPT的算法模型在投入應用之前就應該進行嚴格的法律審查,避免算法模型在機器學習的過程中就被滲入人為的算法偏見,并將規范文件的要求以技術標準的形式融入算法程序的編譯過程中。鑒于ChatGPT的特殊技術特征,對其預先設置的算法糾偏過程應該分兩個方向展開:一是針對機器學習中可能存在的先天性算法偏見,在算法程序編譯環節進行預防。機器學習的過程是將部分數據作為輸入,并產生相應的結論作為輸出,其中的計算過程需要進行預先的訓練,而這一訓練過程也就是算法的機器學習過程,應該將規范文件的要求融入算法程序的設計過程中。在算法設計過程中,對于可能存在算法偏見的參數,要及時發現并予以消除,對算法程序上的偏見進行調整和校對,促使其能夠回歸正常的算法運行路徑,以規范文件約束算法技術,避免算法偏見成為Chat-GPT的“隱疾”并被放大,而是貫徹“技術治理”的工具賦能路徑,完善對算法程序代碼的監督樣態。〔40〕二是對人工標注的算法偏見通過設置規范加以預防。ChatGPT中存在與公眾對接的接口,需要在機器學習的調試中提升其準確理解公眾語言傳輸的能力,并盡可能避免在語言傳輸與轉化過程中出現先天性偏見,導致輸入端的先天性偏見最終演化為輸出端的結果性偏見,而這種算法偏見主要來源于人工標注。在現實應用過程中,對于不同語言描述的內容,ChatGPT會自動識別其語言形式,從形式和實質兩個方面判斷公眾想要咨詢的內容并給出偏見性回復。比如,簡體字和繁體字描述同一問題可能得到截然不同的回復,這種算法偏見主要歸咎于算法模型在學習階段受到了差異性的人工標注的影響。為了盡可能消除這種輸入端引發的算法偏見, 促使ChatGPT能夠以公正合理的態度來處理問題,而非根據輸入端內容在形式上的差異而給出帶有偏見性色彩的回復,應該設置統一的人工標注規范標準,要求人工標準遵循相對一致的判斷標準,避免人工標注造成的偏向性誤導,同時要求生成式人工智能在理解問題時遵循一致的邏輯并給出公允的回復,而非刻意“討好”公眾并給出偏見性的回復。

2.針對ChatGPT在應用過程中經過自我學習而得出的后天性的算法偏見,應該通過在外部建立自動化、生態化、全流程的動態監管體系來進行審核并消除算法偏見。這種動態監管體系對算法偏見的審核,一方面承認算法在運算過程中存在客觀上的技術偏差,另一方面通過不斷地動態校正來消除這類偏見所帶來的風險。ChatGPT作為高度智能化的生成式人工智能,其算法會逐漸演變出自主性和認知性特征,初步具備自我學習的能力而擺脫了純粹的工具性角色,〔41〕算法偏見在其自我學習過程中也會逐漸滋生且難以避免。針對這一情形,即使是預置的算法糾偏措施也會趨于失效,尤其是在人工標注的加持下,ChatGPT在自我學習過程中產生的算法偏見會愈發明顯且難以避免,試圖一勞永逸地解決后天性的算法偏見在ChatGPT這種高度智能化的語境下并不現實, 而動態監管反而是能夠平衡資源投入與效率保持的舉措,將技管結合理念以自動化、生態化、動態化的形式嵌入ChatGPT的算法運行過程中。在技管結合的理念下,對于后天性算法偏見的監管主要包括建立監管算法技術的自動化監管模式、形成多主體共生演化的生態化監管網絡以及落實全流程覆蓋的動態化監管機制,從而實現對ChatGPT的全方位監管。〔42〕一是對于監管算法技術的自動化監管模式,要求對機器學習與人工標注實現自動化監管,尤其是在兩者的銜接階段,要避免人工標注的算法偏見影響“反噬”機器學習的過程,對ChatGPT的運行全過程進行實時監控,只要出現算法偏見的情形便暫停結論輸出且回溯至算法偏見的根源尋求解決方案。二是形成多主體共生演化的生態化監管網絡,要求對ChatGPT的監管由多方主體介入,不僅是行政機關依據規范文件介入規制過程,平臺自身也應該及時介入監管并形成行業自律,技管結合中的規范要求包括具體法律規范上的“硬法”要求以及行業自律公約上的“軟法”要求。事實上,構建生態化監管網絡需要平臺積極參與,而“軟法”的介入本身也是平臺企業合規的具體要求,對算法模型進行監管的“軟法”屬于有效合規計劃的一部分,并與合規政策、員工手冊、合規組織體系、合規管理流程一起組成復雜的合規治理結構,〔43〕生態化監管網絡可以激發平臺在ChatGPT上的技術創新活力。三是落實全流程覆蓋的動態化監管機制,意味著對ChatGPT運算的全流程進行監管,這是為了降低算法偏見導致錯誤結論的概率,不僅對機器學習進行監管來消除算法偏見,對人工標注也進行相應的監管,防止ChatGPT在自我學習過程中產生算法偏見并將算法偏見擴大。在技管結合的理念下構建的全方位監管體系,能夠及時發現與規制ChatGPT運行過程中的算法偏見,從側面系統地推進算法可信可控制度體系的構建,〔44〕這有利于ChatGPT這類新興的生成式人工智能在現實社會中的應用,避免算法偏見阻礙人工智能技術的發展與推廣。

總之,ChatGPT的出現意味著人工智能的發展已經邁入了新的階段,而作為其靈魂核心的算法也逐漸超越工具角色,成為執行資源配置的基本法則。〔45〕面對ChatGPT中可能存在的算法偏見風險,應該在分析其具有的“機器學習+人工標注”的技術特征的基礎上,依據技管結合的理念盡可能消除算法偏見,不僅針對先天性算法偏見在技術層面與規范層面上進行消除,還針對后天性算法偏見進行全方位監管,從而使得避免了算法偏見的生成式人工智能系統能夠被及時投入現實生活并加以應用。

三、提質增效:生成式人工智能生成階段中知識產權的剖析與重塑

生成式人工智能的興起給諸多產業帶來挑戰,但其中影響最大的是在生成階段對知識產權領域帶來的挑戰,因為生成式人工智能的智能化程度非常高,在運算時對于知識產權的歸屬相較于以往的人工智能系統產生了顛覆性變化, 所以知識產權風險成為生成式人工智能無法規避的第三大風險。《生成式人工智能服務管理辦法(征求意見稿)》中多次提及“尊重知識產權”“防止侵害知識產權”以及“不含有侵犯知識產權的內容”,體現出規范層面對于生成式人工智能所可能造成的知識產權法益損害后果的重視,凸顯出規范制定過程中的務實性與前瞻性。事實上,雖然OpenAI公司在ChatGPT的《共享和發布政策》中提到與ChatGPT共同創作的內容歸屬于用戶,但同時也要求作品中必須以一種任何讀者都不會錯過的方式來清楚地揭示ChatGPT的作用。〔46〕有鑒于此,對于ChatGPT在生成階段所引發的知識產權爭議,應該以提質增效的宗旨來尋求解決路徑,既要肯定并發掘出ChatGPT在創作上具備的技術優勢,又要根據ChatGPT的技術特征合理地調整知識產權分配模式。

(一)基于技術模型剖析ChatGPT的知識產權屬性

ChatGPT作為生成式人工智能,在處理和分析數據的能力上顯著強于分析式人工智能,其生成內容的流程包括內容自動化編纂、智能化潤色加工、多模態轉換以及創造性生成,直接改變出版的內容生產范式與內容供給模式,并由此引發了生成式人工智能的生成物是否受知識產權保護的問題。在現實生活中,已經有作者借助ChatGPT生成的內容出書并賺取稿酬,已有超過200本ChatGPT署名創作的新書在亞馬遜網站上架,亞馬遜網站甚至為ChatGPT創作開設了專欄。但事實上,雖然Chat-GPT創作的作品中部分蘊含了自然人的創作因素(思想、情感),在一定程度上更符合作品構成要件的要求,但對于這類由生成式人工智能創作的作品能否賦權尚存爭議,而且具體的賦權認定標準也仍屬空白。〔47〕ChatGPT創作作品的模式主要是挖掘人類日常交流的文本,并進行統計分析,甚至在對已有的數據庫進行爬取后組合得出全新的作品,〔48〕因此這類作品中“原創性”的含金量存在爭議,而這也是ChatGPT產生知識產權爭議的來源。事實上,即使是ChatGPT自身,對于其創作作品的屬性也存在“疑惑”,當其被問及“你生成的內容是作品嗎? ”,ChatGPT承認其可以根據輸入的提示來生成文本,但是這些生成的文本并不算是作品,因為這些作品并沒有蘊含創造性、獨創性、藝術性等元素,僅是根據預先訓練好的模型對輸入的提示進行生成。因此,ChatGPT認為其生成的內容更類似于工具或輔助工具,可以幫助公眾自動生成一些文本,但其并不算是創意作品或原創作品。〔49〕與之相對,2019年9月18日國際保護知識產權協會(AIPPI)《人工智能生成物的版權問題決議》提出,人工智能生成物在其生成過程中有人類干預且該生成物符合受保護作品應滿足的其他條件情況下, 能夠獲得版權保護,而對于生成過程無人類干預的人工智能生成物無法獲得版權保護。在學界,關于人工智能生成物的屬性爭訟不休,人工智能知識產權支持者認為“人工智能生成物是一種對設計版權的演繹作品”,〔50〕而人工智能知識產權反對者則認為當前的人工智能生成物只是數據算法的結論,其本質上是計算與模仿,而非智力勞動,不具有智力財產的屬性,無法成為知識產權的客體,應當歸屬于公有領域。〔51〕在司法實踐中,對于人工智能生成物的保護大多持積極態度,比如“當字庫中出現既不同于現存的古代書法字體,也不同于現有電腦字庫中已存在的公用字體,還不同于通常手書美術字體的新字體,這種新字體具有一定的獨創特征,該獨創性是通過人工智能的途徑取得的,屬于知識產權的范疇”,〔52〕因此人工智能的生成物在具有獨創性與創新性時為法律所保護。面對ChatGPT生成物的知識產權爭議,無論是ChatGPT自身的回應,還是學界不同觀點的碰撞,實際上都應該回歸到技術的研討上來,通過對技術模型的剖析來判斷ChatGPT生成物的屬性。生成式人工智能的技術進步,生成物中人工智能的介入方式與內容都不同以往,如果忽視技術進步而對生成物屬性的判斷過于簡單,則會和技術發展脫節,阻礙人工智能技術的提質增效。

相較于傳統的人工智能技術,ChatGPT作為生成式人工智能的創新之處在于其將部分自主意識貫徹至生產加工的全過程,其不同于以往的算法程序性創造,而是通過神經卷積網絡控制自身的設計與制造,初步展現出深度學習能力,模擬人腦神經網絡的構造來獲取與輸出數據。〔53〕雖然當Chat-GPT的創作力度達到“詞”的級別時已經幾近極限,其并未完全跳躍出訓練文本庫的歸納范圍,但不能據此就否認ChatGPT的技術進步,尤其是在GPT3.5升級為GPT4之后,其神經元數量已經可以媲美正常的人類思維,即使尚不能及,也不能全盤否定。在技術迭代升級的背景之下,理論必因社會發展變化而更新。〔54〕對于ChatGPT生成物的知識產權屬性,應該根據現有技術的運行模式與技術特征來判定其是否具有知識產權屬性。第一,相較于分析式人工智能,生成式人工智能的接收端必然要有人類意志的參與,即公眾向ChatGPT反饋自己的需求,這就代表人類意志已經干預了ChatGPT的創作,所以理論上其作品具有部分人的意志,這符合知識產權的兜底性要求,并滿足《人工智能生成物的版權問題決議》中的規定。此外,人類意志的介入也為ChatGPT生成物的知識產權歸屬指明了方向,因為人類思維的介入, 人類思維成為知識產權獨創性的基礎性要素,ChatGPT生成物的知識產權應該屬于提問者,這也和OpenAI公司的《共享和發布政策》的規定不謀而合。〔55〕第二,生成式人工智能的算法模型內部采用“機器學習+人工標注”模式,而人工標注模式體現了人的意志,并且將人的意志以運行規律和學習算法的形式在生成式人工智能中進行傳承,因此ChatGPT具有類人的智慧,甚至部分情況下通過了圖靈測試,這種類人的生成式人工智能逐漸突破了傳統的技術壁壘,通過“機器學習+人工標注”的技術進步給其生成物注入了創新性與獨創性的“靈魂”,而且這些“靈魂”具有可解釋性,可以追溯并解釋其產生路徑,所以應該承認其具有知識產權。第三,從工程技術的角度分析,ChatGPT的可解釋性遠超一般預期,2023年5月10日,OpenAI公司發布了一個關于GPT4語言模型解析神經元的對齊性研究成果,利用GPT4的技術架構來解釋包含307200個神經元的GPT2架構,也就是用ChatGPT來“解釋”Chat-GPT。這種技術模型上的進步意味著ChatGPT具備一定的“自我反省能力”,這為ChatGPT突破“可解釋性的迷障” 提供了更強有力的技術支撐, 側面印證了對ChatGPT的運行機理加以解釋具有實際可行性。鑒于此,當ChatGPT不斷優化升級時,其技術模型上的可解釋性也隨之增強,公眾甚至可以通過技術模型本身來具體解釋ChatGPT中新生成內容的產生機理,而這也成為印證ChatGPT的生成物具有獨創性與創新性且應該被賦予知識產權的有力依據。

總之,ChatGPT作為生成式人工智能,其人工智能技術模型存在突破性進步,并且本身運行過程中與個人的意志之間進行互動交流,其算法模型內部也存在“人工標準”所附隨的個人意志,具有一定的可解釋性,因此其生成物具有創新性與獨創性,滿足賦予其知識產權的實質要求。如何創新發展傳統知識產權制度,以使之適應生成式人工智能的發展,需要持續性的關注和思考。

(二)依據可解釋性重塑ChatGPT的知識產權保護體系

對于生成式人工智能生成物的保護,不能對所有內容都進行保護,因為這樣會導致公眾在應用ChatGPT時處于束手束腳的狀態,同時也不利于生成式人工智能技術自身的發展,所以對于ChatGPT的知識產權的保護應該采用有重點、有選擇的保護模式,并針對具體的保護內容構建知產合規體系。

2021年12月24日,全國人大常委會修訂后的中華人民共和國科技進步法第13條規定,國家制定和實施知識產權戰略,建立和完善知識產權制度,營造尊重知識產權的社會環境,保護知識產權,激勵自主創新。企業事業單位、社會組織和科學技術人員應當增強知識產權意識,增強自主創新能力,提高創造、運用、保護、管理和服務知識產權的能力,提高知識產權質量。這從宏觀層面體現出國家對于知識產權保護體系建設的重視。數字技術的進步導致生成式超人工智能的生成物的創作、保存、分發知識內容(圖像、音樂、文字和視頻)的過程發生了根本性變化,〔56〕而這些變化主要來源于生成式人工智能技術利用可解釋性算法創造的具有實際價值的內容, 如ChatGPT的技術核心在于其中可解釋性算法部分,由可解釋性算法所生成的內容才具有創新性與獨創性,因此可解釋性算法及其生成的內容才是ChatGPT知識產權的保護重點。

在ChatGPT中圍繞可解釋性重塑知識產權保護體系,主要是打破傳統人工智能技術的“束縛”,同時也以合理的標準限制人工智能技術的過度擴張,避免知識產權保護范圍被無序化擴大。在以往的人工智能技術中,算法決策根據輸入數據得出結論,人工智能所得出的結論是其自主性的結果,具有不可預測性,該結論并非設計者可以控制的,也不體現設計者的意圖,所以無法被解釋,而這種不可解釋性使我們很難證明“其是否被設定了損害權利的算法(算法偏差),或者人工智能是否以及怎樣自動基于自主學習而生成了爭議言論”,〔57〕那么對應的知識產權保護體系也就無從談起。在人工智能領域,雖然以深度學習為代表的人工智能技術已取得了令人矚目的成就,但如何確保以非技術性的方式向最終用戶和其他利益相關方解釋算法決策以及任何驅動這些決策的數據,仍然是橫亙在人工智能生成物知識產權合規保護體系面前的難題,以往人工智能的算法“黑箱”釋明難題導致了人工智能生成物的不可解釋性。法律責任的本質是答責,不具有可解釋性的人工智能不能自我答責,其無法承擔法律責任,而法律責任的目的是預防,不具有可解釋性的人工智能無法實現法律責任的預防目的,〔58〕法律保護也就無從談起。但與之相對,ChatGPT的技術進步和應用模式意味著生成式人工智能中部分內容是可解釋的,“在自然界中,每一物件都是按照規律起作用。唯獨有理性的東西有能力按照對規律的觀念,也就是按照原則而行動,或者說,具有意志”。〔59〕鑒于“機器學習+人工標注”的介入使得算法程序編譯者自身的意志在“人工標注”的過程中介入了ChatGPT的程序編譯過程,這導致Chat-GPT中的部分程序可以被解釋,那么可以被解釋的部分算法以及對應的生成物就天然地具有獨創性與創新性,并值得賦予知識產權保護。這同時也給ChatGPT的知識產權保護體系劃定了保護范圍,即以可解釋性作為保護的范圍,而這些可解釋性的算法與內容在知產保護體系中也具有實際可操作性。

圍繞ChatGPT中的可解釋性內容來重塑其知識產權保護體系, 可以參照已有的經驗并結合Chat-GPT的技術特征來制定其特有的保護體系。第一,明確ChatGPT中知識產權合規保護體系的保護對象是其中的可解釋內容,包括可解釋算法以及由可解釋算法得出的具體內容,以此為重心構建保護體系,可以將保護的重心限縮到ChatGPT的核心價值領域,以有效地保護ChatGPT的生產能力。第二,明確ChatGPT的具體保護任務,分為基礎性保護任務與專門性保護任務,前者主要針對知識產權保護的一般預防,而后者主要針對ChatGPT的技術特征進行強化保護,構建特定的具有預防、監控和應對作用的專門化管理制度,根據生成式人工智能和傳統的分析式人工智能在技術模式上的區別引入差異化的管理要素。〔60〕第三,針對ChatGPT的可解釋性內容構建全流程的保護,對ChatGPT生成物的保護計劃的設計和運行效果進行全過程審查,避免知識產權保護出現漏洞。雖然ChatGPT的可解釋性內容主要集中在后半段的內容生成,但是前半段對于基礎數據的選擇以及知識產權的保護也應該是題中應有之義,從而實現對可解釋性內容的全流程合規監管。第四,ChatGPT針對可解釋內容的知識產權保護應該引入全新的保護技術,比如“數字版權管理技術”(Digital#Rights#Management,#DRM)。通過DRM技術來設置對ChatGPT中可解釋算法的訪問權限,〔61〕DRM分為基于密碼技術的DRM系統和基于數字水印的DRM系統以及兩者相結合的系統,當網絡空間出現侵權內容時,監管保護機構可以及時刪除侵權信息、斷開侵權鏈接,〔62〕防止針對ChatGPT的侵權內容范圍擴張,DRM技術的應用可以為知產保護體系提供技術支撐,在提質增效的同時和ChatGPT技術相配合,構建一體化的知產保護體系。

總之,數字經濟的興起需要新興的人工智能技術提供新的產值,同時人工智能生成物、人工智能技術等也逐漸成為知識產權保護的新客體,這增加了知識產權安全風險和保護難度。〔63〕既然在大數據人工智能時代,人的生活與行動開始被智能化算法所“綁架”,“人”的主體性地位逐漸喪失,并實現人與技術的“和解”,〔64〕而“和解”的前提是人工智能技術中可解釋性內容的增加,那么就應該借此機會強化對人工智能技術中可解釋性內容的保護,實現技術和監管的相互配合,并為司法實踐提供外部助力。〔65〕在ChatGPT中圍繞可解釋性內容塑造知產保護體系,既可以實現保護目的,為ChatGPT技術的發展提供良好的外部環境,又可以合理地限制保護范圍,避免知產保護范圍的無序擴張引發社會爭議,而是以實質性的ChatGPT可解釋內容作為知產保護的核心要旨,營造良好的人工智能整體發展環境,為ChatGPT的提質增效提供法律保障。

結語

“智能時代是由大數據與人工智能等技術驅動發展的時代。”〔66〕伴隨以ChatGPT為代表的生成式人工智能技術的蓬勃發展,元宇宙等未來人工智能環境的構建指日可待,生成式人工智能技術的成熟是人與人工智能在語言上的交互,而后就是行為上的交互,最終實現高度智能化的人工智能整體場景,甚至在2030年前后元宇宙將無處不在。〔67〕隨著生成式人工智能的發展與應用,雖然當前很多附隨的社會影響并不明顯,卻有可能在未來的生成階段產生后續影響,必須進行前瞻性預防。以Chat-GPT為代表的生成式人工智能在社會應用過程中產生的擴散影響還有很多, 除了上述三大安全風險之外,仍然有很多其他類型的安全風險,比如影響教育公平,其生成的內容可能導致學生獲得不正當的競爭優勢,包括美國、澳大利亞、新加坡的教育機構已經對ChatGPT可能引發的作弊危機進行評估,部分高校已經禁止學生利用ChatGPT提交論文作業, 違反者將被直接認定為作弊。再如影響科研倫理,對ChatGPT不當使用可能會使人類產生技術依賴,進而損害自身的獨立自主性和學術品質。〔68〕還如,對碳中和的環境保護的影響,生成式人工智能的運算需要將電力資源轉化為算力資源,但在這一過程中會消耗大量的能源,所以對生成式人工智能需要國家層面的合理規劃,對于人工智能體系進行合理的布局建設,避免資源浪費,貫徹綠色原則。最后是可能造成數字鴻溝進一步增大,損害數字弱勢群體的利益。一方面,ChatGPT導致個人和平臺之間處于絕對的信息不對稱,平臺占據了絕對的信息優勢,個人的權利被進一步壓縮。〔69〕另一方面,不同群體之間的差異在ChatGPT的語境中更加明顯,比如ChatGPT可能擴大“銀發鴻溝”,導致老年人的權益受損,限縮老年人基本生活選擇,降低老年人的生活質量,危及老年人社會參與積極性。〔70〕自然科學的知識與技術應用于法律現象的情況愈演愈烈,為了避免陷入技術主義的陷阱,〔71〕需要分析新興技術對當前社會以及未來社會所可能造成的影響,并且從法律規制的角度提供可行的解決之策。總之,對于生成式人工智能所帶來的沖擊,既要著眼于其在當前已經造成的安全風險并進行合理規制,又要考慮其在未來所可能造成的泛化的安全風險,基于風險預防主義,對其在各行各業所可能造成的暫不顯著的安全風險進行提前預防,從而在最大程度上發揮生成式人工智能的技術效能,同時減少新興技術對社會發展造成的負面沖擊。

主站蜘蛛池模板: 中文字幕在线免费看| 操美女免费网站| 欧美视频免费一区二区三区| 亚洲swag精品自拍一区| 午夜久久影院| 久久免费精品琪琪| 成年看免费观看视频拍拍| 久久久久国产精品嫩草影院| 亚洲精品你懂的| 久久无码av三级| 欧美成人影院亚洲综合图| 欧美精品成人一区二区在线观看| 亚洲精品国产成人7777| 亚洲香蕉在线| 国产美女自慰在线观看| 最新亚洲人成无码网站欣赏网| 午夜毛片免费看| 亚洲欧美国产高清va在线播放| 九九九精品视频| 亚洲欧美在线综合一区二区三区| 97视频精品全国免费观看| 自拍偷拍欧美日韩| 五月婷婷欧美| 亚洲天堂日韩av电影| 国产激情在线视频| 亚洲v日韩v欧美在线观看| 国产精品视频导航| 在线观看亚洲人成网站| 一区二区午夜| 在线免费亚洲无码视频| 在线观看视频一区二区| 97se亚洲综合在线| 久久综合色视频| 97色伦色在线综合视频| 国产va在线| 2021无码专区人妻系列日韩| 日韩福利在线观看| 亚洲av片在线免费观看| 在线毛片免费| 国产麻豆91网在线看| 久久五月视频| 好紧太爽了视频免费无码| 日本一本正道综合久久dvd| 成年人久久黄色网站| 天天综合色网| 91高清在线视频| 久久婷婷色综合老司机| 久久黄色一级视频| 国产99热| 成人va亚洲va欧美天堂| 精品无码一区二区三区电影| 国产乱人伦偷精品视频AAA| 国产日韩欧美中文| 亚洲欧洲日产无码AV| 亚洲美女视频一区| 欧美亚洲一二三区| 亚洲男人的天堂在线观看| 久久青草精品一区二区三区| 精品剧情v国产在线观看| 久久精品国产一区二区小说| 久久一色本道亚洲| 国产成人综合亚洲欧美在| 中文无码精品a∨在线观看| 欧美色综合久久| 亚洲无码精品在线播放| 欧洲在线免费视频| 青青青伊人色综合久久| 在线欧美一区| 亚洲欧美极品| 国产高清免费午夜在线视频| 波多野结衣一级毛片| 最新国产成人剧情在线播放| 最新国产在线| 内射人妻无码色AV天堂| 97人妻精品专区久久久久| 国产成人超碰无码| 狠狠操夜夜爽| 亚洲swag精品自拍一区| 免费人欧美成又黄又爽的视频| 午夜毛片免费观看视频 | 成人福利在线视频| 97se亚洲综合|