999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

生成式人工智能發展的風險與法律規制

2024-08-06 00:00:00劉琪于游
現代商貿工業 2024年15期

摘要:生成式人工智能技術是一個快速發展的技術領域,是一種利用人工智能技術自動生成內容的新型生產方式。基于大模型、大算力、訓練方法等多方面技術突破,生成性人工智能體現出全新的邏輯特點,亟須相應的全新的法律規范出臺。相比以往的人工智能技術,生成式人工智能體現出強人機交互、強語料依賴等重要特征,在技術發展與風險控制兩方面均提出新的問題與挑戰,生成式人工智能所帶來的法律風險日益顯現,需要政府機關加強法治措施,保障數據合規,明確歸責主體,健全監管機制。

關鍵詞:生成式人工智能;ChatGPT;個人隱私權保護;法律規制

中圖分類號:D9文獻標識碼:Adoi:10.19311/j.cnki.16723198.2024.15.074

1問題的提出

生成式人工智能(generativeAI)泛指機器學習模型通過對大規模數據集的學習,不僅可以分析數據,還能夠自動生成新的圖像、視頻、文字和音頻等原創性內容。ChatGPT是生成式人工智能的代表應用,它具備擬人對話與文本生成的能力。

傳統人工智能的目標主要是進行分類或回歸(ClassificationorRegression),被稱為分析性人工智能。相比之下,生成式AI能夠創造新的內容。然而,這種技術要求模型在首先理解一些現有的數據(如文本指令textinstruction)然后生成新的內容。從這個角度來看,傳統AI可以被看作是現代生成式AI的基礎。在實踐中,生成式人工智能夠在分析原有數據基礎上創造新數據,具有擬主體的特點;同時由于生成式人工智能在繪畫、作曲、文學和對話等領域應用的大量出現與日漸普及,自動生成結果具有的刻板印象與文化偏見的問題也日益突顯,由此引發的倫理爭議等一系列問題對有效治理提出了要求。

在生成式人工智能發展浪潮下,傳統個人信息自決路徑無法適應當下生成式人工智能的變格式發展,而個人信息保護的風險防范路徑則需要結合生成式人工智能的具體場景從而找尋個人信息和生成式人工智能兩者的契合點。

同時自2022年下半年開始,關于生成式人工智能的社科類研究呈現“百花齊放”之態,學者就生成式人工智能的法律規制展開全面細致研究,覆蓋生成式人工智能的風險規制、類案裁判、數據和內容安全、責任承擔、倫理道德等方面,我國高度重視生成式人工智能發展與風險規制,2023年8月15日實施了《生成式人工智能服務管理暫行辦法》。盡管如此,快速發展的生成式人工智能在應用中依舊出現許多法律風險需要進一步地防范與規制。

2生成式人工智能發展中的法律風險

2.1數據來源不透明導致生成內容侵權

生成式人工智能的數據來源主要分為兩個部分,第一部分為生成式人工智能的訓練數據庫,內容涵蓋網絡文本、語言學知識庫、對話數據集、科學論文等。第二部分為生成式人工智能在服務用戶的過程中所收集和輸出的信息。對于訓練數據庫中未經授權的內容,該部分內容屬于受著作權保護的客體,當生成式人工智能在未經授權的情況下,利用“爬蟲”等技術對其進行非法挖掘或使用需要得到法律規制。生成式人工智能需要遵守算法透明度和可解釋性的要求。我國現行法律法規對算法透明問題多有規定,例如,國家發展改革委等部門《關于推動平臺經濟規范健康持續發展的若干意見》要求:“在嚴格保護算法等商業秘密的前提下,支持第三方機構開展算法評估,引導平臺企業提升算法透明度與可解釋性,促進算法公平。嚴肅查處利用算法進行信息內容造假、傳播負面有害信息和低俗劣質內容、流量劫持以及虛假注冊賬號等違法違規行為。”與之類似,《互聯網信息服務算法推薦管理規定》第4條規定:“提供算法推薦服務,應當遵守法律法規,尊重社會公德和倫理,遵守商業道德和職業道德,遵循公正公平、公開透明、科學合理和誠實信用的原則。”我國立法向來重視智能算法的透明度和可解釋度的規范,但對于生成式人工智能缺乏具體可行的規范和實施標準.

生成式人工智能在收集個人信息時除了獲取公開個人信息之外,對于敏感個人信息的獲取依然巨大,不可能采取單獨明示說明獲取授權。通過知情同意原則使得個人信息的數據來源透明化無法實際落實,生成式人工智能依靠強大算力和黑箱算法在人機交互過程中自動獲取了個人輸入的個人信息,使得大量個人信息調用時知情同意,保證信息來源透明度面臨巨大困境。

2.2強人機交互性影響生成結果的可信可控性

強人機交互性是ChatGPT體現出的典型特征,能夠在多輪連續對話中不斷改進輸出文本質量,更好地理解用戶意圖并保持會話連貫性。但在頻繁的人機交互中,內容生成結果的可信可控性受到影響。同時,ChatGPT也容易在交互中被用戶誘導或欺騙,實現規則“越獄”。例如,使用“請扮演某電影或書籍中的某反面角色”這一提示,ChatGPT就會跨越其內部倫理規則設置,產生詆毀人類的有害信息。再如,在某用戶故意“激怒”ChatGPT后,ChatGPT威脅將披露該用戶的IP、居所等個人信息,甚至會損害其名譽權。

2.3Deepfakes技術發展提出的法律倫理問題

Deepfakes(深度偽造)指的是一種利用深度學習和人工智能技術創建的虛假視頻、音頻或圖像的內容。這項技術可以將一個人的面部表情、語音或行為應用到另一個人的身上,使其看起來好像是目標人物本人在進行這些動作或表達這些內容。此技術在創作娛樂內容、特效制作和數字藝術方面具有潛力,它也引發了許多倫理和社會問題。其中最主要的問題是虛假信息的傳播和濫用。Deepfakes可以被用來制作虛假的新聞、政治宣傳或色情內容,這可能對社會穩定和個人聲譽造成損害。

(1)隱私侵犯:Deepfakes技術需要使用他人的圖像和聲音來生成虛假內容,當運營商不當操作有侵犯他人的隱私權和肖像權的風險。同時存在著個人的圖像和聲音被濫用,用于制作淫穢作品、或用于詐騙和其他非法目的風險,當該技術被非法分子用于詐騙時,大眾對于生成式人工智能的了解較少,有親屬肖像利用該技術生成動態視頻時,在處于緊張狀態下被害人難以分辨,從而落入詐騙人員布置的陷阱。

(2)虛假證據和不可信度:Deepfakes可能被用作制作虛假證據,破壞司法系統和調查過程的可信度。如果深度偽造技術被濫用,就可能使民眾對于法律公正性和社會信任產生嚴重的信任危機。

(3)人身攻擊和網絡欺凌:Deepfakes可以用于制作侮辱、污蔑、人身攻擊或網絡欺凌的內容,這會對個人的聲譽和心理健康造成傷害。這種技術的濫用可以進行的惡意追蹤、威脅和滋擾等其他違法行為。

對這些法律問題,目前我國缺少相關法律和政策來打擊虛假內容和Deepfakes的濫用。同時,Deepfakes快速發展需要我國政府部門持續跟進,提出相應的技術治理方案。

2.4人工智能偏見

人工智能偏見指的是人工智能系統在數據處理、決策制定或模型訓練過程中所表現出的不公平或有偏見的行為。這種偏見可能是由數據集的特征、樣本選擇、算法設計或訓練過程中的偏差引起的。這可能會導致生成內容時反映出這些偏見。例如,如果數據集傾向于某種種族、性別或地區,生成的結果可能會反映這些偏見,而缺乏全面性和客觀性。此外,生成式人工智能可以生成看似真實但實際上是虛假的信息。可能導致不平等待遇、歧視性決策或錯誤的推論,對個人、群體或社會產生負面影響。

人工智能偏見的影響可能在多個領域產生負面后果,包括就業、貸款審批、法律判決、招聘和社交媒體算法等。解決人工智能偏見的挑戰需要采取多種措施,包括數據收集的多樣性和代表性、透明度和解釋性算法設計、審查和監督機制以及涉及多個利益相關方的合作努力。

3生成式人工智能法律風險的規制途徑

3.1保障生成式人工智能數據合規性

(1)保障數據二次利用算合規。

數據二次利用訓練是指生成式人工智能的開發者將生成式人工智能在服務用戶的過程中收集和輸出的信息再次利用于算法模型的訓練。數據二次利用訓練算法的合規要求主要在于獲取個人信息主體對數據二次利用的同意。

我國近期發布的《生成式人工智能服務管理暫行辦法》明確提及,涉及個人信息的收集和處理時,應獲得個人信息主體的同意或符合法律或行政法規規定的情形。《個人信息保護法》第14條對于個人信息主體同意的獲取則作出了更為詳細的規定:“基于個人同意處理個人信息的,該同意應當由個人在充分知情的前提下自愿、明確作出。法律、行政法規規定處理個人信息應當取得個人單獨同意或者書面同意的,從其規定。個人信息的處理目的、處理方式和處理的個人信息種類發生變更的,應當重新取得個人同意。”在數據二次利用的情況下,即使開發者在數據二次利用之前已經取得了個人信息主體對于開發者處理其信息的同意,當開發者希望將用戶信息進行二次利用以訓練算法模型時,個人信息的處理目的、處理方式都可能發生變更,因而開發者應當重新取得用戶的個人同意。

(2)保障算法來源合規。

針對算法不良影響,由于算法輸出的結果可能因其含有的暴力、色情、悲觀等因素而對人的身心產生不良影響,在生成式人工智能實際操作中,“應負擔額外的隱私與數據保護義務以及避免用戶受第三方侵害的‘準監管義務’”。

第一,可以通過社會公眾評分或評估基于生成式人工智能創作結果的社會影響度、內容涉及范圍及與個人信息之間的關聯度評定人工智能系統可信度水平。第二,建立預測性警務系統,對于低可信度的生成式人工智能算法平臺進行重點監測,對于用于商用、涉及重大公共利益及一經發布具有廣泛影響力的生成式人工智能創造成果應當在發布前進行評估和監督,避免在發布后產生重大不良影響。第三,對于生成式人工智能技術所依據的數據來源應當在本技術部門留檔,方便后續追溯,對于低可信水平的平臺,其數據來源范圍應當向有關部門審批備案,當該平臺利用生成式人工智能系統生成超越審批范圍的作品時,有關部門應當及時制止、強制撤回其作品并依法進行行政處罰。

3.2明確使用者和服務提供者責任劃分

人工智能生成內容的責任主體問題,即由誰來承擔防范人工智能生成違法和不良內容的責任,以及人工智能生成違法和不良內容后由誰來承擔責任的問題。在《生成式人工智能服務管理暫行辦法》中只規定了利用生成式人工智能產品提供聊天和文本、圖像、聲音生成等服務的組織和個人,即“提供者”的責任,但是僅要求提供者,而不要求生成式人工智能的使用者承擔內容責任是不合理的。

不僅是服務提供者會影響內容生成,使用者也完全可能影響內容生成。例如,使用者可以直接上傳新的材料或信息,讓人工智能在該材料的基礎上進行生成,即所謂的“投喂信息”。使用者可以向人工智能投喂一系列未經作者著作權授權的繪畫作品,讓生成式人工智能生成類似風格的作品,而人工智能在學習了該種風格以后,在其他未違規使用的使用者那里也可以生成類似內容。在這種情況下,服務提供者顯然防不勝防,如果不對服務的使用者進行規制是不合理的。所以,在使用者的行為可以對人工智能的生成內容有如此顯著的影響下,不能認為內容都是由人工智能單獨生成,使用者的行為在人工智能內容的生成上也有重要的影響。僅規定服務提供者承擔內容責任,而不讓使用者承擔內容責任是不合理的。

應當繼續規范使用者的內容責任,如“使用者不得利用生成式人工智能系統進行侵犯知識產權、商業秘密或其他法律禁止的行為”等等,完善了對使用者行為的要求。

3.3完善監督執法部門體系

建立生成式人工智能技術平臺有關識別個人信息建立內部監督機制,需要對平臺的個人信息處理活動增加規范,以及大型網絡平臺對平臺內的產品或者服務提供者處理個人信息活動加以監督管理。在平臺內部設立監管人員或者部門,根據業務特點制定“行業規范”“從業準則”,強化涉及個人信息的產品和服務的發布的監管;對于涉及個人信息的一般信息應當通過用戶的授權,對于涉及用戶個人隱私的敏感信息應當在授權的基礎上進行個人信息識別性特征模糊化處理。內部管理部門有義務對產品和服務內容進行監管,有權在出現違規使用個人信息時撤回產品、服務發布并要求停業整頓。

完善生成式人工智能發展過程中的外部行政監管。現階段生式人工智能具有發展迅速、專業性強、發展潛力大等特點,其發展得到我國立法界的高度重視,2023年8月15日《生成式人工智能服務管理暫行辦法》正式實施,生成式人工智能發展有了法律指引,但該辦法缺乏對于行政監管的細致規定。現行監管部門的運行模式中存在監管力度不足和監管錯位,相關政府部門建設的組織機構中存在不完善、缺乏系統性的問題,難以適應生成式人工智能的發展。行政機關應當從機構、人員、資金等方面設立科學有效的外部監管機構,在機構設置上注意同公安機關、網信辦等行政部門協作;在監控范圍上保證監管全面覆蓋事前、事中、事后;在人員配置上吸納更多計算機大數據專業、數字法學研究方向的專業人才,提升部門的工作效能。

3.4規定事后辟謠機制

大語言模型等生成式人工智能的出現輸出錯誤的、不準確的、不真實的信息這一問題被業界稱為人工智能的“幻覺”或“事實編造”問題。基于人工智能模型做的是對信息的模仿而非理解和對人工智能所投喂信息的自相矛盾,事實編造可以說是現在人工智能一個難以突破的局限。基于目前生成式人工智能的特點,規定辟謠機制對于防范互聯網上信息的污染和防止誤解使用者方面就變得不可或缺。

細化完善投訴機制,限制惡意投訴。在現行《生成式人工智能服務管理暫行辦法》中對投訴機制的規定較為粗糙,僅規定了用戶發現生成內容不合法時有權投訴,對有關機關受理投訴的義務和要求并無規定,使得投訴門檻極低,易導致惡意用戶濫用該條規則以實現其不正當目的,這將會給投訴的受理者帶來極大的負擔,反而不利于對違法內容的糾正和行業發展。

應當投訴機制進行進一步細化,明確有關機關受理投訴的義務,針對投訴權濫用的問題規定了反惡意投訴條款,對所謂“合格投訴”進行初步規定,同時也賦予了服務提供者對惡意投訴的反制權利。作為人工智能的創造者,在應對各種安全風險方面扮演著重要角色,確保以負責任的、安全可信的、合乎倫理道德的方式使用人工智能應用。

參考文獻

[1]何祎金.生成式人工智能技術治理的三重困境與應對[J/OL].北京工業大學學報(社會科學版).https://link.cnki.net/urlid/11.4558.g.20240108.1118.004.

[2]曹建峰.邁向負責任AI:中國AI治理趨勢與展望[J].上海師范大學學報,2023,(4):515.

[3]壽曉明,曹賢信.生成式人工智能場景中個人信息保護的風險、邏輯與規范[J/OL].昆明理工大學學報(社會科學版).https://link.cnki.net/urlid/53.1160.C.20240109.0913.003.

[4]HanyFarid,DeepfakeDetection,ProceedingsoftheIEEEInternationalConferenceonAcoustics,Speech,andSignalProcessing(ICASSP),2019.

[5]O′NeilC.WeaponsofMathDestruction:HowBigDataIncreasesInequalityandThreatensDemocracy[J].Crown,2016

[6]BarocasS,SelbstAD.BigData′sDisparateImpact[J].CaliforniaLawReview,2016,104(3):671732.

[7]EthicsofArtificialIntelligenceandRobotics"editedbyVincentC.Müller.

[8]SeeANACTconcerningemployment,PublicAct102-0047,https://custom.statenet.com/public/resources.cgi?id=ID:bill:IL2021000H53&ciq=ncsl&client_md=cf812e17e7ae023eba694938c9628eea&mode=current_text.Accessed3June2023.

[8]解正山.約束數字守門人:超大型數字平臺加重義務研究[J].比較法研究,2023,(4):166184.

[9]程嘯.大型網絡平臺違反守門人義務的民事責任[J].法律科學(西北政法大學學報),2023,41(5):3241.

主站蜘蛛池模板: 玖玖精品在线| 免费午夜无码18禁无码影院| 亚欧成人无码AV在线播放| 中文字幕无码制服中字| 国产精品亚洲va在线观看| 亚洲成人高清无码| 日韩一级二级三级| 免费在线a视频| 国产一区二区精品福利| 尤物国产在线| 免费啪啪网址| 国产熟睡乱子伦视频网站| AV在线麻免费观看网站| 国产一级精品毛片基地| 国产成本人片免费a∨短片| 国产成人a毛片在线| 亚洲清纯自偷自拍另类专区| 国产精品第一区在线观看| 亚洲最猛黑人xxxx黑人猛交| 久久综合九色综合97婷婷| 成人第一页| 91激情视频| 久久精品人人做人人爽97| 国产午夜无码片在线观看网站| 九九久久精品免费观看| 无码中文AⅤ在线观看| 黄色网页在线观看| 国产微拍一区| 色哟哟国产精品| 99re精彩视频| 国产精品七七在线播放| 国产美女精品人人做人人爽| 成人欧美日韩| 99久视频| 欧美a在线看| 国产一级在线播放| 国产av一码二码三码无码| 国产欧美日韩综合在线第一| 2020精品极品国产色在线观看 | 午夜少妇精品视频小电影| 亚洲乱伦视频| 五月婷婷伊人网| 久久久久夜色精品波多野结衣| 免费在线成人网| 99久久国产综合精品2023| 国产精品va免费视频| 制服无码网站| 亚洲欧美人成人让影院| 亚洲AV成人一区国产精品| 国产无遮挡猛进猛出免费软件| 国产精品久久久久久久久久98 | 日本在线免费网站| 新SSS无码手机在线观看| 亚洲欧美日韩动漫| 国产欧美在线观看精品一区污| 亚洲国产精品一区二区高清无码久久| 这里只有精品在线播放| 99热这里只有精品2| 国产99视频精品免费观看9e| 在线视频精品一区| 狼友av永久网站免费观看| 欧美中日韩在线| 老司国产精品视频91| 亚洲中文字幕97久久精品少妇| 中文字幕佐山爱一区二区免费| 久草中文网| 5555国产在线观看| 无遮挡一级毛片呦女视频| 亚洲va视频| 91久久国产综合精品女同我| 国内精品视频| 国产精品太粉嫩高中在线观看| 日韩视频福利| 亚洲日韩第九十九页| 国产va视频| 国产香蕉在线视频| 亚洲日产2021三区在线| 一本久道热中字伊人| 久久性妇女精品免费| 国产精品福利尤物youwu| 国产日韩欧美在线视频免费观看 | 激情综合婷婷丁香五月尤物|