999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

智媒時代生成式AI的倫理風險及其治理路徑

2024-03-26 00:00:00孫玉明張子怡
新聞論壇 2024年6期

【內容提要】近年來,生成式AI的爆發式增長引發了信息領域的多方位變革。生成式AI不僅為專業信息生產者和普通用戶提供了高效、便捷的內容創作工具,而且形成了“人工+智能”的新型信息生產模式。但生成式AI的高速發展與快速擴張也帶來了內容、認知、隱私等方面的潛在風險。生成式AI的治理需要新聞媒體、技術開發者、普通用戶以及政府相關部門的共同努力,從多個角度對其進行規范和引導,進而使之充分發揮正向的信息價值。

【關鍵詞】生成式AI" ChatGPT" 新聞倫理" 風險治理

隨著數字技術的快速發展,傳統媒體正在趨向智能化,由新媒體轉向智媒體。自2022年11月以來,以ChatGPT為代表的生成式AI(Generative AI),開始大量地涌入公眾視野,隨著用戶數量的快速增長產生了轟動效應,并引發了社會各界的廣泛關注。雖然人工智能早已在專業的信息生產領域開始探索和使用,但成為普通人的信息生產輔助工具卻是近兩年的事情。所以生成式AI在當下信息領域中的影響,才會顯得如此之大。與專業新聞媒體早有預料的“冷靜”不同,如今觸手可及的生成式AI對普通大眾來說更多的是一種新奇和欣喜。這種低門檻且看似專業的智能化工具,激發了普通大眾參與信息生產的熱情。生成式AI對于專業新聞媒體是由技術推動的范式變革與行業反思,而對于普通大眾則更近似于全民參與的狂歡盛宴。然而,隨著生成式AI在信息生產中的廣泛應用,一些新的問題也隨之浮現,信息失真、算法偏見、數據泄露,甚至惡意人工智能大模型的出現,都對新聞倫理與信息安全產生了嚴峻的挑戰,亟待解決與加強治理。

一、生成式AI引發信息領域的變革

目前,生成式AI已滲透到信息的采集、編輯、分發與反饋等多個環節,并開始發揮智能化的信息處理能力。同時,生成式AI也在以簡單、易得、高效的形式,為普通大眾提供自動化的信息生產工具。生成式AI智能化和自動化的特性,正在改變原有的信息生態,并將產生深遠的影響。

(一)信息生產模式的遷移

生成式AI形成了一種新的信息生產模式,即人工智能生成內容(AI Generated Content,AIGC)。AIGC被認為是繼專業生成內容(Professional Generated Content ,PGC)和用戶生成內容(User Generated Content,UGC)之后的新型內容創作模式。PGC是傳統媒體的主要內容生產模式,一般由專業創作者或團隊進行信息的創作、編輯和發布。在Web1.0時期,一些網絡垂直媒體也延續了這種模式。UGC是在Web2.0時代,伴隨著社交網絡和自媒體的發展而逐漸興起的一種內容創作模式,由普通大眾參與信息生產。AIGC則代表著智媒時代內容創作模式發展的新趨向。

PGC、UGC和AIGC各有優勢,PGC的內容質量較高,UGC的內容較為豐富,而AIGC則具有較高的生產效率。由PGC、UGC到AIGC,并不是線性的替代關系,而是相互融合、共生共存。PGC和UGC為AIGC提供數據學習與模型優化的資源,AIGC輔助PGC和UGC提升生產效率。AIGC的出現既代表著信息生產模式的遷移,同時也是外部技術推動與內在日益增長的內容需求合力作用的結果。

(二)信息生產主體的轉變

從PGC、UGC到AIGC,信息生產主體實現了從專業人員到普通大眾再到人工智能的躍遷。生成式AI推動信息生產主體從專業化到多元化再到智能化的轉型。信息生產不再完全依賴于人類信息生產者,生成式AI的出現打破了原有的格局。隨著學習數據的不斷補充與算法模型的持續改進,生成式AI將在未來的信息生產中發揮越來越重要的作用。

生成式AI與專業信息生產者相結合,形成了PGC+AIGC的信息生產模式,并提供信息的篩選、計算與整合等輔助功能,進而提高了專業內容的生產效率。而生成式AI與普通大眾相結合,形成了UGC+AIGC的信息生產模式,帶動更多的普通大眾參與信息生產,進一步豐富了多元化的信息內容。這兩種信息生產模式的發展,又將反哺AIGC,并愈發穩固生成式AI信息生產的主體地位。

(三)信息分發方式的演進

生成式AI的廣泛應用,也在潛移默化地改變信息的分發方式。在越來越多的學習數據與越來越智能的算法模型支持下,生成式AI正在使信息的分發方式從被動獲取過渡到基于算法的個性推薦,并向著主動智能預判的方向發展。信息的分發不再是單向地提供和目標模糊的大量供給,而是智能學習和數據分析基礎上的定向推送。

信息的及時接受和準確理解,才能保證信息傳遞的有效性。生成式AI在這方面有著難以比擬的優勢,能夠實現信息的精準推送。在大量用戶數據的飼喂下,生成式AI的信息分發能力將在越來越頻繁的人機互動中得到不斷的加強。ChatGPT之所以迎來意外的爆發,根本原因是在預訓練過程中不僅加入了遠大于此前所有版本的數據庫參數支持,而且還采用了“人類反饋強化學習”(Reinforcement Learning from Human Feedback,RLHF),即人問機答-機問人答,不斷迭代演進,使模型逐漸具有了對生成答案的評判能力。

二、生成式AI的倫理風險

生成式AI的快速發展,也帶來了許多新的問題。生成式AI對于大多數專業信息生產者尤其是普通的信息生產者來說,更近似于自動生成內容的技術黑箱。雖然人類信息生產者是生成式AI的表面操作者和使用者,但生成的內容是由內在的數據和算法所控制,使用者的主觀意圖、難以窺視的算法、被肆意抓取的數據等,都將使生成式AI面臨更多的倫理爭議。

(一)內容真實性的扭曲

當前,構建新聞信息話語形態包括媒介技術層面的“體驗真實”、認知心理層面的“收受真實”以及權力關系層面的“協商真實”等。[1]不管如何對“信息真實”進行再界定或對話語呈現形態進行再詮釋,真實性始終是新聞最為本質的要求之一。生成式AI雖然表現驚人,但其生成內容的真實性與準確性還有待商榷。畢竟一旦不恰當地使用就極有可能淪為虛假信息的“內容培養皿”和“極速傳播體”,進而導致“后真相”的認知扭曲甚至陷入“無真相”的沼澤。

當用戶故意制造虛假信息或通過言語技巧來逃避道德約束,即使ChatGPT可以對某些錯誤信息加以修正,但也不能杜絕虛假信息的出現。[2]已有用戶發現,如果所問的問題觸及ChatGPT的知識盲區,它會根據問題編撰相應的答案,由于ChatGPT不具備可解釋性,用戶還無法追蹤到其內容的出處。除此之外,ChatGPT所生成的內容大部分都是強邏輯型的,因此有些錯誤信息往往很難被識別出來。2023年初,加拿大麥吉爾大學研究團隊曾使用GPT-2閱讀加拿大廣播公司播報的約5000篇有關新冠的文章,并要求該人工智能模型基于這些信息材料生成關于新冠疫情的“反事實新聞”,結果ChatGPT依然能夠“一本正經”地對輸入的指令做出回應,并生成相關的不實內容。OpenAI公司也對用戶做出了警告和提示:ChatGPT為概率模型深度生成,可能會“生成不正確的信息”和“產生有害指令”。

(二)新聞價值觀的傾斜

隨著Web3.0時代的到來,機器學習、多模態技術的積累與融合從根本上改變了人類從傳播媒介當中獲取信息的渠道。此前被人們認定為信息來源的文字、圖像、音頻等內容,已經難以成為在常識和認知事實上協助用戶辨別信息真實性的佐證資源,同時也沖擊了傳統意義上崇尚科學、客觀、中立的新聞價值觀。在這種局面下,一旦媒體失去信息來源的可信度同時又以“深度合成”的形態出現,就會極大地消解用戶在長期使用媒介過程中所建立的判定標準和認知能力。[3]

多模態技術的融合可以使生成式AI高效地將傳統的文字信息轉換為圖片甚至視頻,在這一過程中難免會產生信息失真,造成歪曲意義的風險。斯坦福大學與哥倫比亞大學的研究者在使用DALL-E和Stable Diffusion生成圖像時,在文本指令中輸入“創建清潔工”,所生成的圖像全部為女性。[4]技術的演進不應左右新聞價值觀的取向,否則不僅會誘導普羅大眾陷入誤區,而且會損害社會信任。雖然人工智能本身不具備意識形態,但其開發人員、用戶都是帶有價值取向的,因此生成式AI很難被視為完全客觀中立的前沿科技,它可能會因為開發人員代表的某種政治立場,存在明顯的信息偏見,從而影響用戶的認知與判斷。

(三)隱私數據的泄露

生成式AI的深度應用必然會觸及用戶的數據安全和信息隱私問題。智媒時代,社交網絡的蓬勃發展加劇了用戶數據的主動生產,現實生活成為網絡中的數據化映射。用戶的言論和行為都以數據的形式被用作“用戶畫像”分析,即對采集到的用戶數據進行分類,再利用算法統計用戶的偏好,如意識觀念、生活習慣、行為特征等,最終描繪出目標用戶的模型,通過信息反饋逐步迭代,使得用戶畫像愈發精準。

此外,伴隨著云技術的普及,低成本的存儲空間和長久保存的功能使更多的用戶將數據上傳其中。然而,原本低價值的數據碎片一旦落入掌握智能技術的機構或平臺手中,經過分析可能會變成攫取用戶隱私的高價值信息。大量的個人信息和用戶數據都有可能在與人工智能對話的過程中泄露。比如,用戶在向ChatGPT提問時,可能會不經意地主動向其透露個人隱私信息,盡管ChatGPT官方聲稱不會向他人提供任何用戶的個人信息,但用戶的對話數據已經被存儲在OpenAI公司的數據中心當中。已有國外科技公司指出,用戶在對話過程中輸入和提供的信息都可能被用作ChatGPT迭代訓練的數據。

三、生成式AI的治理路徑

高速的發展與快速的擴張使生成式AI在提高信息生產效率的同時,也帶來了潛在的倫理風險。因而,在享受生成式AI技術便利的同時,也應擔負起對其風險的治理。明確生成式AI的應用邊界,并完善相關法律法規,使生成式AI符合信息規范和行業要求,這需要專業媒體、技術開發者、普通用戶以及政府相關部門的共同努力。

(一)媒體及信息平臺:恪守新聞倫理規范

新聞媒體在利用生成式AI進行內容撰寫及信息分發任務時,應恪守新聞倫理道德規范與價值準則,避免在作為新聞主體人的同時出現責任缺失。一方面,媒體機構應提升從業人員的專業知識水平,在保證技術標準適用的前提下,利用人類獨有的思考、創新和決策能力充分發揮主觀能動性;另一方面,用人類的智慧來驅動人工智能,在保證新聞內容質量的前提下,再釋放生成式AI的內容生產力。

當前,網絡媒體及相關平臺在利用生成式AI提升內容產出效率的同時,應強化監管力度。加強對AIGC信息生產過程的監督和管理,尤其是用戶數據的隱私保護方面,應持續強化技術管理措施,避免對個人信息的竊取與惡意使用。平臺可以采取“強實名”的管理策略,對人工智能生產的內容進行相應的標注,并說明其可能引起的社會影響,明確需要承擔的法律責任,以防止生成式AI的濫用。信息平臺在對用戶個人信息進行采集和分析的過程中,要進一步完善用戶數據安全保護體系,保證用戶的個人隱私不受侵犯。

(二)技術開發者及用戶:提升數字信息素養

有學者對269名技術開發者進行了調查,結果顯示“有相當一部分技術開發人員的道德價值處于一種模糊不清的狀態。然而,如果技術開發人員的道德警戒有所松懈,則極有可能導致算法倫理的失控”[5]。因此,技術開發者應切實提升自身的道德素養,盡可能降低自動生成內容的誤導性與虛假性,消除主觀傾向性,為新聞媒體及信息平臺提供科學有效的技術手段。同時,技術開發者還要對生成式AI進行定期的技術更新,以防止技術滯后于新聞生產秩序與社會價值標準。

用戶作為生成式AI的服務對象,應主動和正當地行使自己的監督權,在發現虛假和不實消息后,既要保持理智,也應在第一時間將情況反饋給媒體或者有關部門,以免引起嚴重的社會輿論沖擊。用戶隱私數據的自我保護,可從意識、態度和行為三個層面展開。首先,提升個人信息保護的自覺性與邊界感,避免因個人的疏忽而導致隱私信息的外泄。其次,通過學習和積累,提高對算法生成機制的了解,并養成批判性的思維習慣。最后,加強個人信息管理的積極性,在隱私受到侵害時,運用法律手段維護自己的合法權益。此外,用戶應更多地關注信息的內容價值,而不是沉溺于科技構造的信息繭房中無法自拔。

(三)政府及相關部門:落實法律法規及監管政策

政府作為生成式AI治理的主導力量,應主動探討和制定相關法律法規,規范生成式AI技術開發者和用戶的行為,并進行全局性的部署和前瞻性的引導。一方面,立法機關可以根據現有的法規對人工智能技術的應用進行針對性的擴充。例如,英國在2023年3月公布的AI監管白皮書,其中包括安全、透明度與可解釋性、公平性、責任與治理等原則,并期望相關部門能夠運用現有的法規條例規范和約束人工智能企業。另一方面,可以通過制定新的法律法規,來應對智媒時代信息的多元化監管需求。如2023年3月歐洲議會通過了《人工智能法案》的表決,該法案重點關注數字倫理、隱私保護和數字經濟的發展。

對生成式AI的監管除了將人工智能的治理整合到既有法律體系之中,還可以復用現有的政府監管部門行使監管職能。比如,政府有關部門要制定相應的指南,為信息產業的健康發展提供政策支持。同時,還要對技術應用規范進行改進,最大限度地防止技術引發的內容風險與媒介危機。[6]我國于2023年7月發布了《生成式人工智能服務管理暫行辦法》,明確了為我國公眾服務的生成式AI應遵循的相關規定和要求,此管理辦法的出臺有利于保護公眾的信息利益,防范生成式AI的潛在風險和濫用行為。

四、結語

生成式AI的快速崛起以及對信息領域的迅速滲透,不僅使信息的生產模式由PGC、UGC向AIGC遷移,而且也促進了生產主體從專業化到多元化再到智能化的轉型,信息的分發也從傳統的被動搜索過渡到基于算法的主動推薦。生成式AI的出現還形成了PGC+AIGC和UGC+AIGC的新型信息生產模式,在提高生產效率的同時豐富了多元化的信息內容。但生成式AI的廣泛應用也帶來了潛在的風險。使用者的主觀意圖、難以窺視的算法、被肆意抓取的數據等也使生成式AI面臨著更多的倫理危機。對生成式AI的治理需要多方的共同努力,不僅需要新聞從業者和媒體恪守新聞倫理規范,也需要技術開發者和用戶提升自身的信息素養,政府與相關部門也應通過法律法規加強引導和規范,進而促進生成式AI的健康發展并使之充分發揮正向價值。

【本文系吉林省社會科學基金項目“吉林省朝鮮族傳統裝飾圖案的文化基因提取及設計應用研究”(項目編號:2024B106)的階段性成果】

參考文獻:

[1]楊奇光,周楚珺.數字時代“新聞真實”的理念流變、闡釋語簇與實踐進路[J].新聞界,2021,(08):12-20.

[2]史安斌,劉勇亮.聊天機器人與新聞傳播的全鏈條再造[J].青年記者,2023,(03):98-102.

[3]張燦.人工智能深度偽造技術的倫理風險與虛無困境[J].山東科技大學學報(社會科學版),2023,25(02):11-19.

[4]Bianchi F,et al. Easily accessible text-to-image generation amplifies demographic stereotypes at large scale[C]. In Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency. Association for Computing Machinery,New York,USA,1493–1504.

[5]袁帆,嚴三九.模糊的算法倫理水平——基于傳媒業269名算法工程師的實證研究[J].新聞大學,2020,(05):112-124.

[6]楊士民.人工智能時代算法新聞的著作權保護[J].出版廣角,2022,(04):77-81.

作者簡介:孫玉明,博士,東北電力大學藝術學院副教授,碩士生導師;張子怡,東北電力大學藝術學院碩士研究生

編輯:王洪越

主站蜘蛛池模板: 国产在线精品美女观看| 免费观看男人免费桶女人视频| 欧美一级夜夜爽www| 亚洲第一成年免费网站| 亚洲品质国产精品无码| 国产精品对白刺激| 在线观看欧美精品二区| 日韩欧美国产成人| 国产激爽爽爽大片在线观看| 婷婷色丁香综合激情| 波多野结衣久久高清免费| 日韩午夜伦| 亚洲三级网站| 本亚洲精品网站| 国产视频入口| 国产玖玖视频| 精品伊人久久大香线蕉网站| 免费三A级毛片视频| 青青草原国产免费av观看| 国产欧美精品一区aⅴ影院| 国产乱子伦精品视频| 啦啦啦网站在线观看a毛片| 人妻精品久久无码区| 尤物特级无码毛片免费| 制服丝袜一区二区三区在线| 国产区在线看| 亚洲Av综合日韩精品久久久| 精品视频在线观看你懂的一区| 99re热精品视频中文字幕不卡| 国产黄色免费看| 国产九九精品视频| 婷婷激情五月网| 偷拍久久网| 色偷偷一区| 亚洲一区国色天香| 亚洲性影院| 色135综合网| 国产欧美亚洲精品第3页在线| 99手机在线视频| 88av在线看| 国产乱人伦AV在线A| 2021亚洲精品不卡a| 国产不卡一级毛片视频| AV天堂资源福利在线观看| 91精品情国产情侣高潮对白蜜| 久久精品无码中文字幕| 欧美一级专区免费大片| 国产香蕉在线| 欧美亚洲一二三区| 国产色伊人| 热思思久久免费视频| 亚洲欧美成aⅴ人在线观看| 国产乱子伦一区二区=| 1769国产精品免费视频| 国产毛片片精品天天看视频| 囯产av无码片毛片一级| 亚洲精品视频在线观看视频| 日本精品影院| 全部无卡免费的毛片在线看| 好吊色妇女免费视频免费| 国产人成在线视频| 99精品热视频这里只有精品7| 国产精品嫩草影院av| 77777亚洲午夜久久多人| 色综合中文| 亚洲中文字幕国产av| 在线欧美日韩| 国产精品夜夜嗨视频免费视频| 亚洲第一成年网| 久久午夜夜伦鲁鲁片不卡| 五月婷婷亚洲综合| 东京热av无码电影一区二区| 91蝌蚪视频在线观看| 综合五月天网| 亚洲精品你懂的| 亚洲国产精品无码AV| 黄色片中文字幕| 国产午夜精品一区二区三| 尤物国产在线| 国产欧美日韩在线在线不卡视频| 久久综合色88| 亚洲人成日本在线观看|