999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

技術不確定性下算法推薦新聞的倫理風險及其法律規制

2022-05-30 09:02:50胡瑾
重慶大學學報(社會科學版) 2022年3期

胡瑾

摘要:大數據、人工智能、算法推薦技術等信息技術的快速迭代,推動了傳統社會的數字化轉型,傳統新聞業同樣在開展數字化轉型升級。在此背景下,隨著新聞信息過載的不斷加劇,由大數據衍生出的算法推薦新聞迅速崛起,算法信任、數據優勢與新聞媒介的數字化客觀上為算法推薦新聞的應用和發展奠定了基礎。毋庸置疑,算法推薦新聞對于實現新聞準確分發、增強新聞受眾黏性具有重要意義,智慧化、瞬時性的算法推薦新聞具有精準、高效、個性化優勢,但同時算法作為一種復雜性、不確定性技術,帶來了多層面、多環節、多領域的風險挑戰和制度掣肘,算法推薦新聞同樣引發了“算法黑箱”“算法偏差”“技術霸權”“責任缺口”與“信息泄露”等多種倫理風險。當前,學界對于算法推薦技術本身是否真的成熟,以及算法推薦新聞可能引發的倫理危機研判明顯不足。對此,從技術不確定性理論所內嵌的技術本身不確定性、技術認知不確定性與技術制度不確定性三個向度,可以為算法推薦新聞的倫理風險提供適當的分析框架,在此基礎上厘清算法推薦新聞倫理風險發生的根源,可將其歸納為技術本身不確定性向度的數學洗腦與主體性缺失、技術認知不確定性向度的能力不足與底線失守以及技術制度不確定性向度的法律規范與倫理體系的不完善。具言之,算法推薦新聞作為一種新興技術,已有倫理形態與法律規范逐漸無法有效規制其倫理風險,亟需建構專業化、制度化的算法推薦新聞倫理風險規制體系。算法推薦新聞倫理風險的法律規制應當奉行何種原則是規制路徑建構的前提性、方向性議題,分析認為技術不確定性下算法推薦新聞倫理風險的法律規制需堅持新聞透明原則、價值中立原則和德法共治原則。當然,隨著算法推薦技術、云計算等新興技術的不斷進化,新聞透明原則亦需與時俱進,對算法推薦新聞的新興倫理風險予以有效規制,新聞從業者、算法推薦新聞分發平臺等要堅持以價值中立原則為指導,強化算法推薦新聞中“人”的主體性地位,并在德法共治原則指導下明確算法推薦新聞倫理風險的法律規制范式。從以上原則出發,算法推薦新聞倫理風險的法律規制,應當針對不同類型的倫理風險進行有針對性的制度建構,即在技術本身不確定性向度加強算法公開與算法解釋權、數據權利等保障,在技術認知不確定性向度推動新聞從業者計算思維的培養及倫理約束,在技術制度不確定性向度采取倫理結構化與法律問責等規制對策。

關鍵詞:算法推薦新聞;技術不確定性;新聞業倫理風險;新聞業法律規制體系的重構

中圖分類號:D922.8;G210.7文獻標志碼:A文章編號:1008-5831(2022)03-0230-12

2021年9月,國家互聯網信息辦公室、中央宣傳部等九部委聯合印發的《關于加強互聯網信息服務算法綜合治理的指導意見》(以下簡稱《意見》)指出,算法的不合理應用影響正常的傳播秩序、市場秩序和社會秩序,給維護意識形態安全、社會公平公正和網民合法權益帶來挑戰?!兑庖姟分杏嘘P“算法的不合理應用影響正常的傳播秩序”的表述是本文再談算法推薦新聞(algorithmrecommendationnews)倫理風險規制的出發點和支撐點。

一、技術不確定性下算法推薦新聞及其倫理風險向度

討論算法推薦新聞的倫理風險,首先應當明確三個基本概念:信息過載、技術創新與算法推薦新聞。一般認為,信息過載是算法推薦新聞產生的重要原因。從傳播者、傳播渠道來看,信息過載是指大量復雜且不斷增加的信息在傳播渠道中流動,這必然會導致“過載”;從信息接受者的角度來看,新聞受眾在將信息轉化為自我認識的過程中也會出現“瓶頸”障礙,在信息接受方面出現“信息疲勞”現象[1]。在此背景下,算法推薦新聞逐漸興起,提升了人工新聞編輯和新聞推送的效率,進而使新聞業的整體效率得以提高。當然,算法推薦新聞的快速發展也與公眾的閱讀載體從傳統紙媒遷移到移動媒體密切相關,同時互聯網技術、大數據和云計算技術的發展及產業化也發揮了舉足輕重的作用??梢哉f,在算法推薦新聞時代,新聞受眾獲得了更大意義上的自主權,實現了“以受眾為導向”的價值回歸。但與此同時,算法推薦新聞引發的倫理風險不容忽視。對于算法推薦新聞的倫理風險,可在技術不確定性框架下分出以下三個向度。

(一)本體論視角

算法推薦新聞中算法本身的不確定性可能引發倫理風險。隨著算法內部結構和功能日趨復雜,影響因素增多,愈發難以確定算法自身帶來的倫理影響[2]。算法作為一門新技術,涉及模糊復雜的技術知識和科學基礎。算法推薦新聞在底層算法、技術工程、受眾認知乃至市場環境等方面的不確定性,都可能引發倫理風險。

(二)認識論視角

技術產生不確定性的來源不僅是外部的,也是內部的,這與人們自身意識形態框架中的偏見和局限有關[3],這種偏見和局限使算法推薦新聞可能帶來倫理風險。雖然技術倫理問題近年來被廣泛討論,但是在“技術拜物教”的助推之下,算法應用正在“狂飆突進”,只注重技術對人類的“再啟蒙”,而忽視了這種“再啟蒙”帶來的社會倫理問題[4]。同時,在算法的設計和應用中,我們更多地關注技術的效益價值,而忽略了其倫理內涵。此外,由于缺乏深入了解算法推薦新聞本身的知識和能力,以及無法及時獲得與算法推薦新聞相關的必要信息,可能導致算法推薦技術在新聞領域的應用帶來認知不確定性下的倫理風險。

(三)制度論視角

法律規范和倫理體系的不完善使算法推薦新聞的倫理風險及其規制處于無序狀態。囿于技術本身不確定性和技術認知不確定性,學界對于算法推薦新聞倫理風險的規章制度存在爭議,難以形成統一行動,以此導致技術制度不確定性的出現,技術制度不確定性又加劇了技術本身不確定性和技術認知不確定性帶來的倫理風險。

申言之,基于技術不確定性下算法推薦新聞的倫理風險向度,需具體風險具體分析,在厘清風險表現、風險根源的基礎上,加快算法倫理建構,并推動其實現。

二、技術不確定性下算法推薦新聞倫理風險的表征梳理

(一)技術本身不確定性下算法推薦新聞的倫理風險

算法作為一種尚未成熟且具有顛覆性影響的技術,本身面臨著道德、法律等諸多層面的風險挑戰,其在新聞領域的應用也引發了諸多類型的倫理風險。技術本身不確定性下算法推薦新聞的倫理風險主要表現在以下幾個方面:一是算法推薦新聞本身存在倫理風險。算法推薦新聞分發平臺不遵守道德要求和法律規范,使人的意志因素融入算法和算法推薦新聞的技術中,導致算法面臨不可避免的偏差和黑箱,增加算法運行的不可控因素[5]。例如,2016年3月23日,微軟公司發布了人工智能(AI)聊天機器人Tay,但不到一天,Tay在與人類的互動中將好壞學了個遍,變成了一個種族歧視者,微軟公司不得不將其“下崗”。Tay的故事凸顯了機器學習程序開發者面臨的一個障礙:算法偏差[6]。二是算法在部分領域的應用引發了極大的倫理爭議。如今,算法被應用在大數據精準營銷中,包括搜狗用戶畫像挖掘、用戶評分預測、機場客流量分布預測等諸多領域,但算法在多場域的應用并非沒有負面影響,例如在百度在線網絡技術(北京)有限公司等與北京字節跳動科技有限公司不正當競爭糾紛一案中,字節跳動公司主張本文引言所述人民網文章僅是針對算法推薦,并未專門針對今日頭條。人民網算法推薦文章是否針對今日頭條暫且不論,但這無疑是給有關主體帶來了倫理風險和不良后果。三是算法推薦新聞帶來信息數據保護風險。在新聞行業,基于算法的新聞分發平臺,如GoogleNews等主導著新聞受眾獲取新聞的數量、類型和偏好,越來越集中且具有壟斷性的新聞平臺控制著大量新聞受眾的個人信息數據,這也使侵犯新聞受眾隱私的事件層出不窮,但被侵犯群體卻難以獲得有效賠償[7]。例如,西班牙公民岡薩雷斯(González)要求發布者刪除與他有關的任何個人信息,或改變算法搜索結果保護他的隱私,該案是“被遺忘權”的經典案例。此外,新聞受眾對信息數據的主導權也逐漸被轉移到掌握用戶特性、標簽等的算法推薦新聞分發平臺手中。四是算法推薦新聞的負外部性逐漸凸顯。有學者指出,人工智能算法的負外部性表現在影響現有社會秩序的秩序性、連續性和確定性方面,從而引發社會道德危機,加劇人類社會未來發展的不確定性[8]。實際上,算法推薦新聞的負外部性也有相同表現,例如算法規則程序,過程的不透明、不公開等技術黑箱缺陷,對社會公平形成挑戰,這種不平等將進一步加大層級間的智能鴻溝,非智能社會人群向后退卻,成為技術哲學意義上的“準人類”甚至“非社會人”[9]。

(二)技術認知不確定性下算法推薦新聞的倫理風險

目前,算法推薦新聞仍處于弱算法階段,其倫理風險問題尚未被充分重視。但是,隨著技術進步,算法推薦新聞將邁入強算法階段,且極有可能全面超越人類認知,這將使算法推薦新聞可能因失去倫理約束而陷入技術霸權的奴役之下。正如有學者指出,“人往往陷入被自然‘座架指引的解蔽之路而無法脫身境地,解蔽此過程的方法暗藏危險,因為人逐漸被技術綁架:人即技術,技術即人”[10]。具體而言,囿于技術認知能力不足等困境,使新聞從業者對算法推薦新聞的倫理風險缺乏清晰認知,更遑論對其進行有效規制,但算法推薦新聞缺乏約束必然會帶來嚴重的倫理風險。例如,有學者指出,深度學習算法可能連設計者都不知道它是如何決策,那么要在系統中發現是否存在歧視、偏見以及探究其根源,在技術上比較困難[11]。英國杜倫郡警察等運用算法開發了評估工具“HART”,以預測嫌疑人繼續犯罪的風險。然而,該工具將郵政編碼作為預測因子區別對待窮人、富人,被認為“涉嫌”歧視窮人[12],這無疑是警方在開發之初難以預見到的。隨著智能化水平的提升,算法推薦技術將具備更強的自主學習和自動決策能力,自動駕駛系統等已經在特定場景中部分或全部代替了人類的決策和行動,這將進一步加劇對算法及算法推薦新聞認知的不確定性。當算法推薦新聞分發平臺自動默認將新奇、低俗作為新聞分發偏好,并基于此進行個性化推薦時,算法推薦新聞就會成為滋生謠言的幫兇。此外,算法推薦新聞分發平臺和新聞從業者可能存在經濟動機,致使人們對算法推薦新聞的認知出現不確定性,由此進一步引發倫理風險。例如,用戶訪問google.com以查找有關病癥的專家建議時可能會同時收到疾病控制中心和GoogleHealth的建議。然而,觀察發現Google將其提供的(不一定是最好的)服務置于Google搜索結果的頂部。由此可見,技術認知不確定性引發的倫理風險之根源既有客觀能力的局限,也有主觀倫理底線的失守。

(三)技術制度不確定性下算法推薦新聞的倫理風險

法律規范和倫理體系的不完善使算法推薦新聞的倫理風險進一步加劇,算法推薦新聞將不斷侵蝕作為“人”的主體性。其一,現有規制算法推薦新聞倫理風險的制度存在失靈。例如,美國聯邦貿易委員會(FederalTradeCommission,FTC)要求Everalbum公司刪除客戶數據以及算法,Everalbum使用面部識別技術將用戶照片自動分組,在默認情況下為所有用戶啟用了面部識別,且無法手動關閉。FTC與Paravision達成協議:該公司違反了《聯邦貿易委員會法案》(FederalTradeCommissionAct)第5a條中關于禁止不公平或欺騙性行為和慣例的規定,Everalbum同意對內容進行刪除。但是,該公司在應用關閉之前還在推銷產品,聲稱其口罩人臉識別算法在美國國家標準技術研究所(NIST)的人臉識別算法測試(FRVT)中獲得了準確率第二的好成績[13]。由此可見,現有規制算法推薦新聞倫理風險的有關制度存在失靈和威懾力不足等掣肘。其二,倫理規范體系的不完善使算法推薦新聞引發的倫理風險缺乏明確的規制手段和方向。與我國相比,域外規制算法倫理風險的制度體系較為完備。例如,《關于算法透明性和可問責性的聲明》(StatementonAlgorithmicTransparencyandAccountability)、《人工智能時代:確立以人為本的歐洲戰略》(TheAgeofArtificialIntelligence:TowardsaEuropeanStrategyforHuman-CentricMachines)、《可信人工智能倫理指南》(DraftEthicsGuidelinesforTrustworthyAI)等,歐盟《單一數字市場版權指令》要求臉書、YouTube等平臺加強版權審核。就我國而言,針對算法推薦新聞可能引發的“技術霸權”“責任缺口”等倫理風險,僅有《意見》作為規范依據。

三、技術不確定性下算法推薦新聞倫理風險的原因探析

(一)技術本身不確定性向度:“數學洗腦”與主體性缺失

技術本身不確定性下算法推薦新聞倫理風險生成之根源,既包括算法本身的風險暴露不足,也包括“數學洗腦”(mathwashing)帶來的技術依賴。目前算法推薦新聞是按照新聞從業者的意愿編輯生成,體現為算法推薦新聞對人類需求的滿足,但這也使人們容易被“洗腦”。Kickstarter眾籌公司的數據副總裁FredBenenson創造了“數學洗腦”這一名詞,這個合成詞的靈感來自“pinkwashing”“greenwashing”或“whitewashing”等,其核心要義在于批駁使用數學術語(算法、模型等)來掩蓋主觀現實,不能因使用了數學,就忽視了數據的內在主觀性,使用數據構建的任何東西都將反映收集數據時的偏見和決定[14]。進一步看,在強人工智能技術時代,算法可能形成與人主體相平行的新主體類型(平行主體),生成強人工智能主體的主體性,而在超強人工智能技術時代,算法可能形成超越人主體的全新主體(超主體),但這是人主體無法理解的超人主體性[15]。實際上,實踐已經為此作了證成。2017年3月,歐洲議會投票接受了法律事務委員會提交的關于機器人、人工智能的報告,該報告創新性地提出應該開發適用于機器人和超級人工智能的“電子人格”[16]。沙特阿拉伯還授予香港漢森機器人公司開發的表情機器人索菲亞以“公民身份”??梢哉f,算法的語言和思維將不斷接近智能發展的“奇點”,甚至可能具有哥德爾反思能力,從而接近人類,給“人”的主體性帶來挑戰[17]。對此,無論是古希臘時期普羅太戈拉提出的“人是萬物的尺度”的判定,還是蘇格拉底“認識你自己”的命題,都在強調人類自我意識和自身價值[18]。因此,算法推薦新聞遵循何種倫理,需要及時以制度形式明確下來,而這種制度無疑需要具有主體性的“人”來建構。

(二)技術認知不確定性向度:能力不足與底線失守

技術認知不確定性下算法推薦新聞的倫理風險除與新聞從業者的客觀認知能力不足有關外,也與相關新聞從業者的主觀倫理底線失守密切相關。一方面,智能時代新聞從業者所具備的新聞專業性、技術能力、新聞倫理和社會責任意識等能力存在諸多不足。例如,新聞網站REDDIT曾經向一些專家透露過它的排名算法,但研究人員發現專家們經常對算法的工作原理持不同意見,很難完全理解它的工作原理[19]。專家尚且如此,對于普通人而言,認知能力不足將使算法公開更無實質意義。但是,規制算法推薦新聞倫理風險需要算法本身滿足可解釋性的要求,這使新聞從業者在認知能力等方面將面臨更大的挑戰。理由在于,算法技術本身分為多種形態,簡單算法解釋具有可行性,但是深度學習算法是一種具有自主學習能力的動態算法,其會不斷吸收新的信息,構建更復雜的算法模型[20],故很難對其進行有效、深入、及時的解釋。另一方面,算法推薦新聞分發平臺和新聞從業者可能存在倫理底線失守情形。例如抖音是算法推薦機制,即平臺只會推薦用戶喜歡和關注的內容,相關主體如引路燈公司的KPI考核指標也是按照這個規則來進行的,假如用戶有不喜歡的內容,就很難實現完播,沒有實現完播就不會計入流量池里。在此種營利模式下,有關主體很可能從營利動機出發應用算法技術,這無疑將加劇算法推薦新聞引發的倫理風險,也使得全面認知算法推薦新聞的倫理風險及其規制理路面臨更大挑戰,這種挑戰在專業的算法推薦新聞分發平臺那里將更為突出。算法推薦新聞分發平臺加速了所謂的“新聞民主化”改革,實現了新聞生產主導權的下移,這種轉變很容易引發新聞無序競爭的問題,造成新聞價值選擇與流量偏向的整體失衡[21]。

(三)技術制度不確定性向度:法律規范與倫理體系不完善

在算法推薦技術已經廣泛應用到傳播實踐的當下,用什么標準判斷算法推薦新聞的個性化推薦是否恰當?如存在不當之處,應當以何標準來約束和規范這種不恰當的現象?就此而言,從宏觀視角來看,《中華人民共和國民法典》《中華人民共和國網絡安全法》《中華人民共和國個人信息保護法》(以下簡稱《個人信息保護法》)等對算法推薦新聞的倫理風險規制具有一定作用。從微觀視角來看,可以從移動互聯網應用程序(applicationprogram,App)的算法應用和算法推薦新聞分發平臺兩個視角進行梳理:有關App算法應用的法律規范,如《常見類型移動互聯網應用程序必要個人信息范圍規定》第4條規定App不得因為用戶不同意提供非必要個人信息而拒絕用戶使用其基本功能服務,此規定為App的算法應用提供了參照適用規范;有關算法推薦新聞分發平臺的法律規范,如《網絡信息內容生態治理規定》第12條規定網絡信息平臺采用算法推薦技術推送信息的,應當建立健全人工干預、用戶自主選擇等機制,同時《意見》規定應當建立算法安全責任和科技倫理審查制度,以及對算法應用的結果負主體責任等。以上法律規范和已有的技術倫理、新聞倫理等倫理規范能夠對算法推薦新聞的倫理風險進行初步規制,但算法推薦新聞的新穎性使得已有倫理形態難以有效滿足算法推薦新聞的倫理規范需要,這也是算法推薦新聞倫理風險生成的制度不確定性根源。申言之,算法推薦新聞作為一種新興技術,已有倫理形態逐漸無法有效規制其倫理風險問題,亟需建構算法推薦新聞的倫理規范體系。

四、技術不確定性下算法推薦新聞倫理風險的規制原則

(一)技術本身不確定性向度:新聞透明原則

新聞透明原則是新聞基本原則之一,也是算法推薦新聞倫理風險規制需要遵循的基本原則。2001年,比爾·科瓦齊和湯姆·羅森斯蒂爾在《新聞的十大基本原則:新聞從業者須知和公眾的期待》(TheElementsofJournalism:WhatNewspeopleShouldKnowandthePublicShouldExpect)中較早系統性地提出“透明性原則”(ruleoftransparency)。從未來新聞學視角來看,算法、大數據給傳統新聞模式帶來了顛覆性挑戰,作為新聞基本原則的新聞透明原則需與時俱進,對新模式、新技術、新業態予以規范和指引,正如有學者沿著“技術道德化”的思路,認為應當將新聞透明原則納入算法設計的“套路”[22]。在算法推薦新聞時代,已經規范化、制度化的算法透明原則能夠為新聞透明原則的實現提供范式支撐和法律基礎,例如《個人信息保護法》第24條已經明確規定了算法透明原則,《新一代人工智能倫理規范》同樣規定要提升算法透明性。換言之,建立在“可見”和“可知”基礎上的新聞透明原則,在數字時代不僅包含內容透明,還應當涉及平臺透明和算法透明[23]。因此,需要把新聞透明原則這一倫理規范植入算法設計中,以算法透明推動新聞透明。2010年,邁克爾·卡爾森將透明性劃分為“公開式透明”(disclosuretransparency)和“參與式透明”(participatorytransparency),前者指新聞從業者解釋、公開新聞選擇和生產方式,后者意為邀請新聞受眾參與新聞制作過程[24]。由此,在技術本身不確定性下算法推薦新聞倫理風險的規制方面,應當堅持以下兩個方面的規制思路:其一,公開式透明。新聞透明原則要求算法首先實現透明,以保證其可以實現被檢驗和被監督[25]。公開式透明是規制算法推薦新聞倫理風險的重要手段之一,算法透明度不僅包括程序公開,還包括數據公開和算法開源等。需要指出的是,公開式透明并不是無限度的,其需要以確保公信力、消除偏見、保護公共利益和實現最小傷害等作為評價算法透明度是否“適度”的重要標準[26]。其二,參與式透明。參與式透明意在將算法透明原則建立在新聞受眾充分參與基礎之上,對于算法推薦新聞的相關倫理風險進行預估和監督。此外,參與式透明還需要嚴格制定新聞從業者的職業道德標準,增強新聞從業者的責任感,提高識別和分析算法推薦新聞倫理風險的能力,避免使其陷入算法推薦新聞的“技術拜物教”之中。

(二)技術認知不確定性向度:價值中立原則

技術認知不確定性下算法推薦新聞倫理風險的規制需要新聞從業者等秉持價值中立原則。技術是否中立本質上是價值是否中立,技術無法左右人類,最終的結果都是人類自己的選擇[27]。在1984年環球影業訴索尼一案中形成了“索尼規則”,也即技術中立原則,認為只要符合“實質性非侵權使用”的標準,技術產品就不構成輔助侵權,無論該技術用于何種目的[28]。實際上,技術中立的本質在于價值是否中立,算法推薦新聞取決于它的經驗(數據)和價值觀(機器學習算法),經驗難免有偏誤,價值觀也免不了有所偏好,算法背后充斥著人類價值的介入,致使算法推薦新聞的價值非中立性難以絕對消除。因此,我們需要努力將算法價值非中立性帶來的影響限制在可接受的范圍之內,型構安全、公平、透明的算法價值體系。當下,在規制算法推薦新聞倫理風險的問題上,對于新聞從業者在行業內的自我約束和認知能力提升等方面的論述和分析仍顯不足,這可能是由算法推薦新聞的商業邏輯決定的,算法技術畢竟不是抽象的數學,里面必然包含著價值觀的嵌入,如“利用技術的‘偽中立性幫助自身實現特定的訴求”[29]。但是,如果新聞從業者等僅僅秉承商業邏輯,依賴算法的自主設定,不僅會使新聞生產失去獨立性,還會沖擊傳統新聞的價值中立觀,導致算法推薦新聞的價值糾纏[30]。質言之,算法推薦新聞在提高新聞采集、生產效率的同時對新聞從業者等的技術觀、新聞觀帶來沖擊,這要求新聞從業者等要堅持以價值中立原則為指導,確立“人”的主體性地位,避免新聞從業者等成為技術附庸和金錢奴隸。此外,價值中立原則的實現還需要有媒介素養的新聞受眾的有力監督,新聞受眾對違背倫理的現象進行批評和監督,對防范和規制算法推薦新聞的倫理風險同樣重要。

(三)技術制度不確定性向度:德法共治原則

2020年12月,中共中央印發的《法治社會建設實施綱要(2020-2025年)》明確提出,要“堅持依法治網和以德潤網相結合”。其中,法治著重于在社會分化中確立秩序,而德治則努力彌合社會分化中的感情疏遠和價值裂痕,二者發揮相互補充的作用[31]。囿于算法推薦新聞及其倫理風險規制的倫理規范體系不完善的現狀,現階段亟需加快算法推薦新聞倫理規范體系和法律問責制度的完善,堅持德法共治,并發揮二者的協同作用。目前,我們應當同時從兩個方面著手:其一,加快省思正在變革中的新聞倫理、技術倫理,以及重構新的算法推薦新聞倫理體系;其二,針對算法推薦新聞的倫理風險,建立完整、有效的法律規制體系,筑牢算法推薦新聞倫理風險規制的最后屏障。

五、技術不確定性下算法推薦新聞倫理風險的法律規制進路

(一)技術本身不確定性向度:算法公開與權利保障

一方面,有限度的算法公開是技術本身不確定性下算法推薦新聞倫理風險規制的重要范式。算法公開應該是一個有意義的公共系統和決策系統,而非指機械性的算法架構或源代碼的公開,機械性的算法公開可能是無意義的,這種公開不能為相關主體提供有意義的決策參考[32]。同時,新聞受眾可能難以有效閱讀、理解有關信息,造成“透明謬誤”。因此,算法推薦新聞的算法公開應當具體問題具體分析。第一,在公開信息的范圍上具體問題具體分析。例如,算法涉及銀行貸款、保護專有信息或合法商業利益以及如金融和醫療保健等隱私信息時,公開這些信息可能受到相關法律法規的限制。那么,對于此類信息的公開要進行分類研判,審慎對待。第二,在算法公開的解釋方法上具體問題具體分析。算法解釋方法主要包括模型中心解釋(modelcentricexplanations,MCEs)和主體中心解釋(subjectcentricexplanations,SCEs)兩種,其中模型中心解釋主要涵括相關參數、性能指標等,針對的主要是算法技術本身的信息;主體中心解釋是建立在輸入記錄的基礎上所作的解釋,此種方法對尋求個人救濟的數據主體來說可能更有優勢,但其質量也可能因算法系統的多角度性質及多樣化個人數據類型等因素而降低,正如有學者指出MCEs和SCEs遠非完美的解決方案[33]。本文認為,算法推薦新聞的解釋方法需要結合二者之優勢,在實踐理性指引下尋找創新的解釋和公開模式及路徑。

另一方面,算法解釋權、數據權利等保障能夠對技術本身不確定性下算法推薦新聞倫理風險規制發揮重要作用。算法解釋權意圖直觀地打開“算法黑箱”并提高問責制,其是指認為自身利益可能被算法的機器學習和自動決策影響的人,有權知道個人數據自動處理的邏輯,并要求改正算法錯誤[34]。同時,算法推薦新聞倫理風險規制需要以算法規制思維協調受眾數據權利與數據治理的關系,如果說加強身份數據采集、挖掘和算法標準的倫理規制是一種軟規制的話,安全嵌入設計程序的規制則是一種硬規制,通過加密、反追蹤和自動銷毀等程序,防止濫用受眾數字身份及其相關數據[35]。除了算法解釋權、數據權利之外,在《通用數據保護條例》(GeneralDataProtectionRegulation,GDPR)中還包括其他與算法治理相關的權利規定,例如被遺忘權和數據可攜性等,還有學者指出算法治理中的新興權利主要有個人數據保護的相關權利、算法解釋權、免受自動化決策權、有意義的人類控制權及事后的人工審核權[36]。以上權利分類對算法推薦新聞倫理風險規制問題的研究具有重要意義,但最重要的還是通過制度建構來保障這些權利的行使。

(二)技術認知不確定性向度:計算思維與倫理堅守

新聞從業者“計算思維”的養成是規制技術認知不確定性下算法推薦新聞倫理風險的重要方面。美國卡內基·梅隆大學的周以真(JeannetteMWing)教授于2006年首次提出了“計算思維”的概念,其是指運用計算機科學的基礎概念進行問題求解、系統設計以及人類行為理解等涵蓋計算機科學的一系列思維活動[37]?,F階段,新聞從業者的計算思維需要加快進化到3.0階段,即計算思維在不同個體參與的人機交互過程中體現出的問題解決能力,并依據有關計算的流程與模型或者針對所面對的問題,參與構建適合問題解決的計算模型來創新性地解決問題[38]。實際上,國內外已有多項政策文件強調了計算思維和技術能力的重要性。由此可見,新聞從業者計算思維的養成是算法推薦新聞倫理風險規制的重要方面。此外,新聞受眾也需要提高知識素養、數字素養,提高正確分辨、選擇和評價算法推薦新聞內容的能力,這對于規制技術認知不確定性下算法推薦新聞的倫理風險同樣重要。

倫理,需要依靠自律。除了計算思維的養成,新聞從業者的倫理堅守是規制技術認知不確定性下算法推薦新聞倫理風險的防線。新聞從業者應當加強自律,將公共利益置于經濟利益之上,堅持正確的新聞價值觀,充分發揮在新聞傳播中的主體性作用,維護算法推薦新聞在新聞實踐中的倫理合規。同時,算法推薦新聞分發平臺需要在設計算法規則時分配更多的權重在公共價值和人文關懷方面,增加對公平、正義、人性尊嚴的考量。必要時,行政、法律力量需要介入打破技術與資本的壟斷,以達到平衡工具理性與價值理性之間關系的目的[39]??傊谒惴ㄍ扑]新聞時代要加強對新聞從業者和算法推薦新聞分發平臺的倫理約束,正確處理、規制技術給新聞領域帶來的倫理風險。

(三)技術制度不確定性向度:倫理結構化與法律問責

推動算法推薦新聞倫理結構化是技術制度不確定性下倫理風險防控的最后屏障和有力保障。倫理結構化過程是指規范化、制度化、系統化的邏輯構成,具有科學性和同一性的評價標準和方法,并逐步推動倫理規范的制度化和規范化[40]。

首先,規范構造是規制算法推薦新聞倫理風險的前提性條件。法律和倫理規范能夠為規制算法推薦新聞倫理風險指明方向,需要在算法推薦新聞的生成伊始設定其倫理要求。正如《意見》指出要健全算法安全治理政策法規,加快制定算法管理規定,并制定標準、指南等配套文件。但與法律不同的是,倫理規范是規制算法推薦新聞倫理風險的直接標準,不具有法律的強制性。當人工智能算法發展到比人類決策更準確、更少歧視的階段時,算法倫理規范的設定可能需要設計超越人類倫理的雙重標準。換言之,當算法真正具有哥德爾反思能力抑或“公民身份”時,算法推薦新聞的倫理規范可能需要重構與現有人類倫理、新聞倫理不同的倫理規范體系,以此填補可能出現的“責任缺口”。

其次,加強算法推薦新聞的倫理標準化、算法備案與算法審計。倫理標準化是指將算法推薦新聞相關的倫理因素如透明度、可解釋性、新聞受眾態度等各種指標納入倫理規范設計過程之中,推動算法推薦新聞倫理標準的制度化、體系化。如此,規制算法推薦新聞的倫理風險就具有現實可行性,同時在倫理標準制度化、體系化之后,算法備案和算法審計就有了用武之地。算法備案是規范算法應用的事前規制手段,對于App的算法備案,可參照適用《移動互聯網應用程序信息服務管理規定》第5條的規定,要求移動互聯網應用程序(App)的算法應用應當依法取得相關資質、履行備案手續;對于算法推薦新聞分發平臺的算法備案,國家互聯網信息辦公室發布的《互聯網信息服務算法推薦管理規定(征求意見稿)》第20條進行了明確規定,即具有輿論屬性或者社會動員能力的算法推薦服務提供者應當履行備案手續。就算法審計而言,有學者區分的代碼審計、非侵入式用戶審計、抓取式審計、馬甲審計、協同或眾包審計等五種算法審計方式能夠實現對App算法應用的審計和算法推薦新聞分發平臺的算法審計。具體而言,對App算法應用的算法審計,可采用非侵入式用戶審計等方式,在用戶同意的情況下獲取用戶的搜索和查詢結果進行推斷;對于算法推薦新聞分發平臺的算法審計可采用代碼審計等方式。由此可見,在倫理標準化基礎上多樣化的算法審計機制能夠對算法推薦新聞倫理風險的規制發揮重要作用。

最后,設立算法推薦新聞的監管機構并強化問責法律制度。就監管機構設立而言,歐洲科學和新技術倫理小組、英國上議院人工智能委員會等專門監管機構在人員構成上主要包括負責立法的議會成員、國家數據保護機構成員、學者和公民等,能夠監控、維護算法系統的負責任秩序,對算法推薦新聞倫理風險的規制具有重要作用。2019年澳大利亞競爭與消費者委員會宣布計劃設立專門分支機構,以監管算法運行。在我國,中國消費者協會曾建議國家設立算法倫理專門機構。本文認為,由國家互聯網信息辦公室、中央宣傳部等部委、學者、公民代表等組建算法倫理的專門監管機構以規制算法推薦新聞倫理風險具有必要性和可行性。監管機構需根據《意見》要求構建算法風險監測、算法安全評估、科技倫理審查、算法備案管理和違規行為處置一體化的監管體系。就算法問責體系而言,對App算法應用的問責,2021年4月,工業和信息化部信息通信管理局發布的《移動互聯網應用程序個人信息保護管理暫行規定(征求意見稿)》第8條明確規定了移動互聯網應用程序(App)與第三方服務(算法推薦服務)承擔連帶責任的情形;對算法推薦新聞分發平臺的問責,主要包括算法說明責任和算法安全評估責任等,具體而言,《個人信息保護法》第24條的規定為算法推薦新聞分發平臺設定了算法說明責任;國家互聯網信息辦公室關于《互聯網信息服務算法推薦管理規定(征求意見稿)》第14條的規定為算法推薦新聞分發平臺設定了算法安全評估責任。下一步,需加強算法問責的可操作性,制定責任清單、厘清責任邊界,推動主體責任的充分落實。

六、結語

算法推薦新聞的衍生有其社會基礎,但也引發了多方面、多層次的倫理危機,目前有關規制其倫理風險的探索仍不深入。本文轉換視角,在技術不確定性下對算法推薦新聞的倫理風險及其法律規制問題進行了初步探討,旨在不斷夯實算法推薦新聞的倫理根基,將有關倫理風險約束在倫理尤其是約束在法律的框架之中,以法治手段尋求大數據時代算法推薦新聞的技術不確定性問題的解決方案,使算法推薦新聞逐步邁向更大程度的“確定性”,從而更接近算法推薦新聞的正義目標。參考文獻:

[1]孫旭培,吳麟.“信息疲勞”與傳播控制[J].新聞大學,2006(3):34-38.

[2]汪德飛.算法倫理爭論的六重維度及其走向[J].科學技術哲學研究,2021(4):59-65.

[3]李仕明,李平,肖磊.新興技術變革及其戰略資源觀[J].管理學報,2005(3):304-306,361.

[4]胡鍵.算法治理及其倫理[J].行政論壇,2021,28(4):41-49.

[5]胡小偉.人工智能時代算法風險的法律規制論綱[J].湖北大學學報(哲學社會科學版),2021(2):120-131.

[6]JOHNSONGM.Algorithmicbias:Ontheimplicitbiasesofsocialtechnology[J].Synthese,2021,198(10):9941-9961.

[7]張文祥,楊林.新聞聚合平臺的算法規制與隱私保護[J].現代傳播(中國傳媒大學學報),2020(4):140-144,154.

[8]胡元聰,廖娟.人工智能的負外部性及其經濟法規制[J].大連理工大學學報(社會科學版),2020(3):71-79.

[9]杜駿飛.定義“智能鴻溝”[J].當代傳播,2020(5):1.

[10]譚九生,楊建武.人工智能技術的倫理風險及其協同治理[J].中國行政管理,2019(10):44-50.

[11]莫宏偉.強人工智能與弱人工智能的倫理問題思考[J].科學與社會,2018(1):14-24.

[12]譚九生,楊建武.人工智能嵌入政府治理的倫理風險及其防控[J].探索,2021(2):126-138.

[13]機器之心.算法模型會泄露隱私嗎?別聽他們怎么說,看他們怎么做[EB/OL].(2021-01-22)[2021-10-06].https://www.bilibili.com/read/cv9415815/.

[14]WOODST.“Mathwashing”,Facebookandthezeitgeistofdataworship[EB/OL].(2016-06-08)[2021-10-01].https://technical.ly/brooklyn/2016/06/08/fred-benenson-mathwashing-facebook-data-worship/.

[15]楊保軍.再論“人工智能新聞生產體”的主體性[J].新聞界,2021(8):21-27,37.

[16]文遠竹.智能傳播的倫理問題:失范現象、倫理主體及其規制[J].中國編輯,2021(9):64-70.

[17]鄭智航.人工智能算法的倫理危機與法律規制[J].法律科學(西北政法大學學報),2021(1):14-26.

[18]王敏芝.算法時代傳播主體性的虛置與復歸[J].蘇州大學學報(哲學社會科學版),2021(2):166-175.

[19]SANDVIGC.Auditingalgorithms:Researchmethodsfordetectingdiscriminationoninternetplatforms[EB/OL].(2014-11-17)[2021-10-02].http://cmds.ceu.edu/events/2014-11-17/auditing-algorithms-research-methods-detecting-discrimination-internet-platforms.

[20]辛巧巧.算法解釋權質疑[J].求是學刊,2021(3):100-109.

[21]陳瑩.算法新聞分發平臺對新聞業態的影響[J].傳媒,2021(17):50-52.

[22]毛湛文,孫曌聞.從“算法神話”到“算法調節”:新聞透明性原則在算法分發平臺的實踐限度研究[J].國際新聞界,2020(7):6-25.

[23]吳靜,陳堂發.新聞透明性:內涵、邏輯與價值反思[J].新聞大學,2021(4):28-41,120.

[24]KARLSSONM.Ritualsoftransparency[J].JournalismStudies,2010,11(4):535-545.

[25]王仕勇,樊文波.向善向上:基于良性互動的算法新聞治理倫理研究[J].重慶大學學報(社會科學版),2021(2):225-236.

[26]張超.“后臺”前置:新聞透明性的興起、爭議及其“適度”標準[J].國際新聞界,2020(8):88-109.

[27]吳璟薇,許若文.基因編輯與后人類時代的科學倫理:專訪哲學家羅西·布拉伊多蒂[J].國際新聞界,2019(4):49-67.

[28]陳洪兵.論技術中立行為的犯罪邊界[J].南通大學學報(社會科學版),2019(1):58-65.

[29]張愛軍,李圓.人工智能時代的算法權力:邏輯、風險及規制[J].河海大學學報(哲學社會科學版),2019(6):18-24,109.

[30]劉海明.媒體算法的價值糾纏與倫理誤區[J].湖南師范大學社會科學學報,2019(1):32-41.

[31]郭忠.德法合治探源:從社會共同體與人性的角度切入[J/OL].重慶大學學報(社會科學版):1-13[2021-10-12].https://kns.cnki.net/kcms/detail/detail.aspx?dbcode=CAPJ&dbname=CAPJLAST&filename=CDSK20210728001&uniplatform=NZKPT&v=tq_pSMDZi_-pDhDHwd49oKRCfuqpkwAnQo5xNhfR-iaD5e50QU88Mt0YMqC6-sO9.

[32]丁曉東.論算法的法律規制[J].中國社會科學,2020(12):138-159,203.

[33]EDWARDSL,VEALEM.Slavetothealgorithm?Whya“righttoanexplanation”isprobablynottheremedyyouarelookingfor[J].DukeLawandTechnologyReview,2017,16:18-84.

[34]張凌寒.風險防范下算法的監管路徑研究[J].交大法學,2018(4):49-62.

[35]鄭智航.數字資本運作邏輯下的數據權利保護[J].求是學刊,2021(4):113-126.

[36]蔡星月.算法決策權的異化及其矯正[J].政法論壇,2021(5):25-37.

[37]WINGJM.Computationalthinking[J].CommunicationsoftheACM,2006,49(3):33-35.

[38]陳贊安,李寧宇,尹以晴,等.從算法到參與構建計算模型:人機協同視域下計算思維的內涵演進與能力結構[J].遠程教育雜志,2021(4):34-41.

[39]匡文波.對個性化算法推薦技術的倫理反思[J].上海師范大學學報(哲學社會科學版),2021(5):14-23.

[40]張旺.倫理結構化:算法風險治理的邏輯與路徑[J].湖湘論壇,2021(2):121-128.

Ethicalriskandlegalregulationofalgorithmrecommendationnews

fromtheperspectiveoftechnologicaluncertainty

HUJin

(SchoolofJournalismandCommunication,ChongqingNormalUniversity,Chongqing401331,P.R.China)

Abstract:

Therapiditerationofinformationtechnology,suchasbigdata,artificialintelligenceandalgorithmrecommendationtechnology,haspromotedthedigitaltransformationoftraditionalsociety,andtraditionaljournalismisalsocarryingoutdigitaltransformationandupgrading.Inthiscontext,astheoverloadofnewsinformationcontinuestointensify,algorithmrecommendationnewsderivedfrombigdatahasrisenrapidly.Algorithmtrust,datadominance,andthedigitizationofnewsmediaobjectivelylaythefoundationfortheapplicationanddevelopmentofalgorithmrecommendationnews.Undoubtedly,algorithmrecommendationnewsisofgreatsignificanceforrealizingtheaccuratedistributionofnewsandenhancingthestickinessofnewsaudiences.Intelligent,instantaneousalgorithmrecommendationnewshastheadvantagesofaccuracy,efficiency,andindividualization,butatthesametime,asacomplexanduncertaintechnology,algorithmbringsmulti-level,multi-link,multi-fieldriskchallengesandinstitutionalconstraints.Algorithmrecommendationnewshasalsocausedvariousethicalriskssuchas“algorithmblackbox”“algorithmdeviation”“technicalhegemony”“responsibilitygap”and“informationleakage”.Atpresent,theacademiccirclesareobviouslyinsufficientinresearchandjudgmentonwhetherthealgorithmrecommendationtechnologyitselfisreallymature,andontheethicalcrisisthatmaybecausedbyalgorithmrecommendationnews.Inthisregard,thethreedimensionsofthetheoryoftechnologicaluncertainty,includingtechnologicaluncertainty,technologicalcognitiveuncertainty,andtechnologicalinstitutionaluncertainty,canprovideanappropriateanalysisframeworkfortheethicalrisksofalgorithmrecommendationnews.Fromthisframework,therootcausesoftheethicalriskofalgorithmrecommendationnewscanbeclarified,whichcanbesummarizedasmathwashingandmainbodydispelinthedimensionoftechnologicaluncertainty,thelackofabilityandbottomlinelossinthedimensionoftechnologicalcognitiveuncertainty,andtheimperfectionoflegalnormsandethicalsysteminthedimensionoftechnologicalinstitutionaluncertainty.Specifically,asanemergingtechnology,theexistingethicalformsandlegalnormsaregraduallyunabletoeffectivelyregulatetheethicalriskofalgorithmrecommendationnews,anditisurgenttoestablishaprofessionalandinstitutionalizedregulatorysystemofethicalriskofalgorithmrecommendationnews.Whatkindofprinciplesshouldbefollowedinthelegalregulationofethicalriskofalgorithmrecommendationnewsistheprerequisiteanddirectionalissuefortheconstructionoftheregulatorypath.Theanalysisbelievesthatthelegalregulationoftheethicalriskofalgorithmrecommendationnewsundertechnologicaluncertaintyneedstoadheretotheprincipleofnewstransparency,valueneutrality,andruleoflawwithvirtue.Ofcourse,withthecontinuousevolutionofalgorithmrecommendationtechnology,cloudcomputingandotheremergingtechnologies,newstransparencyprinciplealsoneedtokeeppacewiththetimesandeffectivelyregulatetheemergingethicalrisksofalgorithmrecommendationnews.Newspractitionersandalgorithmrecommendednewsdistributionplatformsmustadheretotheprincipleofvalueneutralitytostrengthenthesubjectivityof“people”inalgorithmrecommendationnews.Andundertheguidanceoftheprincipleofruleoflawwithvirtue,thelegalregulationparadigmofalgorithmrecommendationnewsethicalriskshouldbeclarified.Proceedingfromtheaboveprinciples,thelegalregulationofalgorithmrecommendationnewsethicalrisksshouldtargetatdifferenttypesofethicalrisks,thatis,tostrengthentheprotectionofalgorithmdisclosureandalgorithminterpretationrights,datarights,etc.,inthedimensionoftechnologicaluncertainty,topromotethecultivationofcomputationalthinkingandethicalconstraintsofnewspractitionersinthedimensionoftechnologicalcognitionuncertainty,andtoadoptregulatorymeasuressuchasethicalstructuringandlegalaccountabilityinthedimensionoftechnologicalinstitutionaluncertainty.

Keywords:algorithmrecommendationnews;technologicaluncertainty;ethicalriskofjournalism;reconstructionofthelegalregulationsystemofjournalism

(責任編輯袁虹)

主站蜘蛛池模板: 日韩a在线观看免费观看| 国产主播喷水| 欧美亚洲第一页| 国产亚洲精| 无码一区中文字幕| 在线视频一区二区三区不卡| 亚州AV秘 一区二区三区| 亚洲美女操| 成人在线观看一区| 国产精品部在线观看| 国产九九精品视频| 日韩在线播放中文字幕| 国产福利一区二区在线观看| 亚洲成人黄色在线观看| 亚洲男人的天堂在线| 亚洲欧美另类中文字幕| 欧美高清三区| 精品国产www| 亚洲欧洲日韩久久狠狠爱| 综合色在线| 国产美女免费| 538国产视频| 激情五月婷婷综合网| 欧美中文字幕在线二区| …亚洲 欧洲 另类 春色| 亚洲高清国产拍精品26u| 成年人福利视频| 手机在线看片不卡中文字幕| 特级精品毛片免费观看| 欧美日本在线观看| 亚洲人妖在线| av在线手机播放| 国产无码网站在线观看| 免费无码AV片在线观看国产| 欧美精品成人一区二区视频一| 浮力影院国产第一页| 免费在线不卡视频| 国产精品亚洲专区一区| 精品一区二区三区波多野结衣| 欧美精品啪啪| 国产h视频在线观看视频| 国产精品区视频中文字幕| 亚洲区第一页| 亚洲无线观看| 亚洲精品男人天堂| 亚洲女同欧美在线| 高清不卡毛片| 欧美成人看片一区二区三区 | 99精品热视频这里只有精品7| 国产在线八区| 伊在人亚洲香蕉精品播放| 污视频日本| 凹凸国产分类在线观看| 久久毛片网| 日韩无码一二三区| 久久免费观看视频| 精品一区二区三区四区五区| 国产免费怡红院视频| 久久国产乱子| 欧美中文字幕一区| 欧美亚洲日韩中文| 97超碰精品成人国产| 欧美黄网在线| 激情六月丁香婷婷四房播| 久久这里只有精品23| 最新国产午夜精品视频成人| 一区二区无码在线视频| 国产精品亚洲精品爽爽| 巨熟乳波霸若妻中文观看免费| 亚洲一道AV无码午夜福利| 国产国拍精品视频免费看| 五月丁香在线视频| 国产网站免费观看| 国产毛片高清一级国语| 青青青国产视频手机| 伊人蕉久影院| 欧美啪啪一区| 国产激情影院| 亚洲AV无码乱码在线观看裸奔| 四虎永久免费网站| 天天综合网在线| 中文字幕人成乱码熟女免费|