孫海榮 趙志豪
大數據時代新聞聚合平臺的發展更多基于Python語言的“網絡爬蟲”技術。網絡爬蟲是一種用來自動瀏覽萬維網的網絡機器人,其使用針對性的方法對所需數據進行高效的抓取,如面對動態加載的網頁,使用模擬發送請求或使用Selenium模擬用戶操作的方法抓取數據。[1]但為新聞聚合平臺提供“數據抓取”“數值分析”“算法推薦”的數字爬蟲技術的同時也帶來了一系列智能倫理危機。表面的客觀數據背后隱藏著偏見和歧視、精準的智能推送背后隱藏著對公民隱私權和信息自由權的侵犯、大數據優化的背后隱藏著數據利益的驅使和人文關懷的缺失等[2],為用戶、社會以及新聞專業主義生態環境造成了一定的影響。本文將就數字爬蟲技術的使用為切入點,就數字爬蟲技術對新聞業的賦能與負能進行具體闡述,并分別從法律、科技、平臺、機器行為學角度綜合提出治理路徑以針對新聞聚合平臺數字爬蟲技術所帶來的智能倫理危機。
法國哲學家貝爾納·斯蒂格勒所言“人的發明”蘊含兩層含義:一是說人發明了技術,二是說人是“被”發明的。[3]這里將人與技術規定為主體-客體之間的關系,突出了技術在人與技術之間的重要地位。從技術賦能角度來看,技術是一種“人之為人”思維下的實踐產物,在這一關系中,人是與技術不可分離、相互規定的技術存在物。人在發明創造技術的同時,技術實踐也在“創造”人,這就是客體改造與主體改造的相互統一。賈開等學者(2021)[4]從機器行為學視角出發將爬蟲技術視為嵌入社會環境并具有主體性的行動者,爬蟲技術作為行為主體與環境進行主動交互,以社會環境中“人”的形態實現主體賦予其的動機并反過來促進技術實踐與適應環境本身。
數字爬蟲技術對新聞產業的生產工藝流程的優化升級不僅在于對于微操細節的革新,關鍵在于對新聞產業生產工藝理論的升級。以前端、終端、后臺操作流程為例,前端通過網頁抓取、版權媒體、聚合平臺孵化三個流程將產出內容進行查重、機器審核后發送至后臺。后臺通過人工審核進行安全性審核與話題流量入口多寡后由內容運營進行對接,如原創欄目、資源開發。后臺通過算法推薦進行內容分發,將用戶自選擇的頻道置頂進行干預、編輯置頂精選內容。
但技術實踐并非是完全積極正面的,技術實踐所引發的倫理問題通常表現為技術發明或社會應用問題,但其背后隱藏的則是倫理問題。韋伯區分“信念倫理”與“責任倫理”,強調技術實踐的責任倫理優先。技術實踐首先要對技術行動后果負責,這是“責任倫理”優先原則。從技術負能角度出發,由爬蟲技術所引發的倫理問題單從外部規制無法將其即將出現的技術風險一并概括,此刻用以應對一切技術風險及技術代價的“信念倫理”與事后承責的“責任倫理”處于同等地位。并且技術與倫理道德的關系上,倫理道德并非是超越時空占據絕對統治地位的,技術帶給倫理更多的是“挑戰”而非“請教”。
數字爬蟲技術給新聞聚合平臺所帶來的倫理問題不僅對用戶本身造成了侵犯,同時也對整個新聞業的專業精神與專業理念進行了重構。從新聞聚合平臺的用戶角度出發,隱私侵犯、信息自決權受限以及信息繭房等問題體現了數字爬蟲技術對用戶個人的技術掌控,用戶個人新聞獲取處于技術牢籠之中。而在新聞業的專業精神與專業理念方面,技術與內容之間的矛盾、新聞價值理念潛規則、行業產權糾紛等涉及新聞專業主義精神的倫理問題層出不窮。
根據艾媒網發布的中國新聞客戶端用戶規模統計數據,2021年中國新聞客戶端用戶約為9.23億人次。諸如“今日頭條”“一點資訊”“谷歌新聞”等深度新聞聚合平臺所采用的爬蟲技術結合新聞聚合平臺內部的其他算法可以為數字新聞的“采、編、發”傳統流程帶來系統化的升級。而這種技術賦能也確實為用戶帶來了全新體驗,使新聞獲取以及新聞產出變得更加便捷與高效。
新聞聚合平臺依托數字爬蟲技術的數據抓取以及中文切詞技術可以使使用者在短時間內獲得海量文章的有關數據,對其進行快速統計處理。而在人工智能的加持下,根據已有的參數變量在整個互聯網平臺進行快速采集,大大拓展了新聞渠道來源,能夠在新聞發生的第一時間“快、準、狠”地精準推送。這極大地降低了新聞工作者的勞動強度,同時也使得新聞聚合平臺牢牢抓住用戶群體,用戶群體在整個環節中不僅是內容產出者,同時也是內容的傳播擴散者,更是維持新聞聚合平臺收益的核心群體。
利用“爬蟲技術+算法”進行新聞寫作可以為新聞聚合平臺實現每日發布數以萬計的海量新聞稿件,但不同的新聞內容具有其不同風格的要求、特色、格式和范式,新聞編寫是如何實現這一精準化分配呢?可以利用爬蟲技術進行參數設置,將已知統計過的各類高閱讀量標簽化文本融入智能編輯中,幫助作者設置標準化標題,從而規避不當標題和“標題黨”的誕生,幫助記者更好的查漏補缺。另外,爬蟲技術通過爬取不同樣本的行文結構特點,使得新聞產品可以契合各渠道的傳播方式,呈現新媒體、全媒體時代的新聞稿件篇章規則,幫助新聞更大范圍的傳播。寫作方面通過“人工+算法”相結合的方式,智能機器人根據算法設置的參數進行文章初稿的生成與擬定,后續由內容編輯進行內容審核及安全性審核,按不同自媒體成文方式進行修改。但應值得注意的是“爬蟲技術+算法”所產出的智能編輯并不能完全替代人工編輯,主要原因是算法在與環境的互動當中會不斷自我進化,而這種進化多是依據已有的參數目標進行,很容易在非主觀的情況下產生新聞倫理失范行為,即算法歧視、缺乏人文關懷精神的新聞稿件。所以,當下智能寫作機器人還是較多應用于地震災難新聞和財經數據新聞,而面對社會民生類新聞當下仍然是以智能寫作機器人輔助人工編輯為主。
傳統的新聞審核容易出現新聞來源審查難(非官方的新聞來源真假難以辨別)、新聞稿件數量大、人工成本較高、人工審核偏見(個人閱歷及價值觀的不同)等問題,導致傳統的新聞審核時長滯后于新聞發布。審核周期過長影響新聞發布的及時性,長此以往也會削弱傳統媒體的行業地位,導致其賴以生存的訂閱量逐步下降。在當前大數據時代“爬蟲技術+算法”所形成的智能把關模式為新聞審核階段保駕護航,“內容庫”和“表現形式”的審核機制可以高效率地篩選、攔截、撤回內容有偏差的新聞稿件。新聞聚合平臺均有其專屬的“內容庫”,在具體的新聞審核過程中,以內容庫內的主體、關鍵詞、關鍵數據等為主要依據,對待審查的新聞稿件相關內容自動標紅,將不符合內容規范的新聞稿件撤回并重新發至發稿人處,提醒其問題所在并推薦重新編輯后再度上傳。而針對“表現形式”進行新聞審核,主要在于判斷新聞稿件內的照片、視頻、H5、超鏈接等是否符合其所投稿的新聞版塊及是否符合其新聞主題,若內容違規或不符主題則同樣撤回。智能把關模式也會實時審核已發布稿件,針對違規的已發布稿件進行自動撤回,保障新聞內容的合法性和新聞聚合平臺的核心競爭力。
算法推薦新聞即利用“Python+算法工具”分析使用者個人用戶畫像從而將適配于各個用戶的不同新聞內容進行精準分發,也可以理解為利用算法工具滿足不同用戶的個性化需求。算法推薦新聞這種新聞分發方式,極大地解放勞動力,使得新聞工作者可以專注于新聞生產的更多方面。算法推薦新聞的核心工具即爬蟲技術,該技術通過模擬人類行為,批量分析和處理大規模的新聞內容數據?!敖袢疹^條”新聞聚合平臺作為國內較為成熟的算法推薦新聞使用者,首先以爬蟲技術在互聯網中大量收集、分析數據,并以貼標簽的形式將不同類型的新聞內容進行打包分類。隨后跟蹤用戶的平臺使用習慣如頁面停留時間、喜好領域、當前定位所在地等信息對用戶形成一個基本的用戶畫像,將分類編排好的新聞內容包按照用戶的個人畫像進行個性化分發,滿足用戶需求。而其中較為隱私的信息如地點、性別、收入、學歷等個人身份特征信息通常平臺在收集時會對用戶進行事先詢問,征求同意與否。
技術倫理,即對技術行為進行倫理導向,通過倫理干預,使技術活動在科技視角之外,更要考慮技術的目標、手段及其后果的正當性。以反爬蟲技術為例,針對過度數據挖掘或可能暴露用戶隱私數據的行為,編輯算法對爬取行為進行反制,將數據挖取保持在一個合理的界限之內。
諸如“今日頭條”“一點資訊”“財新APP”等多種不同類型的新聞聚合平臺,通過定位推送同城信息、根據個人喜好進行個性化推送、用戶自選興趣領域等人性化功能,為人們的生活帶來了便利。但因新聞聚合平臺技術濫用所導致的問題層出不窮,不論是破壞行業格局還是捆綁脅迫收集用戶隱私,此類問題不僅涉及技術越界,更產生了法律糾紛。本文通過定性研究方式對數字爬蟲技術所導致的事件現象、社會行為及倫理問題進行分析。
在數字經濟時代,數據的互聯、共享不僅給平臺競爭賦入新的競爭優勢,以此進化出的新競爭優勢更加便利于用戶的日常使用。而各個互聯網平臺之間的數據抓取主要依賴于算法的核心工具,即爬蟲技術。
但爬蟲技術的不正當使用也帶來一系列違背行業規則更甚觸碰法律的行為?;ヂ摼W平臺內有大量由用戶自主上傳生成的數據內容,盡管“UGC”內容權屬存在爭議[5],但肆意抓取不但消耗個人用戶的創作熱情,并且對其他競品平臺在行業內的地位也產生影響。通過抓取競品平臺公開、免費的數據資源從而鞏固自身利益,逐步替代原平臺在行業中的競爭優勢,在行業中形成壟斷,這種“搭便車”的行為無疑破壞了行業生態,對其他平臺產生不正當競爭。如此前深圳市中級人民法院審理的“酷米客”訴“車來了”案,“車來了”平臺通過爬取“酷米客”平臺上的公共交通數據資源轉為己用,是一種典型的搭便車行為,“酷米客”所投入的時間、人工、經濟成本無法得到補償。需要注意的是,兩家平臺同擁有為用戶提供當前公共交通定位實時查詢的功能,“車來了”的不正當競爭行為損害了“酷米客”的商業利益,理應做出相應的賠償。
需要注意的是,當爬取到其他平臺內部尚未公開或已署名“獨家發布”的數據時,會進一步產生產權糾紛,而不僅僅是不正當競爭的問題。并且“Python+算法”生成的智能機器人根據互聯網資源所創作的新聞產品是否具有原創著作權?當智能機器人所創作的新聞產品被他人盜用時是否觸犯了智能機器人的著作權?又或當其他平臺的智能機器人剽竊了同競品平臺的智能機器人作品時該如何定義此類案件的侵權行為?這些問題也亟待解決。
信息時代下的信息差決定著經濟差,而算法推薦新聞在無形中限制人的視野的同時也在鞏固著社會階級關系,精英階層與社會底層可以接收到的信息在數字時代不但沒有縮小彼此之間的數字鴻溝,反而加大了兩個階層之間的差距。以新聞聚合平臺為例,當用戶打開新聞聚合平臺時,第一眼在首頁中所看到的即是與自己興趣相關或者當前定位相關的新聞內容,這種內容選擇性呈現方式表面看似幫助用戶節省時間且內容種類多樣,但實際上用戶所接受到的由算法推薦的新聞多是算法通過識別用戶畫像進而將分類打包好的新聞內容投送至用戶處。這種默默無聞的新聞推送方式表面看似便捷多元化,但實際逐漸限制了用戶視野。大多數用戶都會遭遇到一類情形,即在某新聞平臺長期使用后,其用戶特征已被平臺算法進行精準定位很難在除了自身主動搜索訊息以外的情況下獲得不同層面的新聞內容。而想要修改已生成的用戶畫像已十分困難,在面對已不感興趣卻頻繁接受推送的新聞內容時,用戶難免產生放棄平臺或麻木的心態。
產生此類現象的主要原因在于,精英階層有著足夠的經濟儲備量和廣泛的社交范圍,其群體不需要僅僅通過社交媒體或新聞聚合平臺來獲取最新的信息。算法推薦可以限制其網絡上的視野,但在實際生活當中精英階層有著更多的信息來源渠道,以及足夠的金錢去支撐他們接觸新的視野和培養新的愛好。但針對于底層人民而言,缺乏時間、金錢與高壓力是此類人群的主要特征,該群體的日常消磨時間方式多放在了社交媒體或新聞聚合平臺上。但隨著算法與環境不斷互動形成其個人用戶畫像后,該類群體僅剩的拓展知識層面與個人視野的渠道也被限制。這樣的算法控制會逐漸拉大精英階層與底層之間的知識鴻溝與經濟差,無法實現階級越遷的底層人民會被固化在自己所固有的社會地位里,久而久之這種情形對社會結構的穩定會產生一定的影響。
基于爬蟲技術算法“黑箱”的存在,用戶隱私侵犯問題使用戶感到焦慮。[6]算法“黑箱”是指算法內部運行機制過于復雜,以至于算法推薦新聞過程能夠使用算法卻無法具體了解算法編程的內容和結構的現象。[7]算法黑箱的實時監控下,用戶個人如同“衣不遮體”般暴露在互聯網平臺面前,導致用戶雖知算法監控的存在但卻又無可奈何。
很多新聞聚合平臺利用自身功能的必需性來對使用者隱私進行捆綁威脅,若使用者未同意平臺所給予的條款則會被限制使用其產品的部分功能。這種算法權利的越位對使用者產生了很大的影響,大多使用者并不是不愿意公布自身的隱私,而是害怕隱私上交之后能否被合理保護以及被索取隱私的目的是為何,這些問題都是需要算法權利的掌控者所需要回答的。2021年5月,國家網信辦曾通報百度等105款APP侵犯用戶個人隱私的現象。這些APP均存在未經用戶同意收集使用個人信息以及未按法律更正個人信息等問題,搜狗輸入法、訊飛輸入法、QQ輸入法等市場份額較高的輸入法也包含在內,可見問題之普遍。
在當前智能技術時代,技術人員以技術開發者、平臺運營者等身份由幕后走上了臺前,承責主體劃分標準主要以與算法倫理問題之間的關系密切程度進行劃分。技術開發者作為算法的創造者理應成為承責主體之一,平臺運營者通常承擔算法目的規劃師的職責也被包含于承責主體之一,平臺本身作為算法最大的受益方則也作為承責主體之一。將技術開發者、平臺運營者、平臺本身作為承責主體同樣囊括于新聞傳播倫理規范中,這對新聞倫理失范問題進行責任主體問責產生了一定的阻礙,究其原因在于難以判斷失責主體是否主觀所為。在傳統的新聞傳播活動中,“采、編、發”新聞生產流程多是以人工為主、機器為輔的方式進行。當某一環節出現問題時,便可以按照內部管理機制進行主要責任人的問責,整體流程清晰而迅速。但在當下智能時代,由算法產生的新聞倫理問題通常會以兩種形式出現,即主觀與非主觀。
算法產生倫理問題時,主觀情況下則多與算法開發的技術人員有關。其中涉及技術人員的新聞道德、個人主觀、經濟效益等多種因素。但如何判定算法主觀失誤是一個沒有界限的問題,因為在當前的“弱智能”時代,算法多是作為一種工具而非獨立個體,即算法只具備與環境之間的互動進化而不具備自我意識,所以算法的純主觀失誤很難出現。
而當算法出現非主觀失誤時,其問責對象則變得比較模糊。首先,算法由技術人員開發而成,而這之中必然包含了算法開發人員自身不可避免的立場與偏見,在算法的不斷使用過程中這種偏見會以“技術中立”的形象推送至用戶面前。其次,互聯網平臺同樣也具有其經營目標,這一目標同樣會施壓于技術開發人員從而成為算法的一部分。所以在具體承責方面具有主體模糊以及主次不分的問題。
現有的法律框架難以對此類新聞倫理失范問題進行責任主體問責。主要原因在于:第一,在技術合理使用制度條件下,哪種技術的使用是符合超規格使用例外的,而且如何判定算法的主觀與非主觀失誤;第二,技術開發人員缺乏一定的新聞倫理常識,多是按照平臺所給予的規定進行算法設計。而平臺也有自身生存下去的經營目標,法律適用時在平臺生存與新聞倫理尊嚴之間難以抉擇,所以針對智能新聞倫理案件時的責任主體定責相對模糊。
新聞聚合平臺的技術濫用產生的技術倫理危機對行業生態、新聞倫理、傳媒結構等形成了一系列負能影響,為應對此趨勢理探討一種有效的治理路徑。從技術倫理的控制目標來說,技術倫理并非要限制技術的發展,而是要使作為人類行為產物的技術活動,在人類社會倫理范疇內運行。為此,盛國榮(2010)[8]提出,對技術倫理的控制必須充分考慮以下幾個命題:一是科技方法可能改變了人類的環境以及傳統倫理觀念在世界中的適用性,這種適用性需要技術倫理的跟蹤;二是涉及人們對技術破壞倫理的思考路徑問題;三是涉及人們對自然的倫理關系的認識問題;四是涉及人們的新倫理建構問題,即新的倫理產生之后如何建立起一套新的倫理原則和標準。理應從不同角度出發思考對技術倫理的控制,在原有的倫理結構基礎上進行破局再建構,新聞聚合平臺所產生的智能倫理問題不僅要從現有的法律、人文角度出發,也要主動探索新的技術治理路徑和治理理念,平衡現有主體與新入主體之間的利益流動,從而推動新聞聚合平臺的健康發展。
當前,我國針對新聞出版者保護以及應對新聞聚合平臺民事糾紛所采用的法律框架為《著作權法》和《不正當競爭法》,但二者之間的缺陷也極其明顯。2018年歐盟正式通過《數字化單一市場版權指令》法案,該法案中最具爭議性的一點即在于互聯網平臺通過以摘要或鏈接的形式轉載其他媒體平臺的內容時需不需要支付一定的費用。這對于探討我國新聞出版者鄰接權問題具有很大的啟示作用。
在新聞聚合平臺民事糾紛案件中,爬蟲技術所涉及的新聞作品與新聞出版者數量繁多,眾多被侵權方需一一佐證其對作品享有著作權,這使維權方的維權成本陡然升高,維權方成為了被“為難”的一方。結合我國國情創建新聞出版者鄰接權主要要義在于加強新聞著作權的內容保護,保障新聞出版者的合法權利,以維護新聞專業權威??蓪⑿侣劤霭嬲哙徑訖嘟忉尀椤氨Wo新聞出版者的腦力勞動,新聞作品蘊含了新聞出版者的人工成本、時間成本,如果被他人免費使用則會降低新聞出版者的生產積極性,不利于新聞領域的發展”(辜凌云2019)。這一權利在當前智能時代適用,可以為那些不具備“獨創性”的作品提供有力保障,保護新聞出版者的合法知識勞動。
《不正當競爭法》則是一種兜底性的法律保護措施,具有事后調整、個案調整以及證明責任較重的缺點。具體體現在信息平臺之間的“搭便車”行為,如一些網站在不經允許的情況下擅自將其他信息平臺的數據進行數字化處理推送給自家網站的用戶?;蛞浴百N摘要”“掛鏈接”的形式表面指明數據的從屬方,但實際所摘取的信息已滿足自身網站用戶需求而導致數據從屬方丟失大量點擊率、廣告商以及用戶量,造成行業之間的不正當競爭。而新聞出版鄰接權可以有效防止新聞聚合平臺的肆意“搭便車”行為,法令中對“鏈接行為”有著明確的要求,即使用鏈接方需獲得被鏈接方的許可并支付一定的費用,使得新聞工作者的知識產品獲得了有效保障,避免傳統媒體行業淪為互聯網平臺內容制造機的尷尬局面。同時也為傳統媒體行業提供新的生存路徑,即發展高質量的新聞內容作品,形成內容為王的核心品牌價值,實現內容變現。
當前我們仍處于“弱人工智能時代”,算法的智能化水平比較有限,但算法作為一個擁有極大發展潛力的新興技術,其對人類產生愈發強烈的影響,無疑是一種時代趨勢。在對算法技術的規制中,多元主體的協同并進是必不可少的?!秶鴦赵宏P于印發新一代人工智能發展規劃的通知》提出,要建立健全公開透明的人工智能監督管理體系,實現對智能算法的全過程監管。尤其是算法開發平臺作為算法技術的主體擁有者,其在算法技術治理環節中占有絕對地位,而平臺在此環節中所要履行的則是其技術職責。從技術緯度出發,以算法監督算法是一種有效應對算法倫理問題的解決辦法。[9]
首先,建立健全算法風險預防機制[10],即技術開發人員通過設定具備治理算法功能的算法機制實時監控日常平臺系統的運行。當算法運行出現失誤時由系統自動進行矯正,將算法恢復初識默認值進行重新循環。其次,算法開發人員可以將自己的源代碼進行開源式設計,邀請代表用戶參與整體算法的設計,這樣既能滿足大部分使用者需求,也可令算法開發過程透明、公開,使使用者了解算法開發的意圖、用法。最后,可以采用智能芯片植入的方式令智能機器人獲得相關的新聞倫理與底線思維,雖然智能新聞倫理失范并非硬性法則便可治理一切問題,但通過智能芯片的植入可以對大部分新聞聚合平臺侵權糾紛進行預防,當智能識別此行為可能違反芯片內所包含的硬性規則,算法則會進行自我矯正。
“機器行為學”中的“機器”并不單單指工廠內部的生產設備亦或是具有實體形態的生產機器,其所指的是所有具有工具屬性的人造物或人造物構成的人工現象。算法在當前智能時代作為一種人造工具,其具有與實體環境之間不斷交互進化的屬性,這種被環境改變的屬性則被稱為“權變性”。而算法不會完全融合于“權變性”的必然性,所以將算法看作機器的角度進行行為分析有利于囊括盡可能多的風險因素,對當前的算法治理原則進行修改。
當前算法風險治理缺乏一種整體的理論框架為指導,不能針對算法各個風險因素產生很好的關聯性從而建構風險治理框架。從機器行為學的角度理解算法可以從觸發、開發、功能和進化四個角度入手,以一個算法生命周期為基準構建新的算法治理理論框架。從觸發、開發、功能和進化等不同環節入手,分析每一環節中風險因素的關聯性,可以為風險治理框架提供依據,更多角度的為算法治理制度創新提供可能。
過去傳統算法治理策略中多將“算法”看作為單獨的技術個體而拎出來單獨研究,形成了“頭痛醫頭,腳痛醫腳”的片面監管方式。而機器行為學則更多從“技術-環境”“技術-個體”的視角進行問題研究,更加方便針對算法自身進化而導致的一系列倫理問題。如算法推薦引擎在給用戶推薦新聞的同時,也在通過篩選點擊率、頁面停留時間等客觀指標不斷優化操作指令。當人們在搜索“白人”時所關聯的內容較為中性,而在搜索“黑人”時則會更多與犯罪有所關聯。這并非算法本身技術設定的算法歧視,而是在與環境的交互中衍生出來的。所以算法治理的范疇應進一步擴大,以更全面地囊括可能發生治理風險的因素。
總的來說,若從“機器行為學”角度出發探討算法治理框架,前者是從算法生命周期著手,從觸發、開發、功能、進化四個議題展開;而后者則更多從“算法-群體”“算法-環境”等人機混合層面。基于此框架我們既可以對當前眾多的算法治理原則或規范進行評估以明確其遺漏所在,同時也可以對不同利益相關體的不同偏好作出對應分析,以更好理解各方的優勢與不足。
當前所存在的一個問題是,企業內部承責制度不明晰,未能很好地將法律制度、技術治理、行業規范融合進企業內部條例,使得平臺治理方在處理企業內部出現的智能倫理問題時所采用的方式較為滯后。
2021年9月15日,國家互聯網信息辦公室發布《關于進一步壓實網站平臺信息內容主體責任的意見》,旨在充分發揮網站平臺信息內容管理第一責任人作用,引導推動網站平臺準確把握主體責任。新聞聚合平臺應將外部規制與內部規制雙結合,以政策、法律、行規作為外因,以效益、價值觀作為內因對整體企業承責制度進行嚴格化重建。
具體可以體現:首先,建立由層級逐漸向下延伸的懲罰辦法,通過層級管理的方式進行命令下達與審核,從源頭杜絕可能產生新聞倫理問題的一切風險,并將法律制度與公司條例相結合,涉及法律底線的行為將會直接移送司法處理;其次,由部門審核指定既具有新聞專業知識又具備技術開發的人員來進行關前和關后的審核工作,做到以技術治理技術。內部規則將代碼問題與員工個人效益直接掛鉤,既可以杜絕社會效益讓位于經濟效益的問題,也在一定程度上實現了企業內部的自控能力與社會責任承擔功能。
技術本身無所謂對錯,主要在于技術的使用者以及技術的使用程度。在當前的“技術大航?!睍r代,互聯網平臺已經成為信息社會的重要基礎設施,并逐步滲透到現行的社會運行與制度制定中。作為網民獲取信息的社會公器,新聞聚合平臺理應承擔起應有的社會責任,形成自身中立、獨立、高質、高效的品牌價值。但隨著資本的注入與技術的濫用,新聞聚合平臺逐漸模糊自身定位,在社會公器與私人商域之間搖擺不定。
新聞聚合平臺應時刻牢記自身“公共性”的內涵,要承擔起社會公器所應該承擔的責任,與傳統媒體相互協作,做好優質新聞作品的傳聲筒以及利用自身高效的連接性維護新聞行業的生態穩定。充分利用自身的技術優勢,做好數字新聞版權保護和優質原創內容的產出,保證優質新聞內容的流通,打破社會輿論結構的圈層化現象。開拓數字新聞新局面的同時,也理應注意到新聞聚合平臺的生存來源在于商業收益,不能過分追求其承擔社會責任而損害了新聞聚合平臺的商業利益,那么如何平衡好商業私域與價值公器成為未來需要探討的一個問題。
針對新聞聚合平臺的技術治理是一個多元主體多維度共同任務,需要平臺、法律、行政、用戶等多主體的相互協作。在未來的實際操作中,不能傳統的將技術視作為單一個體,而要從宏觀的角度將其與環境、群體聯系起來,視為一個具有生命、可自我進化的人工技術,只有在這種視野下建構的技術治理理論框架才能承擔并抵御更多可能性因素的風險。