榮紫涵 蔣小花
摘要:隨著傳播信息傳播技術的發展,算法推薦從“人找信息”,到“信息找人”,提高新聞出品的效率,同時給社會公平和公民信息自由帶來挑戰。本文通過分析算法推薦機制價值邏輯、法律倫理定位,得出算法新聞法律倫理規范方法。
關鍵詞:新聞;算法;法律
隨著信息傳播技術的發展,新聞的生產和傳播門檻降低,算法推薦悄悄地進入大眾的視野,奪走新聞媒體人的“方向盤”。算法推薦高效地提供給用戶感興趣的內容,減少了用戶搜索信息的時間成本,但在利益驅動下,平臺為了獲取用戶“注意力的經濟”,讓用戶浸泡在媒體個性化的泡沫里,公共性和有價值的內容被邊緣化,如何避免算法歧視真正實現社會公平和公民信息自由,值得大眾關注。
一、算法推薦機制價值邏輯
在信息大爆炸時代,用戶如何搜索和利用有效信息成為一個難題。在搜索的過程中,一類用戶是明確的知道自己要尋找的信息是什么,只需要輸入關鍵字詞便可在網頁中獲取信息;另一類是不知道自己要尋找的內容,只是作為一種消遣在瀏覽信息。算法推薦的出現讓第二類用戶更好地找到自己感興趣的內容,再通過他們的瀏覽記錄和使用習慣構建用戶畫像,在之后的使用中一次次地更行畫像使其變得清晰。在面對密集的信息量時,大量的無關信息包括廣告等沖擊人類的視野,大眾的注意力的耐心降低。作為平臺的專業媒體者無法將如此龐大的信息精準分發到用戶的眼里,于是只能讓機器人算法來篩選用戶愛看的內容。
算法新聞運行的技術基礎在于對大數據中新聞信息的抓取與計算分析,而大數據本身是通過匯集存儲在數據庫里的每一個數據而生成。數據庫保留的這些數據涉及每一位用戶上網信息(內容、行為習慣、偏好等),一方面這些信息為算法新聞的生產提供了基礎、為推送鎖定了目標群體,另一方面這些信息卻也隱藏著侵犯公民個人隱私的極大風險。
全球范圍內如谷歌、亞馬遜、推特、臉書,國內如百度、阿里、騰訊,這些互聯網巨頭企業擁有的不僅僅是龐大的用戶數量,背后更意味著龐大的用戶上網行為數據,以及由這些數據匯聚起來的可供算法進行分析得出更多信息的大數據。每一個用戶在使用網絡工具時貢獻著數據,也暴露著自己的個人信息。所以從表面上看算法推薦提高了新聞內容的分發效率,實現個性化匹配,但其背后的價值邏輯卻是謀取用戶“注意力經濟”的偽個性化信息推送。
二、算法推薦在倫理上兩種觀點
在我國,算法推薦新聞近年來可謂風生水起,同時似乎也成了眾矢之的。2017年9月,人民網針對算法推薦連續發表3篇評論,文章認為,當技術、代碼、算法替代了傳統內容分發過程中編輯的角色,單一的吸引眼球標準導致劣質內容泛濫,呈現一波未平,一波又起的局面。2018年4月 ,今日頭條因內容低俗被國家廣電總局責令關停“內涵段子”客戶端軟件及公眾號。以此,國內普遍存在指斥算法推薦的道德倫理的缺失的這一觀點,低俗信息,垃圾新聞、"標題黨”內容的泛濫使得公眾對算法推薦推上風口浪尖,認為是背后人為的操作,使得大眾價值觀出現偏差甚至異化。
國外研究者的看法有所不同。“算法遵循的是預先選擇的程序,而不是及時的判斷,它們圍繞的是吉萊斯所說的算法客觀性假設——算法是中立的,因為它將所有的信息數據投入到同樣的程序中……算法背后的知識邏輯從強調公眾普遍認可的重要性,轉移到基于用戶的特定屬性和搜索的個性化新聞和碎片化新聞上。算法的速度和蘊含的個性化潛質讓這類新聞生產環境蓬勃發展。”然而算法作為各平臺的商業機密也是不可告知大眾,是否有幕后利益獲取者夾帶私貨也不是不可能的。
三、算法推薦的法律倫理定位
如何規范算法推薦,取決于法律上如何定位算法推薦行為。傳統上,傳媒法領域存在著出版者與發行者的區分。兩者的區分標準在于是否對傳播的內容實施“編輯控制”。如報社、雜志社、出版社等傳統大眾媒體,從事內容生產和發布,對所發布內容實施審核、形式修改、篇幅調整,并決定是否發表,無論是首發內容或轉載其他媒體內容,在性質上均屬于出版者。而諸如書店、圖書館、報刊亭,雖以內容為產品,但它們在社會分工中承擔的角色僅僅是信息的傳遞人,法律上定性為發行者。區別兩者的意義在于法律中需要承擔的責任和義務。一般而言,出版者的注意義務相對重于發行者。算法推薦背后的設計師作為人,具有主觀主動地去設計算法來計算用戶習慣,然而算法設計師往往是不具備規范的媒介素養,傳統的新聞把關人“把關權”直接讓位給設計師或者是算法,對于用戶是一種責任缺失,但如果把關人的參與,把關人在信息的傳播過程中更像一個出版者,編輯控制著內容的供給。所以,用新聞專業規范指導算法,算法是否還是“中立”,也就是對于再好的傳播渠道也需要“看門人”這一觀點值得討論。
在倫理上,算法把用戶興趣和新聞的匹配度作為新聞價值唯一的判斷標準并決定新聞的分發流向,忽視傳統新聞記者履行社會告知、人文關懷與輿論監督等使命的邏輯思維,媒體難有穩定受眾,不能通過持續的議題設置、輸出有價值內容打造媒體品牌,而是讓大眾成為自己的“把關人”,最終只會造成受眾的信息認知偏差,共識的丟失、價值的異化和信息封閉化。
四、算法新聞法律倫理規范方法
在數據信息過載時代,如何篩選出有價值的信息拋棄垃圾偽造的信息才是關鍵。把關人的缺失更意味著機器人算法在大量信息的處理上的確存在明顯的優勢。因此要通過健全法律監管以及加強“人”在新聞傳播中的主體性。
(一)加強法律監管
進入網絡時代以后,以美國 1998 年《千禧年數字版權法》(DMCA)為代表的立法賦予網絡服務提供者以類似于發行者的法律地位,對其同樣適用“知情負責”責任,并照顧網絡的特點而增設了“通知-刪除”程序。我國《信息網絡傳播權保護條例》基本上照搬了 DMCA 的立法模式,為互聯網接入和傳輸、系統緩存、信息存儲及信息定位四類網絡服務設立了四個責任避風港。算法推薦能否適用責任避風港規定,需要將其與上述四類網絡服務加以比較。其次必須對使用偽算法去推薦用戶獲取低俗信息或廣告內容、夾帶私貨內容進行嚴厲的懲罰。而不是簡單實施“通知刪除”程序。
(二)平臺自我管理
平臺在設計算法前,應該一個具備自己立場和品牌價值觀念,并不是簡單地判讀“用戶關注的,才是頭條”,為了獲取更多的關注去讓用戶處于自我封閉空間的狀態是不可取的。對于一些嚴肅性的新聞,應當主動讓受眾關注,達到輿情監督、防止大眾對真實事件的偏見和價值異化的功能。對于低俗信息的來源,應該嚴格把控,在選擇新聞源時就將其列入黑名單。
(三)算法推薦的透明化
盡管算法是平臺的商業機密,但仍有透明化的必要,讓用戶真正通過算法了解自己興趣所在,從而主動獲取信息,而不是單向性地把平臺認為用戶感興趣的信息塞給用戶。表明上的用戶個性化,選取屬于用戶自己定制的信息,實際上是通過代碼構建的數據模型去對其弱點進行強行植入。對于這樣的觀點,使算法透明化,對大眾、法律及倫理不失為一種選擇。
【參考文獻】
[1]劉文杰.算法推薦新聞的法律透視[J].新聞記者,2019(02).