魏露露
內容摘要:社交平臺是互聯網技術和商業模式創新的主體,同時也承擔著用戶內容規制的平臺義務與責任。合理的平臺責任制度設置需要平衡平臺商業自由與內容合規性兩種價值?;ヂ摼W內容監管既有法律和政策從構建信息安全管理制度和運用內容監管技術措施兩個方面建構了平臺的內容監管責任體系。但從促進創新的視角來看,平臺內容監管責任體系還存在著過于注重事后處罰,對事前治理制度的關注不夠等問題。無論是內容自動過濾技術的使用還是內容管理制度的構建,都應當建立在多方利益相關主體參與的基礎之上,一方面提高內容監管程序的公開透明和正當性;另一方面形成監管責任的分擔,降低社交平臺的監管成本,促進創新。
關鍵詞:社交平臺 互聯網創新 平臺責任 內容監管技術 利益主體參與機制
中圖分類號:D913文獻標識碼:A文章編號:1674-4039-(2020)01-0027-33
一、問題的引出
創新和競爭一直被認為是提高生產效率,促進社會福利和公共利益的主要手段,作為市場創新主體,網絡社交平臺在追逐自身商業利益的同時,也被認為能夠極大地增進社會和公共利益。〔1 〕但是,僅僅依靠市場激勵,社交平臺的自身商業利益并不總與法律所追求的個人權利保護和公共利益保持一致,去中心化的信息傳播模式所帶來的諸如誹謗、色情低俗、版權侵權等負外部性問題就需要法律的介入。平臺責任制度便成為法律平衡平臺商業自由與互聯網內容合法性的關鍵制度。我國現行法律設置了比較全面的平臺對用戶內容的規制責任,但是卻存在平臺責任體系與社交平臺內生商業和技術邏輯相脫節的問題,法律如果僅僅作為一種外在的、自上而下的強制而存在的話,平臺的內容管理責任便無法被完全內化在平臺的商業運營成本和實踐之中,會對平臺的商業自由造成過重的負擔,阻礙創新,平臺責任制度的有效性也會受到挑戰。筆者認為,內化平臺的內容治理責任需要法律給出正確的制度激勵,一方面要激勵市場主體對自動化內容管理技術的運用,以大大降低平臺的內容監管的成本;另一方面,法律要激勵各方利益相關主體主動參與違法內容監管的程序,以分擔網絡平臺的內容監管責任和成本,使內容監管更加公開透明。但無論是技術還是人工干預用戶內容都需要法律設置一定的監督反饋機制以確保權力不被濫用。
二、互聯網社交平臺內容規制責任的確立以及執行問題
在互聯網的誕生之初,我國政府就認識到互聯網不是法外之地,必須置于政府的規制之下。各種網絡服務提供商作為信息傳播渠道的“把關人”,處于互聯網執法的關鍵位置。但是,早期互聯網法規對網絡服務商關于用戶行為的規制責任的規定比較粗糙,法規中都會規定各種網絡服務商在發現違法信息時,“應當立即停止傳輸,保存有關記錄,并向國家機關報告”,〔2 〕由于缺少具體的執行措施規定,更像是對平臺責任的籠統宣示。直到社交媒體平臺的快速普及使人人都可以成為媒體,法規才開始細化規定平臺內容監管責任的具體履行措施。例如,2011年的《北京市微博客發展若干規定》提出微博客服務提供者應當建立“信息安全管理制度”,對傳播有害內容的用戶予以制止、限制、并及時向有關部門報告;建立“內容審核制度”,對微博信息內容的制作,復制,發布,傳播進行監管。〔3 〕 2017年國家互聯網信息辦公室通過的《互聯網新聞信息服務管理辦法》《互聯網跟帖服務管理規定》《互聯網論壇社區服務管理規定》等規范性文件,從內部管理制度建設和技術保障措施兩方面對社交平臺提供者的“主體責任”的履行做出規定。一方面,社交平臺被要求在用戶注冊、信息發布審核、跟帖評論管理、公共信息巡查、應急處置、配備與服務規模相適應的管理和編輯人員等方面建立健全信息安全管理制度,加強對用戶信息發布的人工干預能力?!? 〕另一方面,社交媒體平臺必須對用戶信息安全具備安全可控的技術保障和防范措施,技術措施將大大提高社交平臺對違規信息事前發現和處置的能力和效率,如通過過濾器對用戶跟帖評論進行“先審后發”,〔5 〕對用戶信息的自動保存和記錄為有關部門的網絡執法提供技術和資料支持?!? 〕
我國對社交平臺內容管理責任是一種行政管理責任,強調社交平臺在追求自身經濟效益的同時兼顧對社會效益和公共利益的維護,其規定也逐漸具體化并具備可操作性。但商業自由與公共效益的協調需要將平臺責任內化于市場主體的商業實踐中,使平臺責任的施加不會造成過重的負擔,阻礙創新和競爭。而從這個角度來看,我國平臺內容規制責任在執行方面還存在一些問題。
第一,平臺責任的履行監督過于注重事后處罰,對事前治理制度關注不足。盡管法律和規范性文件提及了網絡社區服務行業加強行業自律和行業準則,以及社交平臺服務接受社會監督,作為政府監管的補充。但是法律并未就如何開展行業自律和社會監督做進一步的規定。從執法實踐來看,目前平臺的內容監管責任很大程度上是通過網信辦約談平臺負責人 〔7 〕和行政執法專項行動的威懾力來保證實施的。近幾年,國家網信辦頻繁的約談未落實用戶信息監管責任的社交媒體平臺。國家“掃黃打非”辦公室也通過階段性的線上“掃黃打非”專項執法活動就淫穢色情信息、低俗內容和版權侵權問題向平臺問責。〔8 〕約談與專項執法行動均屬于事后的行政問責手段,在多大程度法律的外在彈壓能夠使內容監管責任內化在平臺的商業運營中還有待商榷,并且階段性的執法行動的有效性有幾何也值得懷疑。
第二,社交平臺的內容規制責任是一種行政責任,而與網絡服務商在“避風港”條款下享受的侵權責任豁免制度如何協調?美國《千禧年數字版權法》(CMDA)第512條確立了針對四類互聯網服務商的“避風港”條款,“避風港”條款有條件的限制了信息傳輸、系統緩存、信息托管、信息定位服務提供商的版權侵權賠償責任。隨后歐盟也確立了類似的侵權責任豁免制度?!? 〕社交平臺屬于信息托管服務提供者,原則上在“避風港”的豁免范圍之內。通過“避風港”一定程度豁免網絡服務商的內容監管責任,降低創新成本,被認為是促進早期互聯網技術和商業模式創新的重要法律激勵,是互聯網經濟得以繁榮的制度基石?!?0 〕我國雖然也引入了網絡服務商的避風港制度,但是在實踐中歐美模式的“避風港”原則并未得到充分的實施。〔11 〕首先,歐美的“避風港”條款以避免網絡服務商承擔一般內容審查義務以保護信息自由和言論自由為立法目的之一,而在我國互聯網平臺提供者承擔內容監管責任已成為一種網絡空間治理的法律和社會共識。其次,在“避風港”條款的適用條件上,我國對應然層面網絡服務提供者“應該知道”侵權事實存在的主觀狀態的強調也大大限縮了責任豁免的范圍,而在美國CMDA中則僅僅做出對“實際知道”(actual knowledge)的要求,并不追究依據平臺的商業模式是否應該知道侵權事實存在。再次,“避風港”從來不是絕對的。即使在歐美,隨著自動化技術和互聯網法律自身的發展,超出“避風港”要求網絡服務提供者承擔更多的內容合法性責任形成一種趨勢。例如,2014年歐盟法院在Google Spain案中的思路就突顯了用戶“被遺忘權”的執行對搜索引擎的責任豁免的沖擊。而隨著自動化過濾技術的發展,網絡平臺介入用戶信息的成本被大大降低,因而要求網絡服務商承擔更多輔助個人權利實施的義務的呼聲大大增多。直到2019年4月歐盟通過了《統一數字市場版權與相關權利指令》,對于用戶發布的受版權保護的作品內容造成的侵權,內容分享服務平臺將構成“向公眾傳播”并承擔直接侵權責任,排除了內容分享服務平臺針對用戶內容侵權的“避風港”規則的適用。〔12 〕該指令意圖向內容分享平臺施加事前獲得版權及相關權利授權的義務,從而避免事后的一般內容審查,并通過要求成員國構建版權等權利的集體許可機制、〔13 〕協商機制 〔14〕來降低平臺獲得版權授權的成本。
綜上所述,“避風港”條款代表了規制邏輯遵從商業邏輯和技術邏輯的平臺責任思路,代表對互聯網服務提供商商業運營的規制寬容,但并不必然排斥規制邏輯下法律對平臺內容規制能力的合理利用,關鍵在于互聯網創新與內容合法性二者之間的價值平衡。
第三,我國對社交平臺的內容規制責任設置本身過重,缺乏能夠對多元利益進行平衡的制度和程序設計。首先,平臺責任的安排過于重視內容的合法性的執法目的,缺少對平臺商業自由的兼顧,造成社交屬性的互聯網應用較高的法律風險和運營成本,削弱其市場競爭力。根據經濟分析學派的觀點,任何正義的追求都是有成本的,正義也是多維度的,法律應當做出符合社會效益最大化的制度安排,而非不計成本的追求一種正義?!?5 〕不計成本地追求用戶內容合規性不符合社會效益最大化原則和制度的經濟理性,可能對技術創新和市場競爭產生不當的法律干預。在2016年的快播涉黃案中,被告試圖將自己定位為提供播放軟件而非視頻服務,從而利用“技術中立”原則來證明自己不存在對用戶分享內容進行監管的能力和義務,但是公訴方及法院則將快播定義為提供視頻服務,實際上遠程控制和日常維護服務器;快播設計其緩存服務器存儲視頻的條件僅以點播率為依據,造成了淫穢視頻大量緩存和更快傳播;并且由于之前行政處罰的存在快播公司對于淫穢視頻的傳播存在“明知”的故意,不適用“避風港”原則,因而認定構成了傳播淫穢物品牟利罪?!?6 〕盡管網絡上針對此案的判決爭議較大,但是從法院適用法律的邏輯來看,并不存在問題。然而,從法律對技術市場的溢出效應來看,以快播案為轉折點,失去“避風港”庇護的P2P技術由于面臨未知的高法律風險,市場競爭力越來越弱,逐漸小眾,而技術架構的變革隨之帶來了視聽內容產消模式的變遷,最直觀的變化體現在隨著數字版權執法力度的增加,我國線上視頻消費市場開始被以擁有大量內容版權的視頻平臺(如騰訊視頻、愛奇藝、優酷等)所取代,在P2P社交模式下用戶產消內容的格局被改變。視頻消費社交屬性的減弱一方面會帶來內容執法難度的降低,有利于內容合法性的提高;但另一方面,無論是從技術創新還是內容生產來看,過度的數字版權執法會造成過于強大的產權話語對技術創新市場的版權壁壘,〔17 〕而用戶產消內容市場的縮水可能會削弱互聯網基于社交的內容創新基因,從長期的用戶福利和社會效益的角度來看并不一定是最優的制度安排。用戶表達自由、平臺市場的自由競爭秩序都應當是平臺責任制度設計所需考慮的價值訴求。最新的歐盟《統一數字市場版權與相關權利指令》即豁免了進入市場不足三年,年營業額少于一千萬歐元的內容分享平臺事前獲取權利許可的義務,對其繼續適用“避風港”規則中的“通知-刪除”義務?!?8 〕我國的社交平臺內容規制義務的設置也應當考慮對新興的中小平臺的適當政策傾斜。
綜上所述,我國的社交平臺需要承擔主動采取技術措施和內容管理措施進行內容監管以保證用戶內容的合規性,這一內容監管責任目前主要依靠直接追究平臺的行政甚至刑事責任來保證實施。面對較高的法律風險,加強事前的內容管理是社交平臺的合理選擇。但是法律對平臺內容管理技術措施和內部信息管理制度的規定只重在強調平臺作為責任主體的義務,并沒有提及技術措施和內部管理制度本身應當如何治理才能使平臺內化內容監管責任,形成長效機制,而不僅僅是作為對法律外在強制的被動回應。更為重要的是,只有開放內容管理體系,使利益相關主體參與到內容管理程序中來,才能夠分擔社交平臺內容監管的責任與成本,平衡內容合規性,商業自由與創新和用戶權利保護三種價值。筆者將從技術措施的采取和內容管理制度的構建兩個方面探討平臺責任的實施如何兼顧創新和內容合規性。
三、內容自動過濾技術的應用及其限制
在網絡空間,代碼就是法律,法律的有效性很大程度上受制于代碼,而根據比例原則,有效性的喪失會反過來削弱法律措施的正當性。通過技術措施實現對不良內容的自動過濾、識別和攔截成為降低社交平臺承擔內容管理責任的成本,提高內容監管能力的重要舉措,同時近幾年內容自動識別和過濾技術系統的開發和應用也為論證網絡平臺承擔更多的內容規制責任提供重要的正當性依據,例如歐盟成員國的司法判例中出現了將信息托管平臺的針對具體版權內容的事前過濾義務的承擔作為其獲得“避風港”庇護的前提條件,〔19 〕以及寬帶服務商通過法院禁令(injunction)被要求停止為版權侵權用戶繼續提供寬帶服務?!?0 〕在我國,利用信息安全管理技術對用戶內容進行事前審查和過濾被行政執法部門列入了社交平臺內容規制行政責任的范圍之內。在”快播案”的判決中,檢方提及了關鍵詞過濾作為不良信息識別過濾的行業慣例。在不良信息管控實踐中,一般采用“機器+人工”的內容審核流程,〔21 〕關鍵詞過濾,URL屏蔽,截圖審核,數據庫過濾等技術被廣泛運用于社交平臺用戶內容的自動審核。比如,百度貼吧的關鍵詞過濾系統;視頻社交網站“B站”運用截圖鑒黃技術,“每秒處理300張截圖;嫌疑圖片從讀圖、圖片傳輸、計算、返回結果,全程平均響應時間約2.2秒;10至15秒內,后臺人工審核便可完成對嫌疑圖片的二次判斷”?!?2 〕基于版權信息數據庫的內容過濾技術在國外社交網站的版權保護領域率先得到了推廣,比如在歐美數字版保護領域通用的Audible Magic開發的內容指紋系統,類似的Youtube在2007年上線的Content ID 系統,Facebook在2016年上線的Rights Manager系統,〔23 〕國內今日頭條在經歷一系列的版權糾紛之后,也在2017年上線了CID系統,保護短視頻版權?!?4 〕這類內容指紋技術是基于版權人主動上傳自己的版權作品至作品指紋數據庫,系統對每一段申請版權保護的內容進行編碼確立唯一的數字身份,然后將上傳至被監控網站或網絡傳輸的所有流量數據與內容版權數據庫進行比對,當配對成功時,被監控目標系統中該內容的上傳和傳輸都將會被攔截?!?5 〕
我國要求社交平臺對用戶信息進行事前的過濾以有效攔截各類不良信息,但法律并未對技術措施的有效性和正當性評估提供具體的標準。參考歐美實踐,對內容自動過濾技術的運用主要集中在數字版權保護方面,并且通過立法和司法判決對自動過濾技術的運用做出了限制。首先,為了保證內容自動過濾的準確率,防止過度攔截,內容過濾技術只適用于能夠通過機器和算法做出準確判定的違法內容,如大部分的版權侵權內容,而不適用于需要做出自由裁量的情況,如用戶對版權內容的授權使用和合理使用。因此“技術過濾+人工復審”是保證算法過濾正確率的必要程序,同時,“避風港”條款中確立的“通知-刪除”程序中侵權嫌疑人發出“反向通知”進行申辯的權利也依然適用?!?6〕
其次,內容過濾技術的采用不應當造成平臺過重的負擔,過分限制其商業自由和言論自由,因而責任的分擔是合理的制度安排。從對使用內容過濾技術的法律授權模式來看,美國《千禧年數字版權法》第512條在確立“避風港”原則的同時設置了網絡服務商獲得版權侵權責任豁免的兩大前置義務,為內容過濾技術的使用創造了條件:第一,網絡服務商必須采取某種合理的政策以終止為反復侵權的用戶提供服務,并充分告知用戶這一政策;第二,網絡服務商的系統必須能夠兼容版權人使用的行業通行的版權保護技術措施?!?7 〕但是受到“避風港”和表達自由的庇護,美國《千禧年數字版權法》實際上是將使用內容過濾技術的主動權賦予了版權人,而非直接施加一般內容過濾責任于平臺,為版權保護責任的分擔提供了制度框架。在此制度激勵下運作的內容指紋技術系統均來自版權人與平臺主動達成的行業協議,版權人需要通過主動上傳版權作品至指紋數據庫來申明版權保護的意愿,從而啟動內容過濾系統,平臺仍處于相對被動的地位,平臺責任實際并未超出“避風港”條款下“通知-刪除”程序所規定的義務范圍。
內容自動過濾技術雖然會大大提高違法內容識別和攔截的效率,降低平臺的責任履行成本,但由于技術措施自身的局限性,其使用范圍和條件不應當是沒有限制的。從保持互聯網的創新活力和平臺的商業自由、言論自由的角度來看,內容過濾技術的使用并不能解決內容規制責任所帶來的全部問題。內容規制責任的分擔需要相關利益主體的主動參與到內容管理程序中來,形成多方參與的制度機制,彌補技術措施的不足。
四、利益相關主體參與內容管理制度的形成
在許多情況下,出于對技術創新和信息流通效率的考慮,個人權益的實現往往需要權利主體主動主張權利,參與到內容管理的程序中,比如面對搜索引擎的信息全網抓取,數字版權規則默認的是默示許可原則,即只有權利人明示不允許被抓取,才能夠排除搜索引擎對版權內容的索引。同理,法律對用戶進行程序性賦權以保障利益相關主體參與內容管理程序的權利就成為形成多方參與內容管理程序的必要條件。
在我國面對社交平臺較重的內容規制責任,邀請平臺用戶參與內容管理,分擔內容管理的責任,降低運營成本,已經成為一些平臺運營商的自主商業選擇,如百度貼吧建立的吧主管理制度,〔28 〕新浪微博建立的社區管理委員會制度?!?9 〕百度貼吧是百度于2003年上線的主題交流社交平臺,對同一個話題感興趣的用戶聚集起來創建不同的線上互動社區,目前貼吧總數超過二千萬個,注冊用戶有15億?!?0 〕每個貼吧的日常信息管理工作由該貼吧的吧主團隊負責,包括大吧主和小吧主。大吧主由該貼吧的活躍用戶申請,百度官方批準,而小吧主則由大吧主從報名的吧友中擇優聘用。發現和處理貼吧內的不良信息是吧主團隊的核心工作,不良信息包括法律禁止的政治敏感信息,淫穢色情信息、人身攻擊、版權侵權等違法信息,也包括與貼吧主題無關的信息,無授權的商業信息等。許多吧主團隊還形成了一套規范的不良信息處理流程,保證用戶的知情權和抗辯權,比如制定公開的吧規作為違規信息處理的依據;公開刪帖記錄;采取“勸刪”程序,即吧主不直接刪除違規信息,而是通過與發帖人的溝通,告知其內容違規原因,令用戶限期自行刪除或者修改后重發;申訴程序,即發帖人針對小吧主的信息處理措施有異議的,可以向大吧主申訴,對大吧主的異議則可以向貼吧官方管理員舉報。根據貼吧用戶的反饋,用戶對吧主內容管理制度的接受程度要遠遠大于百度官方使用的關鍵詞過濾技術,很重要的原因在于吧主制度所表現出的程序正義。〔31 〕關鍵詞過濾存在敏感詞庫不公開,過度攔截用戶正常內容,投訴反饋慢等問題,而相比之下,吧主信息處理程序則更加的公開透明,用戶的知情權和申訴權得到了一定的保障。當然,吧主制度也存在很多需要完善的地方,諸如外部監督機制的缺失等。但是,對于公開信息管理程序,激勵用戶參與內容規制來說,尤其對于處理無法依靠機器和算法進行自動識別的不良信息來講,是一個值得參考的范例。
利益相關主體參與內容管理不僅是出于分擔平臺責任的考慮,也是實施個人權利的需要?;ヂ摼W的社交基因本身就是參與基因。正如網絡環境中版權人的主動作為實現版權人與平臺的合作是數字版權實施的最高效率的途徑,同樣的,主動參與信息管理程序也是用戶實現對消費者權益保護、表達自由和隱私權等法律實質性賦權保護的有效程序。雖然我國的私主體內容監管責任設置旨在提高主管部門對網絡信息的管控能力,但從另一方面來講,我國的網絡空間治理的基本思路是不排斥責任分擔和用戶參與的,如版主負責制?!?2 〕“群主”責任制 〔33 〕以及吧主制度都可成為用戶參與內容管理的程序性框架。法律所欠缺的是對私主體的內容規制權力的限制,而確立用戶參與內容管理的權利將會為權力的實施劃定程序性的邊界。內容管理涉及到公民基本權利保護這一公共利益,程序的公開透明和可申辯性成為論證內容管理制度正當性的重要程序性因素。
結語
在我國的互聯網信息規制體系中,社交平臺被賦予了進行內容規制的行政責任,而作為互聯網創新的引擎,這一內容規制責任的承擔不應當對社交平臺的商業運營造成過重的負擔。筆者從內容管理技術措施和多方利益主體參與制度兩個方面提出了社交平臺內化內容規制成本的制度建議。無論是技術措施還是內容管理制度都不應當將平臺作為唯一的責任承擔人,主動審核海量用戶信息發現和屏蔽不良內容會造成平臺責任過重,帶來執行難的問題。參考歐美“避風港”原則之下禁止平臺成為內容規制措施的主動發起人,內容管理責任應當以多方利益相關主體(如平臺方、版權人、用戶等)合作與分擔的方式實施。在版權實施領域,內容監管的責任不應該由網絡服務商獨自承擔這一點逐漸被國內學者所注意?!?4 〕在目前的技術條件下,技術措施由于存在明顯的局限性,利益相關主體參與內容管理制度被視為更具正當性的制度選擇。同時,法律應當加強對內容管理程序的規范,以提高其正當性,如確立利益相關人參與內容管理程序的權利,信息處理程序的公開透明,進行第三方監督等。
Abstract: Social media platforms are the main actors of internet technology and business model innovation, and have the responsibility to regulate the user-generated content. A responsible? platform? should balance the value of business freedom and the legality of content. The internet content regulatory system improves regulation over the content through content filtering technology and information safety systems. Nevertheless, the platform content regulatory system still has problems: such as relying too much upon administrative or criminal penalties ex post. Both the content filtering technology and content governance system should be established upon multiple stakeholder participation mechanism, on the one hand to improve the openness and transparency of the regulatory procedure, on the other hand to share the cost of content regulatory responsibility with platforms, to promote innovation.
Key words: social media platform; internet innovation; platform responsibility; content censorship technology; stakeholder participation mechanism