齊 琦
(天津大學法學院 天津 300072)
當今網絡上充斥著各種暴力、色情、謠傳、不道德的話語、甚至是反動言論、恐怖活動宣傳等,“人工智能”(AI)通常被認為是識別和過濾這些不當內容的工具。伴隨著“爆炸”增長的大數據,分析和處理這些數據的工具也逐漸增多。深度學習等人工智能技術正顯示出巨大的潛力。[1]
在網絡輿情監管背景下,人工智能內容審查技術已經成為一套不斷變化的自動檢測和分析內容的技術。各種形式的人工智能被應用于排名和推薦系統中,通過計算迅速做出預測和決策,從而改變商業模式,提升產品服務。人們在享受人工智能內容審查便利的同時,這些技術的使用也逐漸衍生出了一系列的重大問題,那就是人工智能在線內容審查應用時所面臨的挑戰,以及這些挑戰最終對言論自由權利會產生一些不利影響。
公民可以按照個人意愿表達意見和想法的法定政治權利,言論自由有時也被稱作表達自由,其形式包括口頭和書面,廣義上還包括出版、新聞、著作、繪畫等。公民可以通過文字、圖片、視頻、音頻或多媒體等媒介,在現實社會和網絡虛擬世界發表、接收信息,而不被政府和其他個人干涉。言論自由不是毫無邊際的,在不同國家會受到不同程度的限制,例如發表違反法律法規規定的信息:如侮辱、誹謗等侵犯他人的言論,色情、暴力信息、煽動仇恨、煽動國家分裂,宣揚恐怖組織等會受到嚴厲的限制和打擊,而在社會道德層面,對言論自由提出了更高的“隱形”要求。
《世界人權宣言》第19條和《公民權利和政治權利國際公約》以及區域人權條約都保障言論自由權。雖然言論自由權是一項基本權利,但它并不是絕對的保障。根據國際標準,特別是《公民權利和政治權利國際公約》第19條第3款:對言論自由權的限制必須嚴格地加以調整,不得危及言論自由權本身。確定一項限制是否經過嚴格調整的方法通常被表述為一項由三部分組成的測試,限制必須:由法律規定、追求合法目標、符合必要性和相稱性。
目前沒有任何國際標準明確涉及人工智能內容審查和言論自由權。但是有一套國際標準與人工智能的使用有關:國家不應規定平臺負有監測其傳輸、存儲、自動化或以其他方式使用信息的一般義務,用戶應有機會質疑內容的屏蔽和過濾行為。
現有的法律法規對人工智能在線內容審查沒有直接的規定,但各個國家不同的網絡內容監管和審查的標準為其提供了重要的指引,但這些法律可能不足以解決人工智能在線內容審查影響言論自由的各種方式,人工智能在線內容審查依然受傳統法律框架的監管。
德國在2018年初公布一項規范社交媒體的法令,主要針對注冊用戶在200萬以上的網絡平臺,這些社交媒體公司必須設立有關程序,檢查自己網站上被提出投訴的內容,并在24小時之內刪除明顯違法的內容。違法的個人可能面臨高達500萬歐元的罰款,公司如果未能符合監管標準將可能面臨高達5 000萬歐元罰款[2]。歐盟也公布了《公眾信息保護規則》(GDPR),制定了有關法規,所有社交媒體公司在儲存和使用公眾信息方面必須遵守。澳大利亞在2019年4月5號通過了《散播邪惡暴力內容法》,違規的社交媒體公司將面臨制裁,公司技術主管將可能因此被判長達3年的監禁,和高達相當于該公司全球范圍內營業額10%的罰款[3]。我國《網絡信息內容生態治理規定》,2020年3月1日起正式施行[4],對社交網絡平臺的“敏感詞”審查力度加大。
1.審查在線內容主要有以下幾種路徑
(1) 事前審查
當上傳的內容被審核時在正式發布之前,就已經有人工智能內容審查工具的“摧毀”,典型的內容如過于明顯的色情信息。如果已知發布內容的用戶是曾經是規則破壞者,或者內容非常明顯地違反基本審核規則,那么用戶可能被暗中禁言,發布的內容也可能會被自動隱藏。
(2) 事后審查
內容正式發布后被審查的形式,多數時候需要人工智能審查和人類審查員共同工作違規內容會受到標記、降級、刪除等。
2.審查不當信息
主要包括以下幾個方面:網絡騷擾或欺凌,包括例如網絡攻擊、霸凌、仇恨言論和色情暴力信息,這類內容常常以圖片、視頻的形式發布,所以處理難度不大,但經常會“誤傷”,并且,不同平臺的標準不一,有的平臺允許色情信息傳播;煽動國家分裂、宣傳恐怖活動等信息,這類信息一經發現,會受到政府的嚴厲打擊。
除了在線內容審查的普遍挑戰之外,人工智能特有的一些挑戰是人類審查員不會面臨的,通常可以歸因于人工智能系統的性能標準高于人類審查員(對人工智能系統的錯誤比人類錯誤要求得更嚴格)。人工智能審查技術為在線內容審查帶來了一些更特別的挑戰。主要存在以下幾點:
1.缺乏專業的執行機制和法律機制
目前有關人工智能的討論仍局限于技術層面、倫理層面和責任等概念。這些框架如果順利執行,必須依賴法治的進步,目前在人工智能在線審查領域進行的大量工作缺乏專業的執行機制和法律機制。同時也缺少相應的問責機制。
2.缺少透明度和可解釋性
許多公司開發人工智能系統的方式和過程缺乏透明度。研發產業保守商業秘密的規則,以及算法系統固有的復雜性共同導致了不透明性。在人工智能內容審查產品中,幾種人工智能學習技術可能同時存在,從隨機森林和馬爾可夫模型,到支持向量機和神經網絡。而神經網絡(尤其是深度學習神經網絡)是難以解釋的。雖然神經網絡被設計用來復制人腦學習,但這些網絡是太過復雜,有時連人工智能開發人員都無法理解算法如何或為何輸出那些“行為”。
由于深度學習模型的復雜性,很難做到真正透明、可解釋的模型。但合并人工智能系統的可解釋方法一直是人們關注的焦點。研究神經顯著性技術可能增加提供圖像和視頻調節工具的可解釋性圖像、視頻分析中的重要或顯著的標志。這些可以在算法對重要圖像的分類過程中,識別區域和特性。MIT對網絡內容分析進行了進一步的研究,旨在深度學習模型及其決策行為進行解釋。例如對于給定的圖像分類,可以生成跟蹤路徑,突出顯示網絡中神經元最強烈激活的路徑,從而澄清分類過程。這些技術對于在人工智能審查系統建立信任顯得越來越重要。然而,可解釋的人工智能技術目前還處于初級階段,還不能廣泛應用。
3.用戶對人工智能工具的要求更嚴格
在簡單的任務上,人工智能系統可以分析和處理的數據量遠遠大于人類。然而,盡管在更高的準確性和效率上比人類表現得更好,但用戶對失敗的人工智能系統的能力提出質疑。比如,在接連的幾次車禍事件后,公眾對自動駕駛汽車及其性能的看法發生了變化,媒體和政府也很快就開始質疑并討論自動駕駛汽車能否取代人類駕駛,事實上,與自動駕駛汽車相比,人類駕駛汽車每年每公里所造成的嚴重撞擊次數更多。這種對人工智能及其能力的高度期望帶來了更大的復雜性,因為人類對人工智能故障的容忍度比對人類故障的容忍度更低。當人工智能審查工具出現了難以避免的錯誤時,公眾的失望和憤怒心理會對人工智能審查工具的進一步發展不利。
許多人工智能所面臨的技術挑戰將對用戶的言論自由產生種種負面影響,主要有以下幾個方面
1.世界各地的文化和法律差異
Facebook、YouTube、微博等在線平臺在全世界范圍內擁有數千萬用戶。每個平臺都制定了自己的標準或指導方針,引領著在線審查內容的方向。平臺應用人工智能在線審查工具時,要為每個國家制定有效的政策,這就需要謹慎對待文化信仰、政治觀點、歷史背景和法律法規。
文化差異導致用戶對適當內容的理解出現了明顯的偏差,同樣的言論在一個國家是恰當的,而在另一個國家變得不當,如果因此刪除了此項內容,這種“一刀切”的做法會引發用戶的“寒蟬效應”。在法律層面,每個國家或地區都擁有自己的內容審查機制,有些國家的審查體制并不精密,不標明紅線,容易被任意解釋,從而在社會中創造出自我審查和過度審查的文化。
2.難以準確定位語境
一個已經發布的內容是否違反了法律,通常取決于機器學習工具在分析中沒有使用語境。機器學習工具的分析中可以包含一些上下文,例如說話人的身份、消息的發送者和接收者之間的關系,其他背景,如歷史、政治和文化背景,這些對于一個人工智能工具來說,無疑增加了學習訓練的難度。如果把人工智能在線審查應用于發現仇恨歧視性言論中,首先,要找到合適的數據來訓練人工智能算法。其次,應該開發能夠識別仇恨言論或攻擊性內容的程序。此外,還需要阻止那些不斷想出辦法攻破系統的違法違規發布者或傳播者[5]。
僅僅在技術層面上做到這些還遠遠不夠。眾所周知,語言是一門復雜的藝術,對一個詞語或句子的適當性判斷標準是非常主觀的,一句話里所流露出的情感和深層含義,有時連人類都難以分辨,戲謔、反諷等言論和真正的不當言論的區分,是人工智能在線內容審查需要跨越的門檻,目前,人工智能審查技術對語境和語用習慣的分析還不夠敏銳,這會讓很多不當內容從它的眼皮下“溜走”。
3.誤報和漏報
使用算法系統檢測特定類型的語言和行為時,總是會出現所謂的誤報(錯誤地將某些內容歸類為不當)和漏報(漏報了一些本應歸類為不當的內容)情況。從言論自由的角度來看,如果這些工具被用于標記、降級或刪除內容,或者將相關內容創作者也作為對象以供進一步地審查,則誤報可能給個人的言論自由權帶來重大負擔,導致無法將仇恨言論、騷擾和其他不當的內容與正確、合理、合法的內容相區別,這樣就不利于用戶自由表達觀點。另一方面,對內容的遺漏會導致對仇恨言論、極端主義以及其他不當言論處理失敗,會對被動接收的網絡用戶造成傷害。[5]
4.潛在歧視和算法偏差
在開發過程中,人工智能算法可以導致有意和無意的偏差。算法偏差可能是由標記監督學習數據集(特別是手動執行時)以及不具有代表性和偏差的數據集的過程引起的。此外,訓練過程中的反向傳播和參數選擇都會導致或增強偏差。受許多復雜人工智能算法不透明性的影響,解釋偏差來源很困難。在內容審查過程中,人類審查員可能會引入明顯的偏差,導致調節過程不一致,每一位審查員對適當言論的判斷的都有自己的看法,對他們所受的指導方針也有自己的解釋個人對有害內容的敏感度會有所不同。
算法系統有可能在與代表性不足的群體(包括種族和少數族裔、政治傾向等)相關的數據上表現不佳。這是由于缺乏數據和依賴訓練數據庫:如果數據受到現實社會的偏見和不平等思想的影響,那么在這些數據上訓練的模型可能會反映或放大這些不平等。這會給社會和個人的言論自由帶來嚴重的風險。因此,必須采取有效的預防措施,確保識別和減輕無意識偏差的影響,在訓練人工智能工具時使用無偏差、有代表性的數據庫,減少潛在的偏差來源。
內容控制和審查的應用越來越廣泛就越能暴露出人工智能仍處于初級和不完善狀態的事實。AI在內容審查上面臨著種種技術挑戰,這些挑戰會直接或間接地影響用戶的言論表達意愿。因此,在技術和法律層面,應注重提高現有人工智能在線審查的透明度,增強人工智能審查功能的研發、引入外部監督糾正機制,確保用戶能夠訴諸于補救機制,從而維護用戶的言論自由。