菲利普·霍華德
對于我們每個人來說,如果你的隱私信息被一位仁慈的上帝掌握自然很好,但如果是惡魔呢,那將會是什么樣的后果?
歷史上,波士頓是個非常重要的地方。波士頓屠殺、波士頓傾茶事件,以及美國革命中幾個早期的戰役都在該市或附近的地方發生。盡管事件不斷,但由于波士頓是美國距離歐洲最近的一個主要港口,它也迅速發展成為當時世界上最富裕的城市之一。
19世紀中葉,波士頓發展成美國最大的制造業中心之一。工業的蓬勃發展帶來工人數量的急劇上升,也給波士頓帶來了一個問題:工人們每天的工作生活像機器一樣,顯得單調而無趣。很多工人回到家中,把僅有的生活樂趣放在了閱讀報紙上。從1850年到1890年,美國報紙發行量增長了近十倍。在報紙報道的眾多內容中,上流社會的隱私生活成為其中的“香餑餑”。這些內容適時滿足了當時工人們對精英階層各種“紙醉金迷”的幻想。
這個時期,哈佛大學法學院畢業了兩名優秀的學生,其中一位叫路易斯·布蘭代斯(Louis Brandeis)。他在1877年畢業時獲得了該學院建立以來的最好成績,后來成為美國最高法院第一位猶太裔大法官。1887年,布蘭代斯還與哈佛法學院的其他學者共同創辦了著名的《哈佛法律評論》。另一位是布蘭代斯的同班同學,也是他的好哥們塞繆爾·沃倫(Samuel Warren)。畢業后,沃倫做了一段時間的律師,然后子承父業,成為了波士頓的報業大亨。
沃倫的妻子家世顯赫,是波士頓的社交名媛。她常常在家中舉行一系列的社交宴會,成為波士頓報紙狗仔隊關注的重點目標。1890年,由于她在宴會中的很多隱私細節被一些媒體偷拍報道,沃倫大發雷霆。作為哈佛法學院畢業的佼佼者,沃倫決定站出來用法律手段保護自己的家人。于是,他找來了還在哈佛法學院任教的布蘭代斯共同執筆寫下了《論隱私權》一文,并發表在1890年12月刊的《哈佛法律評論》上。這篇文章成為隱私權研究的起點。此后,隱私權的觀念逐步為大眾所接受。
相比舊時代通過相機、電話等簡單的工具來八卦、窺探私人隱私,今天數字時代對隱私的窺探進入了一個全新的階段。互聯網企業用來收集隱私數據的“神經末梢”已經滲透到個體生活的吃、穿、住、行、醫等各方面,幾乎沒有死角。
以自拍來說,假設你自拍了一張照片傳到社交網絡。應用程序會根據面部識別系統給你貼標簽,社交網站可以根據你上傳的照片收集到拍攝者的位置信息,由此可以向你推送可能感興趣的同城活動或特定廣告。
除此之外,社交工具還可以通過這張照片額外得到很多數據,包括面部識別、位置、日期、拍攝設備類型、設備ID、設備操作系統、電池電量、信號強度、藍牙信號、連接速度、剩余可用空間、應用程序、時區、移動運營商、IP地址、硬件版本、軟件版本等眾多的個人信息。通過這張照片的互動評論、轉發、點贊等,該社交網站還可以分析出上傳者愛瀏覽的內容、政治觀點、哲學信仰、感興趣的人、家庭地址、支付信息、配送信息、手機號碼,等等。
在這個數字時代,我們別無選擇,只需點擊一下即可形成一套令人難以置信的漫長而復雜的條款和條件,這些條款和條件使我們不斷受到互聯網平臺的監控。這些平臺收集我們的個人數據并將其出售給更多人,包括廣告公司,然后可以為我們提供有針對性的廣告。
隨著數據算法的進化和人工智能算力的提升,互聯網公司分析數據的能力也在大大加強。如果巨頭之間相互橫向串聯隱私數據,挖掘個體特征,完全可以做到影響或預判個體的決策等,做到比用戶更了解用戶的地步。
除了互聯網公司,還有大量免費采集DNA數據的基因公司也輪番上陣。他們往往以免費的名義,通過采集被檢測者的血液、口腔粘膜細胞,對被檢測者細胞中DNA分子的基因信息進行檢測,并從中分析出包括疾病風險、用藥安全、營養代謝等方面的信息。這件事情看起來很美好,但是實際上存在巨大的隱私暴露風險。
基因數據是非常穩定的個體特征,通過基因數據分析幾乎可以把一個人變成透明人。一旦基因數據泄露,意味著掌握該數據的公司或者個人對你已經了如指掌,對智力、體能、性格特點、疾病概率都能了解清楚,個體將變得毫無議價權,處于一種任人宰割的狀態。互聯網數據、基因數據,如果再加上布局在物理空間中的無數個攝像頭,可以說,人類已經建立起了一個嚴嚴實實的“天網”,讓我們無處遁形。
今天,各類組織都在瘋狂地收集數據,其理由并不充分,也不見得他們多么了解這些數據對于社會發展的價值。相反,他們可能并不了解這些數據的意義。他們在采集海量數據時,只是抱著“萬一用得著”的心態。他們想得更多的是牟利,也很少會過多考慮數據的安全性以及對個人隱私的深遠影響。
幾年前,一個創業者告訴我,他們公司就是通過一些設備收集數據,然后通過數據交換獲得收益。對于互聯網公司來說,這種做法的利潤很豐厚:到2020年,用戶個人數據的價值預計將達到歐洲GDP的8%。我聽后深為震驚,但是后來又遇到或聽到一個個更震驚的數據盈利方式。在這種思潮下,捕捉數據、甚至刻意獲取隱私數據本身就成了目的。盡管很多網站有所謂的“隱私條例”,但是本質上應該叫“強制條例”。它們要么待在一個極其隱蔽的角落,讓用戶看不見;要么使用戶處于“被誘導”“被自愿”的情境;要么你提供隱私數據,要么就別用產品和服務。
騰訊社會研究中心與互聯網數據中心在2018年1月聯合發布的《2017年度網絡隱私安全及網絡欺詐行為分析報告》提到:2017年下半年,安卓手機APP中有98.5%、蘋果iOS APP中有81.9%都在獲取用戶隱私權限。報告還指出,有9%的安卓應用在2017年下半年存在越界獲取用戶隱私的現象。
現在很多商業追蹤技術堪比隨時在線的私家偵探,可以隨時通過由個人或其設備發射出的信號來獲取私人信息。例如,你的設備在搜索附近的WiFi熱點時,發出的信號就會被截獲。大多數的移動手機和可穿戴設備,即使在未使用時也會發出相應的信號。其他類型的信號,包括近場通信技術(NFC),甚至聲頻信號,都可以用來追蹤用戶。
企業和組織將收集用戶數據的“觸角”伸到各個角落,這些用戶隱私信息名義上被儲存在各個所謂安全的數據空間內。但是網絡技術、客服等與用戶信息直接打交道或者有能力侵入零售企業用戶信息庫的崗位,往往成為泄露用戶隱私的“重災區”,經常會上演“上崗——獲取權限——竊取信息——成功販賣——辭職走人”的戲碼。
僅在2016年一年,中國公安機關在“打擊整治網絡侵犯公民個人信息犯罪專項行動”中,抓獲的犯罪嫌疑人就有4261名,其中98人是黑客,391人是可以獲取個人信息的單位員工。2017年上半年,全球有19億條記錄被泄露或被盜取,比2016年全年總量(14億條)還多。2018年3月,臉書就被曝出泄露了近8700萬條信息。在此之后,Under Armour(功能性運動品牌)和Exactis(美國大數據公司)也分別被曝出泄露了1.5億條和4億條用戶信息。
數據集中在少數人手中是對民主的威脅。社交媒體公司和劍橋分析公司等政治數據挖掘公司,通過使用個人數據操縱公共生活來建立自己的業務。他們的工作加劇緊張局勢,甚至在世界各國產生新的政治危機,同時削弱公眾對新聞、投票系統和選舉結果的信任。
要搞清楚隱私對于人類生存的意義,還需要回到人格和尊嚴的討論上來。隱私權是維護個體的人格、尊嚴和自由的重要基礎。對隱私這個詞的定義,科學研究上普遍接受的是“單個用戶的某一些屬性”。我們在提“隱私”的時候,強調的其實是“單個用戶”,是對個體的尊重。
在不尊重隱私的社會,一種極端的現象就是鼓勵告密。盡管在成文法系國家中,德國最早形成人格權的理論,對隱私權的保護相對美國、英國也更主動一些。但在二戰期間,德國納粹政權實施了諸如“鼓勵告密”等無視個體隱私權的行為,不僅侵犯了人的尊嚴,也妨礙人格的自由發展。
告密成風的社會,是人人自危的社會,告密使人與人之間失去基本信任,甚至相互侵害,沖擊人們的價值判斷,毀掉社會的道德基礎。今天如果我們對數據不加以限制和保護,有一天隱私的被濫用完全會把我們帶到一種四處都是“告密者”的境地,唯一的區別在于告密者由人換成了機器。
2018年5月,網飛公司(Netflix)制作了一部低成本的科幻電影——《匿名者》(Anon)。電影把故事設定在科技發達的2030年,那個時候的人一出生就會在瞳孔中被植入一種芯片。通過這個芯片,人們可以隨時隨地知道對面走過來的陌生人是誰,曾經做過怎樣的職業等一系列他/她過往的信息。也就是說,故事預設這是一個全民都沒有隱私的時代。
在電影中,只要執法機構想做,他們就能直接調查公民在過去生活中的記憶,知道他們見過誰、去了哪些地方、做過哪些事。同時,人們看見過什么,也會被這個特殊芯片記錄下來。如果想要重溫,直接人工調看就行了。
當然,并不是所有人的記憶都能被執法機構調看到。對于那些位高權重者,執法機構不能輕易侵犯其隱私。還有一些,則是游離在系統之外的匿名者,類似于黑客。
因為沒有任何數據隱私,在這個電影構建的世界里,人們的交流變得極其便捷和有效率,甚至根本不需要交流就讀到了一切。但是這個隱私公開的社會真的好嗎?如果我們生活在這樣的世界,那我們存在的意義又是什么?對于這些問題,影片并沒有直接去揭示答案在哪里,導演把答案留給了觀眾。對于我們每個人來說,如果隱私信息被一位仁慈的上帝掌握自然很好,但如果是惡魔呢?
有兩種方法可以保護民主免受科技公司數據支配地位的挑戰。第一種選擇是政府以前所未有的規模和力度對內容進行監管。這將迫使公共監管機構審查所有社交媒體的內容,以判斷其適當性。或向企業(無論是社交媒體公司本身還是第三方機構)提供明確的信號,以執行對此類內容的審查。但這種做法的問題在于,它會創造新的審查機制,也會對民主文化構成另一種威脅。
更為可取的辦法是通過市場法規,對公司如何從個人信息中獲利加以規范。這將使公眾重新掌握寶貴的數據資源,同時仍然允許公民決定如何處理他們的數據。為了實現這一目標,決策者應該關注五項基本改革,這些改革會使公共機構重新回到現在由企業主導的數據流中。
1. 數據的最終受益者應對政府進行強制性報告。這意味著在查詢時,應該要求技術公司向用戶清楚地報告哪些廣告商、數據挖掘者和政治顧問已經使用了有關個人的信息。你的臉書應用程序或智能冰箱應根據要求顯示收集你信息的第三方列表,并為用戶繪制完全、明確地數據跟蹤流向。一旦數據挖掘公司匯總用戶數據然后將其出售給其他機構,用戶可以鎖定“最終受益人”。
2. 法規應該要求社交媒體平臺促進數據捐贈。使用戶能夠通過與平臺共享數據,來主動識別他們想要支持的民間團體或醫學研究人員。在從個人那里獲取數據時,政府可以通過允許公民與他們想要支持的任何公司或組織共享數據,來創造公民表達的機會,而不僅僅是那些能夠買得起這些隱私數據的公司或組織。
3. 軟件和信息基礎設施公司應該有義務為公益事業做好準備。社交媒體平臺上10%的廣告應保留用于公共服務公告,并且所有用戶數據的10%應該強制(以安全的方式)流向公共衛生研究人員、公民團體、專業記者、教育工作者和公共科學機構。允許多種團體和公共機構能夠使用部分的現有數據,來理解和尋找公共問題的解決方案。
4. 擴大關于數據的非營利性規則。大多數國家都有阻止公司從事銷售某些公共數據的規則。例如在美國的許多州,數據挖掘公司無法從公共機構收集的選民登記數據的銷售中獲利。這一規則需要擴展到更廣泛的具有社會價值的數據,例如現在由技術公司收集的就業數據。可以將這類信息傳遞給公共服務機構,從而在公共領域創建更廣泛的數據集。
5. 公共機構應定期對社交媒體算法和自動化系統進行審計。技術公司將這些算法稱為專有技術,但公共機構目前正在審核從視頻賭博機到金融交易算法的所有內容(所有這些都不會侵犯知識產權)。用戶應該能夠獲得有關算法的明確解釋,并且這些解釋應該通過定期的公共審計來確認。此外,所有廣告都需要存檔,以備公共調查人員不時之需。對當前技術的審查也將使新技術(例如人工智能)的開發者意識到,他們的算法終有一天會受到審查。
2018年5月25日正式生效的歐盟《通用數據保護條例》(General Data Protection Regulation,簡稱GDPR)大力加強了對個人數據隱私的保護,這是一個重要的開端,并且已經影響到了全世界。
科技公司可能會聲稱這些要求會侵犯其作為私營企業的經濟權利。但規范科技公司的運營是完全公平的,因為他們控制的平臺已經成為公共生活的基礎設施。它們是我們政治文化的共同載體,就像報紙、廣播和電視一樣。
國家和公民都希望社交媒體和數據挖掘公司能夠承擔一些公共職責,這通常是通過法律強制執行的,但到目前為止,社交媒體和數據挖掘公司在很少受到公開監督的情況下大量囤積公共數據,逃避了應盡的責任。在民主社會,需要將具有社會價值的數據重新用于公益事業。
(作者為牛津大學貝利奧爾學院教授。王藝璇譯)