
每一天,你的生活都會留下數字痕跡,而科技巨頭們會用這些痕跡來追蹤你。比方說,你發了一封郵件,點了一些食物,看了一場演出,他們都會得到一些有價值的數據包,并以此了解你的喜好。
隨后,他們再將這些數據輸入到機器學習算法中,從而有針對性的向你推送廣告或通知。而你不知道的是,谷歌每年將這些數據兌現為超過1200億美元的廣告收入。
漸漸地,我們已經無法逃離這種現實。2019年,時任美國知名科技博客Gizmodo記者的卡什米爾希爾曾做過一個著名的嘗試,即在生活中擺脫五大科技巨頭。結果,接下來的整整六個星期她都苦不堪言,連基本的數字功能都難以實現。與此同時,那些科技巨頭們卻不痛不癢。
現在,美國西北大學的研究人員提出了新的方法,將我們的集體數據作為談判的籌碼,來糾正這種權力的不平衡。也許,科技巨頭們可以隨意操控花哨的算法,但如果沒有足夠的正確數據進行訓練,這些算法就毫無意義。
ACM FAT(關于計算機技術公平性的國際會議)2021已經舉行,在會議上發表的一篇最新論文中,包括博士生尼古拉斯文森特和李翰林(音譯)在內的研究人員提出了三種有益公眾的方法。
數據罷工( 靈感來自于勞工罷工的想法)——扣留或刪除你的數據,從而使得科技公司無法利用這些數據。比方說,離開當前平臺或安裝隱私工具。
數據中毒— — 提供無意義或有害的數據。舉個例子,AdNauseam是一個瀏覽器擴展程序,可以點擊推送給你的每個廣告,從而混淆谷歌的廣告定位算法。
有意數據貢獻——將有意義的數據提供給你想打擊的平臺的競爭對手,比如把你的Facebook照片上傳到Tumblr。
事實上,人們已經使用了很多這樣的策略來保護自己的隱私。如果你曾經使用過廣告攔截器或其他瀏覽器擴展程序,修改你的搜索結果以攔截某些網站,你就已經參與了數據罷工運動,并奪回了部分數據使用權。但正如希爾發現的那樣,像這樣零星的個人行動并不能讓科技巨頭們改過自新。
不過,如果數百萬人聯合起來在科技巨頭的數據井里下毒呢?那也許就能給用戶一些維護權益的籌碼。
實際上,上述假設已經有例可援。今年1月份,在Facebook宣布將開始與公司其他部門共享WhatsApp數據后,就有數百萬用戶刪除了他們的WhatsApp賬戶,并轉移到Signal和Telegram等競爭對手那里。結果是,用戶流失導致Facebook只得推遲政策變化。
就在最近,谷歌也宣布將停止在網絡上追蹤個人以及投放廣告。上述論文作者文森特表示,雖然目前還不清楚這是真正的改變還是僅僅是品牌重塑, 但有可能是使用AdNauseam等工具的用戶增多,降低了谷歌算法的有效性,從而才促成了這一決定。
當然,這很難下定論?!罢嬲罃祿T工對一個系統影響有多大的只有科技公司。”文森特說道。
文森特和李翰林認為,這些運動可以在抵制大科技的運動中補充政策宣傳和工人組織等策略。
“ 目睹人們發起這類運動, 我很激動,”舊金山大學應用數據倫理中心研究員阿里阿爾卡蒂布說道,不過他本人并沒有參與這項研究,“看著他們思考集體或整體的觀點真的很有趣:我們可以混淆這些數據,并趁機提出向科技巨頭要求。因為這是我們的數據,而所有的數據都會混合到一起?!?/p>
要想讓更多人參與到這些活動中來,我們還有很長的路要走。例如,計算機科學家可以在制造更多像AdNauseam這樣的工具方面發揮重要作用,這將有助于降低參與此類活動的門檻,此外政策制定者也可以提供幫助。
如果有強有力的數據隱私法律支持,那么數據罷工是最有效的方法,如歐盟的《通用數據保護條例》(GDPR) 賦予了消費者要求刪除其數據的權利。如果沒有這樣的法規,即使你刪除了自己的賬戶,都很難保證科技公司會保留讓你刪除數據的權利,
而一些問題仍有待解答。一次數據罷工需要多少人破壞一家公司的算法?并且什么樣的數據可以最有效地毒害一個特定的系統?例如,在一項涉及電影推薦算法的模擬中,研究人員發現,如果有30%的用戶進行數據打擊,就會使系統的準確率降低50%。
但每個機器學習系統都是不同的,公司也在不斷地更新這些系統。對此,研究人員希望機器學習界能更多對不同公司的系統進行類似的模擬,以此找出系統的漏洞。
阿爾卡蒂布建議,學者們也應該多研究如何激發集體參與數據打擊行動。“集體行動真的不容易,”他說。
他補充說道,這些策略也許還會產生負面影響,需要仔細考量。比如說,給數據下毒最終會不會只是給內容管理員和那些負責清理和標注公司培訓數據的人增加工作量?
但總的來說,文森特、李翰林和阿爾卡蒂都布樂觀地認為,數據可以變成一種有說服力的工具,以左右科技巨頭如何對待我們的數據和隱私?!癆I系統依賴于數據。事實上它們就是這么工作的。總的來說,這是公眾獲得權力的一種方式?!?/p>