朱 宏
溫州商學(xué)院,浙江 溫州 325035
在人工智能技術(shù)迅猛發(fā)展的背景下,信息傳播的環(huán)境發(fā)生了巨大變化。這也讓傳統(tǒng)的公民隱私保護(hù)模式受到了嚴(yán)峻沖擊與挑戰(zhàn)。[2]原有的隱私權(quán)保護(hù)法律法規(guī)對現(xiàn)有的公私邊界難以做出準(zhǔn)確清晰區(qū)分,極容易導(dǎo)致公民的隱私權(quán)難以得到充分有效的保護(hù)。因此,加強(qiáng)人工智能傳播環(huán)境下的隱私權(quán)保護(hù)立法探索,不僅是完善國家法律體系,保護(hù)公民合法權(quán)益的需要,更是維護(hù)國家安全和穩(wěn)定和諧的社會秩序的需要。
業(yè)界內(nèi)有的專家學(xué)者對為了便利放棄隱私持肯定態(tài)度。此類觀點認(rèn)為:我國生活的環(huán)境是開放互動的,在這種環(huán)境下,個人隱私難免會泄露,人與人之間的信息共享也是必然的。而人工智能的應(yīng)用前提便是數(shù)據(jù)分享,在人工智能技術(shù)的發(fā)展已經(jīng)成為必然趨勢的背景下,放棄個人因素享受技術(shù)帶來的便利是一種理性的選擇。另外,持該觀點的人士還認(rèn)為,隱私泄露并不是一件“壞”的事情,只要是可以獲取到自己想要的利益,或者造成利益共贏的局面,就會是好的。
有的人士對為了便利放棄隱私持否定態(tài)度。其認(rèn)為,隱私權(quán)神圣不可侵犯,世界各國的立法都有保護(hù)個人隱私的傳統(tǒng)。人工智能雖然能夠為人們的生活提供更多的便利條件,給人們帶來更加舒適安全高效的生活體驗,但是這并不意味著人們要放棄犧牲自己的隱私來換取便利,任何先進(jìn)的事物的應(yīng)用,都不應(yīng)當(dāng)侵犯人的基本權(quán)利來作為“要挾”。
隱私、數(shù)據(jù)和信息三個詞語的含義有著較強(qiáng)的關(guān)聯(lián)性,但是也有一定的區(qū)分。其中,數(shù)據(jù)和信息屬于工具和本體關(guān)系,可以理解為數(shù)據(jù)是信息傳遞的一種工具。在網(wǎng)絡(luò)信息技術(shù)中,在二進(jìn)制運(yùn)算原理下,個人信息可以通過數(shù)據(jù)這一工具來進(jìn)行傳輸,從而完整真實地反映個人信息。從邏輯上來看,個人信息的范圍要大于隱私,隱私僅是個人信息中的一類。而在我國關(guān)于人工智能傳播下的隱私權(quán)立法保護(hù)當(dāng)中,上述三個概念詞語在同一部法律法規(guī)中均有所提及,存在著混淆使用的情況。由于在立法當(dāng)中對相關(guān)概念無法做到清晰準(zhǔn)確地使用,這就容易給涉嫌侵害隱私權(quán)案件審理造成一定影響與干擾。
根據(jù)世界各國的立法歷程來看,都在積極嘗試準(zhǔn)確設(shè)置隱私的范圍,明確規(guī)定公民的私人空間和隱私信息受法律保護(hù),任何人都不得以非法的形式進(jìn)行干擾和侵犯。并且無數(shù)的法律人士歷來都主張對個人隱私的邊界進(jìn)行清晰明確的劃定。在具體的操作環(huán)節(jié),涉及的核心問題便是公領(lǐng)域和私領(lǐng)域的劃分。有的法律人士主張,以權(quán)利主體為中心進(jìn)行劃分,其兩側(cè)分別就是私人領(lǐng)域和公共領(lǐng)域。[3]所謂私人領(lǐng)域,就是指公民個人的私生活和隱私,應(yīng)當(dāng)納入國家法律保護(hù);而公共領(lǐng)域則是個人與社會連接的空間,具有較強(qiáng)的開放性,該空間就不屬于隱私保護(hù)的范圍。
在以往,對于私人領(lǐng)域和公共領(lǐng)域可以較為容易做出清晰的劃分。但是隨著科技的迅猛發(fā)展和社會的深刻變化,公私領(lǐng)域空間的邊界越來越模糊,難以明確劃定個人隱私保護(hù)的邊界。另外,隱私權(quán)的客體范圍也在快速地擴(kuò)大,這也導(dǎo)致隱私權(quán)很難得到準(zhǔn)確有效的保護(hù)。在網(wǎng)絡(luò)環(huán)境中,個人隱私空間也具有虛擬的特性,正是有了該特性的支撐,人們才愿意主動與他們分享交流信息。因此,由于在現(xiàn)實條件下,很難對網(wǎng)絡(luò)公共領(lǐng)域和私人領(lǐng)域問題做出清晰明確的劃分,也讓傳統(tǒng)的隱私權(quán)立法框架受到嚴(yán)重的沖擊,該問題要結(jié)合時代的發(fā)展需要來重新審視。
安全保護(hù)原則是隱私權(quán)立法保護(hù)中非常重要的基本原則。該原則要求公民個人的信息應(yīng)當(dāng)處于有效的安全保護(hù)狀態(tài)中,不得被泄露或非法使用。歐盟出臺的《通用數(shù)據(jù)保護(hù)條例》便是體現(xiàn)該原則的典型立法成果。該條例的出臺,旨在將有效保護(hù)公民個人數(shù)據(jù)作為第一考慮,即便是將來科技多么先進(jìn)發(fā)達(dá),都不能侵犯公民的隱私。而在人工智能技術(shù)條件下,對數(shù)據(jù)進(jìn)行安全保護(hù)越來越復(fù)雜,很難適應(yīng)傳統(tǒng)隱私權(quán)保護(hù)的相關(guān)要求。
基于人工智能技術(shù)的智能傳播平臺的運(yùn)營以獲取最大化的商業(yè)利益為目的,在采集和使用公民個人信息時,難免會發(fā)生信息泄露。與此同時,智能傳播平臺對公民個人信息的使用不當(dāng),也會違反安全保護(hù)原則。例如,有的智能平臺會對用戶的畫像信息進(jìn)行動態(tài)化分析,以便對用戶的興趣愛好、健康、收入、職業(yè)等做出全面準(zhǔn)確的分析判斷。而平臺對用戶的畫像信息的使用,前提是雙方要達(dá)成相關(guān)協(xié)議。如果平臺使用不當(dāng),例如,將用戶信息分析結(jié)果直接用于營銷等,這就會騷擾用戶的正常生活,甚至?xí)τ脩魝€人的人身財產(chǎn)安全造成侵害。
“目的明確原則”是收集公民個人信息應(yīng)當(dāng)遵循的基本原則,不得在信息收集范圍以外對個人信息進(jìn)行使用或處理。“限制利用原則”指的是對公民個人信息的使用不得超出收集目的的范圍之外。該兩項原則,為公民個人信息的有效保護(hù)提供了有力的支持。在人工智能環(huán)境中,智能傳播平臺在為用戶提供相關(guān)服務(wù)之前,會與用戶簽訂協(xié)議,在該協(xié)議條款中,會對個人信息的用途、使用規(guī)則等事項做出明確的解釋說明,經(jīng)用戶閱讀了解和同意后,才能進(jìn)行信息的收集與使用,這便是知情同意原則的體現(xiàn)。
但是在實踐操作中,平臺所擬定的隱私條款可以分為隱私聲明和隱私政策兩種。前者是很多平臺采用的協(xié)議告知方式,這種告知方式往往非常隱蔽,并且?guī)в幸欢ǖ膹?qiáng)制性色彩,從而讓用戶的隱私保護(hù)權(quán)利受到“綁架”。這種做法看似遵守了知情同意的原則,但是卻存在著明顯的“打擦邊球”嫌疑。為了追求最大化的利益,智能平臺往往會選擇多種“顯失公平”的方式迫使用戶同意,從而導(dǎo)致隱私保護(hù)流于形式。
目前,世界各國對全面建立個人信息保護(hù)制度的觀點意見是高度統(tǒng)一的,并且各自在如今的人工智能時代就加強(qiáng)個人隱私保護(hù)問題進(jìn)行著積極的立法探索。保護(hù)公民隱私,不僅是出于保護(hù)公民個人合法權(quán)益的需要,更是保護(hù)國家安全和社會治安秩序穩(wěn)定的需要。目前,根據(jù)發(fā)達(dá)國家的立法探索成果來看,很多國家都紛紛出臺了專門保護(hù)個人信息的法律,這些法律分別以公民個人信息權(quán)、基本人權(quán)的高度對公民隱私保護(hù)做出了明確詳細(xì)的規(guī)定。在人工智能快速發(fā)展的今天,個人隱私保護(hù)引起了社會的廣泛熱議。雖然,人工智能技術(shù)憑借著生產(chǎn)和重構(gòu)個人信息、刻畫數(shù)字人格等方面的先進(jìn)功能,為人們的生活帶來了巨大的便利,但是,在應(yīng)用過程中也存在著侵犯個人隱私和安全的風(fēng)險。為了讓公民的隱私權(quán)得到充分有效的保護(hù),通過立法的方式來強(qiáng)化對個人信息的保護(hù)尤為緊迫。
我國《個人信息保護(hù)法》充分保護(hù)自然人人格權(quán)的必然要求。在傳統(tǒng)的隱私權(quán)保護(hù)模式中,將隱私權(quán)放在了與公民人格權(quán)相等的高度來予以對待。而在人工智能時代的今天,隱私權(quán)的客體范圍正在快速擴(kuò)大,公民的隱私內(nèi)容也處于快速的流動和變化當(dāng)中,人工智能技術(shù)會將公民的碎片化、流動化的信息進(jìn)行加工和重構(gòu),以此來完整準(zhǔn)確地反映信息主體的特征與形象,即賦予個人信息的數(shù)字化人格。這也就是說,碎片化的信息是無法完整反映出個人的人格,并沒有較大的利用和保護(hù)價值。而經(jīng)過重構(gòu)的個人信息,就具有了較高的利用價值,應(yīng)當(dāng)受到法律的嚴(yán)格保護(hù)。
我國應(yīng)當(dāng)提高對于人工智能傳播環(huán)境下的公民隱私權(quán)保護(hù)的關(guān)注程度,盡快完善《個人信息保護(hù)法》,以增強(qiáng)該法在實踐中的可適用性,這樣不僅可以為公民隱私權(quán)的有效保護(hù)提供基本支撐,而且也有力推動著人工智能技術(shù)產(chǎn)業(yè)的健康有序發(fā)展。
只有充分保護(hù)信息主體的各項權(quán)利,才是人工智能技術(shù)健康長遠(yuǎn)發(fā)展的核心要義。但是在實踐中,各個人工智能平臺提供服務(wù)功能有著一定的差異,僅通過制定統(tǒng)一的協(xié)議則很難獲得良好的效果。[4]因此,應(yīng)當(dāng)引導(dǎo)各個信息機(jī)構(gòu)制定符合自身發(fā)展的自律協(xié)議。縱觀歐美發(fā)達(dá)國家在保護(hù)公民個人信息方面的立法思路,主要采用了法治和自律相結(jié)合的模式。因此,我國的立法除了要立足于國情來進(jìn)行個人隱私保護(hù)的立法,還要引導(dǎo)信息機(jī)構(gòu)在嚴(yán)格遵守法律的情況下制定適用于自身運(yùn)營和發(fā)展的自律協(xié)議,建立嚴(yán)密有效的問責(zé)機(jī)制。針對上述分析,可以將自律協(xié)議的制定權(quán)交由信息機(jī)構(gòu)自己負(fù)責(zé),由人工智能平臺的信息控制者對信息使用情況進(jìn)行記錄和證明,然后要求信息機(jī)構(gòu)站在專業(yè)的角度上進(jìn)行評估論證,以此來對平臺是否存在侵害隱私權(quán)的問題做出準(zhǔn)確專業(yè)的分析認(rèn)定。通過這種監(jiān)管機(jī)制的設(shè)計,可以讓各個信息管理主體積極參與到個人信息保護(hù)中來,有效提升了隱私權(quán)保護(hù)的實際效果。
不管是歐盟還是美國等國家和地區(qū)的立法設(shè)計,在實踐操作中均存在著一定的弊端和不足。[5]我國在公民隱私權(quán)保護(hù)方面的立法應(yīng)當(dāng)吸取國外的優(yōu)點和精髓。筆者認(rèn)為,我國在人工智能環(huán)境下的隱私權(quán)保護(hù)模式的設(shè)計,應(yīng)當(dāng)采取制度設(shè)計與市場調(diào)節(jié)相結(jié)合的原則和思路。
加強(qiáng)個人信息保護(hù)的頂層設(shè)計,為人工智能產(chǎn)業(yè)的健康快速發(fā)展提供支持和保障。當(dāng)傳統(tǒng)的隱私權(quán)保護(hù)出現(xiàn)漏洞或者受到挑戰(zhàn)時,國家應(yīng)當(dāng)對制度進(jìn)行及時的完善和修補(bǔ),通過立法的形式讓個人信息安全得到充分有效的保護(hù),并且也要為促進(jìn)智能技術(shù)產(chǎn)業(yè)的發(fā)展提供法律保護(hù)。當(dāng)前,隱私設(shè)計理論受到了業(yè)界人士的廣泛關(guān)注,為隱私權(quán)保護(hù)的制度完善提供了諸多有價值的啟示和借鑒。該理論的核心要義是:改變事后保護(hù)的思路,從開始階段就要設(shè)計隱私保護(hù)的框架。因此,我國也應(yīng)當(dāng)秉持積極預(yù)防的態(tài)度來進(jìn)行隱私權(quán)保護(hù)的制定設(shè)計,摒棄以往的被動救濟(jì)模式,圍繞著用戶,將個人信息保護(hù)嵌入到整個制度設(shè)計中來,以此來對個人隱私權(quán)進(jìn)行充分有效的保護(hù)。
同時,積極發(fā)揮市場調(diào)節(jié)作用。在人工智能技術(shù)迅猛發(fā)展的背景下,智能傳播產(chǎn)業(yè)尚處于混亂無序的狀態(tài),這也導(dǎo)致平臺的運(yùn)營和發(fā)展容易侵犯到公民個人的隱私權(quán)。[6]要想有效治理這種亂局,僅依靠制度設(shè)計的路徑是無法獲得理想效果的,更需要打造適用于智能傳播產(chǎn)業(yè)健康發(fā)展的市場規(guī)則,讓各個平臺在規(guī)則的約束和引導(dǎo)下,對自身的現(xiàn)狀、需求等進(jìn)行調(diào)節(jié)。另外,要充分運(yùn)用市場的優(yōu)勝劣汰、馬太效應(yīng)等功能機(jī)制,讓智能傳播平臺行業(yè)的內(nèi)部能夠自發(fā)性地生成一種良性發(fā)展秩序,這種秩序的形成并不是直線式的效應(yīng),而是內(nèi)部之間不斷的競爭、試錯、協(xié)調(diào)以及整合的產(chǎn)物。當(dāng)一家智能傳播平臺取得成功的同時也可能會是一家或多家平臺的失敗。因此,只有充分發(fā)揮市場調(diào)節(jié)的功能機(jī)制,才能讓公民個人信息得到充分的保護(hù),同時也有力推動著智能傳播產(chǎn)業(yè)的健康長遠(yuǎn)發(fā)展。
綜上所述,不管是從保護(hù)公民權(quán)利的角度考慮,還是從保護(hù)人工智能產(chǎn)業(yè)健康有序發(fā)展的角度考慮,都需要對人工智能傳播環(huán)境下的隱私權(quán)保護(hù)進(jìn)行立法改進(jìn)和完善。文章首先對人工智能傳播環(huán)境中涉及的隱私權(quán)爭議焦點問題進(jìn)行了梳理和總結(jié),后又對人工智能傳播環(huán)境下沖擊隱私權(quán)保護(hù)原則進(jìn)行了總結(jié)闡述,就智能傳播環(huán)境下完善和改進(jìn)隱私權(quán)保護(hù)路徑問題提出了自己的建議和看法。由于對人工智能技術(shù)等方面知識的學(xué)習(xí)了解依然有待深化,文中的論述和觀點難免不夠完善,但相信隨著人們對于人工智能傳播環(huán)境的深化認(rèn)知,對于隱私權(quán)的關(guān)注重視,探索人工智能環(huán)境下隱私權(quán)的法律保護(hù)路徑也將會不斷推進(jìn)和深入。