999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能時代算法黑箱的法治化治理

2021-08-17 02:19:52吳椒軍郭婉兒
科技與法律 2021年1期
關(guān)鍵詞:人工智能

吳椒軍 郭婉兒

摘??? 要:算法作為人類利用機器抓取、處理并輸出數(shù)據(jù)的手段,其所得結(jié)果受到編寫者主觀偏差,技術(shù)偏差等多種影響。因算法編寫的高度專業(yè)性,用戶無法知悉有關(guān)于自身信息數(shù)據(jù)被抓取,處理以及應(yīng)用的細(xì)節(jié),這樣的不透明性顯然對用戶的權(quán)益與社會秩序造成影響,對我國的法律機制也帶來極大挑戰(zhàn)。針對算法的運行模式,剖析算法黑箱帶來的個人信息數(shù)據(jù)侵權(quán)、算法偏見及司法救濟三重危機。通過對歐盟《通用數(shù)據(jù)保護(hù)條例》與歐洲《人工智能倫理與數(shù)據(jù)保護(hù)宣言》對算法黑箱的治理條款,針對上述三重危機從技術(shù)角度、法律角度與倫理角度對算法黑箱進(jìn)行法治化管理,以實現(xiàn)算法黑箱法治化治理層面的合法性與最佳性耦合。

關(guān)鍵詞:算法黑箱;算法偏見;個人信息;人工智能;技術(shù)倫理

中圖分類號:D 923.8???????? ? ??文獻(xiàn)標(biāo)志碼:A??? ?????????? 文章編號:2096-9783(2021)01-0019-10

引? 言

2013年,美國康斯威星州法院以五項罪名指控一位名叫Eric的公民,在量刑階段,州法院根據(jù)政府罪犯改造部門提供的量刑前調(diào)查報告,判決Eric 6年監(jiān)禁5年監(jiān)外管制。該判決依據(jù)由美國一技術(shù)開發(fā)公司研究的COMPAS算法,根據(jù)其各項個人數(shù)據(jù)和先前的調(diào)查,計算出被評估者再次犯罪的可能性。Eric不服判決,認(rèn)為COMPAS算法的技術(shù)提供方亦無法確保該算法計算出的數(shù)據(jù)是否絕對準(zhǔn)確。然而COMPAS算法技術(shù)提供方以算法邏輯是商業(yè)機密為由拒絕公開,最高法院也未曾要求其做出解釋。

算法作為一種輸入-處理-輸出結(jié)果的方法,其運作依靠數(shù)據(jù)匯集和機器深度學(xué)習(xí)。這種運作過程雖來自于人類的編寫,但其自身的深度學(xué)習(xí)呈現(xiàn)出的卻是常人無法參與的未知地帶。這種未知,即是算法黑箱的體現(xiàn)。在人工智能時代下,算法被應(yīng)用在人類生活的方方面面,而作為無可避免的弊端之一的算法黑箱亦是緊跟而來。例如在商業(yè)領(lǐng)域中,算法黑箱不透明與不可解釋的特征必然導(dǎo)致開發(fā)使用者與消費者之間存在信息不對等;在個人征信情境下,算法黑箱所帶來的歧視與偏見會操縱個人信用評分等等。本文認(rèn)為,實現(xiàn)算法黑箱的法治化路徑應(yīng)當(dāng)針對其每一級運行中反映出的法律問題,找尋解決方法,以實現(xiàn)算法黑箱法治化管理層面的合法性與最佳性耦合。

一、算法黑箱引發(fā)三重法律危機

人工智能實現(xiàn)的基本方式是算法。人類借助計算機,將已獲得驗證的人類經(jīng)驗以程序語言輸入,組建模擬人類思維模式的模型,然而該技術(shù)的算法運行邏輯存在著難以探究的隱秘層面,即所謂的“黑箱”。它指的是為人所不知的那些既不能打開、又不能從外部直接觀察其內(nèi)部狀態(tài)的系統(tǒng)。 而“算法黑箱”在筆者看來特指機器深度學(xué)習(xí)時,其復(fù)雜的神經(jīng)元網(wǎng)絡(luò)中存在的不為人所直觀捕捉到的隱層。算法黑箱的威脅貫穿于數(shù)據(jù)采集,算法運行以及應(yīng)用于社會服務(wù)三個層級,在此三個層級中存在三重法律危機,即:數(shù)據(jù)采集階段的個人信息數(shù)據(jù)侵權(quán)危機,算法計算運行階段的結(jié)果偏見危機,算法應(yīng)用于社會服務(wù)階段的救濟危機。

(一)算法黑箱引發(fā)個人信息數(shù)據(jù)侵權(quán)危機

2013年,朱某在網(wǎng)上搜索“減肥”“豐胸”等關(guān)鍵詞后,再登錄其他網(wǎng)站時出現(xiàn)了與該關(guān)鍵詞相關(guān)的各種推送廣告。朱某認(rèn)為百度公司在其毫不知情的情況下,濫用cookie技術(shù)跟蹤記錄了自己的搜索關(guān)鍵詞;在自己未明確授權(quán)的情況下,收集并公開了其個人隱私內(nèi)容并大力投送相關(guān)廣告,故向南京市鼓樓區(qū)人民法院起訴百度公司。2015年, Facebook上的一款第三方測試小程序通過用戶的使用而獲取了其家庭、交友圈等個人資料。而資料的獲取者隨后將數(shù)據(jù)賣給一家數(shù)據(jù)分析企業(yè),用以在用戶中針對性的為某位總統(tǒng)候選人提高知名度與曝光度。

算法的運行需要以掌握個人信息數(shù)據(jù)作為先決條件,而個人信息數(shù)據(jù)安全則是算法運行中的阿喀琉斯之踵。算法在數(shù)據(jù)采集階段,自Web站點根據(jù)既定規(guī)則采集原網(wǎng)頁中所需要的信息,保存至數(shù)據(jù)庫等待進(jìn)一步處理。而與數(shù)據(jù)采集無法割裂的一項技術(shù)在這里則成為了本階段頻發(fā)個人信息數(shù)據(jù)侵權(quán)危機的問題核心——cookie技術(shù),該技術(shù)在全球范圍內(nèi)被Google、Amazon等網(wǎng)絡(luò)平臺頻繁使用。它連接服務(wù)器與瀏覽器進(jìn)行信息交互,以支持服務(wù)器在瀏覽器上儲存信息。即用戶在使用電腦瀏覽網(wǎng)頁時,其每一個瀏覽的Web站點都會以cookie文本文件形式自動保存瀏覽信息。對于網(wǎng)絡(luò)經(jīng)營者來說,cookie的使用與運行能夠為其提供大量的用戶信息數(shù)據(jù),以便經(jīng)營者進(jìn)行深度分析后實現(xiàn)精準(zhǔn)有效的個性化推送,因此也成為了網(wǎng)絡(luò)經(jīng)營者趨之若鶩的重要資源。技術(shù)本身作為科學(xué)進(jìn)步的標(biāo)志,不應(yīng)當(dāng)有非善即惡的評判,因此在現(xiàn)今世界各國都認(rèn)為cookie技術(shù)是中立存在的,對其規(guī)制都盡在發(fā)生侵權(quán)行為后以事后救濟的手段解決法律問題。本文將cookie技術(shù)對個人信息數(shù)據(jù)侵權(quán)做如下闡述:

第一,cookie技術(shù)通常不需獲得特別許可即可儲存用戶信息。以搜索引擎為例,在用戶使用搜索引擎搜索相關(guān)信息時,并未有醒目的條款在第一時間提醒他們,是否同意由該服務(wù)器保存其搜索內(nèi)容,以及這種行為是否會涉及到用戶的隱私。用戶對收集其數(shù)據(jù)、處理其數(shù)據(jù)的算法都具有知情權(quán),人們有權(quán)知道該種算法如何搜集他們的信息,搜集信息的目的,如何處理信息以及被處理后的信息流向等。用戶對該算法是否能夠收集處理其數(shù)據(jù),收集的部分有多少,處理的程度如何,是否能夠被第三方索引等也同樣具有選擇權(quán)利。然而網(wǎng)絡(luò)平臺經(jīng)營者雖然都會提供用戶須知事項,但所占頁面篇幅小、另有獨立頁面且不明確告知等情況的存在,使用戶陷入了一種“被迫自愿”允許個人信息數(shù)據(jù)被儲存的風(fēng)險中。如百度公司在用戶使用搜索引擎時列出的《使用百度前必讀》,位于偌大網(wǎng)頁的最下方,字體較小且不明顯,容易被大多數(shù)用戶忽略。在百度搜索框中打出“使用百度必讀”,搜索頁自動推薦最高搜索量的關(guān)鍵詞是“使用百度前必讀在哪里”。

第二,cookie技術(shù)獲得的用戶個人數(shù)據(jù)存在非自愿被交易的可能性。Cookie技術(shù)保存用戶個人信息數(shù)據(jù)的行為,原本應(yīng)當(dāng)是網(wǎng)絡(luò)平臺經(jīng)營者與用戶雙方之間的交互行為,但此類數(shù)據(jù)并不會僅僅作為被儲存的文件閑置。網(wǎng)絡(luò)平臺經(jīng)營者會將該類數(shù)據(jù)儲存文件作為商品,向第三方公司提供OpenAPI接口,以便第三方公司使用協(xié)同過濾算法分析計算用戶信息,提取其偏好與需求,與購買廣告推送的第三方公司進(jìn)行交易,針對用戶進(jìn)行個性化推送服務(wù)。更有甚者,會利用爬蟲技術(shù)通過Web端或APP端,非法竊取儲存的cookie文件,以進(jìn)一步抓取用戶性別,職業(yè),工作地點等可以識別用戶個人身份的更加隱私的數(shù)據(jù)。此時,用戶對個人信息數(shù)據(jù)已被整合分析毫不知情,甚至不會知道第三方的存在。用戶的個人數(shù)據(jù)海量流向市場,通過協(xié)同過濾得到用戶的偏好、需求甚至個人隱私信息,有針對性的投放廣告或者出賣信息以作非法用途,對于用戶來說,該行為會侵犯消費者的公平選擇權(quán),或暴露用戶個人隱私,將其放置在被電信詐騙等風(fēng)險中。對其它商家來說,該行為會導(dǎo)致各商戶信息的橫向不對等,掌握大量資源分析的一方能夠得到更多利益,以產(chǎn)生不正當(dāng)競爭的風(fēng)險,甚至?xí)て鹕碳也幌Ю梅欠ㄊ侄胃傁酄帄Z個人信息數(shù)據(jù)的局面,從而破壞社會經(jīng)濟秩序與法制秩序。

第三,cookie技術(shù)獲得的用戶個人信息數(shù)據(jù)定性有異議。我國2012年11月5日批準(zhǔn)發(fā)布的《信息安全技術(shù)公共及商用服務(wù)信息系統(tǒng)個人信息保護(hù)指南》中明確個人信息指可為信息系統(tǒng)所處理、與特定自然人相關(guān)、能夠單獨或通過其他信息結(jié)合識別該特定自然人的計算機數(shù)據(jù)。個人信息的定義要求通過該信息能夠準(zhǔn)確識別其來源于某個特定主體,網(wǎng)絡(luò)隱私權(quán)則將公民的私人信息和敏感信息作為保護(hù)的對象。以如根據(jù)個人信息的定義來看,cookie技術(shù)傳輸至服務(wù)器的信息僅能讓服務(wù)器識別瀏覽器,即不同人使用同一個瀏覽器檢索信息,服務(wù)器會將其識別為一個瀏覽器,即無法以獲取的信息識別某一個特定的用戶。因其獲得的數(shù)據(jù)無法識別特定用戶的身份,就不應(yīng)當(dāng)算做個人信息的范圍。但網(wǎng)絡(luò)用戶注冊的ID的郵箱,IP登錄地址,甚至是有可能暴露用戶的個人定位、個人需求、個人秘密的搜索痕跡,屬于用戶的個人痕跡信息,是未經(jīng)其許可不能被公開的信息,應(yīng)當(dāng)是公眾視角下的私密信息,不應(yīng)當(dāng)存在與法律保護(hù)的灰色地帶。僅僅將個人信息的定義作狹義解釋,忽略其在被應(yīng)用環(huán)境下的現(xiàn)實情況,實在有違個人信息保護(hù)立法的初衷[1]。

(二)算法黑箱引發(fā)結(jié)果偏見危機

在抓取了所需數(shù)據(jù)后,算法開始進(jìn)行運算。在此階段算法的運行可以分為兩種情況:一是算法編寫者根據(jù)其需要,撰寫算法運行的程序,以人為設(shè)置與干預(yù)的方式使算法進(jìn)行運算,最后得出想要的結(jié)果。二是算法具備自我學(xué)習(xí)的能力,在建立一個神經(jīng)元的基礎(chǔ)上,處理數(shù)據(jù)得出結(jié)論后再將該結(jié)論傳遞給其他相鄰神經(jīng)元,再由該神經(jīng)元繼續(xù)以上操作直至得出有效結(jié)論的深度學(xué)習(xí)。在此,本文僅對第一種情況做討論。依靠人為編程的算法運行極易出現(xiàn)算法偏見(也稱算法歧視):算法編寫者是具有社會性的人類,其自身的價值觀、所處的文化氛圍社會制度,以及外部需求(如提出要求驅(qū)使編程人員編寫代碼以實現(xiàn)需求的企業(yè)),都會影響到最終編寫出的算法,即所謂的先行存在偏見(Pre-existing Bias)[2]。但先行存在偏見并非只來自于算法編寫者的個人偏見,同樣也會有來自數(shù)據(jù)的偏見與機器自主學(xué)習(xí)的偏見。本文對算法偏見危機將做如下闡述:

第一,來源于算法編寫者的個人偏見與需求會導(dǎo)致算法偏見發(fā)生。以搜索引擎為例,搜索引擎所能夠提供的網(wǎng)頁是有限的,超出該引擎索引庫的網(wǎng)址并不能夠出現(xiàn)在用戶的搜索范圍內(nèi)。如百度公司提供的用戶必讀中有這樣一段敘述:“任何網(wǎng)站如果不想被百度收錄(即不被搜索到),應(yīng)該及時向百度反映,或者在其網(wǎng)站頁面中根據(jù)拒絕蜘蛛?yún)f(xié)議(Robots Exclusion Protocol)加注拒絕收錄的標(biāo)記,否則,百度將依照慣例視其為可收錄網(wǎng)站。”[3]基于上述表達(dá)可知,索引庫中的網(wǎng)址信息的包羅是由網(wǎng)絡(luò)機器人抓取的,而該抓取路徑則是由技術(shù)人員依照一定的基準(zhǔn)預(yù)先設(shè)立,技術(shù)人員要依照公司的需求通過編寫算法選擇是否將各網(wǎng)站納入搜索引擎的索引庫,亦可以通過編程優(yōu)先使支付高額廣告費的網(wǎng)頁高居搜索結(jié)果之首,即所謂的“競價排名”。搜索引擎平臺與廣告商利用算法進(jìn)行黑箱操作,得出的歧視結(jié)果在一定程度上迷惑了用戶的選擇。除此之外,招聘網(wǎng)站為女性用戶投放幼兒教育、護(hù)理等崗位信息,而非程序員等社會默認(rèn)的以男性為主的崗位信息,同樣能看出算法的編寫運行帶有個人偏見色彩。

第二,來源于數(shù)據(jù)的偏見會導(dǎo)致算法偏見發(fā)生。數(shù)據(jù)本身也存在實效的要求,如數(shù)據(jù)庫不能被實時監(jiān)控,做出定期的更新,算法整合與計算后得出的結(jié)果就無法保證精準(zhǔn)。譬如在個人征信系統(tǒng)中,包含個人信息的數(shù)據(jù)庫更新頻次不足,導(dǎo)致數(shù)據(jù)不準(zhǔn)確,在算法對數(shù)據(jù)進(jìn)行分析后對個人的信用評價將會與真實情況有出入,則會影響到個人貸款的成功率等等。如數(shù)據(jù)庫數(shù)據(jù)出現(xiàn)錯誤,或者一些敏感數(shù)據(jù)在被采集整合的過程中受到社會制度與文化價值所影響,算法所得出的結(jié)果依舊存在歧視。譬如美國有色人種的信貸利率要高于白人的情況時有發(fā)生,該結(jié)果并非一定是由于個人信貸能力評估的,,而是算法編寫者帶有主觀色彩,在這套評估體系下對借貸人的還款能力以其職業(yè),收入等因素作為評價標(biāo)準(zhǔn),忽略了這類數(shù)據(jù)背后存在的種族歧視等社會觀念的現(xiàn)狀[4]。

第三,來源于機器自主學(xué)習(xí)的偏見會導(dǎo)致算法偏見的發(fā)生。機器自主學(xué)習(xí)的本質(zhì)頗具預(yù)測屬性,當(dāng)算法面對大量數(shù)據(jù)時,會優(yōu)先使用先前的訓(xùn)練集對數(shù)據(jù)進(jìn)行整合歸納,提取出該部分?jǐn)?shù)據(jù)共同特征,后再對新數(shù)據(jù)對象按照先前的特征歸類到與其屬性最相似的類別里,若這些同類數(shù)據(jù)還有其他的特征,算法會自動預(yù)測相似數(shù)據(jù)也同樣擁有該特征。以Twitter公司研發(fā)的可供用戶進(jìn)行聊天交流的機器人Tay為例,Tay與用戶先進(jìn)行一段時間的語言互動,在對人類的引導(dǎo)性語言進(jìn)行自主歸納整合再運算處理后,仿照人類的語言思維與人類的繼續(xù)對話。然不幸的是,Tay在與人類對話不到24小時即變身成滿嘴粗話的種族歧視者[5]。可見人類與機器的交互行為,會放大機器自主學(xué)習(xí)的預(yù)測能力,繼而放大本源于人類社會的偏見與歧視。

(三)算法黑箱引發(fā)司法救濟危機

算法經(jīng)過抓取數(shù)據(jù),計算處理數(shù)據(jù)后,步入產(chǎn)出結(jié)果階段。算法產(chǎn)出的結(jié)果在現(xiàn)今追求生產(chǎn)力智能化的時代,能夠高效率的轉(zhuǎn)變?yōu)樯a(chǎn)力投入社會。在算法作為生產(chǎn)力投入社會應(yīng)用后,上文所述的算法本身存在的缺陷轉(zhuǎn)變成為對社會經(jīng)濟秩序與法律秩序的巨大威脅。法律界應(yīng)對這類新生換代速度極快的科技風(fēng)險明顯存在理論上的滯后與實務(wù)上的疲軟,在此筆者將從對我國相關(guān)案例與裁判文書的文本挖掘與分析對此部分進(jìn)行闡述。本文選取的樣本為有關(guān)算法的案例共計4629篇,源自北大法寶網(wǎng)站,時間跨度由2012年至2020年,地域維度覆蓋全國27個省、自治區(qū)、直轄市。在這些樣本中,運用Python語言編寫程序(代碼運行步驟如圖 1所示),以“數(shù)據(jù)”、“個人信息”為關(guān)鍵詞同時進(jìn)行全文遍歷搜索,提取出123個相關(guān)樣本。再列出每份樣本中兩個關(guān)鍵詞的詞頻數(shù),從高到低排列,將同時命中兩個關(guān)鍵詞且其中任意一個命中次數(shù)在25次以上的樣本選中,得到10個符合本文研究目的的樣本。再以“數(shù)據(jù)”“人工智能”為新關(guān)鍵詞按照同樣標(biāo)準(zhǔn)重復(fù)上述操作,得到6個符合本文研究目的的樣本。以上樣本除去重復(fù)案例后共計取得7個符合本文研究目的民事案例樣本(如表1所示)。

依據(jù)表1,筆者認(rèn)為,可以從以下幾個角度對算法結(jié)果轉(zhuǎn)化為服務(wù)階段的救濟危機予以探討。

1.算法運行中的黑箱行為難以被取證

表1中被定性為隱私權(quán)糾紛的兩個民事案件中,原告都在訴訟請求里要求被告方公開涉案算法的運行步驟,被告皆以涉及商業(yè)秘密為由拒絕公開,而這一行為得到了法院的支持。在本文開始提及的康斯威星州法院使用COMPAS算法評估犯罪風(fēng)險作為量刑依據(jù)的案件中,該算法開發(fā)商也以算法屬于其商業(yè)秘密而拒絕公開。算法屬于技術(shù)類知識產(chǎn)權(quán),本身具有秘密性、價值性、實用性及保密性。多數(shù)企業(yè)都將其開發(fā)的算法作為商業(yè)秘密以保護(hù),這種保護(hù)在法律上亦是有依據(jù)的,但這種不可公開性在算法侵犯權(quán)利之時成為了開發(fā)者逃避責(zé)任的主要方式。首先,被侵犯權(quán)利方對算法的運行方式本就缺乏了解,在這一層面,被侵權(quán)方和算法開發(fā)者所掌握的信息并不對稱,在訴訟中的舉證等問題下地位自然不平等;當(dāng)法院要求開發(fā)者解釋算法運行的邏輯時,即使開發(fā)者同意展示算法運行過程,由于算法的專業(yè)性,司法人員也并不能夠完全理解,仍舊依賴算法開發(fā)商自行解釋。算法本身是否有違法之處,運行過程中是否有黑箱操作等問題,成為法院審查過程中的障礙。在這當(dāng)中,判決結(jié)果偏向算法開發(fā)商的幾率就會大大增加,給被侵權(quán)人尋求救濟造成了較大困難。

2.算法結(jié)果轉(zhuǎn)化為服務(wù)后的數(shù)據(jù)產(chǎn)品法律屬性存在異議

在表 1中,被定性為不正當(dāng)競爭的案例共有5個,觀其裁判文書判決部分皆出現(xiàn)對于數(shù)據(jù)產(chǎn)品法律屬性的討論。因在我國現(xiàn)有法律框架下,數(shù)據(jù)產(chǎn)品既無法被納入知識產(chǎn)權(quán)范疇,無法派生其專屬的民事財產(chǎn)權(quán)利,故此5個案例中原告所收集、整合、分析的數(shù)據(jù)應(yīng)當(dāng)屬于用戶,還是屬于運營者,法院都未能給出正面回答。學(xué)界對此現(xiàn)象存在不同看法。一種觀點認(rèn)為數(shù)據(jù)產(chǎn)品雖然源于用戶的個人信息,但經(jīng)過網(wǎng)絡(luò)運營者加工整合后已成為新的產(chǎn)品,被賦予了商業(yè)性,抓取、加工的算法作為知識產(chǎn)權(quán),為該數(shù)據(jù)附加了商業(yè)價值,因此不再與用戶本身有直接聯(lián)系,相應(yīng)權(quán)利應(yīng)當(dāng)屬于網(wǎng)絡(luò)運營者。這種看法看似有理有據(jù),實則將個人信息與數(shù)據(jù)產(chǎn)品割裂看待,否認(rèn)了數(shù)據(jù)產(chǎn)品的本質(zhì)來源,有悖于個人信息保護(hù)立法的精神。另一種觀點否認(rèn)上述看法,認(rèn)為數(shù)據(jù)產(chǎn)品來源于用戶的個人信息數(shù)據(jù),運用算法單純整合分析不能破除其本質(zhì)屬性,即數(shù)據(jù)產(chǎn)品仍舊保留用戶的個人信息,用戶有權(quán)保留對個人信息流向與運用的控制權(quán)。然而在司法實踐中,并未有典型判例以精準(zhǔn)標(biāo)準(zhǔn)界定上述控制權(quán)究竟為何物。表 1被定性為不正當(dāng)競爭的5個案例中,法院采取了折衷辦法,賦予了數(shù)據(jù)產(chǎn)品以競爭法性質(zhì)的財產(chǎn)權(quán)益,確認(rèn)數(shù)據(jù)產(chǎn)品為原告帶來的商業(yè)價值,且認(rèn)定該商業(yè)價值是原告市場經(jīng)營活動中的自身優(yōu)勢,被告行為有違商業(yè)道德,對原告產(chǎn)生了實際損害,故可以適用反不正當(dāng)競爭法予以規(guī)制。

二、算法黑箱治理的域外經(jīng)驗:歐盟《通用數(shù)據(jù)保護(hù)條例》與歐洲《人工智能倫理與數(shù)據(jù)保護(hù)宣言》

(一)技術(shù)與法律治理角度:歐盟《通用數(shù)據(jù)保護(hù)條例》的基本規(guī)定

2018年5月25日,歐盟《通用數(shù)據(jù)保護(hù)條例》(以下簡稱“GDPR”)正式宣布生效,該條例以1995年《數(shù)據(jù)保護(hù)指令》為基礎(chǔ),對于個人數(shù)據(jù)的使用做出了較為全面的規(guī)制,以技術(shù)手段與法律規(guī)制手段雙管齊下,為應(yīng)對算法黑箱帶來的威脅提供了新穎且細(xì)膩的策略。其貢獻(xiàn)不僅在于明晰算法黑箱與數(shù)據(jù)之間的交互關(guān)系,相較一般的事后規(guī)制,更將眼光聚集于事前預(yù)防控制,值得各國引以為他山之石。

1.歐盟《通用數(shù)據(jù)保護(hù)條例》的預(yù)防治理手段

第一,分類個人敏感數(shù)據(jù),并要求使用者對數(shù)據(jù)進(jìn)行脫敏處理。GDPR將以下幾種個人信息作為禁止處理的個人敏感數(shù)據(jù):(1)種族或民族出身;(2)政治觀點;(3)宗教或哲學(xué)信仰;(4)工會成員身份;(5)涉及健康、性生活或性取向的數(shù)據(jù);(6)基因數(shù)據(jù);(7)精細(xì)處理可識別特定個人的生物識別數(shù)據(jù)[6]。以上七類最大程度涵蓋了在公眾眼里屬于私人或個人的大多數(shù)信息內(nèi)容,有效縮小了算法抓取用戶信息的層面,從數(shù)據(jù)源頭保障了個人信息安全,同時亦考慮到算法“GIGO”特征(“Garbage in, Garbage out”),從數(shù)據(jù)源頭最大程度減少算法偏差引發(fā)的結(jié)果歧視。但該規(guī)定同樣也考慮了醫(yī)療、法制等方面的特殊情況,允許該類信息在無損于信息安全的情況下予以被搜集。

第二,關(guān)于數(shù)據(jù)主體權(quán)利的擴大升級。首先,GDPR在其框架下建構(gòu)了更多、更細(xì)致的數(shù)據(jù)主體權(quán)利,包括數(shù)據(jù)主體的知情權(quán),個人數(shù)據(jù)備份請求權(quán),更正信息權(quán),被遺忘權(quán)與限制使用權(quán),數(shù)據(jù)攜帶權(quán)以及反對應(yīng)用權(quán)。以上權(quán)利的增加在數(shù)據(jù)主體對個人信息數(shù)據(jù)從使用到處理再到應(yīng)用的控制鏈中完美融入,形成一個首尾兼顧的閉環(huán)以保護(hù)權(quán)利,令數(shù)據(jù)主體擺脫被動接受結(jié)果的局面,重新掌握對個人信息控制的主動權(quán)。其次,GDPR第4條第11款給出了數(shù)據(jù)主體同意其數(shù)據(jù)被處理的具體標(biāo)準(zhǔn):“數(shù)據(jù)主體的同意是指數(shù)據(jù)主體依照其意志自由做出的、特定的、之情的、明確的指示。通過以聲明或清晰肯定的行為做出的該等知識,數(shù)據(jù)主體表明同意處理與其相關(guān)的個人數(shù)據(jù)。”第七條同時提到,數(shù)據(jù)的采納者或使用者必須能夠證明數(shù)據(jù)主體同意對其信息進(jìn)行處理,推薦使用書面形式的許可,以便于舉證[6]。該條規(guī)定將數(shù)據(jù)主體的意思表示納入規(guī)制范圍,并規(guī)定了該意思表示的有效要件,即同意必須是基于真實自主且被用直觀形式明確清晰表示的。對于“知情同意”的細(xì)化更進(jìn)一步保護(hù)了數(shù)據(jù)主體的自決權(quán),為上述各項權(quán)利的行使保駕護(hù)航。

第三,對數(shù)據(jù)處理過程的多方面約束,即個人數(shù)據(jù)處理原則的細(xì)化。GDPR要求數(shù)據(jù)使用者對所使用的數(shù)據(jù)負(fù)責(zé),向其提出了如下原則:合理合法的抓取用個人數(shù)據(jù),且過程確保公正透明;除用于研究公共科學(xué)或歷史問題的目的外,抓取使用個人數(shù)據(jù)必須擁有合法目的且詳細(xì)說明,不得違反初始目的;抓取使用個人數(shù)據(jù)要在適當(dāng)范圍和程度內(nèi)進(jìn)行,不得超出合理需要;及時跟進(jìn)數(shù)據(jù)更新,以確保數(shù)據(jù)準(zhǔn)確性;對于可識別數(shù)據(jù)主體身份的數(shù)據(jù)應(yīng)當(dāng)有一定合理期限;對個人數(shù)據(jù)必須做到安全使用,且負(fù)有保護(hù)數(shù)據(jù)不受毀損與滅失的義務(wù)[7]。

2.歐盟《通用數(shù)據(jù)保護(hù)條例》的事后規(guī)制手段

在算法侵犯個人數(shù)據(jù)信息時,必要的問責(zé)機制可以更好的提供救濟并預(yù)防此類威脅的再度發(fā)生。GDPR第30條規(guī)定了問責(zé)的具體方法,條款中明確要求數(shù)據(jù)控制者或處理者必須對其握的數(shù)據(jù),在處理過程中的方式方法予以記錄。這一條款在數(shù)據(jù)處理的過程中起到了良好的監(jiān)督作用,并在數(shù)據(jù)處理完畢后的時間里為可能出現(xiàn)的侵權(quán)糾紛提供了可被獲得的直接證據(jù),擴大了該類糾紛的救濟路徑。如數(shù)據(jù)主體對控制方處理數(shù)據(jù)的方法提出質(zhì)疑或者不滿,數(shù)據(jù)控制方有義務(wù)對該質(zhì)疑進(jìn)行解釋說明。該種解釋并不是需要透露算法的編寫細(xì)節(jié)或可以被稱作是商業(yè)秘密的內(nèi)容,只需要做被大眾普遍認(rèn)知所接受的簡單易懂的邏輯分析。大眾所要求的可理解的解釋,是對輸入數(shù)據(jù)與輸出結(jié)果之間存在何種因果聯(lián)系的好奇,而不是對于該算法本身如何編寫的好奇。此機制在一定程度上減輕了算法黑箱帶給公眾的恐懼感和不信任感,也在主觀上抑制了算法編寫者的個人偏向。

GDPR認(rèn)為,針對數(shù)據(jù)安全的保護(hù)不應(yīng)當(dāng)僅從數(shù)據(jù)使用者角度進(jìn)行,如果缺乏政府的干預(yù)與監(jiān)管,手段依舊疲軟。因此,GDPR倡導(dǎo)每一個成員國應(yīng)當(dāng)建立至少一個特有的數(shù)據(jù)監(jiān)督保護(hù)機構(gòu)。該機構(gòu)以政府作為依托,調(diào)試數(shù)據(jù)內(nèi)部如處理者、控制者幾方之間的聯(lián)動,從外部對數(shù)據(jù)治理與規(guī)制起到良好的監(jiān)督、引導(dǎo)作用。即保持?jǐn)?shù)據(jù)內(nèi)部各方自治的靈活性,亦在外部對其監(jiān)控評估。GDPR還設(shè)定了對違規(guī)者最高罰款2000萬歐元或上一年度全球營業(yè)額的4%的懲罰標(biāo)準(zhǔn),針對違規(guī)程度賦予政府監(jiān)管機構(gòu)自由裁量的權(quán)利,政府監(jiān)管機構(gòu)亦可以從市場角度激勵違規(guī)者,如對嚴(yán)重違規(guī)者處以市場準(zhǔn)入資格的剝奪等商業(yè)化手段[8]。

綜上所述,筆者認(rèn)為,歐盟GDPR條例對于個人數(shù)據(jù)的保護(hù),是一個從數(shù)據(jù)來源管理到問責(zé)機制設(shè)立的閉環(huán)。其從數(shù)據(jù)源頭就開始進(jìn)行具體的規(guī)制,在數(shù)據(jù)處理過程中予以監(jiān)督引導(dǎo),并針對可能出現(xiàn)的侵權(quán)問題做出有效可行約束,值得我國借鑒。

(二)倫理治理角度:歐洲《人工智能倫理與數(shù)據(jù)保護(hù)宣言》的基本規(guī)定

2018年10月23日,《人工智能倫理與數(shù)據(jù)保護(hù)宣言》(以下簡稱“宣言”)在第40屆數(shù)據(jù)保護(hù)與隱私專員國際大會上通過。該宣言立足于對人工智能利弊的充分了解,為應(yīng)對人工智能在數(shù)據(jù)隱私方面存在的潛在威脅,以在人工智能發(fā)展中維護(hù)人權(quán)、保護(hù)人類尊嚴(yán)為核心價值[9],提出以下原則。

1.尊重人權(quán)及公平原則與保護(hù)隱私原則

人工智能的設(shè)計,開發(fā)與使用應(yīng)當(dāng)具有目的的合理性,對人類發(fā)展的促進(jìn)性,使用與開發(fā)目的一致性,在特定領(lǐng)域的使用要具有界限。現(xiàn)今不論計算機學(xué)科或是法律學(xué)科,似乎皆默認(rèn)人工智能發(fā)展終有一日會覆蓋全人類社會。然而就上文所述cookie侵犯隱私權(quán)案,臉書允許小程序收集販賣用戶信息,美國以COMPAS評估再犯可能性程序協(xié)助審判,無一不為泛用人工智能技術(shù)敲警鐘。人工智能技術(shù)有其本身的缺陷,暫時無法做到在價值觀等主觀判斷能力上與人腦同步。因此,無論是在開發(fā)階段還是使用階段,人工智能技術(shù)都應(yīng)當(dāng)以維護(hù)人權(quán)為核心價值,以人類理性、道德良知與社會正義為內(nèi)在精神,保護(hù)隱私等個人數(shù)據(jù),在人工智能技術(shù)的發(fā)展中融合法治倫理以保護(hù)人類的尊嚴(yán)。

2.提高人工智能系統(tǒng)的透明度和可理解程度

需要對人工智能的潛在影響保持持續(xù)的關(guān)注、警惕以及問責(zé)[9]。不論是單一依靠政府管理,還是依靠人工智能技術(shù)開發(fā)者與使用者自我規(guī)制,都無法實現(xiàn)人工智能的最佳優(yōu)化。在系統(tǒng)透明度與可理解程度層面,不僅應(yīng)當(dāng)有來自于公權(quán)力的強制披露,還應(yīng)當(dāng)從使用人群的角度出發(fā),鼓勵對人工智能技術(shù)教育、認(rèn)知等方面投資,以保證社會對人工智能的理解達(dá)到與其發(fā)展相適應(yīng)水平。政府作為公權(quán)力一方,應(yīng)當(dāng)聯(lián)動人工智能行業(yè)自治組織,對人工智能系統(tǒng)本身及其績效進(jìn)行審核與評估,在發(fā)生技術(shù)侵權(quán)糾紛時建立多方問責(zé)機制,試行利益鏈各方連帶責(zé)任制度,為各方參與者提供可信賴的維權(quán)制度。

3.擴大個人授權(quán)原則與減少偏見與歧視原則

擴大個人授權(quán)原則的首要要求即為保障公眾的知情權(quán)與選擇權(quán)。在人工智能技術(shù)的應(yīng)用中,公眾數(shù)據(jù)采集作為第一步,存在侵犯用戶網(wǎng)絡(luò)隱私權(quán)的可能性。在上文中我國學(xué)者趙華明認(rèn)為網(wǎng)絡(luò)隱私權(quán)應(yīng)當(dāng)是一種人格權(quán),人格權(quán)是具有排他性的支配權(quán)。技術(shù)應(yīng)用者不能在沒有本人授權(quán)時擅自對包含其隱私的數(shù)據(jù)進(jìn)行收集、二次加工甚至販?zhǔn)邸H缛舨粚?shù)據(jù)的使用以授權(quán)限制,性別人種等各類敏感數(shù)據(jù)被輕易獲取,而人工智能技術(shù)基于這類未脫敏數(shù)據(jù)得出的分析結(jié)論,有極大可能存在偏見、誤差甚至于歧視。因此,應(yīng)當(dāng)賦予用戶以自主授權(quán)的權(quán)利,使人工智能技術(shù)應(yīng)當(dāng)在數(shù)據(jù)采集時即被約束限制,以正義的數(shù)據(jù)尊重和保護(hù)人權(quán)。

綜上所述,筆者認(rèn)為,宣言注意到了人工智能對人類基本權(quán)利的行使與自由的威脅,提出了對該種威脅更具針對性的一系列措施,在數(shù)據(jù)保護(hù)方面從人權(quán)與社會角度入手,強調(diào)技術(shù)倫理觀念的灌輸,以倫理約束技術(shù),為人工智能的法治化管理開辟了更廣泛,更具實踐性的路徑,亦值得我國借鑒。

三、我國應(yīng)對算法黑箱法律挑戰(zhàn)的對策及建議

(一)從技術(shù)規(guī)范角度規(guī)制算法黑箱侵權(quán)

第一,數(shù)據(jù)庫管理過程中對用戶權(quán)限應(yīng)當(dāng)嚴(yán)格控制,數(shù)據(jù)庫囊括的數(shù)據(jù)應(yīng)當(dāng)被更加精細(xì)的分級。數(shù)據(jù)庫管理者對用戶的權(quán)限有功能權(quán)限和數(shù)據(jù)權(quán)限兩種,功能權(quán)限在此不表,數(shù)據(jù)權(quán)限應(yīng)當(dāng)被嚴(yán)格控制。對于屬于個人敏感信息的數(shù)據(jù),對其訪問數(shù)據(jù)權(quán)限應(yīng)當(dāng)提高,如只能由政府做人口普查等數(shù)據(jù)統(tǒng)計,或是醫(yī)療、司法部門工作需要之時,才可以對此類敏感數(shù)據(jù)有權(quán)限訪問并操作。普通的用戶則不能對該類數(shù)據(jù)進(jìn)行訪問或抓取。歐盟《通用數(shù)據(jù)保護(hù)條例》中對宗教、膚色等作為個人敏感數(shù)據(jù),我國對數(shù)據(jù)庫的數(shù)據(jù)分層也應(yīng)當(dāng)達(dá)到如此精準(zhǔn)劃分程度。籠統(tǒng)看來,應(yīng)當(dāng)將數(shù)據(jù)在相關(guān)業(yè)務(wù)規(guī)則中劃分為普通用戶有權(quán)限訪問操作與非特定用戶不可訪問操作兩種,在非特定用戶不可訪問操作范圍內(nèi),應(yīng)當(dāng)涵蓋個人隱私、商業(yè)秘密等私密數(shù)據(jù)。如宗教信仰,患病狀況,受行政處罰情況等各類可以直接識別或通過其他手段即可識別特定人員身份的數(shù)據(jù),應(yīng)當(dāng)予以特別保護(hù)。

第二,以算法規(guī)制算法。算法在被設(shè)計之初,應(yīng)當(dāng)在代碼中加入數(shù)據(jù)保護(hù)步驟,即歐盟《通用數(shù)據(jù)保護(hù)條例》中提及的“經(jīng)設(shè)計的數(shù)據(jù)保護(hù)”。由政府監(jiān)管機構(gòu)提出該算法設(shè)計標(biāo)準(zhǔn),算法設(shè)計開發(fā)者在設(shè)計中應(yīng)當(dāng)使用算法透明度提高工具(Transparency Enhancing Tools)。比如在抓取數(shù)據(jù)環(huán)節(jié)就設(shè)以標(biāo)準(zhǔn)過濾數(shù)據(jù),以做到數(shù)據(jù)脫敏;在算法運行環(huán)節(jié)對偏向結(jié)果予以警報甚至于自我糾正;如以政府為主導(dǎo),開發(fā)政府大數(shù)據(jù)資源聚合型網(wǎng)絡(luò)系統(tǒng),在社會公共服務(wù)中以政府監(jiān)管機構(gòu)為主體使用數(shù)據(jù),以公權(quán)力控制數(shù)據(jù)以對抗私權(quán)利濫用數(shù)據(jù)。

第三,算法投入市場和運行需要有專門的評估標(biāo)準(zhǔn)與管理模式。 在任何工程中,對安全未雨綢繆的評估都是不可或缺的部分,科學(xué)技術(shù)工程也不例外。政府作為監(jiān)管者牽頭,將算法安全使用的標(biāo)準(zhǔn)量化,根據(jù)現(xiàn)實提出一套覆蓋面較廣的評估標(biāo)準(zhǔn)更加容易達(dá)到管理算法市場的目的。這種對算法安全標(biāo)準(zhǔn)的量化必須是動態(tài)的 ,是講究實效主義的,即可以跟隨大數(shù)據(jù)時代的飛速發(fā)展而自我完善。針對數(shù)據(jù)安全角度,參照歐盟《通用數(shù)據(jù)條例》給出的標(biāo)準(zhǔn)為數(shù)據(jù)脫敏,未脫敏的數(shù)據(jù)不得在脫離政府監(jiān)管流向市場;要求數(shù)據(jù)庫的實時更新在科學(xué)合理的時間內(nèi)完成,政府監(jiān)管者設(shè)定合理時間范圍,要求數(shù)據(jù)使用者與控制者在其實用范圍內(nèi)自我管理,儲存使用數(shù)據(jù)在必要時間內(nèi)完成,對數(shù)據(jù)進(jìn)行定時刪除清理;針對算法運行角度,建立以政府為依托的算法監(jiān)控評估機構(gòu),建立算法大類登記入庫制度,使算法編寫者對其所編程序負(fù)責(zé);要求數(shù)據(jù)處理者從獲取數(shù)據(jù)開始就對數(shù)據(jù)進(jìn)行電子備案,以防糾紛發(fā)生后無證可取。

第四,在市場經(jīng)濟下對算法商業(yè)應(yīng)用進(jìn)行合理的技術(shù)監(jiān)管。 以搜索引擎為例,其開發(fā)、投入使用與后期維護(hù)都需要在市場環(huán)境下進(jìn)行,用戶的使用率是其收入來源的基礎(chǔ),但索引庫的網(wǎng)址儲備和根據(jù)搜索關(guān)鍵詞投放的廣告才是其發(fā)展的主要經(jīng)濟來源。搜索引擎作為算法中最直白的趨利存在,在過分的注重商業(yè)利潤時將會對用戶造成不良影響,例如百度搜索引擎的競價排名行為。對此,監(jiān)管部門規(guī)定搜索頁面的廣告投放數(shù)量比例不得超出該頁面搜索結(jié)果的30%,但此規(guī)定效用似乎并不能達(dá)到預(yù)期——筆者以“考研”為關(guān)鍵詞在百度進(jìn)行搜索,第一頁顯示的15個搜索結(jié)果中,廣告網(wǎng)頁就有5個,且處于搜索頁面的頂端。可見,我國相關(guān)監(jiān)管部門還需擴大監(jiān)管力度,有固定的監(jiān)管標(biāo)準(zhǔn)和定期的抽查,開放民眾投訴渠道,提高監(jiān)管能效。然而,該種監(jiān)管不得超出必要的限度,不合理的干涉將會導(dǎo)致信息來源范圍的銳減,對民眾獲取有效信息的途徑和數(shù)量產(chǎn)生負(fù)面作用。

(二)從法律規(guī)范角度規(guī)制算法黑箱侵權(quán)

第一,我國在法律規(guī)制上,可以從算法可解釋性方面提高算法透明度。我國可以在立法上要求算法開發(fā)者與使用者對使用的算法作解釋說明的義務(wù),這種義務(wù)應(yīng)當(dāng)有雙層含義:第一,事前的解釋。算法開發(fā)者與使用者在使用用戶數(shù)據(jù)前的協(xié)議應(yīng)當(dāng)被顯著置放在使用頁面,當(dāng)出現(xiàn)糾紛時,應(yīng)當(dāng)以締結(jié)合同意思自治為原則,而不是僅以用戶的點擊同意實踐行為作為事實以忽略用戶真實意思表達(dá)。第二,事后的解釋。我國相關(guān)立法可以借鑒密碼學(xué)中“零知識證明”概念,要求算法開發(fā)者與使用者在不透漏算法作為商業(yè)秘密而被保護(hù)的部分的情況下,對算法自身輸入的數(shù)據(jù)與輸出的結(jié)果之間的因果關(guān)系做出可以被普通大眾所明晰的解釋,將算法運行的黑箱予以透明化、可視化,增強大眾的信任感和安全感,保護(hù)信息的對稱性,防止算法編寫者人工干預(yù)算法的運行[10]。對于難以解釋甚至無法做到透明的算法,且并沒有能夠發(fā)揮同等作用的替代品存在時,立法上應(yīng)當(dāng)持以謹(jǐn)慎態(tài)度審視該類算法的使用。如司法上使用人工智能算法對犯罪嫌疑人再犯罪可能性評估,該產(chǎn)品需要使用的個人敏感數(shù)據(jù)過多,且評估結(jié)果對未來有重要影響,此時對于算法運行的解釋就存在泄漏被評估者個人信息的風(fēng)險。此類算法系統(tǒng)的使用應(yīng)當(dāng)被嚴(yán)格控制在司法機關(guān)手中,不應(yīng)當(dāng)將該系統(tǒng)或者與該系統(tǒng)評估手段相同的系統(tǒng)應(yīng)用在社區(qū),用人單位等場所。

第二,我國司法實踐中對個人信息的定義解讀含混。我國現(xiàn)有法律雖然對個人信息的保護(hù)做出了規(guī)定,亦要求任何主體都不得非法使用,但并未將除可識別特定個體的個人信息以外的非個人信息的保護(hù)做出規(guī)定。我國《網(wǎng)絡(luò)安全法》中將用戶信息與個人信息做了保護(hù)層面上的區(qū)分,對用戶信息僅要求使用者使用時負(fù)有說明義務(wù),對個人信息則是約束使用者的使用目的、使用范圍與使用場所。對于非個人信息范圍內(nèi)的用戶信息,在我國司法糾紛中多為關(guān)乎用戶自身的私密痕跡信息。這類信息的保護(hù)可謂“兩不沾”:既不能以個人信息保護(hù),也不能以隱私保護(hù)。筆者認(rèn)為,何種數(shù)據(jù)信息可以作為一般信息被抓取,何種信息作為屬于私人,非經(jīng)自愿提供不得擅自搜集,在該定性尚存含混解讀時,應(yīng)當(dāng)要求司法機關(guān)將數(shù)據(jù)信息的定性放入案件實際情況中看待,以案件中數(shù)據(jù)信息的原貌結(jié)合其糾紛場景,再對數(shù)據(jù)信息做法律定義,而非割裂二者聯(lián)系單獨對待。則容易在司法實踐中造成分歧和不公。

第三,政府監(jiān)管與市場經(jīng)濟激勵雙管齊下,建立合理的問責(zé)機制與懲罰制度。僅依靠政府為主導(dǎo)建立各種監(jiān)管機構(gòu)推行各種防治措施,在面對日新月異層出不窮的算法時,治理效果日漸衰退,算法黑箱危機頻發(fā)。因算法商業(yè)性的一面日益明顯,對算法黑箱的防治須得放入社會市場經(jīng)濟中,然而僅依靠市場的自我調(diào)節(jié)與激勵,更容易因人類趨利性而導(dǎo)致數(shù)據(jù)控制者惡意競爭,擾亂市場經(jīng)濟秩序,形成數(shù)據(jù)失控的局面。由此可知治理算法黑箱侵權(quán),政府監(jiān)管與市場經(jīng)濟激勵缺一不可。政府首要須對數(shù)據(jù)市場進(jìn)行實時監(jiān)控,控制數(shù)據(jù)市場的占有份額,以防止某一數(shù)據(jù)控制者獨大引發(fā)不正當(dāng)競爭與壟斷。其次,在數(shù)據(jù)控制者違反行業(yè)道德或相關(guān)法律規(guī)定時,除經(jīng)濟處罰外,還應(yīng)當(dāng)從時間上或經(jīng)營范圍限制其進(jìn)入市場,甚至剝奪其進(jìn)入市場的資格。最后,針對不符合算法評估標(biāo)準(zhǔn)的數(shù)據(jù)控制者,政府應(yīng)當(dāng)有嚴(yán)格的懲罰制度和相對彈性化的自由裁量權(quán),如歐盟《通用數(shù)據(jù)保護(hù)條例》中設(shè)定最高罰款數(shù)額與以營業(yè)額作為罰款參照標(biāo)準(zhǔn),即不能過于嚴(yán)苛致使數(shù)據(jù)市場頹靡,也不能放任數(shù)據(jù)被不正義、不合法的使用。

(三)從倫理角度治理算法編寫與應(yīng)用環(huán)境

第一,參照人工智能開發(fā)六項原則中的福祉原則與安全原則,要求算法開發(fā)者應(yīng)使算法符合人類社會的基本道德倫理要求,以公共利益與人類發(fā)展為目標(biāo),為社會創(chuàng)造福祉。保證算法的可追溯性與透明性,使用戶對其數(shù)據(jù)被挖掘使用有權(quán)利要求使用人員做出合理使用的保證,在發(fā)現(xiàn)數(shù)據(jù)被不合理使用后,有權(quán)利提出質(zhì)疑,使用者有義務(wù)對其質(zhì)疑做出清晰明確的回應(yīng)。建議保險行業(yè)針對算法侵權(quán)損害設(shè)立新型險種。算法開發(fā)商對其算法運行所致后果投保,用以應(yīng)對在所開發(fā)的算法導(dǎo)致侵權(quán)損害的情況下,能夠通過保險公司對被侵權(quán)人的損失進(jìn)行部分基本賠償,以減輕開發(fā)商本身的賠償壓力,亦使被侵權(quán)人擁有較為可靠的求償渠道。這對算法開發(fā)商本身而言,既是一種合理規(guī)避風(fēng)險的路徑,又是一個時刻提醒開發(fā)商不可突破法律與道德、技術(shù)倫理底線的“緊箍咒”。

第二,參照人工智能三項原則中的目的原則與技能原則,在算法設(shè)計開發(fā)之初,考慮算法開發(fā)人員與數(shù)據(jù)擁有人的個人合理期望,確保算法的使用與個人信息的抓取處理不違背其本身所期望的合理目的。算法開發(fā)人員應(yīng)當(dāng)在其算法編寫之時就明確使用目的,算法使用者應(yīng)當(dāng)在使用之前被評估其使用目的是否與算法編寫人員目的一致且合法。國家在教育與培訓(xùn)方面投資,以提高社會對人工智能產(chǎn)物的認(rèn)知度。各高等學(xué)校可多注重學(xué)科交叉教育,開設(shè)關(guān)于人工智能與各專業(yè)相結(jié)合的理論或?qū)嵺`課程;相關(guān)政府機構(gòu)或企業(yè)、倫理委員會等,可聘請專業(yè)人才對成員做相關(guān)培訓(xùn);針對可以用被大眾理解的語言解釋人工智能的私人或者高校科研機構(gòu)進(jìn)行投資,以提高算法的透明度、可理解度,鼓勵公眾參與監(jiān)督,以應(yīng)對人工智能的高速發(fā)展,使社會認(rèn)知與該發(fā)展程度相匹配。

第三,政府聯(lián)合企業(yè)推動建立有關(guān)因算法侵權(quán)損害賠償專項基金。我國立法中并沒有與算法侵權(quán)損害賠償有關(guān)的獨有賠償模式,現(xiàn)如今對于涌現(xiàn)的此類案件,各地法官多用普通侵權(quán)責(zé)任分配原則解決糾紛。但由于算法侵權(quán)本身難以認(rèn)定,其侵權(quán)賠償更無明確標(biāo)準(zhǔn),各地作法難以統(tǒng)籌監(jiān)督,對被侵權(quán)人的損害賠償也難以做到公平公正。對于此問題,筆者認(rèn)為可以參考我國船舶油污損害賠償機制,即建立專項賠償基金。由政府發(fā)起,投入相應(yīng)資金作為基金的一部分,再由算法開發(fā)企業(yè)繳納部分費用,以對其開發(fā)的算法如導(dǎo)致侵權(quán)損害賠償作擔(dān)保。在算法侵權(quán)發(fā)生后,被侵權(quán)人就其損害與算法有因果關(guān)系做出證明后,即可向算法侵權(quán)賠償基金會提出申請,先予支付部分基本賠償款,緩解算法侵權(quán)求償難的問題。建立專項基金對于算法開發(fā)企業(yè)亦是縮小風(fēng)險的優(yōu)選之舉,在發(fā)生群體算法侵權(quán)賠償事件時,算法開發(fā)企業(yè)能夠因基金會的賠償而減少部分賠償金的支出,從而對算法行業(yè)的良性發(fā)展保駕護(hù)航。

第四,推進(jìn)我國算法倫理委員會的建設(shè),規(guī)范行業(yè)自治。我國可仿照日本設(shè)立算法倫理委員會,作為行業(yè)自律的監(jiān)督者與保護(hù)者,分擔(dān)政府監(jiān)督的重?fù)?dān)。賦予倫理委員會以部分自我治理自我調(diào)節(jié)的空間,可設(shè)定獎懲機制,以調(diào)動數(shù)據(jù)控制者積極參與自治,實現(xiàn)行業(yè)聯(lián)動發(fā)展。在產(chǎn)生糾紛時可以首先由算法倫理委員會出面協(xié)調(diào),無法合理合法解決糾紛時,再付諸法律,以減輕司法機關(guān)辦案壓力。但不可以算法倫理委員會的協(xié)調(diào)作為訴訟的必經(jīng)前置程序,應(yīng)當(dāng)尊重當(dāng)事人意思自治,防止當(dāng)事人得不到有效法律救濟。

結(jié)? 語

大數(shù)據(jù)時代的來臨帶來的新成果便捷了人類生活,但與之而來的社會各方面的新問題、新盲區(qū)也不容忽視。科技發(fā)展是無罪的、中立的,但在其之上賦予的價值則需要引導(dǎo)和規(guī)制,而這種引導(dǎo)與規(guī)制,正是法律所要起到的作用;算法黑箱的存在是無可避免的,但這個黑匣子對信息的蒙蔽程度是可以通過人為改變的,而這種改變,正是法律通過不斷的發(fā)現(xiàn)盲區(qū)、完善自我才能夠促進(jìn)的。2017年,我國政府工作報告首次將人工智能收納其中,黨的十九大報告中明確指出:“加快建設(shè)制造強國,加快發(fā)展先進(jìn)制造業(yè),推動互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能和實體經(jīng)濟深度融合,在中高端消費、創(chuàng)新引領(lǐng)、綠色低碳、共享經(jīng)濟、現(xiàn)代供應(yīng)鏈、人力資本服務(wù)等領(lǐng)域培育新增長點、形成新動能”。作為勢頭最勁的發(fā)展中國家,我國對于人工智能發(fā)展及其影響的重視在逐步增加。只有跟隨時代發(fā)展的腳步,對新事物給與足夠的重視與關(guān)注,善于發(fā)現(xiàn)遺漏和盲區(qū),不懼于迎接挑戰(zhàn),才能為科學(xué)技術(shù)的發(fā)展多做助力,提高民眾對接受新事物的安全感和信任感。

參考文獻(xiàn):

[1] 劉友華.算法偏見及其規(guī)制路徑研究[J].法學(xué)雜志,2019,40(6):55-66.

[2] Goldman Eric.Search Engine Bias and the Demise of Search Engine Utopianism [M].Yale Journal of Law & Technology,2005:42-47.

[3] 趙鵬.搜索引擎對信息傳播的影響及其法律規(guī)制[J].北京:比較法研究Journal of Comparative Law,2018(4):188-200.

[4] 姜野,李擁軍.破解算法黑箱:算法解釋權(quán)的功能證成與適用路徑——以社會信用體系建設(shè)為場景[J].福建師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2019(4):84-172.

[5] 張玉宏,秦志光,肖樂.大數(shù)據(jù)算法的歧視本質(zhì)[J].自然辯證法研究,2017,33(5):81-86.

[6] 王融.《歐盟數(shù)據(jù)保護(hù)通用條例》詳解[J].大數(shù)據(jù)期刊,2016,2(4):93-101.

[7] 王文華,李東方.論司法實務(wù)對數(shù)據(jù)保護(hù)立法的推進(jìn)——以歐盟《通用數(shù)據(jù)保護(hù)條例(GDPR)》為例[J].中國應(yīng)用法學(xué),2020(3):132-144.

[8] 程瑩.元規(guī)制模式下的數(shù)據(jù)保護(hù)與算法規(guī)制——以歐盟《通用數(shù)據(jù)保護(hù)條例》為研究樣本[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2019,37(4):48-55.

[9] 歐洲數(shù)據(jù)保護(hù)專員,意大利個人數(shù)據(jù)保護(hù)專員,孔祥盛,等.人工智能倫理與數(shù)據(jù)保護(hù)宣言[J].北京 :辦公自動化,2019(1):12-15.

[10] 張凌寒.商業(yè)自動化決策的算法解釋權(quán)研究[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2018,36(3):65-74.

The Governance of the Algorithm Black Box in the Era of Artificial Intelligence

Wu Jiaojun, Guo Wan'er

(School of Humanity and Law, Hefei University of Technology, Hefei 230009, China)

Abstract:As a means for human beings to capture, process and output data by machines, the results of the algorithm are affected by the subjective deviation of the writer, technical deviation and so on. Because of the highly professional nature of the algorithm, users can not know the details about the capturing, processing and application of their own information. This opacity obviously affects the rights and interests of users and social order. It also brings great challenges to the legal mechanism of our country. According to the operation mode of the algorithm, this paper analyzes the triple crisis of data security, algorithm bias and judicial relief brought by the algorithm black box from three aspects: data collection, algorithm operation and application. Based on the governance provisions of the algorithm black box in the EU General Data Protection Regulation and the European Declaration on Ethics and Data Protection of Artificial Intelligence, and in view of the above triple crisis, this paper discusses the governance of the algorithm black box from the perspectives of technology, law and ethic to achieve the legal and optimal coupling of the legalization management of the algorithm black box.

Key words: algorithm black box; algorithm bias; personal information; artificial intelligence; technical ethics

猜你喜歡
人工智能
我校新增“人工智能”本科專業(yè)
用“小AI”解決人工智能的“大”煩惱
汽車零部件(2020年3期)2020-03-27 05:30:20
當(dāng)人工智能遇見再制造
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
AI人工智能解疑答問
人工智能與就業(yè)
基于人工智能的電力系統(tǒng)自動化控制
人工智能,來了
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
人工智能來了
主站蜘蛛池模板: 亚洲av日韩综合一区尤物| 天天爽免费视频| 国产大全韩国亚洲一区二区三区| 婷婷丁香色| 亚洲va视频| 波多野结衣久久高清免费| 国产区91| 亚洲a免费| 人人看人人鲁狠狠高清| 国产麻豆另类AV| 亚洲成av人无码综合在线观看| 亚洲浓毛av| 免费av一区二区三区在线| 中文字幕亚洲专区第19页| 一本色道久久88| 中文字幕av一区二区三区欲色| 美女一级免费毛片| 久久精品免费国产大片| 国产乱子伦无码精品小说| 2020最新国产精品视频| 在线看免费无码av天堂的| 91精品情国产情侣高潮对白蜜| 国产系列在线| 国产欧美精品专区一区二区| 亚洲天堂免费| 一级毛片基地| 国产91在线|中文| 免费国产高清精品一区在线| 毛片久久网站小视频| 狠狠躁天天躁夜夜躁婷婷| 欧美日韩国产成人在线观看| 亚洲黄色视频在线观看一区| 欧美成人午夜影院| 中国国产高清免费AV片| 国产极品粉嫩小泬免费看| 亚洲视频免| 国产在线精品99一区不卡| 在线视频精品一区| 久久久久国产一区二区| 97无码免费人妻超级碰碰碰| 天天做天天爱天天爽综合区| 国产成人永久免费视频| 日韩黄色在线| 扒开粉嫩的小缝隙喷白浆视频| 丰满少妇αⅴ无码区| 操国产美女| 国产黑人在线| 另类欧美日韩| 久草中文网| 国产成人综合亚洲网址| 国产精品无码一区二区桃花视频| 白浆免费视频国产精品视频| 日韩欧美中文字幕在线韩免费| 欧美a在线看| 午夜视频www| 欧美不卡视频在线观看| 精品欧美日韩国产日漫一区不卡| 九九热精品在线视频| 第九色区aⅴ天堂久久香| 国产在线视频福利资源站| 亚洲人成高清| YW尤物AV无码国产在线观看| 婷婷六月综合| 亚洲国产精品人久久电影| 男女性午夜福利网站| 97久久免费视频| 亚州AV秘 一区二区三区| 国产成人狂喷潮在线观看2345| 中文国产成人精品久久| 亚洲AV无码乱码在线观看裸奔| 在线观看国产黄色| 亚洲AV无码不卡无码| 永久免费无码成人网站| 亚洲一区二区三区在线视频| 日韩毛片在线播放| 华人在线亚洲欧美精品| 欧美精品在线观看视频| 九色免费视频| 午夜啪啪网| 日韩欧美国产成人| 国产91色| 午夜啪啪网|