摘 要:隨著人工智能技術(shù)的不斷進(jìn)步和成熟,近年來(lái)在各個(gè)行業(yè)得到爆發(fā)式增長(zhǎng)。而與此同時(shí)人工智能的應(yīng)用也帶來(lái)各種挑戰(zhàn)和風(fēng)險(xiǎn)。本文首先介紹了人工智能的定義,在此基礎(chǔ)上介紹了人工智能的安全、隱私保護(hù)以及倫理等方面的風(fēng)險(xiǎn),以及業(yè)界為應(yīng)對(duì)這些風(fēng)險(xiǎn)所做出的努力。最后本文對(duì)未來(lái)人工智能治理的趨勢(shì)做出展望。
關(guān)鍵詞:人工智能;風(fēng)險(xiǎn);安全;隱私;治理
一、AI的定義
在談?wù)撊斯ぶ悄苤卫碇埃覀兪紫葋?lái)看看什么是人工智能。人工智能的定義仍然一直存在爭(zhēng)議,例如,純大數(shù)據(jù)技術(shù)屬于人工智能嗎?與機(jī)器學(xué)習(xí)有關(guān)的都是AI嗎,例如傳統(tǒng)統(tǒng)計(jì)學(xué)領(lǐng)域的某些分類算法?Kaplan和Haenlein將人工智能定義為“系統(tǒng)正確詮釋外部數(shù)據(jù),從此類數(shù)據(jù)中學(xué)習(xí)并利用這些學(xué)習(xí)通過(guò)靈活的適應(yīng)來(lái)實(shí)現(xiàn)特定目標(biāo)和任務(wù)的能力”。該定義較為嚴(yán)格,排除了機(jī)器學(xué)習(xí)和大數(shù)據(jù)。Gartner將AI定義為一種應(yīng)用高級(jí)分析和基于邏輯的技術(shù)(包括機(jī)器學(xué)習(xí))來(lái)解釋事件,支持和自動(dòng)執(zhí)行決策并采取行動(dòng)的學(xué)科。這是一般公眾的理解。從對(duì)人工智能風(fēng)險(xiǎn)管控和治理的角度來(lái)看,本文將采用公眾所理解的定義,因?yàn)檫@樣才能保證盡量全面地覆蓋風(fēng)險(xiǎn),避免遺漏。
從這個(gè)比較寬泛的定義上來(lái)看,人工智能技術(shù)在近年來(lái)得到了爆發(fā)式發(fā)展。海量數(shù)據(jù)的可用、云計(jì)算普及帶來(lái)的計(jì)算成本降低和計(jì)算能力提升、開(kāi)源代碼和打包算法的流行、計(jì)算框架和平臺(tái)的出現(xiàn)、政府的大力支持等都使得人工智能的研究和推廣變得沒(méi)有那么困難。人工智能作為第四次工業(yè)革命的重要推動(dòng)力已成為普遍共識(shí)。自2016年開(kāi)始,各國(guó)陸續(xù)推出AI戰(zhàn)略,側(cè)重點(diǎn)各有不同,比如中國(guó)和美國(guó)是為了保持其領(lǐng)先地位,而英國(guó)在企業(yè)界和學(xué)術(shù)界都未能一騎絕塵的情況下致力于在AI倫理方面領(lǐng)先。
二、AI帶來(lái)的挑戰(zhàn)和風(fēng)險(xiǎn)
AI快速發(fā)展的同時(shí)也帶來(lái)了巨大的挑戰(zhàn)和風(fēng)險(xiǎn)。近年來(lái)與AI相關(guān)的大事件不勝枚舉,不斷引發(fā)社會(huì)各界對(duì)AI自身的能力和對(duì)社會(huì)帶來(lái)的影響的持續(xù)關(guān)注和討論。2016年,Tesla Model S在美國(guó)和中國(guó)境內(nèi)曾發(fā)生過(guò)自動(dòng)駕駛致死事故和數(shù)起交通事故;2017年沙特阿拉伯授予香港漢森機(jī)器人公司生產(chǎn)的機(jī)器人索菲亞公民身份,使其成為史上首個(gè)獲得公民身份的機(jī)器人,李開(kāi)復(fù)稱這是對(duì)人類最大的羞辱和誤導(dǎo);2017年AlphaGo擊敗柯潔;2018年委內(nèi)瑞拉總統(tǒng)在公開(kāi)活動(dòng)中收到無(wú)人機(jī)炸彈襲擊,這是全球首例利用人工智能產(chǎn)品進(jìn)行的恐怖活動(dòng);2018年,Uber無(wú)人駕駛測(cè)試車撞死行人事故震驚世界;2019年,波音737 MAX系統(tǒng)控制高于人工干預(yù)導(dǎo)致空難,機(jī)上157人全部遇難;2019年7月24日,美國(guó)聯(lián)邦貿(mào)易委員會(huì)(FTC)與Facebook達(dá)成50億美元的和解令,因其欺騙了用戶對(duì)個(gè)人隱私保護(hù)的能力;今年10月份,伊利諾伊州市民抗議Facebook使用人臉識(shí)別技術(shù)采集他們上傳的照片,此案涉及到700萬(wàn)用戶,F(xiàn)acebook可能會(huì)面臨為每個(gè)用戶賠償1000~5000美元的罰款,總金額最高將達(dá)到350億美元。
此外,AI對(duì)人類自主權(quán)帶來(lái)的影響也成為爭(zhēng)論焦點(diǎn),如Google搜索引擎中的自動(dòng)完成功能中,算法會(huì)通過(guò)用戶初次輸入的關(guān)鍵詞根據(jù)其搜索模式等標(biāo)準(zhǔn)給出填充建議,而該建議對(duì)用戶的實(shí)時(shí)影響往往重塑了用戶最初想搜索對(duì)象的感知,而真正搜索的內(nèi)容并不是用戶的原始意圖。監(jiān)控用戶習(xí)慣的IoT應(yīng)用的定向算法,如通過(guò)對(duì)用戶的生物反應(yīng)(瞳孔放大、體溫變化、情緒反應(yīng))進(jìn)行解讀,并在用戶無(wú)意識(shí)的情況下進(jìn)行定向廣告營(yíng)銷,這事告知還是重塑用戶呢(inform or reform human being)?抖音和今日頭條的算法根據(jù)用戶的習(xí)慣只推送個(gè)人感興趣的內(nèi)容。Facebook的微瞄準(zhǔn)廣告中,算法根據(jù)用戶信息預(yù)測(cè)用戶是否支持特朗普,然后只推送同樣結(jié)論的文章和觀點(diǎn)。在自動(dòng)駕駛領(lǐng)域,對(duì)其撞人的安全問(wèn)題的思考可以追溯到哲學(xué)界出名的電車難題,麻省理工大學(xué)為此開(kāi)發(fā)和部署了道德機(jī)器平臺(tái),向全世界超過(guò)二百多個(gè)國(guó)家的民眾進(jìn)行調(diào)研。
AI 的應(yīng)用將大幅提升數(shù)據(jù)收集、分析以及建立數(shù)據(jù)的能力,這使制造偽情報(bào)也變得更加便利,使偽造音視頻媒體的質(zhì)量迅速提升,同時(shí)成本迅速下降。谷歌Lyrebird開(kāi)發(fā)目的是用于幫助那些發(fā)聲困難的人打造出自己更真實(shí)聲音,但騙子會(huì)通過(guò)騷擾電話錄音來(lái)提取你的聲音在Lyrebird上進(jìn)行生成,從而完成電話詐騙。谷歌Deplex代替人類自動(dòng)接打電話達(dá)到以假亂真的程度。
AI系統(tǒng)和應(yīng)用還會(huì)帶來(lái)新的網(wǎng)絡(luò)攻擊,例如通過(guò)實(shí)施干擾技術(shù),計(jì)算機(jī)在進(jìn)行深度學(xué)習(xí)時(shí)容易被欺騙,攻擊者對(duì)計(jì)算機(jī)生成模式進(jìn)行篡改或利用數(shù)據(jù)欺詐手段遠(yuǎn)程控制無(wú)人汽車,讓汽車偏航甚至逼停汽車造成事故等。目前國(guó)內(nèi)人工智能產(chǎn)品和應(yīng)用的研發(fā)主要是基于國(guó)際通用的人工智能學(xué)習(xí)框架和組件,國(guó)內(nèi)安全研究團(tuán)隊(duì)在近年屢次發(fā)現(xiàn)TensoFlow、Caffee等軟件框架及其依賴庫(kù)的安全漏洞,給網(wǎng)絡(luò)安全帶來(lái)了新的威脅。一方面來(lái)看,目前主流的 AI 技術(shù)基本框架相對(duì)有限,大部分組織不具備自行開(kāi)發(fā)AI 技術(shù)基本框架的能力,只能選擇使用現(xiàn)有的公開(kāi) AI 框架進(jìn)行二次開(kāi)發(fā)。另一方面,組織采用某種特定的框架、花費(fèi)大量的成本生成模型并進(jìn)行訓(xùn)練而產(chǎn)生的產(chǎn)品或服務(wù),惡意模仿或蓄意破壞的成本卻并不高,組織如何有效保護(hù)自己的產(chǎn)品或服務(wù),也是AI時(shí)代組織面臨的難題。
從AI本身來(lái)看,AI系統(tǒng)可能受到閃避攻擊/對(duì)抗樣本的威脅,導(dǎo)致AI系統(tǒng)判斷失準(zhǔn)。伯克利的團(tuán)隊(duì)針對(duì)路標(biāo)能在物理世界做定向的對(duì)抗攻擊方法,在行駛過(guò)程中使視覺(jué)系統(tǒng)將一個(gè)“停車路牌”誤識(shí)別為“限速45路牌”。再比如“刷臉支付”如果在面部識(shí)別環(huán)節(jié)出錯(cuò),直接會(huì)影響到個(gè)人財(cái)產(chǎn)安全甚至引發(fā)盜竊。其次,數(shù)據(jù)完整性和隱秘性對(duì)AI系統(tǒng)而言至關(guān)重要。有研究發(fā)現(xiàn),通過(guò)加入8%的惡意數(shù)據(jù),攻擊者能夠使模型對(duì)超過(guò)50%的患者的用藥量建議時(shí),出現(xiàn)超過(guò)75%的變化量。最后,AI系統(tǒng)也會(huì)面臨著傳統(tǒng)軟、硬件安全威脅。清華大學(xué)團(tuán)隊(duì)設(shè)計(jì)的基于動(dòng)量的攻防方法可以顯著提升黑盒攻擊的成功率,如在擾動(dòng)大小為16時(shí)將攻擊Inception-v3的成功率從72.1%提升至87.9%。
這些都事件都引起了廣泛的討論,AI在人類社會(huì)到底應(yīng)該扮演什么樣的角色,以及在法律上應(yīng)該賦予其什么樣的角色?AI是否會(huì)取代大量工作而顛覆勞動(dòng)市場(chǎng)?人類過(guò)于依賴AI帶來(lái)的各種智能和便利,增強(qiáng)用戶的單一興趣,加重了觀點(diǎn)偏見(jiàn),制造信息繭房和回音壁,人類如何保障不喪失自主權(quán)?如何保障AI不會(huì)被用于惡意目的?AI面臨的新的安全和隱私風(fēng)險(xiǎn)能否解決?
三、業(yè)界治理舉措
歷史告訴我們,法律制約永遠(yuǎn)落后于技術(shù)的發(fā)展,目前已有的法律框架有部分要求可以對(duì)人工智能進(jìn)行管制,如2018年5月25日生效的全球最嚴(yán)苛最全面的歐盟《通用數(shù)據(jù)保護(hù)條例》(GDPR)中對(duì)自動(dòng)化決策的要求,該條例引發(fā)“布魯塞爾效應(yīng)”,非歐盟企業(yè)和國(guó)家也開(kāi)始以GDPR為基準(zhǔn)進(jìn)行隱私保護(hù)相關(guān)建設(shè),如美國(guó)、日本、中國(guó)、巴西等。然而這顯然是不夠的。為應(yīng)對(duì)層出不窮的AI事件,各國(guó)政府、權(quán)威機(jī)構(gòu)、領(lǐng)先企業(yè)等紛紛針對(duì)AI的倫理問(wèn)題展開(kāi)討論。
2016年,聯(lián)合國(guó)在特定常規(guī)武器公約會(huì)議上確定“對(duì)致命自主武器系統(tǒng)進(jìn)行有意義的人類控制原則”并建立了專門的研究機(jī)構(gòu),研究機(jī)器人和人工治理的問(wèn)題。國(guó)際電氣和電子工程師協(xié)會(huì)于2016年發(fā)布第一版供公眾討論的《人工智能設(shè)計(jì)的倫理標(biāo)準(zhǔn)》,2018年發(fā)布第二版,2019年3月發(fā)布首個(gè)正式版EAD。2018年12月,歐盟委員會(huì)的人工智能高級(jí)別專家組正式向社會(huì)發(fā)布了一份可信賴的人工智能道德準(zhǔn)則草案,該草案被視為是歐洲制造“可信賴人工智能”的討論起點(diǎn)。新加坡發(fā)布AI治理框架,并在世界經(jīng)濟(jì)論壇上獲得大獎(jiǎng)。根據(jù)曾毅教授的總結(jié),截至目前,業(yè)界已經(jīng)發(fā)布了超過(guò)五十個(gè)AI原則,包括OECD、G20、北京共識(shí)、加拿大蒙特利爾宣言、微軟、谷歌、百度、騰訊等。在學(xué)術(shù)界,斯坦福大學(xué)的以人為本的人工智能中心致力于提供一個(gè)跨學(xué)科平臺(tái)等,該平臺(tái)得到了企業(yè)界的資助,F(xiàn)acebook資助德國(guó)慕尼黑工業(yè)大學(xué)建立AI倫理研究中心。
2015年至2019年,英國(guó)交通局等對(duì)自動(dòng)駕駛上路測(cè)試的安全問(wèn)題進(jìn)行測(cè)試并給出指南。2017年,德國(guó)聯(lián)邦運(yùn)輸部長(zhǎng)亞歷山大·多布林特議院提供了道路交通法案,其中包含自動(dòng)駕駛汽車的安全問(wèn)題。2019年4月10日,紐約市通過(guò)美國(guó)首個(gè)算法問(wèn)責(zé)法案的提案。今年,英國(guó)政府委托其數(shù)據(jù)倫理和創(chuàng)新中心對(duì)在線瞄準(zhǔn)(online targeting)和算法偏見(jiàn)(algorithmic bias)兩個(gè)領(lǐng)域收集民眾建議并提出建議。
2019年5月14日,舊金山成為美國(guó)第一個(gè)禁止執(zhí)法部門使用面部識(shí)別技術(shù)的城市,此后,薩默維爾市和奧克蘭也實(shí)施了類似的限制。2019年10月,美國(guó)加州州長(zhǎng)簽署法令,禁止會(huì)對(duì)大選造成影響的deepfake視頻。該法令規(guī)定,如果散布的信息使公眾對(duì)政治人物的言論、行動(dòng)產(chǎn)生錯(cuò)誤或有害的印象,這種散布行為將屬于犯罪行為。而在中國(guó),今年9月份風(fēng)靡朋友圈的ZAO號(hào)稱僅需一張照片,出演天下好戲。這個(gè)主打和明星換臉的App,在其正式上線的次日就爆紅網(wǎng)絡(luò)。然而剛開(kāi)始刷屏不久,ZAO又因?yàn)?“用戶協(xié)議”成為大眾爭(zhēng)議和質(zhì)疑的焦點(diǎn),雖然嚴(yán)格意義上并未違反法律,但仍被工信部約談,責(zé)令其進(jìn)行整改。2019年9月4日,英國(guó)第一法庭裁決英國(guó)警方可以使用面部識(shí)別技術(shù)。我們可以看出在應(yīng)對(duì)AI風(fēng)險(xiǎn)時(shí),組織不應(yīng)僅考慮合規(guī),即管制的下線,而應(yīng)考慮其上限,雖然法律框架還未成熟,但軟法制足以約束風(fēng)險(xiǎn)較大的AI應(yīng)用。在自動(dòng)駕駛、人臉識(shí)別、算法問(wèn)責(zé)方面很可能率先形成法律。
結(jié)束語(yǔ):
人工智能已經(jīng)觸及到人類生活的各個(gè)方面,而其面臨的風(fēng)險(xiǎn)也日趨嚴(yán)峻。為了使人類能最大限度地享受AI裨益,業(yè)內(nèi)已對(duì)其風(fēng)險(xiǎn)進(jìn)行治理形成初步共識(shí)。技術(shù)發(fā)展的歷史告訴我們,法律永遠(yuǎn)滯后于技術(shù)的發(fā)展。目前業(yè)內(nèi)已經(jīng)出現(xiàn)了比較通用的人工智能治理框架或指南,而在特定的隱私和安全高風(fēng)險(xiǎn)的人工智能領(lǐng)域,如自動(dòng)駕駛、人臉識(shí)別等領(lǐng)域已經(jīng)有立法趨勢(shì),預(yù)計(jì)在接下來(lái)的幾年內(nèi)會(huì)陸續(xù)出臺(tái)。全球的人工智能生態(tài)愈發(fā)交織也會(huì)使得各個(gè)國(guó)家更容易在管控方面互相影響并達(dá)成共識(shí)。人工智能將不可避免地影響我們的生活,因此不論是人工智能方案提供者、應(yīng)用部署者還是使用者都應(yīng)當(dāng)對(duì)人工智能的風(fēng)險(xiǎn)給予關(guān)注,并對(duì)其管控進(jìn)行思考,共同推動(dòng)人工智能的良性發(fā)展。
參考文獻(xiàn):
[1]IEEE Standards Association.Ethically Aligned Design,2018.
[2]Singapore Personal Data Protection Commission. A PROPOSED MODEL ARTIFICIAL INTELLIGENCE GOVERNANCE FRAMEWORK,2019.
[3]European Commission. “Ethics guidelines for trustworthy AI”,2019.
作者簡(jiǎn)介:王建霞(1986-),女,山西省運(yùn)城市人,漢族,碩士研究生。研究方向:大數(shù)據(jù)分析。
現(xiàn)代營(yíng)銷·經(jīng)營(yíng)版2020年2期