雖然“刷臉”的應(yīng)用越來越多,但人工智能目前仍處于起步階段,需加大對數(shù)據(jù)和隱私的保護力度,關(guān)注和防范由算法濫用所導(dǎo)致的決策失誤和社會不公。
隨著數(shù)據(jù)的積累、計算機算力的躍升和算法的優(yōu)化,人工智能正在讓生活變得高效。語音識別、圖像識別使身份認(rèn)證更可信賴,短短幾秒就能證明“你就是你”;智能診療和自動駕駛,更讓人們看到了戰(zhàn)勝疾病、減少事故的新機會;人工智能還可以輕松戰(zhàn)勝圍棋高手,寫出優(yōu)美的詩句……其自主性和創(chuàng)造性正在模糊人和機器的分野。
但是,當(dāng)隱私侵犯、數(shù)據(jù)泄露、算法偏見等事件層出不窮時,人們又不得不反思:人工智能的持續(xù)進步和廣泛應(yīng)用帶來的好處是巨大的,為了讓它真正有益于社會,同樣不能忽視的還有對人工智能的價值引導(dǎo)、倫理調(diào)節(jié)以及風(fēng)險規(guī)制?!八⒛槨边M站、“刷臉”支付、“刷臉”簽到、“刷臉”執(zhí)法……人臉識別技術(shù)正走進更為廣闊的應(yīng)用場景,與指紋、虹膜等相比,人臉是一個具有弱隱私性的生物特征,因此,這一技術(shù)對于公民隱私保護造成的威脅性尤其值得重視。
“雖然‘刷臉的應(yīng)用越來越多,但人工智能目前仍處于起步階段,需加大對數(shù)據(jù)和隱私的保護力度,關(guān)注和防范由算法濫用所導(dǎo)致的決策失誤和社會不公?!痹趥€人數(shù)據(jù)權(quán)利的保護方面,中國社會科學(xué)院哲學(xué)研究所研究員段偉文建議,應(yīng)促使數(shù)據(jù)交易各方對自己的行為負(fù)責(zé),讓每個人知道自己的數(shù)據(jù)如何被處理,特別是用于其他用途的情形,減少數(shù)據(jù)濫用,讓人們清楚知道自己的“臉”還是否安全。
段偉文認(rèn)為,要進一步加強人工智能的倫理設(shè)計,對算法的理論預(yù)設(shè)、內(nèi)在機制與實踐語境等進行全流程追問與核查,從算法決策的結(jié)果和影響中的不公正入手,反向核查其機制與過程有無故意或不自覺的曲解與誤導(dǎo),揭示存在的問題,并促使其修正和改進。
在騰訊研究院法律研究中心高級研究員曹建峰看來,應(yīng)對人工智能帶來的倫理問題,一是要構(gòu)建算法治理的內(nèi)外部約束機制,將人類社會的法律、道德等規(guī)范和價值嵌入人工智能系統(tǒng);二是在人工智能研發(fā)中貫徹倫理原則,促使研發(fā)人員遵守基本的倫理準(zhǔn)則;三是對算法進行必要的監(jiān)管,提升算法自身的代碼透明性和算法決策的透明性;四是針對算法決策和歧視以及造成的人身財產(chǎn)損害,提供法律救濟。
“我們生活在一個人機共生的時代,人類與機器之間勢必將發(fā)生各種沖突和矛盾,僅靠法律和制度很難完全解決?!崩顐惐硎?,人們還應(yīng)努力提升自身的科學(xué)素養(yǎng),主動維護自身的權(quán)利,社會也應(yīng)盡快建立討論人工智能倫理問題的公共平臺,讓各方充分表達意見,促進共識的形成。