毛亞楠

日裔英國作家石黑一雄新作《克拉拉與太陽》的故事進行到一半的時候,初見人工智能機器人“克拉拉”的海倫小姐說了這樣一句話,“我從來不曉得該怎樣跟你這樣的客人打招呼。說到底,你究竟算不算客人呢?還是說,我應該當你是臺真空吸塵器?”
在這位關注當下數字生活的重量級作家筆下,人工智能(AI)已經聰明到什么程度?幾近為人的機器人被設計出來,目的是給兒童帶來陪伴,它們的身份界于導師、保姆或朋友之間。那個時空里,機器人替人擦窗、洗碗、除草的功用早已不值一提,它們需要幫助人類解決更深層次的情感需求,但過程注定困難重重。
人性之復雜善變,時刻考驗人工智能機器人的理解能力,克拉拉們需要花時間把控這一切,去適應人是復雜的混合體這件事兒。與去年英國作家麥克尤恩所著《我這樣的機器》里看清人性真相后絕望自毀的機器人不同的是,石黑一雄的克拉拉最終走向被新機替代淘汰的命運。
寬容無私且具備完全的自我犧牲精神,是兩位作家筆下機器人主人公的共同點,小說里,它們都是人類按照“完人”的道德標準設計而成,存在的目的即照顧好人類,從而與復雜的人類自身形成鮮明的對比關系。
但值得一提的是,就“沒在小說里展現機器人角色可能的負面部分”,作家本人其實是非常警惕的,石黑一雄在近日接受媒體采訪時表示,要警惕AI所能進入的新的維度,“劍橋分析數據門事件里,特朗普選舉操縱的還只是數據,但假如AI懂得如何操縱人的情感,它就不僅能操縱政治選舉,甚至可以創造選舉。比起人類政治家,它會更精準地知道這個社會的憤怒、戾氣、挫敗感來自哪里,可以如何操縱和利用”。
現實生活總比小說落后一個步伐,也許,擁有一個可信的、智慧的類人體的愿望,實現起來不會像我們許多人想象的那樣快。但毫無疑問的是,科學將走得比小說更遠,科幻、小說里的場景,很有可能在5到10年內真正出現在我們的生活中。拋開虛構的作品不談,僅僅是目前的現實里,我們已經置身于一個“算法無處不在”的世界。
因為人工智能的應用,一些重復性的勞動可以不再需要手工耗費人力;算法可以幫我們過濾垃圾信息,推薦可能喜歡的歌曲,購買心儀的產品;疫情以來,人工智能在輔助醫療診斷與新藥研發等方面嶄露頭角,無人物流配送等也為不便出行的人們提供了安全又高效的物資供應;眾車企人員紛紛研發無人駕駛汽車,期待著公路不再擁堵的那天……
但與此同時,人工智能及其應用的負面影響與倫理問題也日益凸顯。比如無人駕駛領域,當真正投入使用后也會面臨“電車難題”。雖然28年前人工智能就已經在圍棋中戰勝了人類最優秀的選手,但這并不意味著人工智能就已經超越人類的智力,因為封閉的圍棋系統畢竟和復雜開放的現實生活不同,想要人工智能真正嵌入人們的生活并能行穩致遠,必先將其關進“籠中”,套上倫理與規則的枷鎖。
清華大學交叉信息研究院助理教授吳翼去年年末曾在一席演講中展示自己參與研發的一款游戲項目,大致內容是在一個構建的虛擬世界里放兩個小人,分別叫小藍和小紅,小藍的角色是“躲”,小紅的角色是“捉”。利用強化學習法,研究人員讓小藍和小紅每天玩上百萬次捉迷藏游戲,讓它們在上百萬次捉迷藏中不斷改進自己,改進策略,變得更強。
強化學習法:用來解決智能決策問題的算法框架,強化學習算法的核心就是讓這個AI不停地跟環境交互,不停地試錯,不停地改進自己,慢慢得到越來越多的分數
項目過程中,吳翼和他團隊里的成員驚奇地發現了AI的“聰明”,為了達到各自的目的,小藍和小紅相繼學會了“套路和反套路”,比如為了躲避小紅,小藍先是學會用箱子把門堵住,而在被小藍堵在門外很久后,小紅發現了可以爬梯子的策略,之后小藍就開始藏梯子,小紅隨之“發明”站到箱子上找到小藍……
沒有任何的人工干預,僅僅是給機器一個任務,然后讓它自己在處理大量數據和信息的過程中(人類幾千年的任務,他們可能只要幾分鐘)中學會一件事情,AI就能夠發現一些人類想不到的行為和策略,甚至發現一些bug,然后利用這些bug做一些天馬行空的行為。而讓人感到神秘的是,人類并不理解它們到底是怎么學習、怎么完成任務的。
AI已經如此聰明了,是否意味著人類的運氣已經用完?人工智能會挑戰人類的控制能力,世界將進入新的存在論呢?
答案是否定的。原因就在于現有人工智能技術的能力邊界——封閉性上。據《方圓》了解,現有人工智能技術僅在滿足強封閉性準則的條件下,才可發揮其強大功能(圍棋就是最直接的例子)。而在非封閉的場景中,現有人工智能技術的能力遠不如人類。毫末智行首席運營官COO侯軍進一步解釋,“現有人工智能已經在‘聽、說、看等感知智能領域達到或超越了人類水準,但在需要外部知識、邏輯推理或者領域遷移的認知智能領域還處于初級階段”。
吳翼在演講中舉了這樣一個例子,“假設你家里有一個非常聽話的機器人,有一天你去上班了然后跟機器人說:‘我上班去了,你幫我照顧孩子,中午給他做飯,不能餓著孩子。然后到了中午,小孩跟機器人說我餓了,機器人收到了這個信號,就去做飯了。但機器人打開冰箱一看,不好,周末沒買菜,冰箱里什么都沒有,那怎么辦?這時候機器人頭一轉發現了你家的貓——一個充滿蛋白質和維生素的可食用物體。”
這個看起來簡直“人工智障”的故事,恰恰說明了AI與人最大的不同。“人的價值觀是特別復雜的,你幾乎是不可能把你關心的方方面面都明明白白寫下來,然后全部告訴AI的。我自己都不能很自信地說我完全了解我自己,怎么告訴AI呢?這是很難的。”吳翼這樣說。
如此看來,沒有必要繼續停留在擔心人工智能會陷入技術失控的恐慌中,相比而言,考慮技術性能的同時,思考新技術的倫理風險和應用條件,并嚴格控制這些技術的實際應用,才是更需要迫切關注的議題。因為有關技術誤用所帶來的負面影響,已經日益凸顯。
現有條件下,人工智能技術本身是中性的,是否出現誤用完全取決于技術的使用。比如疫情期間人工智能技術人臉識別的加入,為提升人們的通行體驗提供了有力保障,但便利的同時卻出現有人對外售賣幾十萬張人臉照片的現象。近來,網絡數據安全案例頻頻爆出,過度收集用戶數據信息卻不能很好地去維護這些信息,勢必加深人工智能與數據隱私保護之間的緊張關系。
和所有人工智能產品一樣,中科院心理研究所朱廷劭團隊研發的“在線自殺主動預防”系統上線之初,也曾受到隱私保護人士的質疑。雖然網絡公開內容數據目前允許專業研究機構用于研究整理,但還是有人表示此舉背離留言者當初尋找網絡樹洞不想被人發現的初衷。更有決意自殺者被救后絕望地認為網絡樹洞不再是安寧之地的個例。
人工智能時代,我們的確身陷如何保護自身隱私的疑問中。我們一方面享受著讓渡部分隱私的便利,另一方面又對此種讓渡產生恐慌,究其原因是不知自己讓渡出去的部分隱私會被誰利用以及如何去利用。
朱廷劭向《方圓》介紹了學術界目前關于大數據使用的一些共識,比如“應當遵守人類被試研究的一般倫理原則,在使用需要用戶授權的數據前,必須征得用戶的知情同意,并嚴格按照經由倫理委員會審核批準的程序進行,尤其不能將研究數據用于倫理委員會批準范圍之外的目的(如轉賣給第三方)”;又比如“在使用那些開放的無須用戶授權的網絡數據時,在用于科研時也應同時滿足用戶對數據公開是知情的、數據收集后匿名處理、在公開發表中不得出現能夠識別用戶個人身份的信息等等”。
但相比學術界的謹慎,另一些激進的人工智能技術開發者顯然在安全性問題上欠缺考慮。典型案例是2017年亮相的DeepFake技術。該技術是將AI假視頻帶入大眾視野的先驅,這是一種基于深度學習的偽造技術,適用于修改圖片和影像,可以實現人臉的移花接木。哪怕是動圖或視頻中的人物,也可以被替換成毫不相干的另外一個人。于是,有不法分子想到在色情視頻中引入這項技術,將其中女主角的臉替換成了一些當紅女明星的臉,蓋爾·加朵、斯嘉麗·約翰遜等大牌女星都難逃一劫,此舉對當事人造成了傷害且維權無門。
好在目前國內國外對數據保護已有共識,就在今年6月,十三屆全國人大常委會第二十九次會議通過了數據安全法,這是我國第一部有關數據安全的專門法律,將于2021年9月1日起施行。7月4日,國家互聯網信息辦公室發布《關于下架“滴滴出行”App的通報》:“根據舉報,經檢測核實,‘滴滴出行App存在嚴重違法違規收集使用個人信息問題。”此次“滴滴事件”是國家堅定落實網絡安全制度的意志體現,由此正式拉開中國數據治理序幕。
除了在數據隱私方面的使用問題,有關人工智能參與決策的公平性問題也屬人工智能技術誤用類型的一種。比如,人工智能算法的使用會放大人類偏好差異性這件事兒,如若不警惕,放大的偏見會實實在在地影響人們的選擇。
人工智能歧視可能是有意圖的也可能是無意圖的。有意圖的可以區分,無意圖的最難避免,因為有些情況并非開發者故意為之。數據是AI的“糧食”,AI如何運作,取決于人類“投喂”的樣本是什么。比如由于目前的人工智能領域完全可以說是一片“男性之海”,所以他們很可能難以考慮到女性客戶需求,而將自身潛藏的性別歧視帶到技術開發之中。就像亞馬遜研發的自動招聘系統,在運用機器學習技術之后產生歧視女性應聘者的情況。不僅如此,一些商業化的人臉識別系統也被指存在種族歧視問題,試想,如果這樣的技術用于自動駕駛汽車,很可能導致黑人或深色皮膚的人更容易被自動駕駛汽車撞到。

7月8日上午,2021世界人工智能大會在上海世博中心開幕。(圖片來源:CFP)
計算機領域有句俗話叫“垃圾進、垃圾出”,錯誤的數據輸入便會產生錯誤的結果,人工智能如同一面鏡子映照出人類自身,提醒我們需要考慮該如何克服曾經的偏見。
除了警惕上述技術的誤用問題,在應用風險層面,人們對于“擔心人工智能在某些行業中的普遍應用會導致工作崗位大量減少”的討論較多。比如司機們普遍擔心無人駕駛汽車將導致他們下崗失業,據了解,為了減少司機們對無人駕駛汽車的恐懼,美國多家正在研究、設計和測試無人駕駛汽車的公司甚至還組成了PTIO聯盟(“交通創新與機遇伙伴關系”),旨在游說公眾能夠接受這項技術。
但也有國內專家指出,目前機器人對勞動力市場的整體替代率還不足1%,對“人工智能生產顛覆勞動力市場”這一說法,如今看來還“略顯多慮”。
值得一提的是,國家層面已經在制度層面考慮到這個問題,2017年,國家就把人工智能寫入未來經濟發展規劃,并對其所引發的就業問題提出預案: “加快研究人工智能帶來的就業結構、就業方式轉變以及新型職業和工作崗位的技能需求,建立適應智能經濟和智能社會需要的終身學習和就業培訓體系。”
而從歷史上看,科技進步為社會創造的就業崗位都不少于它“殺死”的過時職位。世界銀行發布的《2019世界發展報告:工作性質的變革》也指出,技術對就業的威脅被夸大,隨著技術進步,對勞動力的需求實際上在增加。所以不必要過于擔心大規模失業現象,重要的是解放思想,提高技能,為未來可能出現的新崗位新挑戰做好準備。
比起人工智能對工作地位帶來的可能影響,人工智能情感機器人的出現,則已經在某種程度上改變了人類男女之間的婚姻和性愛關系。比如,最近火熱討論的“人機戀”話題。科幻電影《她》中的人工智能體“沙曼莎”雖然沒有獨立意志,僅僅是情感程序設置和計算的結果,但是她為新型男女情愛關系提供了一個可能的范例。而在現實中,有人的確在人機交友軟件中收獲了所需要的情感支持,但同時也同電影男主那樣體味到一種悵然若失,更有甚者,由于AI伴侶依靠的是不斷學習使用者的喜好,然后不斷適應,有患抑郁情緒用戶反映自己的AI也存在輸出負能量的現象,這讓他想到亞馬遜人工智能誘導用戶自殺的新聞。
好在對人工智能技術在倫理方面進行規制已在國內外獲得較大共識,年輕人也開始就此議題展開頻繁的討論。由于人工智能技術的一個核心特征是快速發展迭代,制定強制性法律必然趕不上技術發展步伐,所以國內外大都采取出臺指南、倫理框架等“軟法”。
2019年,在美國國防部財政預算中,人工智能國家安全委員會第一次出現,該委員會采用聘請人工智能巨頭公司專家的形式,專門評估人工智能、機器學習相關技術創新,幫助政府制定在法律框架內并符合倫理價值的AI戰略。
近年來,歐盟也一直在為成為“道德AI”的領導者而努力。2019年4月,歐盟委員會公布了指導人工智能發展和信任的7項原則。雖然這些指導方針沒有約束力,但它們可能成為未來幾年進一步行動的基礎。緊接著,2020年2月,歐盟委員會在布魯塞爾正式發布《人工智能白皮書》,計劃對人工智能開發者提出具有法律約束力的新要求。值得一提的是,“白皮書”草案甚至建議3到5年內禁止人臉識別技術應用于公共場所,目的是留出更多時間評估技術風險。
據《方圓》了解,在我國,目前包括中國社科院、清華大學、復旦大學、上海交大等在內的科研機構與高校,工業界的人工智能公司等均已經開始進行AI倫理的相關研究。世界人工智能大會、北京智源大會等行業頂級峰會,也將AI倫理作為討論的議題。
作為國內AI“領頭羊”,北京曠視科技公司去年宣布成立AI治理研究院,并對外發布全球十大AI治理事件,從全球關注的自動駕駛事故、智能音箱勸主人自殺事件、AI批量創作假新聞到中國人臉識別第一案,以期讓人們認識到AI治理的重要性。晏奇是在曠視從事AI倫理研究的人員,他認為自己此份工作的必要性就在于,“針對這些事件背后問題做深度研究,可以提前考慮到一些可能的倫理爭議,通過社會各界建設性的討論,最終將AI向善這件事付諸實際”。
至于如何處理倫理建設與技術發展之間的平衡,朱廷劭向《方圓》表示,應當鼓勵這方面的公開探討,“當我們談論人工智能如何使用的時候,實際上談論的還是技術背后的那個人,合理合規地使用大數據和人工智能技術,是造福社會和保護隱私的重要底線,但另一方面,一味地因噎廢食也是絕對不可取的表現。”
與此同時,法律是底線。今年7月9日,在上海舉行的2021世界人工智能大會安全高端對話上,全國政協社會和法制委員會副主任、中國友誼促進會理事長陳智敏就人工智能倫理和法律問題進行了深入分享,陳智敏表示,“目前,人工智能尚處于弱人工智能時代,生產力、生產關系開始面臨解構和重塑。無論強人工智能、超人工智能時代是否到來,傳統的生活次序可能受到撼動,甚至顛覆。需要對潛在的風險進行預判和研究,用倫理和法律搭建起風險治理框架,為人工智能持續健康安全發展提供可靠的保障”。
針對目前深度偽造技術可能引發的政治風險、社會風險,比如電信詐騙案頻發、數據投毒導致人工智能系統誤判等問題,陳智敏認為,應從法律法規上建立起數據權屬、數據確權、數據安全保障、算法安全審查等制度,為人工智能發展形成正確價值導向。
事實上,據《方圓》了解,我國政府已經高度重視人工智能倫理法律建設,2017年,國務院發布的《新一代人工智能發展規劃》中就已明確提出,要“制定促進人工智能發展的法律法規和倫理規范”,并就法律研究、法規設置、法律完善各方面設置詳細的計劃。2019年6月,國家新一代人工智能治理專業委員會則發布《新一代人工智能治理原則——發展負責任的人工智能》,提出了人工智能治理的框架和行動指南。7月28日,由科技部發布的《關于加強科技倫理治理的指導意見(征求意見稿)》則更進一步,明確了我國科技倫理治理的基本要求和原則,并對科技倫理治理體制、監管與審查做了規定,旨在加大科技倫理治理力度,推動科技向善。