文/ 周至禹 (寧波大學 潘天壽藝術設計學院;中央美術學院 )
隨著人工智能技術與應用在全球迅速興起,人工智能領域的競賽千帆競渡,國家層面也展開了為了獲取人工智能優勢而進行的競爭,各國競相發布人工智能專項戰略或規劃,而人工智能的中國國家戰略也已啟動,2017年7月,國務院印發并實施《新一代人工智能發展規劃》,2017年12月,工業和信息化部印發《促進新一代人工智能產業發展三年行動計劃(2018-2020年)》,2018年10月31日,中共中央政治局就人工智能發展現狀和趨勢舉行第九次集體學習。習近平總書記強調:人工智能是新一輪科技革命和產業變革的重要驅動力量,加快發展新一代人工智能是事關我國能否抓住新一輪科技革命和產業變革機遇的戰略問題。
與此相對應,近幾年,腦科學與智能技術卓越創新,手眼腦融合智能研究如火如荼,方興未艾,類腦新型智能機器人理論研究和應用團隊紛紛構建,人工智能炙手可熱,創業公司如雨后春筍,科技與產品的智能化創新井噴涌現,2018年中國機器人十大科技進展于2018年10月11日發布;2018年11月14日 英特爾在京舉辦人工智能大會,宣布“AI未來先鋒計劃”;2019年1月10日年首屆中國機器人行業年會在京舉行;2019年1月10日國家智能產業峰會在青島舉行。設計教育也在前沿研究,師資建設,人才培養,產業對接等方面的多方位合作,借以積極探索產學研攜手推動人工智能發展新模式,新路徑。顯示了人工智能技術為經濟高質量發展“賦能”的時代特征,中國正在成為全球人工智能領域的新增長極。
從人工智能的應用前景和市場規模方面來看,中國有著獨特優勢和廣闊前景。2019年1月2日,阿里巴巴達摩院發布了“2019十大科技趨勢”,涵蓋了智能城市、數字身份、自動駕駛、圖神經網絡系統、AI芯片、區塊鏈、5G等領域。而從清華大學發布的《中國AI發展報告2018》報告中可見:中國已成為全球人工智能專利布局最多的國家;中國人工智能企業數量排在全球第二,北京是全球人工智能企業最集中的城市;中國人工智能領域的投融資占到了全球的60%。人工智能對于國家是千年一遇的超越工業革命的時代機會。中國有巨量的數據和應用市場,有機會在世界占領先機。
數據驅動型新經濟形態已經形成,主要發達國家和地區將人工智能作為當前最大的發展戰略已是不爭的事實 ,美國人工智能企業Spare5的CEO曾在給總統特朗普的信中強調,人工智能是一場競賽,中國已加入到這場角逐當中,其人工智能技術以及商業化產品落地愈發成熟,以此提醒特朗普要加大對人工智能領域的重視和投入。2019年1月22—25日在瑞士達沃斯舉行的世界經濟論壇2019年年會,其主題即為“全球化4.0:打造第四次工業革命時代的全球架構”。從2010年開始的二十年,將會是人工智能寒武紀的大爆發,技術開始形成明顯的漣漪效應。人工智能影響最大的有如下幾個領域:金融、醫療、安防識別相關的領域、無人駕駛。人工智能通過設計應用上述領域引發重大變革,例如:智能駕駛將是人工智能所帶來的增值最大的產業。
人工智能是對整個社會生活方式產生深刻變革的關鍵技術,未來將廣泛存在于我們的生活場景中,并對傳統法律法規和社會規范提出挑戰,將會帶來許多嚴重程度不等的社會問題,并引起擔憂:以人工智能和生物技術為核心的現代技術正在逐漸掌控人類文明。在整個人工智能發展熱潮中,倫理道德法律框架設計明顯滯后。在新舊轉換之際,必須對智能革命時代的法律制度乃至整個社會規范進行新的建構。必須著手制定人工智能領域的治理框架,通過采取新的行為規范來確保高倫理標準,并對技術掌握者,對技術擁有者,對企業,對工程師,對設計師都有約束意義。而此問題在社會學層面思考較多,在設計學層面則幾乎完全缺失。但是作為設計+科技的許多消費產品,都是工程師與設計師合作的結果。目前,在人工智能行業內缺乏基于價值觀的倫理文化和實踐,缺乏解決系統設計時倫理問題的流程模型。人工智能設計問題產生的道德衍生后果是什么?在整個設計過程中,如何始終貫徹倫理規范?一系列問題都值得我們予以重視和思考。
已經去世的著名物理學教授史蒂芬-霍金(Stephen William Hawking)曾給予人類以警告:有人可能創造出超級人工智能,它們能夠全面超越人類,而且有可能完全取代人類。在《連線雜志》的一場專訪中,霍金稱,人工智能取代人類可能會帶來一種新的生命形態:“我擔心人工智能將全面取代人類。如果有人能設計出計算機病毒,那么就會有人設計出能提升并復制自己的人工智能。這就會帶來一種能夠超越人類的全新生命形式。”。美國斯坦福大學人工智能與倫理學教授杰瑞·卡普蘭(Jerry Kaplan)在《人工智能時代》一書中提出:人工智能給人類帶來的第一個威脅是:人工智能不受道德約束,人工智能的產物機器人可能會為達到最終目標,而不擇手段,甚至威脅到人類的生命。人工智能帶給人類的第二個威脅,也是目前備受大家關注和爭議的威脅:機器會取代人類工作,引發人類失業,給人類的精神健康帶來沖擊。人工智能帶給人類的第三個威脅是少數掌握技術的群體將控制社會資源的流向,造成貧富差距變大。最新人工智能技術的好處掌握在少數人手里,造成對財富集中和分配不平等的擔憂,會引發一系列社會問題。而2016年聯合國發布《人工智能政策報告》,也表達了對人工智能的關注,并針對人工智能技術發展帶來的各種問題,提出了一些新的思考方式和解決途徑。
據牛津大學的調研報告,未來將有1000萬非技術工種被機器人取代。從制造到智造,正是企業轉型升級的一個特征,機器人應用節省成本,提高勞動效率,因此各種用途的人工智能機器人正在被設計,被應用,讓相關產業成非線性、躍進式的增長,人工智能與產業的結合,形成高價值,讓人們趨之若鶩,投資機構都在押注人工智能產業。美國投資理財專家約翰·普利亞諾(John Pugiano)撰寫了《機器人來了:人工智能時代的人類生存法則》,他認為,任何循規蹈矩而且可預測性的工作在未來5年至10年都將有可能被人工智能取代。麥肯錫預測,到了2030年全球將有多達8億名勞工的工作將被機器人和自動化取代,美國、日本和德國將有25%的工作會由機器人接手,中國為16%。甚至在設計方面,簡單建筑物的設計已經由人工智能軟件來完成。約翰·普利亞諾認為,未來只有那些具有創造性和藝術技能的建筑師才能在企業中生存。可能的設計職業也許是卡普蘭預言的售賣適用于3D 打印機的產品設計等工作。人工智能也創造了一些相關職業。最近,人力資源和社會保障部初步確定人工智能工程技術人員等15個擬發布新職業。第一名就是人工智能工程技術人員,第三名是大數據工程技術人員,第十一名是工業機器人系統操作員,第十二名是工業機器人系統運維員。
人工智能的發展主要來自深度學習(Deep learning)技術的突破,使機器得以自主學習,并在性能功能上迅速超越人類,蓋因為人類智能的演化平緩進行,時代變革和社會發展不會大幅度提升人類的智力,而人工智能則隨著數據和算法的優化會產生突變的增長,在某個奇點上超越人類智力。人工智能可以更加理性邏輯地進行客觀判斷,同時處理信息的容量大大增加,可以避免漏判和錯判的概率精度遠超人類,自然會引起人類擔憂。在近年,一些國際頂級期刊的內容,直指人工智能的問題與反思,例如:AlphaGo人工智能與人類智能的博弈;人工智能作為資源的壟斷現狀;人工智能對醫療,安防的介入和對大數據的判斷解讀;人臉識別技術的監控應用隱私暴露危險等等。在消費類電子科技產品中,數據對隱私和安全同樣構成危險,已經出現了這樣一種趨勢:在科學、醫學、商業、教育,任何社會或經濟領域都將普遍依賴于對數字化文本數據的分析。而人工智能如果在深度學習過程中使用大量的敏感數據,這些數據也可能會在后續被搜集披露出去,對個人隱私產生不可估量的影響。因此必須想出新的辦法來監控或者審核目前正在眾多領域發揮重大作用的人工智能。
人工智能安全始終是人們關注的一個重點,紐約大學人工智能研究所的年度報告提出警告,試圖解讀面部表情的人臉識別算法可能基于靠不住的科學,報告稱:“任何通過AI將面部表情簡單化地映射至基本情感類別的做法都可能重復一種過時的科學范式的錯誤。”報告提出了關于對人工智能進行監管以及提高該行業透明度的建議,該研究所創始人之一凱特·克勞福德(Kate Crawford)教授說:“現在的問題是,AI正被應用在眾多社會環境中。人類學、心理學和哲學都與之密切相關,但這不是對具有技術(計算機科學)背景的人進行培訓。實際上,AI的狹窄化催生了一種坦率接受某些特定心理學文獻的態度,而這些心理學文獻已被證明是可疑的。”“我們需要強有力的獨立組織機構、領域專家和消息靈通的研究人員來監督人工智能,督促主要研發公司以負責任的態度以高標準來發展這項技術。”如何防范病毒、黑客對人工智能產品的侵蝕也是另一個重要的問題。各種生活中使用的智能電器,也都在精細地記錄私人的行蹤和生活信息,隱私權的保護,形成了人工智能時代的難題。此外,仿真和替換技術已經日趨成熟,人工智能合成主播的出現意味著,制作假新聞的成本將越來越低,而人們辨別信息真偽的難度將大幅增加,在以真實性為基礎的新聞、法律等領域,我們能否承受其對既有社會規則的沖擊?
數據即生產力、數據即財富、數據即權力。占世界人口總數約兩成的中國是一個數據寶庫,國家已經制定《網絡安全法》,要求重要數據不能出境。 據美國市場研究機構協同研究集團統計,從大型數據中心在全球的分布比率看,美國以44%居首,但中國以8%緊隨其后。百度已將公司戰略從“移動互聯網第一”調整為“人工智能第一”,騰訊亦建立了自己的人工智能技術實驗室。百度、阿里、騰訊等國內企業在大數據方面的積累極為豐富,BAT、頭條、美團等巨頭緊隨其后。人工智能所形成的大數據,被一些互聯網巨頭所壟斷,人工智能的進步會加速中心化趨勢,少數幾個基于云計算、多功能的龐大商業智能寡頭,實際壟斷了數據的收集和構建方式,以海量的信息構建一個框架來影響眾人的決策。同時,為了數據壟斷,封閉和割據成為了趨勢,資本和政治充分發揮作用,導致數據缺乏廣度和深度,不利于人工智能戰略的正常推進。
價值鏈上不可忽視的要素是數據。如今,數據成為設計的重要參數,以至于根據數據就可以做設計,但誰可以有權利掌握數據,運用數據?數據的私密性,數據涉及的版權問題,數據作為重要的資源可被銷售給第三方,數據設計所生成的偏好強化等問題,都引發了一系列的倫理問題。圍繞數據的挖掘、存儲、使用和跨界流動環節,有可能導致數據和隱私的侵犯、不對稱信息權力的濫用、數據和技術導致的壟斷等問題。2018年3月臉書(Facebook)數據泄露問題丑聞曝出:Cambridge Analytica數據分析公司通過一個應用程序收集了5000萬Facebook用戶的個人信息,該應用程序詳細描述了用戶的個性、社交網絡以及在平臺上的參與度。臉書因該事件受到英國信息委員會辦公室66.4萬美元的罰單。而美國聯邦貿易委員會(Federal Trade Commission)正考慮對臉書處以“創紀錄的罰款”,原因是臉書違反了與政府達成的一項具有法律約束力的保護用戶個人數據隱私的協議,未能保護用戶數據:政治咨詢機構劍橋分析公司未經臉書用戶明確同意,使用了數百萬臉書用戶的個人信息。人工智能技術假如想要提供個性化、完全符合個人習慣的服務,就必然要學習和理解用戶本身,但這又涉及對用戶私人數據的學習。因此需要對大公司壟斷數據加以限制,讓人工智能決策透明,用政策立法以規范人工智能發展。包括谷歌在內的許多知名大公司已經設置了倫理委員會,用來監督他們人工智能技術的開發和部署。
人工智能在醫療行業迅速應用。百度(Baidu)正在與北京市政府合作打造健康云,將監測來自可穿戴設備和其他智能健康設備的數據。阿里巴巴也推出了名為“未來醫院”的電子醫療服務。卡耐基梅隆大學計算機科學學院教授邢波認為,應把人工智能跟人的形象和功能脫離開。在他看來,醫學人工智能與醫生之間不是競爭關系而是協作關系,人工智能能夠極大地提升醫療的效率,但絕對不是替代醫生。部分計算機科學家缺少對醫學的敬畏和理解。對人工智能進行道德制約,行為分際,就是在引導AI,學習在人類社會里“做人”。把個人數據交給機器似乎是人類不可避免的歸宿。無論是醫療健康、金融服務還是社會安全,機器比人類更靠譜,但是也有很大風險。另一方面,數據的有效性、準確性,也會影響整個算法決策和預測的準確性。虛擬的數據可能被作為真實的數據被計算機加以學習和利用,另外,錯誤的輸入形成的錯誤輸出作為反饋,進一步加深了錯誤,例如一款名為沃森(IBM Watson for Oncology)的腫瘤機輔助治療人工智能產品令1997年就開發出Deep Blue人工智能系統的美國跨國科技公司IBM深陷輿論漩渦,因其訓練的使用數據多是虛擬患者的假想數據。
研究顯示,即使在訓練人工智能系統時使用的材料全部來自中性素材來源,最終人工智能仍然有可能會在價值取向上自動發展出某種偏差。因此,如何解決機器學習中的公平、責任與透明性問題并不容易。深度學習是一個典型的“黑箱”算法,算法在本質上是“以數學方式或者計算機代碼表達的意見”,包括其設計、目的、成功標準、數據使用等等,都是設計者、開發者的主觀選擇,設計者和開發者會有意無意地將自己的偏見嵌入算法系統,就會帶來社會互動協作方式的改變。就目前而言,連設計者可能都不知道算法如何決策,要在系統中發現有沒有存在偏見根源,在技術上是比較困難的。比如,數據是社會現實的反映,訓練數據本身可能是偏見性的。最終,人工智能的算法決策不僅僅會將過去的偏見做法代碼化,而且會創造自己的現實,形成一個自我實現的歧視性反饋循環。偏見強化階層對立、弱勢人群的邊緣化和貧困化。因此需要對算法進行必要監管,制定法規確保透明性,避免算法作惡。
超級科技公司的網絡技術已入侵人類思想,在日常生活中人們受搜索引擎的控制,超級科技公司利用人工智能,掌握用戶個人資料,成為控制人們的強大工具。這些個人資料不但可被用來向用戶發出針對性的廣告,還可用來影響用戶思想,根據用戶偏好推送相關信息,強化偏見,支配和控制現代人生活,使現代人失去最基本的自我主宰能力。而算法決策開始介入甚至主導越來越多的人類社會事務和個人思想行為。人們在互聯網上獲取的新聞、音樂、視頻、廣告等等,以及購買的商品,很多都是推薦引擎個性化推薦給用戶。例如,阿里巴巴旗下的生鮮超市“盒馬鮮生”會對顧客的購買記錄、訂貨時間段進行分析后優化采購結構 。
中國科學院科技戰略咨詢研究院與騰訊研究院在北京聯合舉辦了“2017人工智能:技術、倫理與法律研討會”。表明人們已經意識到,需要在人工智能研發中貫徹倫理原則,因為人們不是在制造一個被動的簡單工具,而是在設計像人一樣具有感知、認知、決策等能力的復雜工具,需要確保這些復雜工具進入人類社會以后能夠與人類的價值規范及需求相一致。一方面,針對人工智能研發活動,人工智能研發人員需要遵守一些基本的倫理準則,包括有益性、不作惡、包容性的設計、多樣性、透明性,以及隱私的保護,等等。讓人類和人工智能進行協同式的倫理決策。另一方面,也需要對不同維度的倫理道德進行分別考量,最后將決策進行融合,建立人工智能倫理審查制度,倫理審查應當是跨學科的,多樣性的,對人工智能技術和產品的倫理影響進行評估并提出建議。
人工智能機器在設計時必須嵌入人類的倫理,這是迫在眉睫的問題。不同國家和地區有不同的倫理標準,因此,如果將自己文化里特有的倫理觀,用以預設人工智能的行為,便可得出不同國度和文化的人工智能。人工智能倫理的嵌入便存在倫理的跨情景問題。需要建立一套全球性商議制度,對人工智能系統制定人類文明一致性的道德共識,在此基礎上再形成各種文化特色的倫理。倫理嵌入可以 賦予人工智能獨特的文化個性,并且界定人與人工智能的關系,同時規范人工智能的行為準則。毫無疑義,沒有倫理的強力介入,人工智能在設計應用服務大眾時將會問題百出。但是,人們面臨一個問題:是誰制定被寫進人工智能系統的價值觀,誰將最終為它們負責?蒙特利爾大學計算機科學與運算系教授約書亞·本吉奧(Yoshua Bengio)指出:這次人工智能熱潮很大程度上是由工業界的巨大需求驅動的。人工智能的發展是資本力量在背后推動,而資本的增值有時是盲目而不計后果的。對此,必須予以足夠的警惕。
英國上議院2018年發布報告《人工智能在英國:準備、意愿和能力?》(圖1),集中聚焦于倫理道德問題——人工智能可能為人類帶來的風險。撰寫報告的英國上議院人工智能特別委員會主席克萊門特-瓊斯勛爵(Lord Clement-Jones)說:“在人工智能的發展和應用中,倫理必須占據中心地位。英國應當抓住機會積極地推進AI與公眾利益的結合,并領導國際社會在人工智能倫理領域的發展,而不是被動承擔那些AI可能造成的消極后果。”英國上議院的這份報告起草了綱領性的五大原則,包括:發展人工智能是為了人類的共同利益;人工智能應當保證公平,并且讓人容易理解;人工智能不應當用來侵犯人們的隱私;所有公民都有權利接受教育,使他們能在精神、情感與經濟上和人工智能一起繁榮發展;人工智能不應被賦予傷害、破壞或欺騙人類的自主能力。

圖1 英國上議院2018年發布報告《人工智能在英國:準備、意愿和能力?》
如何通過設計使人工智能系統做出更具道德倫理性的判斷,是當前人與人工智能交互系統的重點。2016年,科學家提出了一種可以讓人工智能系統自行進行倫理決策的新系統,它以信任-渴望-意圖模型為基礎。2017年,基于游戲和機器學習的通用人工智能倫理系統被提出。同年阿西洛馬會議提出了23條人工智能原則。合倫理的人工智能設計,需要將人類社會的法律、道德等規范和價值嵌入人工智能系統,但是需要解決不同倫理和價值對接的問題。另外,能夠兼容人類的人工智能唯一目標是最大化人類價值的實現,而人類為人工智能提供了關于人類價值的信息,幫助機器人確定符合人類希望的價值。特別需要將人的倫理進行結構化處理,進一步提供給機器學習,形成機器的倫理體系,難點在于跨情景環節,即如何確定在何種情景下,機器的倫理能發生應有的效應。
倫理是指“人與人以及人與自然的關系和處理這些關系的規則”,受結果導向、行為方式和品質精神的考量,但是,倫理并沒有形成統一廣泛的普適倫理體系,況且倫理是變化發展的。人工智能的倫理面臨著一些選擇和困境, 一是個體和群體人工智能決策框架,二是人與人工智能交互中的倫理道德。互聯網進化論作者劉鋒曾在“2017人工智能:技術、倫理與法律研討會”上發言,提出制定人工智能倫理無法回避的有五個問題:1.應該由誰來制定人工智能倫理;2.站在誰的立場制定人工智能倫理;3.按照什么原則制定人工智能倫理;4. 人工智能倫理是供誰來參考使用;5.AI能不能被看做與人類同權的生命體毫無疑義,倫理的制定應是全方面的參與,并且提供管理者(政府,企業家)、研究者(科學家)、開發者(設計師,程序員和產品經理)參考,對人工智能系統的開發和產品的設計生產,政府和企業相關部門要嚴加管理,研制者則要自覺約束。
近年,歐洲機器人研究網絡(EURON)發布了《機器人倫理學路線圖》,韓國政府起草了《機器人倫理憲章》。美國信息技術產業委員會(ITI)頒布了人工智能政策準則、美國電氣電子工程師學會(IEEE)發布了第二版《人工智能設計的倫理準則》。旨在鼓勵科技人員在人工智能的設計研發過程中,優先考慮倫理問題。一般原則包含了1. 人類利益,2. 責任,3. 透明性,4. 教育和意識。而需要指導倫理研究和設計的方法論則是:人工智能應當符合人類價值觀,服務于人類,服務于人類社會和經濟的發展。以人類價值觀為導向的方法論是人工智能設計的核心,其中最重要的是對人權的保護。
《人民平臺》一書作者阿斯特拉·泰勒(Astra Taylor)認為,人工智能對人類社會的影響主要在兩個方面,一個是數據的寡頭壟斷,一個是重新定義人類和人工智能的關系,屬于哲學層面的沖擊。人工智能最新系統的基本特征就是隨著時間的向前推進,不斷創新創造產生新知識的智能系統,也就是類人工智能和強人工智能發展的極限狀態,趨向于無窮點時,其輸入輸出能力和知識的掌握運用能力也將趨近于無窮大,可以看出智能系統在不斷創新創造和不斷積累知識的情況下,在足夠的時間里以人類為代表的智能系統將最終實現“全知全能”的狀態,從這個角度看,無論是東方文化的”神“,或西方文化中的“上帝”概念,從智能系統發展的角度看,可以看作是智能系統(包括人類)在未來時間點的進化狀態。到那個時候,人類將怎樣與其相處?
人工智能的軍事化存在著更大危機。2018年12月,在瑞士日內瓦召開的聯合國武器公約會議上曝光的一個視頻,顯示一個蜜蜂大小的殺手機器人,可輕易躲過子彈,穿透建筑物和汽車,面部識別度高達99.99%,只要輸入目標的圖像信息,就可定點定人消滅。目前,人工智能武器已經出現。人工智能的軍事化應用將從根本上改變戰爭方式,引發新一輪的軍事變革。據英國《衛報》報道,英國謝菲爾德大學人工智能和機器人專業教授諾爾·沙吉(Noel Sharkey)說:“把生死決定交給沒有同情心和理解力的冰冷機器,不符合馬爾頓斯條款,讓我不寒而栗。”2018年由Elon Mask等知名科學家、企業家組成的2000多人在國際人工智能聯合會(IJCAI)上共同簽署了抵制將人工智能武器化的宣言。研究者應當保證他們的產出符合人類道德:不侵犯隱私、不傷害人類、不左右政局,尤其在人工智能武器方面應當更為謹慎。建立有效的機制審問人工智能,以保證人工智能符合人類的倫理道德。
人類是否有足夠的能力及時停止人工智能領域的“軍備競賽”,能否保有最高掌控權?如何利用人工智能技術讓人類社會變得更美好?作為有責任的設計師,要對技術時代和技術現象有積極反應的能力,在現代技術泛濫發展的時代,設計需要一種抵抗姿態,一方面,我們要避免有設計缺陷的人工智能應用,另一方面,我們要防止人工智能形成自主的侵犯。在建立設計倫理的時候,警惕的是人:反人道主義科學家或不正當利用人工智能者。來自人工智能的威脅其實也是來自人類本身的威脅。人類應當善用人工智能,同濟大學教授孫周興在一次采訪中說,“我們希望守住自然人類的最后邊界。”要積極介入正在推進的人工智能對我們生活世界的創制過程中,發揮我們的創造性作用,努力使技術性的“人工智能”變成“人文智能”,人工智能的發展應該以人類社會的穩定與福祉為前提,關鍵的問題是找出確保這些新系統讓整個社會得到改善的方法——而不僅僅是讓控制它們的人受益。
2017年1月,在加利福尼亞州阿西洛馬舉行的Beneficial Al會議上,近千名人工智能相關領域的專家,聯合簽署了著名的《阿西洛馬人工智能23條原則》。美國互聯網企業牽頭成立的非營利組織“人工智能(AI)合作”(The Partnership on AI,PAI)2018年10月16日宣布接納中國互聯網科技公司百度(Baidu)成為會員。 擁有70多家公司、學術團體和民間組織為會員的PAI旨在為AI領域的研究提供倫理學指導,包括保障AI研究不違反國際公約和人權。微軟同樣提出了開發人工智能的六項基本原則:公平、可靠與安全、隱私與保密、包容、透明、負責。微軟公司總裁施博德(Brad Smith)“微軟認為,要設計出可信賴的人工智能,必須采取體現道德原則的解決方案,在賦予計算機更大力量的同時,也需要用社會倫理來引導它。”在倫理思考與制定方面,政府與國際組織,企業和工程師專家都已經開始行動,加強人工智能開發和應用的頂層設計,引導和規制人工智能技術良好發展,政府相關部門對人工智能產品從設計、研發、數據采集、市場推廣和應用等環節進行全方位監管。而設計師也需要發出自己的聲音。使人工智能在研發和設計階段就接受倫理準則的約束,設計出符合政策和法律的人工智能產品。
在機器人技術快速發展以及與人類關系日益密切的時代背景中,人工智能出現“去人類中心化”和“去人類控制化”的趨勢,機器人的自主性一方面讓人產生擔憂,一方面也讓關于機器人權利問題的討論受到越來越多的關注。藝術家總是率先敏感地認識到這一點,有關AI的科幻作品不斷面世,描繪了智能機器人的普及與覺醒,例如《底特律:變人》中機器人馬庫斯在人類的電視臺上發出宣言:“現在你們人類必須正視我們的存在,……我要求你們承認我們的尊嚴和家園,我要求你們承認我們的尊嚴和我們的訴求,以及我們的權利,讓我們攜手起來,我們可以和平共處,為人類及仿生人打造更好的未來,這個呼聲代表了一個民族的希望,你們曾經賦予我們生命,現在是時候賦予我們自由了。”而法國藝術小組Obvious用人工智能描繪的《埃蒙德·貝拉米肖像》在紐約佳士得拍賣中以43萬美元成交,激發了一系列關于AI藝術以及其與人類關系的討論。
2016年谷歌公司的一款圍棋人工智能程序AlphaGo以4∶1戰勝了韓國九段棋手李世石,似乎成為一個劃時代的象征:“機器戰勝了人”。著名科幻作家、“機器人學之父”阿西莫夫提出“機器人三原則”:“1.機器人不得傷害人類;2.機器人必須服從人類的命令,除非這條命令與第一條原則相矛盾;3.機器人必須保護自己,除非這種保護與以上兩條原則相矛盾。”人工智能的社會化應用,不再單純是經濟和設計的問題,而是重要的社會問題,涉及道德代碼、隱私、正義、有益性、安全、責任等問題。作為人類的設計產品,人工智能機器人還不能看做與人類同權的生命體,它分擔了人類的部分知識和智慧功能,但在最重要的創造性和評審創造性價值方面無法替代,在現階段,智能機器人不應具備“人”的資格。
縱觀機械發展史,關于自動化的一切嘗試都是人的體外功能的延伸,而現在,人工智能則是人的頭腦功能的延伸,讓機器人在智力上超越了人類。在外型上,類人機器人也發展迅猛。由中國香港的漢森機器人技術公司(Hanson Robotics)開發的機器人索非亞(Sophia)2017年在瑞士日內瓦“善用人工智能”峰會上亮相。2017年10月26日,沙特阿拉伯授予索菲亞公民身份。歐盟已經開始考慮要不要賦予智能機器人“電子人”的法律人格。另外,具有人工智能的硅膠娃娃也在悄悄改變著人類的情感關系。一些未來學學者和技術專家預言:未來,人工智能很可能按照我們人類的方式,從情感、智力和精神層面,來體驗這個世界。服務類機器人與人類的交互對人類的行為和心理將產生什么樣的影響?日本經濟新聞報道,一家運營招聘網站的日本公司DIP針對500名從事兼職的15-26歲男女調查,了解人們對于和人工智能談戀愛或交朋友的態度,結果顯示,近六成男性對于與AI交往持積極態度,而超過六成的女性拒絕與AI交往。
設計倫理的構建需要在統一明確的倫理體系之下,將相關的各個交叉學科聯系起來,協同合作,研究與人工智能設計相關的倫理道德。這不僅僅是合理設計某種人工智能,也是關于人工智能合理做設計的問題,基于人工智能的設計學理論建構也在進行之中,軟件設計工程師所做的工作將會被智能機器人所代替,即創造者被其創造的技術產品所代替,智能機器人已經開始從事文學和新聞創作,甚至進行繪畫藝術創作,同樣,將來有許多設計工作,例如重復的算法的部分可以交付人工智能去處理甚至去設計。當強人工智能機器人具有了“自主意識”和“表意能力”的時候,便會產生知識產權等問題:我們怎樣看待智能機器的創作,該項著作權利應歸屬于機器還是創制機器的人?怎樣預防智能機器的抄襲?智能機器的創作將會給人類帶來什么影響?未來機器人設計的作品是否享有權利?設計權應該歸屬機器還是設計機器人的設計師或所有人?2016年5月31日,歐盟委員會法律事務委員會提交一項動議,要求歐盟委員會把正在自動化智能機器“工人”的身份界定為“電子人”的身份,并賦予這些機器人依法享有著作權等特殊的權利與義務。
2018年11月23日“首屆未來哲學論壇”在上海召開,討論的主題便是“技術與人類未來”。業已出現的各種可穿戴電子設備又有利于人們生活的一面,但是據《環球時報·英文版》2018年12月20日報道,在貴州省仁懷市第十一中學,學生現在都穿上了一套智能校服,被精準、及時記錄出勤和活動,甚至包括打瞌睡。更進一步,人體埋入芯片和基因改造,讓自然的人類文明正在過渡為技術的“類人文明”——人類身-心的雙重非自然化或技術化,即目前主要由生物技術(基因工程)實施的人類自然身體的技術化,以及由智能技術(算法)完成的人類智力和精神的技術化。美國芝加哥藝術學院科技與藝術學系主任科技藝術家愛德華·卡茨(Eduardo Kac)將具身份辨識功能的生物芯片植入自己的腳踝中,通過網絡掃描裝置,將自己登錄于動物名錄中。隨著當代科技的發展趨勢,人的身體漸漸被視為計算機的延伸裝置,生物芯片與網絡登錄將生物信息微型壓縮,“真實記憶”與“數位記憶”共存并被植入人體內,人類的存在經由網絡數位內存記錄,人的軀體信息可以通過網絡進行擴散,這一切都讓人產生質疑。
特斯拉電動汽車公司與SpaceX老板埃隆·馬斯克(Elon Musk)一直在警告人類對機器人不要掉以輕心,以免淪為機器的奴役或滅絕。但是他與他人創辦的總部在舊金山的神經科技公司Neuralink正在研制可以植入人腦的“腦機界面”(braincomputer interfaces, BCIs),人腦和電腦的零接觸交流互動,開始用人工智能來“制造”增強版人類。列入“2016年中國十大科技進展新聞”的中科院自動化所的人類腦圖譜繪制成功,推進 “類腦智能”形成新型智能形態,兼具生物(人類)智能體的環境感知、記憶、推理、學習能力和機器智能體的信息整合、搜索、計算能力。《失控》的作者凱文·凱利(Kevin Kelly)指出,人造物與自然生命之間有兩種趨勢正在發生:1. 人造物表現得越來越像生命體;2. 生命變得越來越工程化。在人越來越像機器,而機器越來越像人的時代,人與機器的區別模糊起來。人工智能帶來了對人自身認知的困境,高階人工智能的發展,容易造成人類對本身存在價值的懷疑。那么,自然人類被技術化(非自然化)的限度在哪里?新生命哲學或未來哲學的任務就是必須對人類未來生命的方向和形態有一個整體的預測和規劃。否則,哲學缺席,作為心靈安撫的神學便會應時而生。
人類的野心就是,“像上帝一樣創造”。以色列新銳歷史學家尤瓦爾·赫拉利(Yuval Noah Harari)在《未來簡史:從智人到智神》中認為,人類應當隨著數碼化革命成為“神人”。德國波恩大學國際哲學中心主任馬庫斯·加布里爾(Markus Cabriel)在一次論壇發言中也提到,有關人工智能的爭論充滿了神學前提。《紐約客》報道(圖2),前谷歌無人車和 Uber無人車的天才研發工程師萊萬多斯基(Anthony Levandowski)在2015年9月申請創建世界上第一個崇拜人工智能的宗教“未來之路” (Way of The Future)組織,并宣稱:“在人工智能的基礎上實現接受并崇拜上帝。”在硅谷,有很多人相信存在一個時間“奇點”(singularity),那時人工智能會超越人類的智慧,反過來成為世界的統治者。
負責任的設計一定要詢問:設計的目的是什么?工程師設計師要反思智能產品關涉的技術風險,做好智能產品前瞻性的倫理評估,避免智能產品倫理缺位;限制全能機器人的設計,始終掌握人機關系的主導權。在人工智能產品設計中,設計師和工程師組成了跨領域的設計團隊,因此設計的倫理需要通過團隊溝通和交流,要確保每位參與者得到教育、培訓和賦權,并在自主和智能系統的設計和開發中會優先考慮倫理 問題。讓所有人參與到倫理對話和建設中來,由此形成相對清晰具有活力的設計倫理。與人類價值相一致的設計方法應該成為現代人工智能和自主系統組織關注的焦點。系統設計方法符合倫理,才能確保人工智能在追求商業上的經濟效益和社會中的社會效益之間達到均衡,從而讓設計將成為一個強有力的改變世界的工具。
如今,研發安全且合乎道德的人工智能的責任幾乎完全落在研發公司的身上。但是,僅僅靠科技企業以及工程師和設計師的自律是不夠的,還需要社會學、哲學、倫理學等其他學科的學者積極參與。人工智能系統設計者如何更多著力于如何防范濫用、誤用和惡意使用,以及如何化解這種情況可能帶來的危害?需要社會機構、社會組織、專業機構合作,積極參與以倫理為先導的社會規范調控體系建設,讓倫理規范成為未來立法的組成部分,拿出新的公共政策準則,政府和立法機構必須制定以安全為核心的法律框架,形成以技術和法規主導的風險控制機制,來規范人工智能領域的發展。讓人類的自主性在科技時代始終存在。也許,需要構建一種開放的全球性的討論機制和平臺,通過這種討論和共商機制,盡可能形成有效的、穩重的、整合的新人類生命規劃,形成并加強倫理規范和公共政策準則,“AI促進良好“(AI for Good )便是這樣一個聯合國平臺, 通過制定具體項目以及可持續發展目標,促進關于有益利用人工智能的對話,以年度全球峰會為中心,提出有助于實現更多全球 問題解決為目的的人工智能研究主題,第三次 全球首腦會議將于2019年5月28日至31日在日內瓦舉行。
在本文中,設計具有更廣泛的定義,指涉到人工智能系統的設計,也具體到人工智能產品具體的設計,因此,倫理研究也要從技術倫理導向設計應用倫理研究,而附屬于社會倫理之下的設計倫理本身也需要設計,讓設計在技術時代重獲“自然性”,筆者在《設計與自然》一書中提出,設計不是以人為本,而是以人與自然的和諧共生為本。和諧也是人工智能時代的終極價值追求,包括了人與人,自然人與機器人之間的和諧關系。技術的進展需要一種節制和平衡的力量,這種力量就是對自然的“敬畏之心”,這種敬畏之心應當在倫理中體現出來,成為建立“去人類中心主義”的倫理核心,也就是倫理合自然之道,由此形成設計的倫理制度以及標準,把設計倫理變成對設計非常具體的行為約束,使其轉變成一個可操作的程序問題,發揮倫理規范的先導性作用,從而對設計形成規范和調控,也為人工智能產品本身進行倫理指引,讓自然人更自然,讓機器人更機器。正在到來的新生物文明的標志,就是使得設計再次回歸自然。2018年教育部印發了《高等學校人工智能創新行動計劃》,支持高校在“雙一流”建設中,加大對人工智能領域相關學科的投入,促進相關交叉學科發展,探索“人工智能+X”人才培養模式。而我們的設計教育則是要加強創新精神,完善人工智能產品設計人才培養體系,培養學生挑戰的意識,宏大的情感,出色的想象力,清晰的倫理意識,確保我們在進化的舞臺上占有一席之地。