鄒丹丹
修回日期:2019-06-22
基金項目:教育部人文社會科學研究一般項目“民族復興背景下苗族傳統(tǒng)倫理現(xiàn)代轉(zhuǎn)換研究”(18KJA720002)
作者簡介:?鄒丹丹(1991—),女,貴州貴陽人,西安理工大學馬克思主義學院博士研究生,主要從事思想政治教育研究,Email:wangzhaojun1945@163.com。
摘要:第四次工業(yè)革命以人工智能為主要發(fā)展動力,作為新工具、新技術的人工智能技術優(yōu)化了政府公共行政效率,并潛移默化地改善了現(xiàn)有生活方式,提升了人民群眾的獲得感、幸福感、安全感。人工智能由“主體”人創(chuàng)造,人對技術的發(fā)現(xiàn)遵循著自然律,但是日益進步的技術導致人主體理性膨脹,出現(xiàn)了現(xiàn)代性困境,人對技術依賴度越強,越受技術奴役,形成“人與機器的二元對立關系”。在國家大力發(fā)展人工智能的背景下,人類應理性使用新工具,運用哲學的思維規(guī)范AI倫理、擁有AI思維。
關鍵詞:人工智能;第四次工業(yè)革命;技術理性;現(xiàn)代性困境;哲學原則
中圖分類號:TP18;B82文獻標志碼:A文章編號:10085831(2020)04022512
一、引言
人類技術的蓬勃發(fā)展產(chǎn)生了對技術理性的哲學反思,人在技術輔助下從自然中得到解放,卻也自為地讓技術成為奴役人的新方式。匈牙利哲學家盧卡奇認為,在物化的社會中人逐漸遠離了勞動的本質(zhì),整個勞動過程意識不到自身的完整性,“而是作為機械化的一部分被結合到某一機械系統(tǒng)里去。他發(fā)現(xiàn)這一機械是現(xiàn)成的、完全不依賴于他而運動的,他不管愿意與否必須服從于它的規(guī)律”[1],由此勞動價值也被當做商品計算于機器生產(chǎn)的全過程。美國哲學家馬爾庫塞看到了技術的政治工具目的性,資本主義社會的技術控制構建在提高生活水平與社會運轉(zhuǎn)效率的雙重基礎上,是一種區(qū)別于恐怖壓制服從的隱匿的政治統(tǒng)治力量。俄羅斯哲學家別爾嘉耶夫認為,正是技術的沖擊,人們?nèi)趸藢ψ诮痰拿つ啃叛霾⒓夹g的發(fā)展前景作為信仰,由此他將人與機器的發(fā)展關系分為“四個階段”[2]:第一階段是人依賴自然的階段,人的認知還未認識自然僅停留于神話幻想;第二階段是人對自然有一定感知并
從陌生的自然力量解放出來,以禁欲平衡生存;第三階段是人通過掌握自然律實現(xiàn)社會技術化,又運用技術使得自然機械化;第四階段出現(xiàn)了技術理性的膨脹,人利用技術成功開采自然并得到滿足,隨之技術理性開始走向反面成為奴役人的新力量。
綜上所論,人與技術的關系起源于自然,利用技術在一定程度上解決了自然對人的奴役,技術理性發(fā)展于人對自然工具的改進,卻同時陷入所發(fā)明的技術矛盾中。顯然,人工智能技術(AI)是人類技術的又一高峰,智能時代的現(xiàn)代性困境已經(jīng)來臨。
二、研究背景與問題提出
根據(jù)IDC國際數(shù)據(jù)公司預測,“到2020年,全球人工智能的市場規(guī)模將從2016年的80億美元增長到470億美元。2020年中國人工智能市場將從2015年的12億元人民幣增長至91億元人民幣”[3]。近年來,各國紛紛出臺政策以促進AI行業(yè)發(fā)展,同時頒布一系列規(guī)定以規(guī)范AI市場。我國于2017年7月由國務院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,正式將人工智能提升到國家發(fā)展層面,《規(guī)劃》部署了“新時代人工智能‘三步走戰(zhàn)略目標,力爭到2030年我國人工智能理論、技術與應用總體達到世界領先水平,成為世界主要人工智能創(chuàng)新中心”[4]。2017年,法國政府出臺《人工智能戰(zhàn)略》,呼吁“對新型技術進行‘共同性調(diào)控,在技術造福社會的同時應更加強調(diào)公民權利與社會公共利益的雙重保護”[5]。2016年,英國政府發(fā)布《人工智能:未來決策制定的機遇與影響》研究報告,報告分析了人工智能存在的風險因素,如個人隱私風險、技術掌握尺度風險、社會倫理風險、風險分配等,并初步規(guī)范了機器使用中的權責問題[6]。2016年,日本政府出臺《第五期(2016—2020年度)科學技術基本計劃》,提出“‘超智能社會5.0新概念,以此為基礎構建社會智能服務平臺并協(xié)調(diào)其他領域智能系統(tǒng)發(fā)展”[7]。2016年10月,美國白宮發(fā)布《國家人工智能研發(fā)戰(zhàn)略計劃》,提出AI應與人類社會價值體系、法律法規(guī)保持一致[8]。
可以認為,雖然人工智能發(fā)展前景廣闊,但研發(fā)及使用中不可避免會對網(wǎng)絡安全、倫理安全、公共安全等形成挑戰(zhàn),AI的現(xiàn)代性安全問題及其現(xiàn)代倫理建構已成當下人工智能發(fā)展的熱議之詞。目前,社會各界對人工智能技術的爭議焦點主要集中在是否會面臨“技術奇點”
1993年,科幻小說家作家、計算機科學家弗諾·文奇首次提出了計算“奇點”概念。他認為,在這個點上,機器智能將取得飛速進步,它將成功地跨過那個門檻,然后實現(xiàn)飛躍,成為“超級人類”。,即一旦人工智能擁有的“智慧”超越人類,很可能會制約人類,反客為主,人類將無法控制自己所制造的“智慧機器”。
學術界也對“技術奇點”可能導致的現(xiàn)代性風險提出看法,討論領域主要涉及以下五個方面:(1)軍事方面,以探討“智能軍備”引發(fā)的“智能化戰(zhàn)爭”轉(zhuǎn)型升級為主。程運江等認為,新智能軍備能夠使國家贏得戰(zhàn)爭主導優(yōu)勢,智能作戰(zhàn)系統(tǒng)具備戰(zhàn)場情況智能感知、目標智能識別、動力智能控制、結構智能變形等智能化功能,重點解決戰(zhàn)時動態(tài)變化、智能決策、自主作戰(zhàn)等關鍵問題[9]。(2)貿(mào)易方面,以探討發(fā)展中國家“高新技術”受限于發(fā)達國家為主。傅瑩等認為,美國對《中國制造2025》持有高度戒備心理,在高新技術領域以各種形式防范、限制和打壓中國高新技術產(chǎn)業(yè)(如智能芯片)發(fā)展[10]183。(3)就業(yè)方面,以探討人工智能對勞動力市場形成的沖擊為主。鄧洲、黃婭娜認為,人工智能對就業(yè)的影響表現(xiàn)為四種效應,即替代效應、填補效應、創(chuàng)造效應、結構效應。替代傳統(tǒng)部分崗位,填補人們不愿從事、不能勝任的崗位,創(chuàng)造出新就業(yè)市場,改變勞動力就業(yè)結構。這將不可避免造成短期勞動力市場結構性失業(yè)并拉開收入差距[11]。程承坪認為,AI符合技術進步對就業(yè)影響的一般規(guī)律,但也有其特殊性,即人工智能不僅可以替代人的體力勞動也能替代人的“智力”,從未來AI的更新技術來看,存在完全替代就業(yè)的可能性[12]。(4)法律方面,以探討智能機器導致的人身安全如何判定為主。彭中禮提出對人工智能法律主體地位的辨析理論,當機器受人指令運轉(zhuǎn)或自主運行時是否具有權利能力與行為能力,建議從其損害行為時的主體地位進行判斷,只要人工智能還無法完全取代人類,那么應考慮對其進行有限度的主體抑制,限制其權利范圍[13]。(5)倫理方面,以探討人工智能導致的傳統(tǒng)倫理失衡、如何構建現(xiàn)代技術倫理體系為主。王天恩針對如何處理人機融合的關系平衡概括出四種倫理關系,即人類與智能機器倫理關系、人類個體與智能機器關系、智能機器之間倫理關系、人類自身倫理關系。在四種倫理關系基礎上將消極倫理限制轉(zhuǎn)化為積極倫理規(guī)則,為人工智能發(fā)展提供充分倫理支持[14]。
總體而言,學術界對人工智能的探討主要集中于四個維度:對人工智能技術的理性反思、對人工智能導致的現(xiàn)代性困境的思考、對人工智能未來發(fā)展空間的預測、對人工智能倫理關系的重構。那么,AI新技術帶來的現(xiàn)代性困境究竟有哪些具體表現(xiàn)?歷史上的技術革命、經(jīng)典案例能夠為人工智能發(fā)展提供怎樣的啟示?如何立足哲學高度提出相關建議?筆者就這些問題展開分析。
三、AI新技術帶來的現(xiàn)代性困境
2017年《國務院關于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》強調(diào),“人工智能發(fā)展的不確定性帶來新挑戰(zhàn)。人工智能是影響面廣的顛覆性技術,可能帶來改變就業(yè)結構、沖擊法律與社會倫理、侵犯個人隱私、挑戰(zhàn)國際關系準則等問題,將對政府管理、經(jīng)濟安全和社會穩(wěn)定乃至全球治理產(chǎn)生深遠影響。在大力發(fā)展人工智能的同時,必須高度重視可能帶來的安全風險挑戰(zhàn),加強前瞻預防與約束引導,最大限度降低風險,確保人工智能安全、可靠、可控發(fā)展”。為此,筆者對人工智能已經(jīng)形成的困境及其可能誘發(fā)的不穩(wěn)定風險因素進行分析。
(一)戰(zhàn)爭困境
現(xiàn)代化軍事誰能夠把握技術轉(zhuǎn)型升級的敏銳感,實現(xiàn)軍事技術的突破,預判軍事技術發(fā)展方向,把握戰(zhàn)爭形態(tài)差異,誰就能夠掌握最新戰(zhàn)爭規(guī)則,贏得戰(zhàn)爭的主導權從而避免“未打先輸”。新一代軍備的升級使傳統(tǒng)戰(zhàn)爭方式和戰(zhàn)爭倫理發(fā)生眾多改變,從徒手博弈、冷兵器、熱兵器的正面交鋒轉(zhuǎn)向機器化、信息化軍事智能作戰(zhàn)。在此背景下,許多國家將人工智能技術作為軍事發(fā)展的重要對象,給予AI頂層設計、基礎性技術研究、財政科研撥款等諸多支持。“2018年美國國防經(jīng)費高達7 000億美元,從技術、裝備到思想文化和組織管理模式等方面實現(xiàn)整體躍升,目的是將美軍打造成一支能夠打贏未來戰(zhàn)爭的信息化、智能化軍隊”[10]174。智能軍隊已不再是科幻電影中出現(xiàn)的虛擬場面,而是已經(jīng)開始實際運用于現(xiàn)代化軍事案例中。2018年,美國空軍進行了第二次LRASM遠程智能反艦導彈齊射飛行試驗,完成了中段、末段導航自動轉(zhuǎn)換,采用彈上傳感器導引至海上移動目標,并成功命中靶標[9]。美國知名的電子戰(zhàn)項目“BLADE”,當恐怖分子采用無線電遙控引爆炸彈時,能夠彌補傳統(tǒng)對抗裝置的滯后性,利用人工智能技術及運算法則主動識別周圍電磁環(huán)境,自動適應并干擾新的射頻威脅,從而達到有效的電子對抗目的。法國的FELIN單兵作戰(zhàn)系統(tǒng)和瑞士的“單兵綜合模塊作戰(zhàn)系統(tǒng)(IMESS)”配備了攝像頭或無人裝置等偵察儀器,并將數(shù)據(jù)共享到作戰(zhàn)局域網(wǎng)中,增強態(tài)勢感知和聯(lián)合作戰(zhàn)能力[15]。2017年,法國達索飛機公司成功實現(xiàn)了神經(jīng)元無人機與陣風戰(zhàn)斗機的數(shù)百里編隊飛行,促進了“有人-無人”協(xié)同、無人僚機等研究[16]。俄羅斯的部分T-50和蘇-35戰(zhàn)斗機裝備“決斗”智能輔助系統(tǒng),可使飛行員更好地完成判斷、決策和武器操控[9]。2016年,以色列國防軍向Mainichi Shimbun報社透露:完全自動駕駛的軍用車輛已經(jīng)運用于加沙地帶邊境巡邏[17]。
綜合分析人工智能的技術特點可以發(fā)現(xiàn),AI新技術在未來戰(zhàn)爭領域可能存在以下四類風險。(1)成熟人工智能技術投入軍事設備上產(chǎn)生的實際傷害力度與預期估計會存在誤差。如:無人戰(zhàn)斗機可執(zhí)行空中偵察、敵方軍事情況監(jiān)視、空中戰(zhàn)斗、后勤支援等任務,但目前相比人的實際操作缺乏靈活性,自主作戰(zhàn)能力相對較弱,且無人機需時刻與操作員保持通訊。值得注意的是,隨著各國對人工智能技術的不斷研發(fā),人工智能+更新化的軍事設備對未來戰(zhàn)爭帶來的傷害力度會一直處于“實際未知狀態(tài)”。2004—2015年期間,美軍無人機空襲估計造成了3 000人的死亡,而這一數(shù)字的預定值只有幾十人。可見,軍用無人機雖然通過研發(fā)、計算、模擬、測試,但最終投入戰(zhàn)場時依舊存在誤差[18]。(2)戰(zhàn)爭的倫理性。傳統(tǒng)戰(zhàn)爭以人對人直接交鋒取勝,現(xiàn)代戰(zhàn)爭可使用機器人作戰(zhàn),對于“主動發(fā)動戰(zhàn)爭國”而言降低了士兵死亡率,減少了戰(zhàn)場上的血腥感,節(jié)約了戰(zhàn)爭成本。對于“被動應戰(zhàn)國”則是受到了人工智能的精確打擊。“1991年的海灣戰(zhàn)爭,美軍使用HARM攻擊平臺,其中最重要的部分是智能寬帶導引頭,它覆蓋了從較低的微波波段到較高的J波段,能夠?qū)ν{進行分類、識別并確定優(yōu)先等級引導實施自主攻擊,為美軍贏得巨大戰(zhàn)爭優(yōu)勢”[19]。這將會造成兩種后果,一是經(jīng)濟越強大的國家在戰(zhàn)爭初期就似乎已獲得勝利權,經(jīng)濟越弱小的國家越可能趨于敗北,“1972年,美軍使用高精度“靈巧炸彈”炸毀了越南堅守7年的清化大橋”[20]即為一例;二是“主動戰(zhàn)爭國”士兵良心譴責感降低,“使用機器完成某個行動基本上使機器的設計者和操作者免于該項行為的責任”[21],只需操作機器設備就可“輕易贏得戰(zhàn)爭”,從而把戰(zhàn)爭變成逼真的電子游戲,可能的后果是因為“容易”而“好戰(zhàn)”或“任意發(fā)動戰(zhàn)爭”。(3)不可扭轉(zhuǎn)的時間表與失誤后果。“一旦激活動員計劃A或B或C或不管什么計劃的按鈕被按下,人員和物資就會按計劃自動地、大規(guī)模運輸,不再可能撤銷命令”[22]647,若戰(zhàn)爭時出現(xiàn)和平的可能性也將因人工智能的“自動性”而導致無法挽回的損失。“因為現(xiàn)代武器發(fā)射技術可以在幾分鐘內(nèi)跨越諸大陸,而數(shù)以千計的自動作戰(zhàn)系統(tǒng)中的每個系統(tǒng)都配備有各自作出決定的計算機,尤其是在發(fā)動核武器大戰(zhàn)時,使得人們幾乎沒有參與的時間”[22]647。更極端的情況是,智能作戰(zhàn)系統(tǒng)如果被敵方、恐怖主義軍事技術破解、篡改、植入病毒,可能演變?yōu)闊o法控制的局面。(4)極端恐怖主義也將同樣獲得相對較好的設備,加劇區(qū)域動亂不安。極端恐怖主義者、海盜等總會以各種方式尋找先進武器武裝自己,即使同發(fā)達國家綜合軍事實力不可比擬,但任意一場“恐怖襲擊”也會對平民造成巨大傷害,設備越先進他們越會肆無忌憚制造恐怖事件以達到政治目的[23-24]。2014年,聯(lián)合國在日內(nèi)瓦召開會議,最終采納了“禁止開發(fā)在無人操作的情況下自動對人類進行殺傷的機器人武器”的聲明[25]。
(二)貿(mào)易困境
一是形成新興貿(mào)易市場。在交通領域,2019年2月春節(jié)期間中國百度地圖為駕駛?cè)藛T新推出了氣象智能導航系統(tǒng),累計產(chǎn)生了1 500萬次提醒可能遭遇的路面結冰、積雪、霧氣等危險路面情況信息。在安全領域,如2018年11月進博會上三星公司展示的智能門鎖可通過連接手機實現(xiàn)遠程開鎖并記錄進出情況,并具備測溫功能,一旦室內(nèi)氣溫超過70℃門鎖則自動報警。在第三產(chǎn)業(yè)物流領域,2018年全球智慧物流峰會上,阿里巴巴負責人表示已投入大量資金構建智能物流網(wǎng),將全面實現(xiàn)智能化物流,如自動倉儲、自動配送、物流機器人等,加速物流分流效率。在公共服務領域,以銀行為例,2019年1月中國農(nóng)業(yè)銀行隆鑫支行設立“智能客服機器人”,可替代人工為客戶快捷辦理開卡、存款、理財?shù)然A業(yè)務。事實上,“智能客服機器人”具有大眾化特點,可以投放至人流量大的地點,如醫(yī)院、政務服務大廳、火車站、大型會場等,優(yōu)化公共行政流程,提升行政效率,提高群眾滿意度。在醫(yī)療領域,河南省立眼科醫(yī)院引進機器人“嵩岳”醫(yī)生,可以模擬醫(yī)生記錄患者情況,協(xié)助醫(yī)生開出科學藥方。值得注意的是,正是人工智能技術具有便利化、大眾化、技術新、高效性、潛力大的顯著特點,決定了其本身附有的應用價值將會成為國家治理的新工具,也必然會形成新興的貿(mào)易市場。
二是進一步引起以“人工智能”為核心的貿(mào)易技術戰(zhàn)。資本家不會放棄“新型物品”的貿(mào)易機會,因為“資本主義是一種以牟利為動機、以各種精心設計的、往往是間接的方法、通過利用大量的資本積累來賺取利潤的制度”[26。1 500年前的阿拉伯與意大利商人就在歐亞大陸之間販賣香料、寶石等奢侈品;18世紀末期的美洲大陸量產(chǎn)煙草、蔗糖、咖啡、棉花糖等其他商品,商人們又將美洲商品販賣至歐洲;后期由于各地大量貿(mào)易流通而必須輸入大量勞動力,“人口販賣”也成為了“貿(mào)易”。資本主義的本質(zhì)決定了資本家一定會資本運作投資新興盈利公司,而“人工智能”正是熱門利益鏈條。資本家為了賺取高額收益,將加大人工智能技術革新力度,搶奪人工智能技術資源、壟斷技術,遏制其他國家發(fā)展,再將人工智能產(chǎn)品售賣到發(fā)展中國家進行技術滲入,一旦兩國之間出現(xiàn)政治或經(jīng)濟分歧,他們將會以技術為主要手段進行貿(mào)易制裁,“技術進步的內(nèi)在動力解釋了……為什么今天的資本家能以他們的生物科技、信息科技和跨國公司繼續(xù)控制世界經(jīng)濟”[22]395。
(三)就業(yè)困境
人工智能在社會中的運行會“破壞既有的雇傭關系”
“破壞既有的雇傭關系”由比爾蓋茨提出。在2014年3月由美國智庫AEI主辦的演講會上,比爾蓋茨強調(diào),人工智能對雇傭的侵蝕正在向司機、服務員、護士等諸多職業(yè)擴展……從現(xiàn)在起的20年后,社會對現(xiàn)在的勞動者擁有的各種職業(yè)的需求將大幅降低。然而,目前人們絲毫沒有意識到這一問題的存在。,出現(xiàn)與勞動力爭奪市場就業(yè)崗位的現(xiàn)象,這由人工智能發(fā)展的必然趨勢決定且不可避免,機器替代人工并非現(xiàn)代人工智能的“專利”,在工業(yè)革命時期就已經(jīng)出現(xiàn)“傳統(tǒng)行業(yè)與機器”的關系問題。第一次工業(yè)革命時期,約翰·凱在1733年發(fā)明了能提升紡織速度的“飛梭”;理查德·阿克賴特在1769年發(fā)明了“水力紡紗機”,它主要以水利為動力紡出既細又結實的線;詹姆斯·哈格里夫斯在1770年發(fā)明了“珍妮紡紗機”,最初它能使得一個人同時紡8根紗線,經(jīng)過后人不斷改進最終達到100根紗線;塞繆爾·克郎普頓在1779年發(fā)明了走錠紡紗機,它使紡紗自此脫離純手工進入機器化生產(chǎn)紡紗階段。到19世紀20年代,動力織機在棉紡織工業(yè)中基本上已取代了手織織布工。某一行業(yè)的發(fā)展往往會激勵其他更多行業(yè)發(fā)展,紡織機激發(fā)了人們對動力的需求,瓦特將傳統(tǒng)原始蒸汽機進行改良,到1800年時已有500多臺瓦特蒸汽機投入實際生產(chǎn)中,隨之引起對鋼鐵及煤炭的需求,從而使礦業(yè)行業(yè)與冶金行業(yè)也獲得了快速發(fā)展,全社會進入初步工業(yè)時代,機器也與人力在全行業(yè)展開了爭奪戰(zhàn),工人成為機器的輔助。第二次工業(yè)革命時期,因戰(zhàn)爭的需要,高射炮臺裝滿了計算機,它可以對儲存資料進行加工。而現(xiàn)代計算機體積較小運算速度更快,成為現(xiàn)代經(jīng)濟的重要支撐,并逐漸運用于超市、營業(yè)場所與工廠中。可以認為,第一次工業(yè)革命出現(xiàn)了大批量節(jié)省人力的機器,第二次工業(yè)革命則出現(xiàn)了取代人力的新機器。
分析發(fā)現(xiàn),一是歷史上機器替代人力首先從勞動密集型產(chǎn)業(yè)入手,因這一行業(yè)手工業(yè)人數(shù)較多、技術含量較低更易被替代,這一取代原理在當今社會也同樣適用,服裝行業(yè)的企業(yè)家為提升效率、改進技術則會淘汰部分手工服裝工人;物流行業(yè)的企業(yè)已經(jīng)實現(xiàn)物流機器人自動分揀快遞。二是歷史上的工業(yè)行業(yè)失業(yè)危機到如今已經(jīng)成為全行業(yè)危機,“自動裝置和機器人的普及正在取代辦公室里的‘白領工人以及工廠里的‘藍領工人,整個西方世界的失業(yè)人數(shù)已從1970年的1 000萬上升到1983年的3100萬……但服務性工作正在迅速地增加”[22]771。與工業(yè)革命不同的是,如今的服務行業(yè)勞動力也正在被機器人代替,2018年海底撈在北京推出智慧餐廳,自動點餐機器人、自動傳菜機器人等自動化設備已在餐廳“高效服務”;智能家居已經(jīng)實現(xiàn)自動洗碗、自動掃地、自動開門等全自動化生活。三是機器化工作環(huán)境與失業(yè)人員的無歸屬感。工人在工廠的工作時間增長,工作方式單一、枯燥、乏味,“他們必須跟隨機器運轉(zhuǎn)”,遵守工作紀律、服從命令是機器化生產(chǎn)的必然要求,如今人工智能雖然很有“新鮮感”,但其本質(zhì)依舊是“運轉(zhuǎn)的機器”,長期與其工作依舊會出現(xiàn)“疲倦”現(xiàn)象。當工人適應機器生產(chǎn)后又要面臨機器對此帶來的淘汰威脅,“在工業(yè)化的早期階段,存在著大量的剝削和社會分裂……織布工和其他手工業(yè)者由于新的機制商品的不可抵抗的競爭而被淘汰”[22]498。所以,我們應該考慮到當機器取代人工后,“被取代的人工”的年齡、學歷、再就業(yè)能力、再學習能力,不能讓人工智能盲目取代所有行業(yè),如果“被取代的人工”發(fā)現(xiàn)自己的技藝無處施展、難以尋找到新的工作時會產(chǎn)生迷茫感與失落感,也將對社會穩(wěn)定產(chǎn)生潛在威脅。
(四)人身安全困境與法律責任界定
自動駕駛技術在實際測試、使用中由于操作失誤、設計缺陷等出現(xiàn)了多起傷亡事故。2016年,美國佛羅里達州某駕駛?cè)藛T在開啟自動駕駛情況下與一輛拖拉機拖車相撞后不幸死亡,據(jù)被撞擊者表示,事發(fā)時該駕駛?cè)藛T正在觀看電影《哈利波特》。2016年,中國發(fā)生國內(nèi)首起自動駕駛傷亡事件,特拉斯車主在京港澳高速河北邯鄲段直接撞擊道路清潔車,所駕駛車輛當場嚴重損壞,駕駛?cè)藛T當場死亡,隨后家屬向“特拉斯”公司發(fā)起索賠,經(jīng)過一年多取證,特拉斯公司終于承認發(fā)生事故時汽車處于自動駕駛狀態(tài),自此后特拉斯公司將自動駕駛翻譯為自動輔助駕駛。此外,其他領域的機器人傷人事件也不時發(fā)生。2016年,美國知名安保機器人公司制造的一款打擊犯罪機器人在硅谷購物中心撞倒并打傷了一名16個月大的男孩。2016年,在第十八屆中國國際高新技術成果交易會上,機器人“小胖”在無人操控的情況下突然自行運轉(zhuǎn),當場打破展館玻璃,并致一位現(xiàn)場觀眾受傷。
從一系列機器人傷人事件中可以發(fā)現(xiàn)以下特點:一是使用者操作不當,操作失誤所致;二是機器人本質(zhì)如同電腦會自動運行錯誤程序,當修復不及時時會出現(xiàn)程序混亂,那么未來機器工作時是否也會因程序混亂致人死亡?系列機器人傷人事件中,法律責任又該如何界定?事故存在的四方是技術使用者(如駕駛?cè)藛T)、機器人本身(如特拉斯汽車)、機器人銷售方(特拉斯公司)、機器人制造商,顯然人類不可能要求“機器人本身”負責,因為它是不具備人類意識的人工制造物,“我們無法起訴機器人”[27]。因此,責任將在使用者、銷售者與制造者之間劃定,因現(xiàn)階段的人工智能并非早期機械化機器,現(xiàn)代人工智能擁有學習能力,能自主運算、自主運行,那么事故發(fā)生時難以判斷出錯階段,則安全事故責任將難以厘清。
(五)身心困境
當智能設備過于“智能”,“人們對它的依賴程度越高、依賴范圍越廣”[28],以至于人類離開機器就不能正常生活甚至可能脫離實際。以智能手機使用為例,榮婷在對全國2 240所高校進行調(diào)研的基礎上,發(fā)現(xiàn)高校學生的手機依賴對人際關系、學習狀態(tài)存在負面影響。越依賴手機,人際關系處理能力越差;越依賴手機,學習狀態(tài)越差。這主要由于無線網(wǎng)絡、手機流量的大眾化,一部智能手機就能獲得海量網(wǎng)絡信息,導致家庭聚會、朋友聚餐、學習時仍然“機不離手”,忽視了人際交往、降低了學習能力。越依賴手機,情緒狀態(tài)越差,當離開手機時會感覺情緒不安,產(chǎn)生焦慮感[29]。沈愁、戴靜等通過對江蘇省某高校1 061位大學生的調(diào)查發(fā)現(xiàn),智能手機對大學生睡眠存在顯著影響,大學生在熄燈后入睡前使用手機超過1小時致睡眠障礙率達到30%,并產(chǎn)生肌肉酸痛、頭痛頭暈、精神恍惚、視力嚴重下降、長期失眠等惡劣情況。此外,由于耗費大量時間玩手機,減少了戶外活動,身體長期處于亞健康狀態(tài)[30]。智能設備在某一方面取代人力工作,那么人在對應方面的手動能力就會有所欠缺或者被完全淘汰,設想一旦出現(xiàn)區(qū)域性大規(guī)模停電,那么所有行業(yè)的人工智能將無法正常運轉(zhuǎn),而被取代的功能很難及時找到真人替代機器工作。在生活失真方面,以智能拍照為例,智能修圖軟件只需一鍵就可磨皮瘦臉、腿部拉長、面部上色,與未修改前形成鮮明對比,雖然愛美之心人皆有之,但過于頻繁使用智能拍照會使得照片失真,忘記自我,活在虛擬假象中,離開修圖就不敢正視自我,外表的美態(tài)不應是修圖而來,通過運動既可達到修身目的,也能提高身體素質(zhì)。同時,現(xiàn)代人隨意自拍修圖行為還引發(fā)了社會“自拍災難”。2016年,意大利發(fā)生區(qū)域性地震,部分旅客沉浸于廢墟中自拍不愿離開;2017年,埃及發(fā)生火車相撞事件,數(shù)百人傷亡,然而前來救治的醫(yī)護人員卻在現(xiàn)場自拍;2017年,英國格倫費爾大樓發(fā)生重大火災事故,71人葬身其中,一些公民把事故現(xiàn)場當做旅游景點拍照留戀。不顧及他人感受的自拍是自私行為,既引發(fā)道德爭議,也泄露個人隱私。可以認為,智能化設備越先進,人們就越會過度使用,帶來的負面影響則是潛移默化的。
(六)倫理困境
計算機是人工智能的大腦,通過計算發(fā)出指令使之模擬人類行為。那么機器人會像人類一樣通過不間斷的學習運算最終擁有人類的思維嗎?畢竟人類在生活中也會對各種利益關系進行智慧性衡量和選擇。人工智能會挑戰(zhàn)并取代人類嗎?社會由此形成了關于“人工智能與人類”對立的爭議點。美國科幻電視劇《西部世界》中人工智能其實是人本能的反映,人創(chuàng)造了人工智能服務自己,當人工智能學習了語言、計算等知識后在“大腦”中運算出最優(yōu)方案,開始擁有“自我意識”,他們便與人類對立,開始設法逃離人造世界。針對這種設想,作家艾薩克·阿西莫夫提出了著名的“阿西莫夫法則”,也被稱為“機器人學的三大法則”,即“一是機器人不得傷害人,也不得見人受到傷害而袖手旁觀;二是機器人應服從人的一切命令,但不得違反第一法則;三是機器人應保護自身的安全,但不得違反第一、第二法則”[31]。劇情中某一位機器人突然告知自以為擁有“自我意識且妄圖逃離的機器人”,逃離人類控制的世界也是當初設計者設計的程序,一切都在按照程序運行。那么這種“程序”最終將人工智能推向神學,人類社會是否也像機器世界一樣是上帝早已經(jīng)編寫好的程序,一切都是早已安排好的命定論,一些評論家試圖將“人類偷吃禁果后擁有智慧”對比“機器人擁有人類思維”,以此闡釋人工智能的未來危機。當然,現(xiàn)階段人類技術還到不了如此境地,機器人“程序”也只是對未來的擔憂與假象,上帝造人并不存在,但人工智能如果使用不當將會超越倫理,我們必須將其控制在倫理范圍之內(nèi)。
(七)產(chǎn)業(yè)平衡困境
人工智能目前主要運用于第二產(chǎn)業(yè)的工業(yè)和第三產(chǎn)業(yè)的服務業(yè)中,具體表現(xiàn)為生活辦公、教育、醫(yī)療、交通、安全、零售、文娛、金融等方面的應用,第一產(chǎn)業(yè)還未廣泛涉及,未來人工智能+農(nóng)業(yè)必須注意農(nóng)業(yè)平衡問題。以第二次工業(yè)革命早期的美國為例,工業(yè)產(chǎn)量劇增,農(nóng)業(yè)卻有所下降。“1981年至1983年間,美國農(nóng)業(yè)出口物的物價水平下降21%,出口量下降了20%。美國農(nóng)民發(fā)現(xiàn)自己一下子處于經(jīng)濟拮據(jù)的狀態(tài)之中,這尤其是因為許多人為了買更多的土地和設備,以響應政府發(fā)出的生產(chǎn)更多產(chǎn)品的呼吁,以高利率大量借款。破產(chǎn)的農(nóng)民流離失所,家庭式農(nóng)場的數(shù)目從20世紀30年代中期的680萬這一高峰下降到1980年的280萬,進而下降到1994年的190萬”[22]770。具體而言需要注意兩個方面的問題:一是農(nóng)業(yè)本身的特殊性。在工業(yè)革命之前,農(nóng)業(yè)并未使用過任何高科技耕作工具,但數(shù)千年來農(nóng)業(yè)依舊保持產(chǎn)量,這就說明農(nóng)業(yè)方面即使沒有智能工具也能有高產(chǎn)出;二是農(nóng)業(yè)使用智能工具需與我國農(nóng)業(yè)發(fā)展實際情況相吻合,不能盲目推廣。我國農(nóng)業(yè)至今仍然以小農(nóng)經(jīng)營模式為主,1979—2017年間農(nóng)業(yè)GDP平均增長速度在三大產(chǎn)業(yè)中最低,約為4.4%,而同期第二產(chǎn)業(yè)增速為10.7%,第三產(chǎn)業(yè)增速為10.5%。顯然,我國農(nóng)業(yè)與全面現(xiàn)代化仍存在較大差距,因此在推廣運用智能技術方面必須考慮農(nóng)業(yè)實際產(chǎn)量、社會對農(nóng)產(chǎn)品的需求程度、農(nóng)民對智能產(chǎn)品的接受能力、運用能力等,特別是智能機器在農(nóng)業(yè)上的實際效果。對于農(nóng)業(yè)發(fā)達地區(qū)可優(yōu)先試點人工智能,對于經(jīng)濟落后的農(nóng)業(yè)地區(qū)如果盲目大面積推廣智能機器,反而會加劇農(nóng)民負擔并可能給農(nóng)業(yè)帶來損失。事實上,智能產(chǎn)品在第一產(chǎn)業(yè)投入方面,必須根據(jù)區(qū)域經(jīng)濟的具體情況,實現(xiàn)農(nóng)民、農(nóng)業(yè)與智能設備的匹配平衡發(fā)展。
四、AI運用應遵循的哲學原則
在學術界,AI研究者依據(jù)人工智能技術的能力強弱將其發(fā)展過程分為三個階段。第一階段是弱人工智能又叫專用人工智能(Special AI),此階段AI只擅長某領域?qū)S眉夹g。第二階段是強人工智能又叫通用人工智能(General AI),這個階段人工智能整合多種領域技術形成通用功能,此階段的人工智能可以與人類能力媲美。第三階段是超人工智能,該階段AI的能力超越人類,甚至可能具有情感能力與認知能力。這三個階段的發(fā)展歷程從一個側(cè)面展示了形而上學的哲學過渡到形而下學的現(xiàn)實世界的過程,“哲學—數(shù)學—工程是演進的常態(tài),哲學提出的諸如智能、本體、價值問題往往具有重大意義但并不精確,所給出的答案與解決進路難以驗證。而當把哲學問題化為數(shù)學問題來演繹,便能精確判斷對與錯,從而在經(jīng)過數(shù)學驗證之后建立模型,在此基礎上進行擴展,最終應用于真實世界”[32]。既然人工智能由主體人創(chuàng)造,智能機器是客體,技術是一種實現(xiàn)人類價值的手段,那么人就具有管理自己制造“物”的能力,技術的發(fā)展趨勢、方向、動態(tài)完全由人自行決定。所以,人工智能在社會生活中的運用必須遵守人類社會的法律規(guī)定、倫理道德規(guī)范、社會價值體系。“在設計階段時,從源頭讓人工智能載入社會需要的價值傾向,這就要求設計者本人在設計時拋棄主觀意見、認知偏見,將符合社會要求的價值體系以代碼形式植入智能機器中,使之行為符合法律規(guī)定與道德要求,即實現(xiàn)行為與價值的相互一致性。在使用階段時,以使用者為主導強調(diào)責任承擔,從而確定使用者作為倫理道德能動性的主體地位”[33]。由此我們建議,立足哲學高度規(guī)范設計者與使用者的倫理道德,使其“善用”機器,自覺約束對技術的欲望惡性膨脹。具體而言,在智能時代我們應遵循道德原則、界限原則、理性原則和學習原則。
(一)道德原則
智能社會的健康發(fā)展需要人類自覺遵循關于AI的一系列倫理道德。康德認為,“人是有限的理性存在,他既是一種自然存在,又是一種理性存在。人的這種兩重性就決定了他同時是兩個世界,自然界和理性界的成員,因而受兩種法則,自然法則和理性法則的支配”[34]。自然法則指人必須遵守自然規(guī)律,因為人本身屬于自然且是自然的一部分。理性法則也是道德法則,人的理性支配人的行為應可為之或不可為之,人只有遵從理性時理性才算得上真正有作用。而人處于兩種法則之間,所以二者皆對其產(chǎn)生作用,自然法則是必須遵循,理性法則是應該遵循。在社會的前進與革新中,人類需克制心中的欲望讓行為符合道德,道德以理性為價值取向,最高目標是實現(xiàn)至善,從而形成道德公設。道德公設激勵人內(nèi)心的道德信念,從內(nèi)在培養(yǎng)道德習慣,道德公設的本質(zhì)就是踐行道德法則,沒有道德法則人類行為就會不受控制,掌握的技術越多就越可能肆無忌憚。
2018年,國內(nèi)“基因編輯嬰兒”事件引發(fā)了強烈的倫理爭議。肇事者擅自組建團隊,故意逃避監(jiān)管,在2017年自主召集8對自愿者夫婦參與規(guī)避艾滋病病毒的實驗,實施明文禁止的人類胚胎編輯活動,實驗結果為一對夫婦產(chǎn)下新生兒。該行為存在涉嫌更改人類原始基因庫的風險,違反自然法則與道德法則,背離人類倫理、喪失職業(yè)誠信,為了私欲不顧人類公共秩序安全。與其類似的倫理挑戰(zhàn)是“克隆”技術,而“克隆”技術與“基因編輯”技術皆是目前人類可操作完成的技術,但是約束世界各國科學家進行實際實施的因素就是不可逾越的人類倫理道德,這是人類必須遵守的底線規(guī)則。人工智能在戰(zhàn)爭方面也存在不受控制誤傷的情況,智能武器一旦被恐怖主義擁有就如同“定時炸彈”將引起社會恐慌,不利于世界和平與發(fā)展。在互聯(lián)網(wǎng)管理方面,如果黑客通過技術破解人工智能程序,可將正在運行的無人駕駛汽車變成不受控制的殺人武器,那么在全智能社會背景下只需要通過技術修改程序就可以導致社會工作全面癱瘓。在個人隱私方面也會存在數(shù)據(jù)泄露、暴露個人信息等情況。因此,只有嚴格遵循AI的道德原則,新技術才可能造福人類社會。
(二)界限原則
發(fā)展人工智能需要明確人與人工智能的界限,深入了解二者之間的本質(zhì)區(qū)別,我國制定《新一代人工智能發(fā)展規(guī)劃》的根本目的絕不是讓人工智能超越人類,而只是共處共進。
其一,人工智能不具備人的智慧。希臘哲學家蘇格拉底認為“無知即美德”,很多人自認為自己擁有智慧卻在與蘇格拉底論辯后陷入自己觀點的矛盾點,而蘇格拉底自認為沒有智慧卻被認為是最有智慧的人。事實上,認識到自己的無知就是最大的智慧,就是一種最優(yōu)的美德。柏拉圖的“洞穴比喻”認為,一群被長期囚禁在洞中的囚徒習慣于洞中的黑暗,將洞外人的影子視為“真實世界”,而當一位囚徒突然轉(zhuǎn)向走出洞穴并看到了陽光下的世界后,才明白原來所見的只是影像,他成為了囚徒中最具有智慧的人。可見,人類的智慧不僅在于對工具的使用改造,更在于有自知之明、在于不斷反思、在于對知識的不懈追求,并能將知識用于實踐。“實踐智慧是與理智或理論智慧并列的理性”[35]91。相對于人類的智慧,人工智能機器不會有自知之明,對知識的追求也只是人編寫的代碼程序。人會隨著環(huán)境的改變本能性地改變自己去適應環(huán)境,當人駕駛車輛遇到危險時會隨機作出反應減少損失,而人工智能只能在限定程序內(nèi)避害,如果原設程序中沒有這樣的指令,就會造成重大交通事故。可以認為,人是“主動”地追求智慧,而人類制造的機器人只是“被動性、機械性”地接受指令。
其二,人工智能不會思考,沒有“自我意識”。黑格爾說:“自我意識是自在自為的,這由于、并且也就因為它是為另一個自在自為的自我意識而存在的;這就是說,它所以存在只是由于被對方承認。”[36]人在對自我生命欲望的追求中實現(xiàn)個體滿足,這是自我意識的首要階段,當個體要求對欲望的承認也是其他類都趨于要求承認的自我時意識就成了類意識。在意識斗爭中,勝利者成為主人,失敗者成為奴隸,當奴隸承認主人權力時主人有了自主意識,奴隸被服從而形成依賴意識。隨后兩種地位在勞動下發(fā)生轉(zhuǎn)換作用,奴隸通過勞動看到自己的獨立意識,開始形成自主意識性,自然地將不平等關系逐步地趨向平等與自由。在雙方關系中,主人與奴隸各自尋求真正的自由。自我意識經(jīng)歷了“主奴意識”后進而達到“自由意識”。人工智能沒有產(chǎn)生意識的大腦,“計算機的效率和能力并非來自其自身的思考,而是出于出色的程序設計”[37]39-41,所以無法對情感與價值進行有效判斷,更不會主動尋找自由,其存在的目的是服務人類而不是被人類奴役,二者不存在主人與奴隸的博弈關系,當然就不會產(chǎn)生“自我意識”。
其三,人工智能不會自主勞動。自人類誕生以來就進行著各種自主勞動,為了更好更高效勞動,人類發(fā)明和改進工具,勞動使人具有價值,社會勞動是促進人類文明進步的重要力量。而人工智能的勞動并非主動為之,也談不上自主研制新工具促進生產(chǎn),更不會思考勞動價值理論,僅僅是一種在人的意識下的命令執(zhí)行。所以,董軍先生認為,“首先,速度的差異沒有人如此懸殊;其次,機器至今沒有自己進化的跡象,而是按人的意志發(fā)展;最后,機器智能的載體與自然智能的載體完全不同,所以無法僅做進化時間上的比較”[37]39-41。
(三)理性原則
托馬斯認為,意欲是一種人的自在行為,從內(nèi)向外的實現(xiàn)活動,內(nèi)在是人的心靈,外在是物體,心靈將個人力量作用于物體,并將外在物體加以改造利用實現(xiàn)自身目的。人類對美好生活的向往促進人工智能產(chǎn)生并得以改進,新工具滿足心靈是意欲的表現(xiàn)之一,但當意欲超越理性就會產(chǎn)生理想而盲目形成“人與機器的二元對立”關系。康德認為,“理性是尋求知識的最高的統(tǒng)一的綜合能力,理性不滿足于知性所能達到的范疇、規(guī)則的統(tǒng)一,沿著綜合的方向繼續(xù)上升,企圖用最高理念和原則把知識的各部門綜合為完整的體系,這是理性的自然傾向,也是合理的、正當?shù)摹盵35]318。理性使得人類將知識作用于技術,進而提高生活質(zhì)量,而盲目的理性則是存在誤差或者存在錯誤知識的觀念,工具理性的崇拜會讓人過分迷信機器的“萬能性”,嚴重依賴機器生活并自認為智能機器可以代替一切,產(chǎn)生了人與物體的“異化”,一旦失去智能機器就難以使生活正常運行,讓工具裹挾了現(xiàn)代人的生活,走向相反面甚至形成享樂主義。
伊壁鳩魯認為,快樂主義是身體與心靈的雙重結合,身體如果受到傷害心靈也會不安,心靈受到影響身體就會有所損害,所以身體與心靈平衡才是真正的快樂,而過度享樂終將走向痛苦。人與智能機器的關系應該是體驗心靈的愉快與身體的舒適,是理性使用而不是過度享樂。二戰(zhàn)后,當機器被理性使用于替代人力工作時激起了人們對減少工作量的渴望,很多學者開始關注到工作壓力帶來的心靈干擾,之后美國出版了《過分勞累的美國人》,日本發(fā)明了新詞匯“過勞死”。事實上,智能機器不是精英階層的專屬而是大眾物品,目的是讓更多人發(fā)自內(nèi)心感受到生活的美好,在現(xiàn)實社會中解放自己、減輕工作負擔、擁有自由。黑格爾將理性分為三種階段,即觀察理性是對自然科學、人類自身、自我意識進行觀察;行動理性的后期發(fā)展是自身的滿足與快樂,這可能會導致空洞的道德主義;立法理性即對社會中各種常識進行法律規(guī)定,目的是在一定程度上限制享樂主義。所以,自由必須符合理性,自由的本質(zhì)就是自律,而人與人工智能只能是相互作用、相互影響的關系。
(四)學習原則
洛克說:“知識不外是對于我們的任何兩個觀念之間的聯(lián)系與符合,或不符合與沖突的知覺,知識只是在于這種知覺,有這種知覺的地方就有知識,沒有這種知覺的地方,我們雖然可以幻想、猜測或相信,卻永久得不到知識。”[38]洛克關于知識論述的局限性在于,人只能學習已有觀念知識,對于超越觀念的認知人是無法達到的。按照洛克的邏輯發(fā)展,現(xiàn)代科學知識也是已有觀念的結果,這顯然與現(xiàn)代人類取得的豐碩成果形成了矛盾。相對于傳統(tǒng)舊式機器人而言,人工智能可以替代人類完成對未知世界的探索。2017年,美國宇航局借助AI技術——開普勒太空望遠鏡發(fā)現(xiàn)一顆(太陽)系外行星,這也是人類首次運用AI探索宇宙。2018年,英國科學項目Breakthrough Listen再次利用人工智能新技術探索到了來自太空傳遞出的神秘信號,“這種新的人工智能技術現(xiàn)已發(fā)現(xiàn)了72個以前未被發(fā)現(xiàn)的外太空快速無線電脈沖信號”[39]。馬里蘭大學Yiannis Aloimonos教授的課題組通過CNN雙系統(tǒng)方式實現(xiàn)了“觀看錄像學習模式”,讓“機器人只需看著人們在烹飪時的拍攝錄像,就可以學習烹飪”[40]104,最終目的是優(yōu)化機器人學習方式以便構建任務模型,“像福島核電所的廢爐作業(yè)那樣,機器人可以進入人類不能接近的危險工作場所”[40]106。可以認為,人工智能的學習、探索過程實際上是人類知識增進的過程,我們必須對搜集的未知信息進行總結分析、開拓眼界,才能達到人與智能機器共同進步的目的,進而解開人類乃至于人類之外的諸多未知之謎,并最終將人類文明推向新高度。參考文獻:
[1]盧卡奇.歷史與階級意識[M].杜章智,等譯.北京:商務印書館,1992:150-151.
[2]周來順.現(xiàn)代性危機及其精神救贖[M].北京:人民出版社,2016:165.
[3]尹麗波.世界信息化發(fā)展報告(2017—2018)[M].北京:社會科學文獻出版社,2018:251.
[4]趙永新.新一代人工智能發(fā)展規(guī)劃啟動[N].人民日報,2017-11-16(23).
[5]周衍冰.大數(shù)據(jù)產(chǎn)業(yè)在法國的發(fā)展及應用[N].學習時報,2014-11-03.
[6]Artificial intelligence: Opportunities and implications for the future of decision making[EB/OL].(2017-11-13)[2019-02-19].https://www.gov.uk/government/uploads/system/ uploads/attachment-data/file/566075/gs-16-19-artificial-intelligence-ai-re-port.
[7]薛亮.日本推動實現(xiàn)超智能社會“社會5.0”[EB/OL].(2017-04-05)[2019-02-03]. http://www.istis. sh.cn/list/list.aspx?id=10535.
[8]上海社會科學院信息研究所.中國網(wǎng)絡空間安全發(fā)展報告(2017)[R].上海,2017:72.
[9]程運江,張程,趙日,等.人工智能的發(fā)展及其在未來戰(zhàn)爭中的影響與應用思考[J].航空兵器,2019(1):58-62.
[10]傅瑩,倪峰,吳白乙.美國研究報告(2019)[M].北京:社會科學文獻出版社,2019.
[11]鄧洲,黃婭娜.人工智能發(fā)展的就業(yè)影響研究[J].學習與探索,2019(7):99-106,175.
[12]程承坪.人工智能最終會完全替代就業(yè)嗎[J].上海師范大學學報(哲學社會科學版),2019(2):88-96.
[13]彭中禮.人工智能法律主體地位新論[J].甘肅社會科學,2019(4):100-107.
[14]王天恩.論人工智能發(fā)展的倫理支持[J].思想理論教育,2019(4):9-14.
[15]徐鵬飛,彭琦,劉嘉祁,等.國外人工智能技術在軍事領域的應用[J].電子產(chǎn)品可靠性與環(huán)境試驗,2018(S1):244-247.
[16]張敏.智能戰(zhàn)爭時代,誰來開火?[J].軍事文摘,2017(21):23-26.
[17]MAINICHI JAPAN.The future of war:Israel first to deploy fully automated military robots[EB/OL].(2016-08-24)[2019-01-23].https://mainichi.jp/english/articles/20160824/p2a/00m/0na/020000c.
[18]夏天.基于人工智能的軍事智能武器犯罪問題初論[J].犯罪研究,2017(6):9-20.
[19]李慶山,何雷.海灣戰(zhàn)爭中的電子戰(zhàn)[J].國際展望,1991(6):14-15.
[20]蔡亞梅.人工智能在軍事領域中的應用及其發(fā)展[J].智能物聯(lián)技術,2018(3):41-48.
[21]皮埃羅·斯加魯菲.智能的本質(zhì)[M].北京:人民郵電出版社,2017:164.
[22]斯塔夫里阿諾斯.全球通史:從史前史到21世紀[M].吳象嬰,等譯.北京:北京大學出版社,2013.
[23]羅曦.人工智能技術進步引發(fā)新的軍事變革[J].世界知識,2018(18):14-16.
[24]托比·沃爾什.人工智能會取代人類嗎?[M].閭佳,譯.北京:北京聯(lián)合出版公司,2018:147.
[25]小林雅一.人工智能的沖擊[M].支鵬浩,譯.北京:人民郵電出版社,2018:25.
[26]CLOUGH S B,COLE C W.Economic history of Europe[M].D.C.Heath,1952:66.
[27]盧克·多梅爾.人工智能:改變世界,重建未來[M].賽迪研究院專家組,譯.北京:中信出版集團,2016:243.
[28]龐金友.AI治理:人工智能時代的秩序困境與治理原則[J].人民論壇·學術前沿,2018(5):6-17.
[29]榮婷.手機依賴強度對大學生身心健康、人際關系、學習狀態(tài)的影響研究:基于全國2240所高校調(diào)查的實證分析[J].黑龍江高教研究,2018(6):114-118.
[30]沈愁,戴靜,周逸,等.江蘇某高校大學生手機使用對睡眠質(zhì)量的影響[J].中國學校衛(wèi)生,2015(5):708-710,714.
[31]詹姆斯·巴拉特.我們最后的發(fā)明:人工智能與人類時代的終結[M].閭佳,譯.北京:電子工業(yè)出版社,2016:15.
[32]張富利.全球風險社會下人工智能的治理之道:復雜性范式與法律應對[J].學術論壇,2019(3):68-80.
[33]王鈺,程海東.人工智能技術倫理治理內(nèi)在路徑解析[J].自然辯證法通訊,2019(8):87-93.
[34]張志偉.西方哲學十五講[M].北京:北京大學出版社,2014:307.
[35]趙敦華.西方哲學簡史[M].北京:北京大學出版社,2012.
[36]黑格爾.精神現(xiàn)象學(上卷)[M].賀麟,譯.北京:商務圖書館,2013:138.
[37]董軍.人工智能哲學[M].北京:科學出版社,2011.
[38]北京大學哲學系外國哲學史教研室.西方哲學原著選讀(上卷)[M].北京:商務印書館,1981:454-455.
[39]AI檢測出宇宙神秘信號距離地球30億光年星系[N].科技日報,2018-09-17.
[40]ITPRO,NIKKEI COMPUTER.人工智能新時代:全球人工智能應用真實落地50例[M].楊洋,等譯.北京:電子工業(yè)出版社,2018.
Philosophical thinking on artificial
intelligence and its modernity dilemma
ZOU Dandan
(School of Marxism, Xian University of Technology, Xian 710054, P. R. China)
Abstract:
In the fourth industrial revolution, artificial intelligence is the main driving force. Artificial intelligence as a new tool optimizes governments public administration efficiency, and subtly improves the existing lifestyle, thereby enhancing the peoples sense of acquisition, happiness, and security. Artificial intelligence is created by the “subject”. Peoples discovery of technology strictly follows the laws of nature, but the increasingly advanced technology leads to the modernity dilemma of rational expansion of the human subject. The more people depend on technology, the more technically enslaved they are. “The binary opposition between man and machine” is formed. In the context of the countrys vigorous development of artificial intelligence, people should rationally use new tools, use philosophical thinking to regulate AI ethics, and have AI thinking.
Key words: ?artificial intelligence; the fourth industrial revolution; technical rationality; modernity dilemma; philosophy principle
(責任編輯彭建國)