(南開大學 哲學院,天津 300350)
隨著第三波人工智能浪潮的興起,對人工智能進行哲學反思和研究成了迫在眉睫的要務。如果說塞爾(J.Searle)、德雷福斯(H.Dreyfus)等哲學家對人工智能的批判從某種程度上終結了人工智能的前兩次熱潮,那么人工智能這次的技術變革,又重新激發了廣大哲學學者的興趣,有可能會改變哲學的研究范式,從而產生“人工智能轉向”。正是在這種背景下,2018年4月,南開大學召開了“首屆人工智能哲學與跨學科思維論壇”。這次論壇的目的,不僅僅是延續國際上已有的人工智能哲學研究,還希望能發掘出國內學者的新思路新觀點,并且以跨學科思維作為人工智能哲學應承擔的責任,為人工智能哲學找到一個新的方向。數十位國內學者在人工智能與認識論、人工智能倫理學與法律、人工智能美學與藝術、人工智能與邏輯等議題上展開了論辯。經過對各位專家的論文和論辯的梳理,筆者認為,此次會議成果可以總結評述為:三大問題、三點啟發并最終達成了一個共識。
1.合法性
人工智能哲學這一研究的確立,首先要像康德那樣拷問其合法性(何以可能),而人工智能作為限定概念,其合法性則首當其沖。科學家們一直試圖為這一概念的合法性做辯護。如圖靈認為從理論上說,機器不僅“可以思考”[1]433,還可以極近似地“模仿人類心靈的行為”[2]257,正是在此意義上,麥卡錫等人提出了“人工智能”概念。然而,“人工”這一限定詞意味著這一概念本身就一定是非先天的。張紹欣在其論文中考察了“Artificial”這一概念的歷史演變,從亞里士多德的“人是(技藝)制作的動物”發展到馬克思的“人是會勞動的動物”;按照阿基米德-伽利略的機械論傳統推到極致,“技藝就被視為人類的終極正義”,但是與圖靈重視機器在智能上的優越性不同的是,張紹欣從現代法學概念“法人”(Artificial person)的“位格加等”這一法理依據獲得啟發,認為人造對象在權利和行為能力上的低人一等,意味著其在道德意義上必然低于人類[3]63-69。李國山則從維特根斯坦的“語言游戲說”出發,認為,“機器”能“思考”其實是我們錯誤地使用了語言,而且“人工”作為限定詞,表明任何機器的連續行為都有賴于人類的介入,這其實也就取消了機器有獨立思考的可能和價值[4]52-62。
而“智能”一詞的爭論,是中外學者討論的焦點。黃欣榮提出了“智慧”與“智能”有別,智慧不僅包括理性能力,還包括“情感和意志等非理性能力”[5]71-83。筆者在論文“人工智能視覺藝術研究”中提出了人工智能還應該包括審美和感性能力。錢捷則從其所建立的“超絕發生學”出發,將“感覺直觀”視作“認知的構成活動的根據”,而情感、意愿以及審美意識是比直觀還要基礎的活動,因此根本無法為機器所具有[6]39-41。但是,筆者認為,隨著“感情計算”等算法的興起,機器似乎正在慢慢地擁有情感、審美這些能力(至少是行為上的),筆者認為,所謂“智慧”,不僅僅比智能要多一些非理性的能力,還需要有時間意識和空間意識,需要有基于肉體有限性的精神超越性,而這或許才是無身體的機器最難以實現的。
當然,我們也要看到,僅僅從“人工智能”概念的語言合法性來探究其存在合理性肯定是不夠的,因為“人工智能”并不是唯一可行的概念,圖靈使用的是“機器”(數字計算機)“思考”,而計算機學家紐厄爾(A.Newell)和司馬賀(H.Simon)則使用“復雜信息處理”一詞。因此,我們既要從語言分析和歷史規范的角度來考察詞語,又不能限于詞語考察,以免落入“解釋學循環”和“語言中心主義”之中。
除了“人工智能”這一概念的合法性,還有一種可能性需要探討,即“人工智能化”的合法性和可能性,這也是計算主義和還原主義者所秉持的立場,即一切人類行為都可以還原為物理行為,一切心理活動都可以進行邏輯推理和計算。
任曉明在論文中提到了勃克斯(A.Burks)的“邏輯機器哲學”。該哲學的核心思想就是“一個有窮自動機可以實現人的一切自然功能”[7]8-19,這種思想曾遭到心靈哲學家和邏輯學家的強烈批判。塞爾認為,應該從“生物自然主義”出發看待身心問題,因此,認識等心靈行為的基礎是身體[8]。而邏輯學家則依據“哥德爾不完備定律”,認為心靈無法為數學所全部描述。賈向桐介紹了反計算主義的幾種思路,他認為,計算主義充分考慮到“大腦”和“心靈”的區分,真正的認識是交互性的,涉及到大腦和外部環境的信息交流,并非簡單的機械運算或者形式邏輯的運算,認識的主動性和建構性沒有顯現出來,認知不僅僅是一種自然過程,更是社會實踐活動的產物[9]51。
著名人工智能哲學家德雷福斯從海德格爾的存在學說和梅洛龐蒂的身體理論出發,認為“智能是與處境相連的;它由處境共同決定,在處境中人們發現自己”,因此,“智能是置入的,也即是需要人類的身體”[10]7-8。
由此,我們得以窺見,人工智能化背后隱藏的核心問題仍然是哲學中的身心關系問題,而要解決身心關系,首先要說明心靈是什么,主體性意識就屬于心靈中最為重要的一個議題。
2.主體性
主體性是人工智能哲學另一個值得關注的問題。西方馬克思主義哲學家阿多諾(T.Adorno)認為,人的主體意識的誕生經過了漫長的勞動和實踐過程,是勞動分工的產物。而這之后,經歷了古希臘哲學的曙光、笛卡爾為代表的認識論轉向以及康德為代表的啟蒙理性,人類的主體性才最終確立。這種豐富的主體性含義既蘊含了主體與客體的辯證關系,又意味著主體必須具有自主性、意向性、道德主體等意蘊。因此,當我們將人類的主體性類推到機器上時,也同時得考慮這幾方面的含義。
最近甚囂塵上的“人工智能威脅論”,其前提就在于人們設想這種非人的“主體性”的產生。李恒威、王昊晟認為,只有當人工智能能夠擁有了獨立自主的動機和情感系統時,才可能擁有主體意識,而那時才會對人類產生“生存性威脅”[11]20-24。田文利、劉帆認為,生命特征(包括呼吸)是人與機器(物)的最重要的區分,應該通過“族譜定位”等方式來確定人工智能對于人的附屬地位[12]111-118。
在認識的“主體”意識上,蔡恒進提出了“認知坎陷”(cognitive attractor)的新概念。他認為,認知坎陷是人的所有意識單元,也是人類自由意志的體現;而這種意識和認知的基礎在于人類主體具有“認知膜”——某種類似于細胞膜的東西,它能夠保持主體的相對獨立性,同時又能與外界產生互動[13]1-7;這種主體的獨立性和自我生成,來源于生物在漫長的進化過程中與環境互動的結果。而主體意識,筆者認為,不僅僅是一種生物學意義上的認知反應,同時還含有文化的意義。人類學家則通過調查發現,文化、生物和環境之間有著緊密的聯系,“這意味著文化與人類生物互相影響”[14]273。
如果說我們現在對于認知意義上的主體性還無法解釋清楚,我們不妨轉向道德意義上的主體性。如前所述,不僅只有人類是道德主體,一些非人的實體如公司、社團等都可以成為道德主體。那么,人工智能體是否也能成為道德主體呢?張正清、黃曉偉認為,如果我們從“他者”視角,也即是從道德責任的角度出發,即使人工智能體沒有主體性和意向性,我們也必須將之視作道德主體,并追索其責任;他們還認為,機器在行為偏差上的概率就體現了其自主性,而且責任關系意味著即使機器沒有道德上的能動性,卻也必須承擔道德責任,這種責任倫理意味著機器的道德主體地位事實上是人類賦予它們的[15]172-183。我們知道,主體性意味著主體自身是自律的、自為的,這種主體性應該是從自身中生長出來、自我意識到的,顯然這種自生的主體性在機器沒有誕生意識的情況之下是不可能的。另外,更麻煩的事在于,道德主體性的自律性意味著,主體應該以自身為目的,所以機器應該以自己的生命為終極目的,那么這就根本與機器倫理如阿西莫夫三定律所要求的機器“不得傷害人”相矛盾。
因此,從人的角度出發,機器的“主體性”必須低于人的“主體性”才行,這種倫理上的降格,是因為人是機器的創造者,這也將引出第三個重要問題:創造性。
3.創造性
創造性也是人工智能領域中的討論熱點,人工智能是否能像人一樣的擁有創造性呢?
著名人工智能哲學家博登(M.Boden)區分了兩種創造性:“非可能性”(Improbabilist)的創造性與“非現實性”(Impossibilist)的創造性兩種[16]269。前者是各種觀念的重新組合,而后者則是創造出之前未曾出現過的新觀念。也就是說,前者是“從有到有”(創新性),后者則是某種程度上的“從無到有”(原創性)。之所以說是某種程度上,是因為完全的“從無到有”只存在于宗教的上帝創世之中。博登認為,人工智能體,例如科恩(H.Cohen)設計的AARON程序,已經在某種程度上實現了這種創新性。事實上,一些人工智能專家,如微軟小冰的設計者,也宣稱其智能體能夠成為創造的主體了。根據康德在《判斷力批判》中對藝術“原創性”解釋,模仿和執行規則不能稱作創造性,真正的天才是能夠制定規則的能力,這種能力是無法規則化的,因此也無法學習[17]242。因此筆者認為,目前的智能體并不具備“原創性”,其所謂的創造性不過是對人類已有的藝術品的學習的基礎上的延伸。吳維憶在其文章中引用科恩的觀點指出,創造是一個“受導向的形成過程”,也即是個體“在建構一次次連續的趨近狀態的同時,其內在的世界模型也被重新組織了”,因此,人工智能的創造不取決于其自主性的強弱,而在于規則的導向以及程序對規則的處理[18]192-196。圖靈也曾經提出過類似的意見,在反駁拉芙蕾絲(Lovelace)夫人說機器不能創造新東西時,他說,人類所謂的原創也是建立在以前的教育或者一般規則的基礎之上的[1]450。
確實如此,我們無法想象一種徹底意義上的“從無到有”,即使是康德所說的“典范意義上的原創性”也是要運用認識諸能力的。因此,機器接受人類所設置的程序,并不能成為其具有自主性和創造性的絆腳石,正如人類也是從其他生物進化而來的。
人工智能想要在藝術上實現創造性,不僅需要人們在創造性程序上的設置,還需要主體性、意向性等方面的發展,同時,創造性也能反向證明人工智能主體意識的發展,如果真的有一天,機器能夠獨立創造出新的事物,這同時說明人類創造性出現了質的飛躍。
當前的人工智能技術有何缺陷,中國傳統思想對人工智能是否有所助益,以及人工智能與情感、藝術如何跨學科結合起來,這也是人工智能哲學研究的熱點問題。
(1)大任務、小數據的技術轉換
目前人工智能技術,如深度學習,最大的問題在于其“大數據、小任務”的方式。也就是說,人工智能需要大量的數據輸入、大量的能量消耗,但是解決的問題卻相當狹窄。而人類卻相反,僅僅需要少量的數據和經驗,就能迅速地掌握規律,想出具有通用性的解決辦法。這說明人工智能和人類智能從根本上是不同的。
張玉宏解釋到,這是因為深度學習本身帶有的“技因”缺陷:暴力技因明顯,暴食數據巨多,智能密度低,因此,人工智能只有首先具備自我學習能力,也即是模擬人類基因中的學習形態,其次發明節能芯片,以及在深度學習的基礎上拓展其廣度(聯想)這幾種方法,才能有機會像人類那樣實現“小數據、大任務”[19]26-38。那順烏力吉也同樣注意到了這種技術范式轉變的重要性,他認為,可以通過“類比”的方式進行學習[20]86-92。楊樹峰、伍夢秋對當代記憶理論的梳理,也可以給我們提供一種可能解決方法。他們認為,人工智能的記憶儲存機制與人類完全不同,這意味著對于人類而言,遺忘并不需要抹除先前的記憶,而對于機器,遺忘就等于是抹除所有的先前信息,從零開始,這也就阻礙機器的學習和認識能力。因此,人工智能需要搭建不同的、多元的記憶神經元回路,從而使機器真正具有記憶,而記憶是觀念的連接,是意識的基礎[21]248-256。
(2)儒家倫理的嵌入
我們常說技術是無國界的,但是這是否意味著中國傳統思想對于現代人工智能技術是毫無意義的呢?
蘇令銀提出將儒家倫理規范嵌入機器之中,為中國傳統思想在技術上的指導提供了一個很好的例證。他指出,如果機器遵守康德的倫理學,會產生自律和他律之間的矛盾。人工智能若要成為道德主體,則必須具有自律性,即其行動需以自身為目的。而機器倫理要求,人工智能必須以人為最終目的,即一定要維護人類的利益。這兩者的矛盾是無法解決的。功利主義的機器倫理,將計算利益視作唯一標準,而這種計算可能最終會讓機器做出傷害人類的行為。蘇令銀進一步考察了儒家倫理中的“忠”“恕”“仁”,并總結了三條機器倫理:忠是從正面意義上要求機器完成其被指定的角色的任務,恕則要求機器不要傷害人類,而仁則要求機器需要通過學習人類來提升道德,同時拒絕做不道德的事[22]139-160。
當然,不僅是在倫理上,中國傳統思想對人工智能起到規范指導作用,在其他更為宏觀的層面,傳統思想也有積極的意義,例如莊子對“機械”與“機心”的探討,就涉及到了技術與人的關系,以及中國思想中所重視的直觀和經驗,正是人工智能如今難以解決的難題。
(3)人工智能美學
近年來,人工智能在藝術和情感方面的技術突破有目共睹,自動寫作技術、人工智能繪畫、寫書法和創作音樂的技術日益發達,但是人工智能與藝術、情感等的跨學科研究卻乏人問津。
筆者曾經提出過“人工智能美學”概念[23],并進一步論述了人工智能視覺藝術發展歷程,以及以創造性和藝術標準為例,探討了人工智能美學的研究方法。王志敏提出了“美商”這一概念,認為如同智商、情商一樣,應該建立一種美的具體評分標準[24]25。實際上,早在一百多年前,實驗美學的開創者們就探索了定量分析“美”的方式,這種自下而上的方式,為人工智能專家皮卡德(R.Picard)的“感情計算”方法所繼承[25]。但是,經驗歸納法雖然行之有效,卻無法保證結論的必然正確。
盧文超論述了人工智能對藝術傳統理論的挑戰,他認為,由于人工智能藝術中人類主體被取代,所以傳統的模仿說、表現說和接受說都會失效,形式說也只能滿足形式部分,并且他批評人工智能藝術無法提供豐富的藝術關聯,這是其最大的缺陷[26]184-191。
另外,關于對人的外形進行模仿的仿人機器人,也是最近討論的熱點。朱體正提醒我們注意仿人機器人對肖像權保護法的沖擊[27]119-127。程林則以19世紀初德語浪漫主義文學中的“早期機器人”形象,來探討日本學者森政弘的恐怖谷理論,他認為,該現象的出現與人在高仿真機器人面前所遇到的替代威脅、異化風險和認知困惑等有關[28]128。
筆者認為,除了認知心理學上的解釋之外,仿真機器人雖然有表情但是由于表情的錯誤運用,導致人們無法或者錯誤實現共情,這會加深人們的恐懼感;即使是機器人面孔能夠完全摹仿人類表情,但是這些表面的情感無法與真正的生命感、經驗和關懷結合起來,恐怕也是會讓人失望的。
從幾位學者對于人工智能與藝術、美學的跨學科研究來看,人工智能美學有著豐富的研究材料和對象,是值得深挖的研究題目,它必將成為人工智能哲學的重要研究方向。
毫不夸張地說,當代哲學正面臨著危機,最大的問題就在于舊有的哲學方法和思維范式是否能跟得上人工智能等新技術的發展。哲學在認識論轉向、語言論轉向之后會進行“人工智能轉向”,這并非夸大其詞。人工智能的出現,拓展了人類的認識邊界,對“人類中心主義”產生了挑戰。人工智能等于是在整個人類主體面前樹立了一個“他者”,這個他者不是低于人類主體、被人類所主宰的客體,而是與人平等的、能讓人類審視自己的他者。人工智能也引發了倫理的討論,甚至動搖了人類倫理的一些基礎。如林建武提出的“區塊鏈”的去中心化、規范化特征,使得人們或許可以不再需要道德作為約束。
更重要的是,人工智能對于哲學思維范式的挑戰。傳統哲學一直是以概念(理念)之間的推演、演繹為其基本方法。但是這些概念,有多少如維特根斯坦所說的是屬于語言的誤用呢?如靈魂之于“金山”,上帝之于“當今的法國國王”。人工智能是否有可能成為哲學的“奧卡姆剃刀”,剃去那些不可能被邏輯和計算所描述的概念呢?當然,我們也不可迷信人工智能,將其樹立為新的偶像、新的上帝。人工智能所用的邏輯和計算方法,最終只能描述具有真值的命題。而藝術這類命題,它本身并不以真假為終極標準,它的真或許正來自于其幻象的假。人類生活世界的豐富性就在于除了真假之外,善與愛可能更為重要。另外,直觀、語義以及常識都是目前人工智能難以跨越的溝壑。這種思維范式的挑戰,還在于哲學不可能再孤軍奮戰,正如古希臘時期的哲學是一切“智慧學”的統稱,現代的哲學也要充分利用已有的其他科學方法和論據去豐富自己的武器庫。例如從下而上的實驗方法未必不能成為判斷的佐證,計算機科學中的算法和經濟學中的建模應該也可以運用于哲學的思想實驗之中。
最為重要的是,我們應該以哲學為基礎,構建跨學科的思想基礎,溝通人文學科和理工學科,打破學科之間的壁壘。這次會議也表明,哲學與人工智能、法律、社會學、心理學的交叉研究是非常有必要的,哲學的基本思維方式可以為跨學科思維的基礎。