提 要:人工智能(AI)圍棋程序AlphaGo的驚人表現給世人帶來了眾多思考。其中,人工智能研究顯露的重要線索是:應當改變“分而治之,各個擊破”的機械還原論研究范式,實行“協調發展,優化全局”的信息生態方法論研究范式,才能實現AI的源頭創新。
關鍵詞:源頭創新;范式轉變;機械還原;信息生態;通用人工智能;AlphaGo
1 背 景
人工智能圍棋程序AlphaGo從2016年3月登臺亮相到2017年5月宣布引退,先后與60多位世界最高水平的人類圍棋高手對弈,竟然無人能敵,以驚人的成績通過了圍棋博弈的“圖靈測試”,顯示了人工智能研究的矚目進展與成就,也引起了人們對于人工智能創新研究的熱烈思考[1]。例如,由于AlphaGo采用了基于深度神經網絡的深度學習,于是,業內許多人士便紛紛提出要以“深度學習”作為未來研究的創新方向;由于深度神經網絡模擬了人類大腦神經網絡的部分結構與算法,于是,又有許多專家提出要把“類腦計算”作為人工智能研究的主要創新方向;同時,由于AlphaGo的深度學習利用了大數據作為學習的樣本,于是,很多人認為應當把“大數據”作為人工智能研究的創新方向;由于國內外在無人駕駛方面都取得了令人鼓舞的階段性成果,于是,研究者們認為“無人駕駛”應當是人工智能研究的創新方向;此外,有更多的研究者相信,人工智能的創新關鍵在于研究出相應的創新“算法”來解決“群體智能系統”和“人機合作智能系統”等。總之,圍棋人機大戰引起學術界的創新思維空前活躍,氛圍空前積極,令人分外欣喜。
筆者認為,人類大腦是高度復雜的研究對象,素有“小宇宙”之稱,因此,以人類大腦能力為目標的人工智能科技創新點必定多種多樣。換言之,上述關于人工智能研究創新方向的各種觀點和分析都有一定的依據,都值得嘗試和探索,而且,這些探索所取得的成果都會具有各自的意義和價值。
不過,如果從當前世界人工智能發展的整體情況來分析,人工智能科學研究最為迫切的創新需求是轉變現有的研究范式,實行“以先進的科學研究方法論和能夠駕馭全局的研究方法為引領的源頭創新研究范式”[2-3]。何以如此?
當今人工智能研究存在的根本問題是:傳統科學研究方法論造成了人工智能研究的高度“碎片化”,雖然在一些局部領域呈現了耀眼的亮點,在整體上卻依舊迷茫!因此,人工智能的科學方法論急需提升,科學研究的基本方法需要深化,只有這樣,才能在人工智能研究的源頭上實現意義重大的突破與創新。這就是實行“以先進的科學研究方法論和能夠駕馭全局的研究方法為引領的源頭創新研究范式”的意義。
2 人工智能研究狀況簡析
行為總是以思想為先導。分析人工智能的狀況,應當從分析它的科學思想開始。
18世紀以來,學界逐漸形成了應對復雜問題的一套方法:分而治之,各個擊破。這就是著名的“機械還原”方法論。一般,系統可以分解為“結構、功能、行為”3個基本的維度。本著這種理念,人工智能系統的研究也分解為3個基本方向:1943年問世的基于結構模擬的人工神經網絡方向;1956年啟動的基于功能模擬的專家系統方向,以及1990年登上舞臺的基于行為模擬的感知動作系統方向。
2.1 結構模擬的人工智能研究[4-9]
雖然“人工智能”這一術語是1956年Dartmouth研討會上提出的,但是,人工智能科學研究的第一座里程碑標志卻是1943年McCulloch和Pitts聯合發表的“人工神經元數理邏輯模型”。正是它,開創了“結構主義人工智能”—— 人工神經網絡的研究方向和進路,即通過模擬人類大腦皮層神經網絡的結構及其學習算法來實現人工智能。它的示意性原理如圖1所示。
圖1中的人工神經網絡的“硬件系統”就是由大量人工神經元及其互相之間錯綜復雜連接構成的網絡系統,它的“軟件系統”是調度這些人工神經元工作的學習算法,通過對訓練樣本的學習獲得解決問題的經驗性知識。
人工神經網絡的研究取得了不少進展和成果,時下最受關注的“深度學習”是其中最杰出的代表。同樣值得提到的是,歐盟一直在大力支持和推動的“藍腦計劃”——要在實驗室研制一種與人類大腦皮層具有同樣復雜度的人工大腦,希望能夠表現出可以比擬人類大腦的智能水平。
理論上,通過對人類大腦皮層神經網絡系統的模擬來實現人工智能雖然十分復雜,但卻是一條充滿成功前景的進路,因為,人類自身的高級認知功能就是定位于大腦皮層的神經網絡。
不過,結構主義人工智能的最大懸疑是:人們對于人類大腦皮層神經網絡的學習算法(這是控制大腦神經網絡工作的一只“看不見的手”)的了解還相當有限。因此,即使把大腦皮層神經網絡這個硬件系統全部模擬出來了,如果不能充分理解和把握那只“看不見的手”,也還是不可能到達模擬的“彼岸”。
2.2 功能模擬的人工智能研究[10-19]
到1956年,人工神經網絡研究取得了緩慢的進展,而問世10年以來的電子計算機卻顯示了強大的計算和模擬能力。于是,當年聚集于Dartmouth研討會的學者們很自然想到“利用計算機作為硬件平臺,通過編制聰明軟件來模擬人類智力功能(當時主要關注的是人類的邏輯思維功能)”。這便成為“功能主義人工智能”的基本信念。
功能主義人工智能研究最初雄心勃勃,宣稱它可以解決“通用問題”。后來發現求解通用問題的難度超乎想象,于是退而轉向求解專門問題的“專家系統”。圖2示出了專家系統的功能示意模型。
模型顯示,專家系統把專家知識經過適當表示存入知識庫,通過推理系統為用戶生成解決問題的策略。所以,專家系統的核心是專門領域專家的知識(通常表現為規范性知識),同時需要通過推理來活用專家提供的規范型知識。
功能主義人工智能已經發展了一些能夠通過圖靈測試的專家系統。戰勝國際象棋世界冠軍的Deeper Blue、戰勝問題搶答全美冠軍的Watson和戰勝60多位圍棋世界高手的AlphaGo是其中的佼佼者。endprint
功能主義人工智能的最大問題是,認為計算機與人腦功能等效的“物理符號假設”存在巨大漏洞:計算機不具備情感功能和意識功能!計算機與人腦兩者在功能上不等效,導致功能主義人工智能研究存在情感與意識盲區。
2.3 行為模擬的人工智能研究[20-22]
20世紀的80年代,人工神經網絡的研究面臨著“結構復雜性”和“網絡學習算法神秘性”的麻煩,專家系統的研究則遭遇“知識瓶頸”和“情感與意識漏洞”。為了回避這些困難,人們提出了行為主義人工智能研究的思路。行為主義人工智能只需要關注模擬智能系統的外部行為,即:當系統受到某種外來刺激的時候能夠產生恰當的動作。這就是“感知-動作系統”。它的示意性原理模型如圖3所示。
如圖3的模型所示,當系統的輸入端受到某種模式作用的時候,只要模式識別系統能夠識別出輸入模式的具體類型(模式分類),系統就根據事先確定的規則自動啟動相應的動作響應。聯系“模式”與“動作”的是事先存入的常識性知識。
行為主義人工智能的研究也取得了不少成果,現今的許多機器人就屬于這種感知動作系統。它的優點是相對而言比較容易實現,相應的缺點是只能實現相對簡單的淺層智能;而為了實現深層的智能,還是難以擺脫結構主義人工智能或功能主義人工智能的道路。
2.4 三大方向的問題癥結
以上所述的結構主義、功能主義、行為主義三種研究路徑,代表了當今人工智能研究的基本情形。除了在前文分別指出的那些成就與問題之外,三大研究路徑共同面臨的問題是:雖然三種研究方法都是以“人工智能”為自己的研究目標,但是它們按照“分而治之,各個擊破”的機械還原方法論分解出來之后便各自發展,各持所強,互相排斥,互不合作,未形成合力[20-26]。
所以,當今人工智能研究的總體狀況是:個別很精彩,整體很迷茫。問題的實質是:機械還原方法論的研究范式掩蓋了系統在結構、功能、行為之間內在的深層本質聯系,迷失了人工智能研究的整體精髓。
這正是當今人工智能研究需要突破的最大瓶頸,也是當今人工智能源頭創新需要解決的關鍵問題。換言之,從整體上看,當今人工智能研究的重點,不在于如何選擇具體的技術項目,而是首先要在科學方法論和研究方法的范式上實現重大的突破!
3 信息生態方法論
人工智能研究面臨“方法論的突破”,這并非人工智能研究所特有的問題,而是整個信息科學面臨的基本問題。人工智能的研究是信息科學的核心、前沿和制高點,因此方法論和研究范式的轉變問題在這里表現得特別突出[3]。
當今的時代是信息時代,這是由工業時代發展而來的一個嶄新時代。工業時代的標志性學科是基于物質和能量概念的經典物質科學,信息時代的標志性學科是基于信息和智能概念的現代信息科學。
經典物質科學和現代信息科學的科學觀念和方法論之間,既存在天然的聯系,又存在原則的區別。這是基本的事實。如果忽略了這些聯系與區別,信息科學和人工智能的研究工作就必然會遇障礙,走彎路,甚至走錯路。
麻煩在于,包括筆者在內的國內外廣大人工智能研究人員,幾乎都是在經典的科學觀和方法論的沐浴下成長起來的,因此,自然而然地習慣于運用自己所熟悉的經典物質科學觀念和方法論去研究和處理現代信息科學特別是人工智能研究的問題。實際情況表明,當今人工智能研究面臨的基本問題,正是忽略了經典物質科學與現代信息科學之間的這些聯系與區別。表1顯示了這些聯系與區別。
表1 經典物質科學與現代信息科學的比較比較項 經典物質科學 現代信息科學
基本的科學觀 機械唯物論 辯證唯物論
觀念1 相對孤立的客體 互相聯系的客體
觀念2 相對靜止的客體 不斷發展的客體
觀念3 客體與主體隔離 客體與主體互動
相應的方法論 機械還原方法論 信息生態方法論
由表1可見,現代信息科學(包括人工智能)的研究需要運用辯證唯物的科學觀和與此相應的信息生態方法論,這是一種全新的研究范式。
信息生態方法論的精髓是:與“分而治之”的機械還原方法論相反,信息生態方法論高度關注系統各要素之間的相互關聯(而不是相互孤立)以及系統與其環境之間的相互關聯(而不是相互孤立),以此來保障系統的良性生態發展。
具體來說,信息生態方法論強調,在主體與客體相互作用的框架下,信息不是一種固定不變的對象,而是在主體不斷加工處理之下表現為一個生態鏈的過程(簡稱為生態過程):客體信息→感知信息→知識→智能策略→智能行為,如圖4所示[2]。
圖4的信息生態過程模型中,符號K、G、Y、N分別表示知識、目的、有效、無效。模型清晰地揭示了:在主客相互作用的過程中,信息是如何生成智能(體現為智能策略和智能行為)的,同時也表明了高等的智能乃是意識、情感和理智的三位一體。
信息、知識與智能的關系,意識、情感與理智的關系,這些都與傳統人工智能的認識大相徑庭!
科學觀和方法論的轉變,引出了關于信息和智能的全新認識,也引出了一種全新的研究范式:以信息科學觀和信息生態方法論為引領的全新范式。
4 機制主義研究方法與AlphaGo
信息科學觀和信息生態方法論對信息、知識和智能做出了全新的認知,這是引導信息科學和人工智能研究走上正確道路的重要基礎。進一步的問題是要有與此相適應的具體研究方法(approach)來實施。這就是本節要研究的問題。
不難理解,無論對于任何系統,它的結構、功能和行為雖然都很重要,但都不是決定性的要素。只有“工作機制”才是駕馭和主宰系統全局的統帥,系統的結構和功能都是為實現系統的機制服務的;行為則只是機制實現的外部表現[3]。
那么,什么是人工智能的“工作機制”呢?endprint
如上所言,人工智能系統的工作機制,不是圖4中的那些物質模塊的簡單堆積,也不是那些物理功能的直接累加,而是那只抽象的、無處不在而又駕馭著系統全局且控制著整個生態過程的“看不見的手”:
“客體信息→感知信息→知識→智能策略→智能行為”轉換 (1)
或者更簡潔地表示為
“信息→知識→智能”轉換 (2)
這些轉換能夠通過數學方法和邏輯算法進行描述,通過技術工具加以實現。因此,人工智能系統是一個可認識、可描述、可理解、可把握、可實現的技術系統。
就像“結構模擬的人工智能研究方法”“功能模擬的人工智能研究方法”和“行為模擬的人工智能研究方法”那樣,可以把按照式(1)或式(2)的工作機制實現的人工智能系統方法稱為“機制模擬的人工智能研究方法”,或者稍微普遍化一些稱為“機制主義人工智能研究方法”[2-3, 27-29]。
頗為發人深省的是,上述4種人工智能研究方法之間存在如表2所示的關系。
根據“知識的生態學原理”,經驗型知識可以生長成為規范型知識,它們兩者又可以生長成為常識型知識,因此,機制主義方法的A型、B型、C型之間是“相生(而不是相克)”的關系。這個情形還可以通過圖5更加直觀地表現出來[27]。
圖5顯示了人工神經網絡、專家系統、感知-動作系統之間的相生關系,而它們相生的結果便融入了機制主義人工智能系統的框架。這就表明,數十年來,機械還原方法論給人工神經網絡(結構主義方法)、專家系統(功能主義方法)和感知動作系統(行為主義方法)蒙上的相克關系是被扭曲和強加的;只有信息生態方法論才恢復了它們本來應有的相生的關系。
總之,表2和圖5的結果都表明,人工神經網絡(結構主義)、專家系統(功能主義)和感知動作系統(行為主義)本來就應當和諧相生,并且融為機制主義的人工智能,從而達到最優的水平。
與歷來的機器博弈專家系統不同,AlphaGo不再僅僅恪守“功能主義人工智能”的固定條框,而是一方面按照功能主義人工智能的“搜索策略”來生成各種可供選擇的博弈策略,另一方面卻采用結構主義人工智能(深度神經網絡)來學習各種博弈策略所具有的經驗優度,并根據得到的結果來決定實際執行的策略,從而實現了功能主義人工智能與結構主義人工智能兩者的相生互動,因而表現了更加高超的智能水平。
AlphaGo所實現的,雖然不是完整的“機制主義人工智能”,只是其中人工神經網絡與專家系統兩者的融合而不是三者,但這已經證明:能夠實現結構主義、功能主義、行為主義三者和諧相生的機制主義方法,才是目前所知曉的最為優秀的人工智能研究方法。
這就是說,AlphaGo在圍棋人機大戰中所取得的勝利,顯露(也證實)了人工智能研究源頭創新的奧秘:改變原有機械還原方法論的研究范式,實行信息生態方法論和機制主義方法的新范式,才能實現人工智能研究的源頭突破與創新。
不僅如此,可以證明,機制主義人工智能研究方法不但可以實現結構主義人工智能研究方法、功能主義人工智能研究方法、行為主義人工智能研究方法的和諧融合,而且可以實現基礎意識、情感、理智的和諧融合。這就是人們追求的通用人工智能理論和方法。它的學術本質就是機制主義的人工智能。對此有專門興趣的讀者,可以參閱文獻[2,29-30],它的邏輯、系統和數學基礎可參閱文獻[31-33]。
5 結 語
激動人心的圍棋人機大戰在學術界和輿論界激起了軒然大波,與此相關的論文和報導不計其數。
對于人工智能科技工作者來說,AlphaGo透露了人工智能實現源頭創新的重要線索:以“機械還原方法論”和“局部(結構、功能、行為)模擬方法”為標志的傳統研究范式轉變為以“信息生態方法論”和“全局(機制)模擬方法”為標志的現代研究范式。
這方面的論文尚未見到。本文對這種轉變作出了詳細(篇幅所限,遠非詳盡)的分析和闡述,希望引起關注和討論。
參考文獻:
[1] 鐘義信. 人工智能:熱鬧背后的門道[J]. 科技導報, 2016, 34(7): 14-19.
[2] 鐘義信. 高等人工智能原理: 觀念·方法·模型·理論[M]. 北京: 科學出版社, 2014.
[3] 鐘義信. 信息科學技術導論[M]. 3版. 北京: 北京郵電大學出版社, 2015.
[4] McCulloch W C, Pitts W. A logic calculus of the ideas immanent in nervous activity [J]. Bulletin of Mathematical Biophysics, 1943(5): 115-133.
[5] Rosenblatt F. The perceptron: A probabilistic model for information storage and organization in the brain [J]. Psych. Rev., 1958, 65. 386-408.
[6] Hopfield J J. Neural networks and physical systems with emergent collective computational abilities [J]. Proc. Natl. Acad. Sci. 1982, 79: 2554-2558.
[7] Kohonen T. The self-organizing map [J]. Proc. IEEE, 1990, 78(9): 1464-1480.
[8] Kosko B. Adaptive bidirectional associative memories, applied optics [J]. 1987, 26(23): 4947-4960.endprint
[9] Rumelhart D E. Parallel Distributed Processing[M]. Cambridge: MIT Press, 1986.
[10] McCarthy J. Proposal for the Dartmouth summer research project on artificial intelligence[R]. Dartmouth College, 1955.
[11] Simon H A. The Sciences of Artificial [M]. Cambridge: The MIT Press, 1969.
[12] Newell A. Physical symbol systems[J]. Cognitive Science, 1980( 4): 135-183.
[13] Turing A M. Can machine think? [C]//Feigenbaum E A, Feldman J. Computers and Thought. New York: McGraw-Hill, 1963.
[14] Newell A, Simon H A. GPS, a program that simulates human thought [C]//Feigenbaum E A, Feldman J. Computers and Thought. New York:McGraw-Hill, 1963: 279-293.
[15] Feigenbaum E A. The art of artificial intelligence: Themes and case studies in knowledge engineering[C]. IJCAI 5, 1977: 1014-1029.
[16] Feigenbaum E A, Feldman J. Computers and Thought [M]. New York :McGraw-Hill, 1963.
[17] Newell A, Simon H A. Human Problem Solving [M]. Englewood Cliffs: Prentice-Hall, 1972.
[18] Nilsson N. Principles of Artificial Intelligence[M]. Berlin: Springer-Verlag, 1982.
[19] Minsky M L. The society of mind[M]. New York: Simon and Schuster, 1986.
[20] Brooks R A. Intelligence without Representation[J]. Artificial Intelligence, 1991(47): 139-159.
[21] Brooks R A.Elephant cannot play chess[J]. Autonomous Robert, 1990(6): 3015.
[22] Brooks R A. Engineering approach to building complete, intelligent beings [C]. Proceedings of the SPIE, 1989(1002): 618-625.
[23] Minsky M, Papert S. Perceptron[M]. Cambridge: MIT Press, 1969.
[24] Papert S. One AI or many?[J]. CJJ. Daedalus, 1988, 117(1): 1-14.
[25] Russell S J, Norvig P. Artificial Intelligence: A Modern Approach [M]. New York: Pearson Education, Inc., 1995.
[26] Nilsson N J. Artificial Intelligence: A New Synthesis [M]. New York:Morgan Kaufmann Publishers, 1998.
[27] 鐘義信. 機器知行學原理: 信息、知識、智能的轉換與統一理論[M]. 北京: 科學出版社, 2007.
[28] 鐘義信. 信息轉換原理: 信息、知識、智能的一體化理論[J]. 科學通報, 2013, 58(14): 1300-1306.
[29] Zhong Y X. Information conversion with intelligence creation: The law that governs the information discipline[J]. International Journal of Cognitive Informatics and Natural Intelligence, 2015, 9(3): 25-41.
[30] 鐘義信. 人工智能: 概念, 方法, 機遇[J]. 科學通報, 2017,62(22): 3473-2479.
[31] 何華燦. 泛邏輯學原理[M]. 北京: 科學出版社, 2001.
[32] 涂序彥. 協調學[M]. 北京: 科學出版社, 2012.
[33] 汪培莊. 因素空間方法與知識表示[J]. 模糊集合系統, 1990(36): 113-124.
(編輯:彭遠紅)endprint