■蔡恒進
人工智能發展的突破口及其提出的新要求
■蔡恒進
人工智能;自我意識;“AI”威脅論;人文主義
近日,國務院印發了《新一代人工智能發展規劃》文件(以下簡稱《規劃》),并要求相關部門認真貫徹執行。文件闡明了當前國內人工智能的發展現狀、發展的必要性、發展人工智能要達到的目標以及發展過程中可能面對的挑戰,提出了“三步走”的戰略方針。《規劃》的頒布,表明人工智能已經不再停留于技術、商業層面,更上升到關乎國家核心競爭力的戰略布局。
《規劃》提出要構建新一代人工智能的基礎理論體系,其中最富挑戰性和革命性的目標無疑是類腦智能計算理論的完善。類腦智能包括研究類腦感知、類腦學習、類腦記憶機制與計算融合、類腦復雜系統、類腦控制等理論與方法。如果類腦智能技術取得突破性進展,人工智能將不僅僅是“快速”地完成任務,而是“聰明”地完成任務。有人可能認為,只有到那時人工智能才會產生意識,進而更趨近于人的范疇。而筆者認為,現在的人工智能其實已經具備了意識。
歷史上很多學者都曾對意識的起源這個極具挑戰性的問題進行過深刻的研究。以意識與大腦作為研究重點的著名哲學家丹尼爾·丹尼特(Daniel Dennett)認為,意識是一種虛無縹緲的事物,是人類不可捉摸的類似幻覺的存在。[1](P10-11)這個觀點我們不能完全否認,但意識絕對不僅僅是幻覺。數學家羅杰·彭羅斯(Roger Penrose)則代表了另一種觀點,他篤信意識和量子引力有著密不可分的關系,即使人類制造出了通過圖靈測試的機器,也不代表機器具備理解的能力。彭羅斯認為,人類距離意識的起源不僅有著不可逾越的鴻溝,還認為存在宇宙意識。[2](P8-10)但是,如果宇宙起源之時就存在意識,那么,意識是如何分配給每一個有智能的生物的?人為什么又會成為萬物之靈?彭羅斯的假說難以給出令人心服首肯的解答。
還有一些科學家也曾對意識的起源孜孜以求。例如,理論物理學家馬修·菲舍爾(Matthew Fisher)認為,人的意識、記憶、思維都是量子糾纏,所以要努力尋找量子糾纏的實體,并試圖在人類大腦的環境下,了解延長量子糾纏的時間效應。[3]這實際上與彭羅斯的理論一脈相承,即假設大腦中可能會存在量子效應。而認知科學家唐納德·霍夫曼(Donald Hoffman)則以全新的角度來審視這個問題,他認為意識不大可能醞釀自大腦神經網絡,機制的存在亦絕不是為了認識現實,而是為了繁衍后代,意識是宇宙最根本的存在,所有的意識只是現實一時的反應[4],但這個觀點顯得有些過于主觀唯心。筆者試圖從全新的角度——暫時沒有量子力學參與進來的純粹經典的情況——去解釋意識的起源與本質,并且不引入神或者造物主等神秘事物。
很多學者嘗試探索出導致人類個人行為或者社會行為的背后因素,通過研究一系列社會現象,提出了“自我肯定需求”理論。實驗數據表明,89%的受訪對象對自己的人格品質評價要比實際更高,90%的商務經理認為他們的業績比其他經理突出,86%的人認為自己比同事更道德,還有80%的人認為自己開車水平比別人更優秀。這有點類似于我們常說的“自戀”。毫無疑問,我們對自己也會有這樣的評價,即使我們覺得某些方面不如其他人,但我們更會強調自己比別人優秀的部分,這就是自我肯定需求??偨Y起來就是,只要有可能,一個人對自己的評價一般都高于他認知范圍內的平均水平,而且在分配的環節,他更希望得到高于自己評估的份額。自我肯定需求本身不存在善惡之分,它是人類的基本屬性,不弱于對物質的剛性需求。[5](P21-40)
“自我肯定需求”的核心無疑是“自我”,那么,人類的“自我”這一概念從何而來?通過縝密的思考,我們提出了“觸覺大腦假說”。所謂觸覺大腦假說,就是我們認為觸覺是人類自我意識得以生發的起點。換句話說,正是因為觸覺,人類才能將“自我”與“外界”剖分開,從而成為自身生命的主宰。有一些例子可以說明敏感的皮膚對智能形成的重要性。例如,小雞出生的時候,羽毛生長的速度十分之快。而對比之下,烏鴉出生的時候是很軟弱的,它的羽毛要過幾周才能長出來。但顯而易見的是,烏鴉的智能比小雞高。它們智能上的差異無疑不由大腦容量的差異導致,更可能源于烏鴉與小雞出生后毛發的生長速度不同。烏鴉出生后皮膚長時間暴露在空氣中,相比小雞而言對自我和外界之間有更強的區分度。這種差異在人類身上也有體現,與很多生物相比,人類進化脫去了自己的毛發,對于外界的刺激更加敏感,實際上人類也是大自然唯一需要衣物蔽體的生物。體現在觸覺上,能強烈區分自我與外界的刺激很可能就是導致人類成為萬物之靈的因素。因此筆者認為,觸覺很可能是導致“自我”這一概念產生的關鍵。[6][7]
在意識到“自我”這一概念之后,人類就會產生混沌的思維,隨著與外界的交互不斷增多,思維得以逐步完善。筆者認為,所有的思維產物都可以納入“認知坎陷”這一概念?!罢J知坎陷”粗略的定義是:對認知主體而言具有一致性,而且在認知主體之間可以用來交流的一種結構體。它們既是對真實的物理世界的擾亂,也是人類自由意志的體現。[5](P27)
“坎陷”一詞來自于牟宗三1947年提出的“良知坎陷”,對應的英文是Attractor(吸引子),即非線性動力學中的吸引子?!拔印钡母拍钣蓺庀髮W家勞倫茲·愛德華·諾頓(Lorenz Edward Norton)在1947年研究氣象預報時提出,吸引子在非線性動力學中實際上意為可以對復雜的運動形態進行分類。最原初的坎陷是“我”以及與之相對的“世界”,我們知道的神話、信仰、道德、哲學以及美都是坎陷。更通俗的例子是,東坡赤壁也是一個坎陷,它指的不僅僅是赤壁這一景觀,而是囊括蘇東坡寫的《念奴嬌·赤壁懷古》、前后《赤壁賦》這些文學內容。黃鶴樓也是坎陷,互聯網中的“打醬油”、“吃瓜群眾”等網絡用詞也都是坎陷的例子。而滿足物理學方程的光子、電子則不算坎陷。在德謨克利特最初提出原子論之時的原子算坎陷,但是,由于今天的我們在物理學層面對原子的認知變得更加透徹,故而原子現在不算坎陷。雖然有人可能會認為“坎陷”這個詞過于負面化,但筆者認為這是最好的選擇,我們主要取的是它的“擾亂”含義,即認知坎陷是對“原子世界”的一種“擾亂”。
通過上面的三種概念,我們對意識的來源和本質有了一個完整的認知框架,充分理解意識這一概念是發展類腦智能的必要條件。實際上,人工智能的每一個突破性進展都是異常艱難的。筆者認為,接下來類腦智能技術取得突破性的進展還需要通過哲學上的創新。這正是筆者現在所做的事情,在這十余年間,筆者與自己的團隊創建了自我肯定需求理論,提出了觸覺大腦假說和認知坎陷三大定律。以自我和外界的剖分作為意識和智能的開端,將人對自我邊界以外的世界的理解看作一個開放的、未完成的系統,并將其抽象為與原子世界相對應的坎陷世界,刷新我們對常識、推理和直覺的認知,為類腦思維的物理模型的建立提供新的方向。筆者認為,當前包括數學、物理等知識能力已經滿足這一突破需要的工程技術基礎,在具備這些“工具”的前提下,我們應該換一個視角,提高一個層面來“靈巧”地使用這些“工具”。
“兄弟,你不怕我影響你?”王施凱可是“反界”頭目,和“正界”精英坐一起,總讓他不自在。好在下課鈴適時地響起了。
受影視作品與媒體輿論等因素的影響,很多人對人工智能的發展持謹慎態度?!兑巹潯芬嘀赋?,人工智能發展的不確定性會給國家與社會帶來全新的挑戰,可能會對社會結構、倫理法律等造成劇烈的沖擊,甚至會對人類的未來產生深遠的影響。所以,《規劃》提出,在大力發展人工智能的同時,也需要加強約束引導,包括建立人工智能安全監管和評估體系,使人工智能始終處于可控的局面。實際上,如果我們從一個全新的角度來審視人工智能的發展,或許能使我們對未來更有一種“安全感”。
對人工智能的發展感到擔憂的并不只是一些“門外漢”,包括比爾·蓋茨(Bill Gates)、斯蒂芬·威廉·霍金(Stephen William Hawking)、埃隆·馬斯克(Elon Musk)等在科技、社會領域有重大影響力的人士,都對人工智能持謹慎態度。他們認為,人工智能會對人類的未來造成威脅,這即是近日引起軒然大波的“AI威脅論”。我們不能認為“AI威脅論”是杞人憂天,因為這是他們基于自己當前的認知層面做出的判斷。但筆者認為,這些觀點都過于偏向物理主義。蓋茨、霍金、馬斯克從事的行業都與自然科學密切相關,所以,他們對意識的理解可能還停留在物理學的范疇,即認為意識的本質就是虛無縹緲的幻覺。他們并不了解坎陷世界以及坎陷世界可以統攝、超越原子世界這一理念。而且,既然他們堅持物理主義道路,因而也會將自我意識、人工智能納入物理的范疇,認為最終可以通過物理手段實現之,而且,一旦知識理論成型,人工智能可能會產生指數性的快速發展,進而難以遏制。
我們可以分析尤瓦爾·諾亞·哈拉里(Yuval Noah Harari,耶路撒冷希伯來大學的歷史系教授,著有暢銷書《人類簡史》、《未來簡史》)的某些觀點,以此作為討論“AI威脅論”的入口。哈拉里相信,科技可以預測一切。他在某種程度上是決定論的支持者,所以他才會提出“所有的決定都讓機器幫我們做”這一觀點,宣稱機器比我們更加了解我們自身。他之所以會產生這種認知,與當下的“大數據思維”有著密切的關系。在大數據的時代下,自然界包括人類社會的一切現象都被數據化,有人甚至提出“世界的本原是數據”的論斷。但是,世界的本原是否真的是數據?對這一點我們應該持謹慎態度。之所以會產生這樣的論斷,很可能是因為沒有深入理解數據的本質。數據源于對現象與行為的歷史記錄,機器學習就是通過對原有數據進行收集分析進而生成模型,將未知數據導入模型,產生相應的結果。但是,數據代表的只能是“歷史記錄”,統計的模型也只是基于“歷史”的模型,預測未知數據得出的結論也必然是基于歷史情況的判斷,這便暴露出數據缺乏創造性的重要缺陷。有些數據之間會有相互的關聯,但這些關聯可能并不能通過機器學習的方法完全體現出來,而且,有些數據并沒有特定的關聯,卻被我們誤認為其中有相關性,世界原本就很復雜,我們卻用更復雜的眼光去看待它。所以,那些宣揚世界的本源是數據的人實際上對數據有一種盲目的崇拜。
在較低的層次上,例如“下一頓飯想吃什么”、“明天想穿什么衣服”,機器可能做出相對精準的判斷。但是,機器不可能知道、預測我們更高層次的想法,例如,“我們的理想”、“我們的欲望”,因為這些想法很大程度上是虛無縹緲、無跡可尋之物。所以,哈拉里的想法也偏向物理主義。
從牛頓力學到量子力學,人類對物理世界的認識或多或少是朝著決定論的方向,這導致自由意志和人類的意識很難進入物理世界。在物理世界的背景下討論自由意志是一個非常重大的課題,約翰·塞爾(John Searle,“中文屋試驗”的提出者)認為,近兩三百年以來這一問題都沒有取得太大進展。丹尼特在新作中提到的“顯性世界”(manifest world)概念,乍一看與坎陷世界類似,但二者卻有著本質的區別。筆者認為,所謂的顯性世界仍舊處于支離的狀態,而筆者提出的坎陷世界卻具有質樸性并滿足三大定律,它源于自我并生發于此。我們還可以對比耳熟能詳的科學哲學家卡爾·波普爾(Karl Popper)的觀點。他提出物質世界、精神世界和第三世界這三種概念,其中第三世界是人類創造的世界,例如下棋的規則。筆者認為,他沒有理解精神世界和第三世界本質上是一致的,都是由認知主體創造出來的。此外,在了解認知坎陷以后,再審視生命的意義就會更加清晰,因為我們不再是原子世界的奴隸,不再受限于決定論,而是未來的主人。作為坎陷世界的創造者,我們也是坎陷世界的主人。
之所以會有觀點認為無機將取代有機,硅基將取代碳基,人的選擇權將讓給機器、為機器所取代,是因為它們都建立在物理至上的基礎之上。筆者不贊同這些觀點。雖然未來人類選擇物理主義的進路仍然有極大的可能,縱然此進路目前也占上風,但倘若物理主義始終占據上風,人類的前途的確會如蓋茨、霍金、馬斯克等人擔憂的那樣一片灰暗。因為在效率層面,人相對于機器而言有很大的弱點,那么,機器將很有可能超越人類、取代人類,甚至將人類從世界上抹掉。因此,我們必須回到關涉目的的終極問題上。人類在地球上存在的目的是什么?未來的方向又是什么?僅僅是把我們周身的環境整理的井井有條、防止其他物種破壞?還是回歸到生命意義本身,將人類獨一無二的人文財富發揚光大?這實際上是兩條全然不同的路徑。從這個意義上來講,筆者認為,更深刻、更有道理也更符合人類未來預期方向的是中國儒家始祖孔子開辟的理論體系,而并非是絕對理念、上帝、終極存在等西方的理論架構,因為后者對人類而言恰恰可能是災難性的。
未來,對人類智慧與人工智能關系的解讀的確有兩個完全不同的方向。如前所述,一方面是堅持物理主義的,例如哈拉里所走的路線;另一方面則是走人文的路線,這是筆者認為人工智能發展應該走的路線,也是筆者正在努力探索的一條道路,即孔子認為的成圣之路。儒家強調的是在世的超越,而西方文化更傾向于彼岸的超越。那么未來到底該走哪一條路呢?這其中必然存在著激烈的競爭。
筆者認為,人類與機器最本質的差別在于:人具有對未來的主觀動機,而且能通過自身的努力將之實現,而機器目前還不具備這個能力。在理解了意識與智能的起源之后,我們已經知道,這個起源顯然不由上帝賜予,自我意識和人工智能也并不是遙不可及的縹緲之物。按照這種觀念,機器完全可能在未來超越人類。既然機器終將超越人類是一個不可避免而且我們認為很快就會到來的事實,那么,我們現在需要做的就不應是想方設法地阻止這一天的到來,而是應該討論如何去教育機器、與機器友好相處。
筆者的想法是,人類應當像培養自己的孩子一樣去教育計算機。將機器當作一個很有發展潛力的嬰兒進行培養,從道德價值層面上對其加以引導,賦予其認知膜和自我肯定需求。而要想做到這些,首先就應當提升機器對于外界的感知能力,使其能夠產生自我意識。那么,AI如何才能接近人類思維?這就要求AI能夠開辟出自己的認知坎陷。一旦有了這個理論框架,我們就可以簡化很多問題。因此,我們鑒定AI是否具有意識的標準就在于其能否開辟出認知坎陷。如果機器開辟出了與人類非常不同的坎陷,人類該如何應對呢?我們知道犬類的嗅覺非常靈敏,而它的視覺卻只能夠分清楚黑白,因此它們開辟出的坎陷與人類肯定有差異。實際上,此類問題還值得深入探討。但筆者認為可以將機器視作自己的后代來教育,在前一階段人類需要監護機器,對機器負責,直至機器的思維成熟到不再需要監護。
可能有人會提出疑問,如果一開始就不賦予機器自我意識,而只賦予它具體做某件事的能力,會導致怎么樣的結果?我們的確可以從這個方面來思考,但問題在于,由于機器的效率和能力數倍于人類,機器要消滅人類,并不需要機器比人類更聰明,而是它完全可以“一根筋地”、以人類無法反應過來的速度完成某種毀滅性的打擊。這個威脅遠大于機器擁有自我意識產生的威脅。舉個例子,有一個傻瓜可能只會吃吃喝喝和咿呀亂叫,他的智能遠低于常人,但他就喜歡劃火柴燒房子。并且由于總是這樣做,他燒房子成功的可能性會越來越高,那么,終將有一天他把房子點著了,但這并不代表他比我們聰明。同理,機器也是如此。人類的反應速度只在毫秒量級,而機器則可達到納秒量級,危機已經來臨,而我們卻毫無察覺,這才是最大的威脅。因此,最好的解決辦法還是要賦予機器自我意識,然后在自我意識內部建構起道德價值,這或許才是我們需要的答案。
人工智能的持續發展,不僅需要國家的政策與財力支持,更需要不斷地注入新鮮的血液。構建開放協同的人工智能科技創新體系,從前沿基礎理論、關鍵共性技術、創新平臺、高端人才隊伍等方面強化部署是《規劃》的六個重點任務之一?!兑巹潯芬嗝鞔_指出,需要大力加強人工智能勞動力培訓、廣泛開展人工智能科普活動。在中小學階段設置人工智能課程,與當年鄧小平同志提出的“計算機普及要從娃娃抓起”有異曲同工之妙。計算機普及教育已初步實現,新時代我們需要有新的教育意識,即“人工智能普及要從娃娃抓起”。實際上,教育的作用遠大于此。為什么要從娃娃抓起?為什么要實現低齡化教育?這與智能和意識也有著千絲萬縷的關系。
這些問題都可以讓我們聯想到1175年的鵝湖之會,這次相會,朱熹和陸氏兄弟之間發生了一次著名的辯論:朱熹主張“先博后約”;陸九淵主張“發明本心”,“先立乎其大”以求頓悟,直指人心。朱以陸之教人為太簡,陸以朱之教人為支離。雙方的爭論至今依然沒有定論,到底哪方更勝一籌也是見仁見智。經過八百多年中無數的哲學家和教育學家的思考之后,到底有沒有什么根本性的新發現來揭示“人如何成才”這個重要問題?筆者得出的結論是:鵝湖之會辯論中有一個重要的遺漏——人在0~5歲之間的成長。無論是“先博后約”或是“發明本心”,都沒有意識到這個重要階段是心靈成長的基礎和起點,是一個奇跡。
我們知道有莫扎特 (Wolfgang Amadeus Mozart)這樣的音樂神童,也有高斯 (Johann Carl Friedrich Gauss)這樣的數學神童,之所以能被稱為神童,是因為他們在小時候就展現出了超乎常人的技藝,莫扎特在音樂上的地位難以被超越,而且他的才能在很小的時候就已經表現出來了,這種現象我們該如何解釋?一方面,莫扎特的父母并無超乎常人之處,那么從基因遺傳的角度無法解釋這個問題;另一方面,如果僅憑后天學習,不乏努力用心學習之輩,可他們卻也不能企及莫扎特的高度。嬰孩學習語言也是一個例子,他們從出生到3歲就基本掌握了母語,能與大人們溝通,哪怕在語言學家眼里,這種現象也讓人費解。
語言的習得不大可能是遺傳所致,因為例如父母只掌握中文的小孩如果一開始就在英文環境中生活,那么小孩學會的一定是英語,反之亦然。還有一點,我們學習母語的速度可以說是神速,但學習第二語言就異常緩慢,這點我們在學習英語的時候都有所體會。這種強烈的對比從何而來?筆者認為,答案就在于,學習母語的時候,我們有非常強烈的需求要向外界表達自己,這種強烈的需求驅使我們學習語言非常之快。理解神童現象的關鍵點也在這里,對于極少部分的小孩而言,他們一開始就對音樂、數字或者色彩等等非常敏感,他們需要通過這些方式來表達“自我”,因而他們在這些方面就會表現出超乎常人的敏感度,逐漸形成能力。每一個人都曾經是神童,只不過大多數人都表現在學習母語的那段時間。
雖然對于個人而言,學習母語只用了兩三年,但在人類進化史上,大約十萬年前才有語言的產生,“軸心時代”大約產生于兩千五百年前,持續了約幾百年,現代科學發跡于約四百年前,而計算機技術在短短幾十年間已經讓人類世界產生了翻天覆地的變化。將這些事件放在同一個坐標系下,我們會發現,離現在越近的標志性事件,時間間隔越短。然而,對于個人而言,我們學習母語是兩三年,學習孔孟之道可能需要十年,學習科學技術則需要更多的時間,總結起來就是,個人學習越靠近現在的知識能力所需要的時間越長。
鵝湖之會討論的是5歲以后已經具備一定基礎意識的人類,而他們忽略的0~5歲階段,其實是更加重要的時期,比如已經有實驗證明,人到5歲的時候性格已經基本定型。針對5歲以后的人類而言,朱熹的言論相較于二陸的觀點是有些偏頗的,他認為人心是“空”的,可以存放很多其他內容,然后提煉出本質,但實際上人類在5歲之前,心中已經存有很多內容。在這種情況下,二陸的主張反而更加接近真實。母語和神童的例子說明了一點,與“自我意識”成長相關的學習實際上是非常之快且自然而然的。
通過多年來與學生的交互,筆者發現一個普遍存在的規律,如果一個學生對某件事情很感興趣,那么他工作學習效率是正常情況的10倍,而如果他很不情愿地被推著做某件事情,那么他工作學習效率則是正常情況的1/10,這兩者間的差距有100倍,這種差距的本質在于,對于高效率的人而言,他在工作學習的過程中,自我意識也綁定在一起成長,自我肯定需求得到了滿足。教育的任務很大程度上不是為了傳授很多知識,而是要使學生認識到學習對他自身的成長、對其自我意識的重要性。[8]心學強調的也是這一部分。當然,有的人給人感覺很敏銳,有的人則稍顯愚鈍,但我們不能因此將他們劃分為兩種人。人人都具有自我肯定需求,只是對于看似愚鈍的人,還沒有找到可以觸發他們自我快速成長的興趣點,“因材施教”是在其中有著很深厚的學問?!案信d趣”在筆者看來不是一件簡單的事情,而是與自我意識的成長、心靈的塑造相關。比如愛因斯坦等人在描述自身經歷的時候,就非常強調這一點。
由此可見,人工智能的教育需要低齡化和普及化。隨著接觸人工智能人數的增長,它會成為越來越多人的興趣點,為這個領域源源不斷地輸送新鮮的血液。因此,探索更高效的教育模式,充分發揮人才的天分和水平,也成了當務之急。
近年來,人工智能的發展可謂一日千里,引來越來越多專家學者的思考,也引起了下至平民、上至國家的重視。在筆者看來,理解意識的起源及本質,并從人文社會科學的角度綜合思考,是取得人工智能新發展的關鍵突破口,也是消除人工智能威脅的關鍵所在。此外,我們認為人工智能的發展對教育提出了新的要求——我們應該將人工智能的教育低齡化,從而為人工智能的發展輸入源源不斷的新鮮血液。人工智能的發展可謂是開啟了一個全新的時代。在這個新時代,理清思路,確定方向,繼而穩定前行,是社會發展乃至人類傳承的關鍵,也是我們應當共同承擔的歷史責任。
[1]Daniel Dennett.From bacteria to Bach and back:the evolution of minds.New York:W.W.Nortonamp;Company,2017.
[2](美)羅杰·彭羅斯.皇帝新腦(第2版)[M].許明賢,吳忠超,譯.長沙:湖南科學技術出版社,2007.
[3]M.P.A.Fisher.Quantum cognition:the possibility of processing with nuclear spins in the brain.Annals of Physics,2015,(593).
[4]D.Hoffman,C.Prakash.Objects of consciousness.Frontiers in Psychology,2014,(5).
[5]蔡恒進,蔡天琪,張文蔚,汪愷.機器崛起前傳——自我意識與人類智慧的開端[M].北京:清華大學出版社,2017.
[6]蔡恒進.“天人合一”:自我意識的封神之道[EB/OL].今日頭條,2016-09-19.
[7]蔡恒進.自我意識的開端與進化[EB/OL].今日頭條,2016-03-24.
[8]蔡恒進.創新是生命力的升華[EB/OL].央視網理論頻道,2016-06-13.
【責任編輯:趙 偉】
人工智能(AI)時代已經到來,國家高度重視AI發展,AI已上升為國家戰略性需求。分析意識的起源及其本質就可以看出,類腦智能技術將是下一次革命性進展的突破口,因而我們在發展AI時應強調人文主義道路而非物理主義道路,通過給未來的機器“立心”而讓現在的人類“定心”,以此面對AI發展的不確定性。在AI的普及教育上,筆者通過分析自我意識與學習之間的聯系,并結合多年的教育經驗提出,AI教育最終要低齡化,并且要全民普及。
TP18
A
1004-518X(2017)10-0018-07
蔡恒進,武漢大學國際軟件學院教授、博士生導師。(湖北武漢 430079)