鮑勇劍 戴文淵 Oleksiy Osiyevskyy 徐石

在《組織與市場》一文中,西蒙(Herbert Simon)假想一個場景:如果火星人造訪地球,他們用綠色標識組織,用紅線條顯示市場,用藍色記錄組織內部等級,那么看到的一定是大片的綠色被稀落的紅色線分割開來。火星人給總部發送的密電碼一定是:地球是組織的,但被一種叫市場的機制分割著。
西蒙認為,人的有限理性(Bounded rationality)造成組織的市場邊界。市場自發自愿的交易配對可以解決組織規模和內部規劃成本之間的矛盾:受決策者認知能力有限性的影響,超過一定的規模,內部治理成本超過外部市場交易成本。
借助“有限理性”和自利假設,威廉姆森(Oliver Williamson)建立其交易成本經濟學。這二位諾獎經濟學家的理論為現代管理的決策學奠定了三大基礎概念:有限理性(Bounded rationality)、交易成本經濟化(Transaction cost economizing)、機會主義行為(Opportunistic behavior)。
然而,“有限理性”正被爆發式發展的人工智能解構。業務主題領域邊界確定后,人工智能的計算能力可以假設為無限充足。它否定了“有限理性”的有限計算能力前提。因此,決策者可以追求“優化”(optimization)而非交易成本經濟化(economizing)。簡言之,人工智能允許“極限理性”(unbounded rationality)。本文用第四范式案例顯示它是如何在現實中生效的。
于此同時,受到人工智能和區塊鏈技術的影響,維博克(Alan Verbeke)的“有限可靠性”(Bounded reliability)的概念越來越有現實的意義。“有限可靠性”解釋交易中的非機會主義的違約現象。交易一方可能沒有自私自利的欺詐行為,但確實無法按照合約履行責任。過去,有限可靠性具有理論上的合理性,但無法落地實施,因為追溯歷史活動太困難。隨著人工智能的記憶能力、計算能力和算法的提升,在區塊鏈技術的支持下,過去難以追溯的非機會主義活動,現在可以量化解析。這個概念具有現實意義。以攜程的“親子園”為例,攜程為員工設立親子園的決策是在過去條件下盡責的選擇。如果社會接受“有限可靠性”的概念,就不會對高管無限追責。這也許可以避免后來關閉親子園的雙輸結果。
在“有限理性”和“有限可靠性”二個概念共同變化的影響下,管理決策的形態也豐富化,從“利用”和“探索”(Exploitation and exploration)二種選擇發展到至少四種形態。不過,組合作用下的形態有些是可取的,有些需要審慎對待。
本文首先討論人工智能對“有限理性”在二個方面的解構:有限計算能力和隱性知識。然后,我們指出人工智能區塊鏈是怎樣賦能“有限可靠性”概念,并使之成為組織協同活動的保障。最后,我們討論被解構的有限理性和被賦能的有限可靠性對管理決策形態的影響。
1955年,西蒙提出管理決策中的“有限理性”概念。不久,它就成為現代管理的一個奠基性質的概念。有限理性的前提假設是:現實世界里,管理人的認知能力有限。因此,管理人的決策原則不是優化,而是“滿意即可”(satisficing),即受有限的認知能力影響(例如計算能力),管理人在決策中不是追求最優選擇(optimal solution),只是尋找和接受足夠好的解決方案(good enough solution)。有限理性概念對管理學影響深遠,包括對威廉姆森“交易成本經濟化”理論的影響。這二位諾獎經濟學家和他們的核心概念深深影響了現代管理決策的理論和實踐。
有限理性是針對自然人決策能力和特征的。日新月異的人工智能和大數據的發展直接挑戰這個核心概念。首先,在選定的業務主題范圍內,機器的計算能力可以推向極限(即可以滿足對任務目標的最優化處理)。其次,人工智能的五個發展緯度(BRAIN,Big data, Response, Algorithm, Infrastructure, Needs)中任何一個緯度的發展都會給系統帶來幾何級數的爆發能力,讓人工智能的決策支持能力超過管理人的決策最優化需要。再次,機器交互和遷移學習破解隱性知識的壁壘。最后,衡量人工智能水平的VC維的邏輯突破“滿意即可原則”背后的妥協邏輯,體現“最優化”的邏輯。這些打破有限自然人的有限理性的應用在人工智能企業“第四范式”的“先知決策”系統中已經實現。下面是具體解釋。
第四范式戈瑞把人類科學發展分成了四個階段,每個階段為一個范式。
第一范式是原始記錄自然現象,比如鉆木取火,人們就記錄了這個自然現象,下次需要火的時候重復這個活動,就有火了。第一范式也叫做實驗科學。
第二范式代表對自然現象背后規律的總結。例如,牛頓總結物理記錄的那些自然現象,得出三條規律,即牛頓三大定律。又如愛因斯坦修正了牛頓的三大定律,總結出相對論。這又叫做理論科學。那個階段的理論科學有個特征,就是個人手工推演, 以至于很多復雜的現象沒有辦法推演到。
第三范式階段就是使用電子計算機,用計算機去推演定律,總結規律。天氣預報就是一個代表。如果靠手工推演,不可能做出天氣預報。類似的模擬實驗都是第三范式階段的計算科學。
第四范式階段說的夸張一點就是牛頓和愛因斯坦都失業了,由計算機來替代那些科學家總結規律,計算機從數據里面總結、提煉規律。
“第四范式”概念來自于一位科學家,戈瑞(Jim Gray)。戈瑞把人類科學發展分成了四個階段,每個階段為一個范式。第一范式是原始記錄自然現象,比如鉆木取火,人們就記錄了這個自然現象,下次需要火的時候重復這個活動,就有火了。第一范式也叫做實驗科學。第二范式代表對自然現象背后規律的總結。例如,牛頓總結物理記錄的那些自然現象,得出三條規律,即牛頓三大定律。又如愛因斯坦修正了牛頓的三大定律,總結出相對論。這又叫做理論科學。那個階段的理論科學有個特征,就是個人手工推演, 以至于很多復雜的現象沒有辦法推演到。第三范式階段就是使用電子計算機,用計算機去推演定律,總結規律。天氣預報就是一個代表。如果靠手工推演,不可能做出天氣預報。類似的模擬實驗都是第三范式階段的計算科學。
戈瑞認為,未來的科學會發展到第四范式階段,第四范式階段說的夸張一點就是牛頓和愛因斯坦都失業了,由計算機來替代那些科學家總結規律,計算機從數據里面總結、提煉規律。同時,未來的科學家也不再是牛頓和愛因斯坦這樣的類型,未來的科學家叫做數據科學家。他們教計算機成為牛頓,教計算機成為愛因斯坦。
這樣的由人工智能機器總結規律的知識自動化并不僅僅限于物理學,各行各業都可以。例如,金融領域在信審,反欺詐,甚至營銷方面,都可以像牛頓那樣總結出很多規律。現在,這些總結規律的事情都希望交給計算機來做。這就是第四范式的業務。第四范式的“先知系統”(Prophecy 3.0)就是用人工智能的方法幫助各行各業總結規律。計算機總結科學規律直接挑戰有限理性的概念,因為人工智能的認知能力可以無限擴展,可以追求極限優化。
以第四范式與銀行信用卡中心的合作為例(見圖1),該銀行需要通過數據精準識別出所有客戶當中的信用卡賬單分期客戶。過去,該信用卡賬單分期模型只能到達兩百維(變量)。現在,它提升至“五千萬維”,使賬單分期推薦短信的響應率提升了68%,卡中心的賬單分期手續費提升61%。其實,千萬、甚至億萬維的模型都沒有技術上不可逾越的坎。模型的復雜性是根據業務主題和場景設計的。最優化不是無限大,而是不再受制于人腦的認知限制,不需要遵守“滿意即可”的決策原則。
打破有限理性的還有人工智能的系統優化能力。它體現在五個方面,取其第一個字母,我們稱之為BRAIN優化能力。
完整的人工智能系統需要五個前提條件,首先是符合人工智能格式的大數據(Big data),這個數據是需要按照人工智能的要求來收集數據。例如,在一些營銷場景,過去企業收集的通常是財務數據,比方說顧客買了商品,企業就記錄你買了這個東西。但是過去通常不會記錄顧客過來看了哪些,買了知道,沒買就不知道。所以,第四范式首先幫助企業按照人工智能所要的格式要求收集數據。第二部分是要形成反饋(Response),要定義準確什么是好的,什么是不好的。沒有反饋,機器無法學習和成長。第三部分是算法 (Algorithm)。科學家越優秀,算法越高級。第四部分是體系架構(infrastructure),因為現在對AI來說都是大數據環境。一個簡單的系統問題,大數據環境下就不是一個簡單的問題。就好像蓋房子,蓋一層樓可能找一些泥瓦匠就蓋起來了,蓋一百層,那就非得要有結構設計。第五個最重要的是需求(needs)。有了需求,就有業務主題范圍,就可以在此范圍內追求優化決策。

第四范式的先知決策系統在這五個要素之間建立閉環回路。當需要(業務主題)確立后,BRAIN的系統決策能力可以不斷提高,并不受過去的有限理性概念的限制。以組織的一般活動復雜度,人工智能的系統能力高過決策需要。在這個意義上,我們說人工智能打破有限理性,追求極限理性。
機器交互(機器之間直接溝通)是第四范式的先知系統另外一個打破人腦思維有限理性的設計。第四范式做的人工智能和過去的那些感知相關的人工智能會有很大的區別,過去的人工智能其實是在模擬人或者理解人。比方說自然語言理解,我能去理解你說的這句話是因為我代入到你的場景,我才能去理解,這就要求計算機把自己變得越來越像人,比方說圖像識別,我們需要讓計算機看到這張圖片的時候知道人看到圖片的時候焦點在哪里,它才可以識別。而計算機本性不是這樣的,計算機本性是非常高帶寬的,高速的,大內存,大存儲這樣一個機器,人是低帶寬,運算速度是比較慢的,容量也是比較小。同樣,理解自然語言的時候,我們要讓計算機有上下文,其實計算機是沒有上下文的。它讀《紅樓夢》讀到最后一個字的時候,它還記得第一個字是什么。簡要地講,所有過去感知類的AI其實在做一個和人打交道,讓自己變得像人的工作。第四范式的設計思想卻不同。第四范式要干的其實是(沒有人參與決策過程溝通時)機器怎么能夠做。整個運作里面沒有人參與的時候,其實機器和機器的交互是可以在非常大帶寬的情況下交互。舉例來說,如果機器做牛頓的工作是怎么做的,機器做牛頓不會只總結三條定律,而是在每一個速度區間內,它把速度劃分出更多區間,一到十一個區間,十到二十一個區間劃分,可能幾千萬的區間,每個區間總結三條定律。按照速度區間劃分,那就不會出現高速情況下牛頓定律不可用的情形。如果需要,它可能最后總結出三千萬條定律、三億條定律。這個事情對于人來說不可能,如果牛頓總結哪怕三千條定律,就沒人想看他的理論了。但是機器沒關系,A機器告訴B機器三億條規律沒有問題,B機器一秒鐘就接受了。這就是機器交互的特征。它讓有限理性概念變得不相關。
從這個方向看,過去,人叫機器做什么;現在,機器提醒人做什么。第四范式系統有知識自動化特征。一方面是知識的自動化,這樣的話有更多的知識會被發現,另外一方面即便是過去人已經發現了知識,機器能做的比過去更細。
舉一個實例,第四范式在幫助一家企業開發它的汽車貸款時,機器發現一條規律,某一臺POS機上它刷卡辦汽車貸款概率遠遠高于其他的POS機。那臺POS一個月幾百單交易,它是很小的店。經過調查發現,那個店是一個母嬰店。假設是,可能太太懷孕,然后買車或者換一輛更大的車是剛需,手頭上比較緊張所以就辦汽車貸款。這個規律其實人是可以發現總結的。為什么沒有?因為關注這樣的細節,處理分析這些細節信息都太繁瑣,成本太高。這樣的業務決策對一個企業來說,如果讓人做根本劃不來。雇一個人做這個業務決策,你所付給它的工資要是二十塊錢,這個決策給這個企業賺了五塊錢,是虧本的。但是如果計算機只需要付給計算機一塊錢的電費,能賺五塊錢,這就是值得追求的極限理性決策。
總之,有限理性對自然人決策有影響。但在機器交互環境中,有限理性的概念沒有相關性。機器之間遵循極限理性的規律。
人工智能對有限理性概念的挑戰還體現在學習范式的改變和被解構的隱性知識上。隱性知識是支持動態競爭能力的一個重要支柱。它也受到人工智能的挑戰。下面以第四范式的遷移學習為例,我們解釋受隱性知識支持的競爭優勢未來可能無法維持。
有限理性不僅表現在速度和容量,也還有范疇。屬于個人經驗范疇的、沒有標準化語言呈現的、需要身體力行才能理解的隱性知識就是典型的例子。匈牙利哲學家波蘭尼(Michael Polanyi)曾說“你(專家)能講出來的比知道的少。”講不出的部分就是隱性知識。日本學者野中郁次郎(Ikujiro Nonaka)把它和東方思維結合在一起,總結出知識管理中顯性和隱性知識的問題。
長期以來,組織中的隱性知識構成動態競爭能力的一部分,是競爭優勢的來源。用有限理性概念來解釋,后來的學習者認知能力有限,難以跨越專業知識范疇的樊籬,難以立即獲取專家取得的經驗判斷和洞見。但是,人工智能遵循的遷移學習方法可以超越知識范疇的限制,可以解構隱性知識。更值得注意的是,人工智能的VC維同時包括機器認知的寬度和深度,有著人的認知無法比擬的優越性。這些技術消解了有限理性的前提條件,向未來的管理決策提出新課題。
如圖2所示,目前隱性知識還能夠為人的管理決策帶來競爭優勢。一旦遷移學習技術發展到一個成熟階段,人工智能的優勢已經先行設定在系統中。自然人的決策優勢就越來越小。下面我們解釋它是怎樣在人工智能的影響下消失的。
隱性知識的背后其實是知識呈現和表述形式。人的知識表述受限于個人經驗、標準化語言形式、溝通雙方理解和表達能力的差異、人的學習習慣。但人工智能的“遷移學習”不必依循人腦思維路徑,也就不必受隱性知識因素的約束。遷移學習最關鍵的一個點就是叫做知識表述。比方說數學和物理,為什么數學能幫到物理,是因為我們要能夠建立起數學和物理兩部分知識的公共知識表述,如果建立不起來,這方面是沒辦法遷移的。
遷移學習其實是我們人所具備的很基本的技能。比方說我們如果學過英語的人學西班牙語會容易一些;學過數學的人學物理會容易一些;學國際象棋,后來從國際象棋轉中國象棋的時候就會比那些新入門的中國象棋學得快很多,這就是遷移學習。這個對于人來說是很自然的,過去學過的東西對于未來如果相關的場景我就是可以幫助到。
主流的機器學習技術像神經網絡,過去的神經網絡來說如果是學數學,定義一個神經網絡,就好像生成一個大腦,然后讓它去學數學,等要學物理的時候,機器形成了一個新的大腦讓它去學物理。而人為什么能遷移,是因為人用同一個大腦,既學數學也學物理,在這中間我們會有一些公共的腦細胞,這些腦細胞既在解決數學問題,也在解決物理問題,這就形成了兩個遷移。所以,其實就背后的原理來說,就是一種公共知識的表述。人(專家)有無法全部表達的問題,主要原因是專家自己不全然知道自己知道什么。專家只能把自己會的東西5%~10%描述出來。比方說,一個醫生寫一本醫學的書,可能寫出來的是會的10%,另外的90%是看到具體病人的時候才知道要做哪些事。人工智能略有不同。從0101的信號來說,都是可以呈現的。這領域的難點在于,不是它無法呈現,而是它無法以一種人可以理解的方式去呈現。就好像阿爾法狗贏了李世石。阿爾法狗沒有辦法告訴李世石它為什么下這個棋會贏。不是說不能告訴李世石,而是它無法用人類的語言去描述。

人工智能對有限理性概念的挑戰還體現在學習范式的改變和被解構的隱性知識上。隱性知識是支持動態競爭能力的一個重要支柱。它也受到人工智能的挑戰。
過去機器學習都沒有遷移學習,所有的機器學習都像是從剛出生的嬰兒開始學。它把數學學會了,當它進入到物理的時候,過去學過的所有的東西都忘記了,又重新開始。所以,我們會發現像阿爾法狗需要下一千萬盤以上的棋才能達到一個九段以上的水平,但是人類只需要下幾萬盤棋,因為人類在下棋的時候大量借鑒了自己生活的場景,生活上博弈的場景,其實都幫助我們在思考如何去下盤,但是機器不行,機器就是一個只會下棋的執行者。這是過去的機器學習或者說人工智能的缺陷,遷移學習要解決的是未來能不能讓機器活到老學到老,不斷跨領域終身學習,而不是每次進入到一個新的領域。

遷移學習在公共知識表述上取得突破。人工智能的知識表述不僅可以做到高帶寬的,高速的,大內存,大存儲,而且能夠以人不能理解的編碼方法讓機器交互。這就突破人腦決策的有限理性。我們經常用一個成語叫做面面俱到。它對于人是貶義詞。又如事無巨細,那也是貶義詞。但是在計算機就是褒義詞。反之也然,我們說抓大放小,形容一個人有水平。但是放在計算機就是貶義詞。
如圖3所示,在機器交互和遷移學習的支持下,傳統的有限理性假設可以不斷被突破。人工智能的認知技術能力超過了組織決策對認知條件的要求。只要決策需要明確,涉及到決策的長尾數據可以盡然囊括。因此可以決策優化,而不是滿意即可。
人工智能的另一概念和實踐也直接消融隱性知識對競爭優勢的影響。它就是VC維。VC維理論是由Vapnik和Chervonenkis于1960年代至1990年代建立的統計學習理論,它反映函數集的學習能力。VC維越大則模型或函數越復雜,學習能力就越強。舉個例子,如果人類的智商水平可以用大腦的腦細胞數來衡量,那么機器的智商水平就可以用VC維來衡量,即超高智商的人工智能,需要超高維度的機器學習模型來實現。簡單地講,過去模型很難兼顧深和寬二個維度,數據特征的多元性、多樣性越高,模型擬合度越低,可靠性越低。現在我們的研究突破這個二難悖論,提高機器學習的模型維度。我們比喻VC維是人工智能的IQ,是機器智商。VC對AI很關鍵的。就好像我們判斷一個生物聰明的程度,我們會說腦容量,人為什么比狗聰明,是腦容量比狗大,狗比昆蟲聰明,是腦容量比昆蟲大。換到人工智能情境下,腦容量或智商用一個統計學概念來解釋就叫VC維。這個VC維甚至可以解釋生物的腦容量。未來,我們可以把生物的腦容量和機器的腦容量做一個對比,形成一個統一的度量標準。在第四范式看來,未來,所有的企業都是AI公司。公司A和公司B比誰厲害,用VC維衡量一下就得了。因此,隱性知識來評估動態競爭能力的方法將被VC維替代。
組織決策者并非永遠是自利的機會主義者。這一命題是對交易過程成本理論的證偽和發展。研究非機會主義行為,維博克和他的合作者提出“有限可靠性”的概念,即人們違背諾言的原因可能不是出于機會主義的動機,可能有其它原因。有限可靠性幫助我們認識違約的另一面。它提示交易中的非機會主義的現象。因為過去認知不足或環境條件變化,交易一方沒有自私的欺詐行為,但確實無法按合約履行責任。
接受有限可靠性有潛在的價值和現實的意義。它允許和鼓勵人們在不確定的條件下的合作行為。如果人們看到非機會主義行為的連帶責任是有限的、是可以合適區別劃分的,人們更加愿意以合作的態度盡可能做貢獻。
“有限可靠性”的概念一直沒有被廣泛實際操作,因為追溯決策者非機會主義行為的難度大。但是,人工智能和區塊鏈技術讓它越來越有現實的意義。隨著人工智能的記憶能力、計算能力和算法的提升,在區塊鏈技術的支持下,過去難以追溯的非機會主義活動,現在可以量化解析。有限可靠性正在成為可以量化的實踐。致遠互聯的“致遠狗”(區塊鏈機器人)就是一個實例。
按照交易成本理論,交易中,不可靠的行為可能來自個體的機會主義(opportunistic behavior)。但維博克認為存在另外一種不可靠的行為。它不能用惡意的機會主義(malevolent opportunism)去解釋。在下面的三種情況下,早先的承諾可能無法完全兌現。
1)優先排序改變 (Reprioritization)。組織決策情境出現重大變化。組織必須馬上調整方針政策。過去的承諾無法按計劃兌現。例如,911之后,美國的外交承諾必須優先考慮反恐的目標。又如, 2008年次貸危機發生后,華爾街銀行拒絕兌現過去的資本往來承諾,以求自保。
2)過分的許諾(Over-commitment)。出于良好的主觀意愿,決策者錯誤估計自己的能力、不合適地計算成本和收益,以至于做出超過實際情況的承諾。例如,中國企業家有講義氣的文化,時常對于朋友的交易做出過度的承諾。又如,受文化影響,在一些家庭式的傳統組織中,人們看重的是高度承諾的態度。高度承諾時常淪為過度許諾。
3)身份失調引起的違約(Identity-based discordance)。經濟活動中,決策除了受經濟成本收益影響外,還被深層的政治、文化、心理因素左右。心理身份認同是這些因素的集中表現。當身份認同改變或被干擾后,決策者可能會違背經濟原則,遵守心理身份失調和再平衡的原則。例如,溫州地區長期以來有憑借社區關系信用組織貸款的活動。當一方受到嚴重欺騙后,他們會回歸到在商言商的經濟與法律原則,拒絕兌現過去基于身份文化做出的承諾。

接受有限可靠性有潛在的價值和現實的意義。它允許和鼓勵人們在不確定的條件下的合作行為。如果人們看到非機會主義行為的連帶責任是有限的、是可以合適區別劃分的,人們更加愿意以合作的態度盡可能做貢獻。但是,這個概念難以落地執行,因為追溯非機會主義行為的技術難度很高。
人工智能和區塊鏈技術正減少它的技術障礙。與國家電子政務仿真試驗室合作,北京致遠互聯設計的“區塊鏈機器人”(又被稱為“致遠狗”)就是一個運用實例。他們的設計有下面的特征:1)區塊鏈機器人借用“萬物帳本”追溯各種機器設備儀表數據。同樣的邏輯和應用軟件也可以追溯各個決策者的合作行為。2)區塊鏈機器人建立在數據港和服務云的基礎上,把服務和數據分離開。3)它實施端到端的連接,無需人的參與,直接按照設定的算法實施機器人交互。4)對決策者的行為互動結果,區塊鏈機器人可以識別責任等級、范圍和性質。它為有限可靠性提高軟件和硬件的支持。
以企業在環境保護中的決策行為為例(見圖4),企業端口的信息直接傳到區塊鏈機器人,政府對企業環保的要求可以量化到企業的生產和排放系統中。機器人自動監控企業環保表現。只要企業按照事前設定的合規行為去做,企業的責任就可以追溯。有了上面的設計,即使出現下面的情況,企業的環保責任也是可以厘清的:1)因為緊急或特殊情況變化,無法完全合規。2)因為環境中其它因素變化,如政策改變、其它企業造成污染等。3)涉及到探索性的企業活動而造成的污染,事先沒有這類探索性活動排污的信息。通過區塊鏈機器人,政府監管部門可以有效地識別哪些承諾已經兌現,哪些超過企業本身的能力,哪些是非機會主義行為造成的(例如探索創新項目)。企業也因此厘清自己對早先決策的有限責任。

針對決策者對外部環境變化認識特征,馬奇(James March)曾經提出有限理性下的二種決策形態:探索(Exploration)和利用(Exploitation)。前者傾向于探索新市場、新產品、新方法和新流程。后者傾向于利用現有的市場、產品和方法收獲效率回報。我們的研究說明,人工智能影響下的管理決策可以有四種形態(見圖5),它們豐富了馬奇的二分法。
在有限理性和無限責任的情形中,規避風險和利用現有優勢收割效率回報將主導管理者的決策。以攜程“親子園”發生虐童案后的管理決策為例,因為沒有有限可靠性的概念。管理者難以向社會說明自己的責任邊界。為規避風險,決策者選擇關閉“親子園”,而非改善它。沒有人工智能支持,這種自保的決策形態較為普遍。
在有限可靠性已經建立,但仍然受制約于有限理性的情形下,步步為營的“探索”風格可能為主導性的決策形態。保險公司的決策和策略就是經典。在調查大項目保險產品時,我們發現大項目(如南水北調工程和衛星發射)具有小概率事件的特征。保險公司對它理解有限,因為對小概率事件的認知能力有限。但保險公司會采取風險分類、風險排序、風險認定等專業方法劃定有限責任邊界。在保險市場,有限可靠性的概念與實踐已經成為通例。它比較容易被容納到交易雙方的策略決策中。但是,在其它管理領域,有限可靠性還是一個新概念,還需要普及推廣。
第三種是極限理性和無限可靠性下的決策形態:冒險先行。領先的獨角獸企業常有這樣的決策風格。我們的研究發現,一方面,交易一方已經獲得人工智能支持下的分析規劃能力,另一方面,有限可靠性的概念還沒有被容納到交易雙方的共同理解中。這時,掌握極限分析規劃能力的一方會積極開發新產品、新市場、新流程。而這種開發可能對另一方帶來不公平的侵占,也因此讓這樣的商業模式充滿高風險。但在風險沒有爆發之前,有能力的一方仍然執意冒險先行,因為他們只有利用先知先覺的機會窗口才能享有競爭優勢。冒險先行決策形態的典型案例就是臉書(Facebook)和劍橋分析(Cambridge Analytic)合作,向政治選舉提供大數據分析服務。結果,使用者被嚴重侵權,政府監管干預,劍橋分析宣布破產,大數據分析市場的游戲規則徹底改變。
在有限可靠性和極限理性情形下,管理決策形態更加可能是漸確定性的實踐。以第四范式為銀行業開發的決策系統為例,在確立業務主題后,它可以無限擴大對決策質量的追求,在實踐中逐漸完善。以致遠區塊鏈機器人為例,它能追溯合約參與者的歷史承諾、貢獻、活動和表現。因此,參與者擺脫了無限責任的壓力,能夠全力投入協同活動。在這樣的情形下,管理者對決策不確定性的態度和策略也發生變化。他們認識到不確定性的存在,也認為不斷提高確定性是值得追求的目標。沒有人工智能和區塊鏈技術,不確定性是難以突破的魔障。有了它們,管理決策將主要是漸確定性的實踐。
目前這個階段,上述的四種管理決策形態同時存在。未來,隨著人工智能技術的發展和有限可靠性概念的普及,漸確定性實踐將是管理決策的主旋律。
人工智能已經并且必將帶來更多的管理決策新問題。它已經改變了有限理性這個決策前提,并讓有限可靠性落實到執行層面。在極限理性和有限可靠性這二個新前提下,管理決策形態也從過去的二種傾向發展豐富為四種傾向。需要強調和重視的是人工智能隱含的極端不確定性的難題。它將隨影隨行,挑戰新一代管理決策者。
極端不確定性(Radical uncertainty),即我們常說的“無知的未知”(unknown unknowns)可能帶來滅絕危機。極端不確定性經典案例之一便是6千萬年前天外隕石造成地球物種大滅絕。對人工智能隱藏的極端不確定危險,牛津大學的博斯特倫(Nick Bostrom)假設四種發展前景:AI為工具(Tool),AI為專業領域的專家系統(Oracle),AI為超人的任務執行者(Genie),AI為具備超級智慧的獨立主體(Sovereign)。后二種情形,無論是超級執行者或超級智慧主體,都可能給人類帶來極端不確定性的危險。當我們看到極端不確定可能帶來滅絕危機時,一切將無法改變。如博斯特倫所言,較好的選擇是平行思考超級智慧出現的可能性和對它的控制。
博斯特倫的研究表明,超級智慧誕生也許是一個百年的歷程。可是,一旦越過意愿的門檻,即人工智能有了自我意識,它就會以人類意想不到的速度和方式獲得決定性的戰略優勢(Strategic decisive advantages)。到那時,人可能被機器奴役,可能被超級智慧改寫意識和潛意識,可能成為雜交的新認知物種,也可能世界大同、合作共存。幾種情境中,人性被改造的可能性最高。
事實上,即便在目前的弱人工智能階段,它已經有了不可控的因子。深度學習中有“監控的學習”(Supervised learning)和“無監控的學習”(Unsupervised learning)。后者依靠人工智能的內部自我組織優化舊知識、制造新知識。所謂“人的最后一次創新”就是指創造出從此可以自我組織新知識的人工智能。在這一奇點之后,“控制”是一個過期的詞。如何與超級自由因子(Super agent)合作共存便成為人類不得不做的選擇。
2016年,地質氣候學家認為,我們邁入“人類紀元”(Anthropocene),即人類的活動已經改變了地球基本自然條件,一切自然都是社會化的自然。試想一下,百年之后,超級智慧宣布進入無機智能紀元(AI Epoch),即有機生命皆已改造完畢,一切智慧由無機領先。這樣的巨變人類可否承受?