鮑里斯·巴比克 丹尼爾·陳 賽奧佐羅斯·伊維紐 安妮-勞倫·法雅德

2018年勞動力研究院(Workforce Institute)針對8個工業國家的300多名管理者進行了一項調研,參與者中大多數認為人工智能是有價值的生產力工具。
這點不難理解:AI在處理速度、準確性和持續性(機器不會因疲倦犯錯)方面帶來了顯而易見的好處,很多職業人士都在使用AI。比如一些醫務人員利用AI輔助診斷,給出治療方案。
但參與者也表示擔心自己會被AI取代。擔心這件事的還不只是參與這項研究的管理者。《衛報》最近報道稱,英國600多萬員工擔心自己被機器取代。我們在各種會議和研討會上遇到的學者和高管也有同樣的擔心。AI的優勢在一些人眼中更具負面色彩:如果機器能更好地完成工作,還要人類干嗎?
這種恐懼感的蔓延表明,公司在為員工提供AI輔助工具時需要注意方式。2020年1月離職的埃森哲前首席信息官安德魯·威爾遜(Andrew Wilson)表示,“企業如果更多地關注AI和人類如何互相幫助,可以實現的價值會更大。”埃森哲發現,如果企業明確表示使用AI的目的是輔助而非取代員工,情況會比那些沒有設立這一目標或對使用AI的目的語焉不詳的公司好得多,這種差別體現在多個管理生產率維度,特別是速度、延展性和決策有效性。
換言之,AI就像加入團隊的新人才,企業必須使之發揮積極作用,而不是有意令其失敗。明智的企業會先給新員工一些簡單的任務,創造包容的環境,幫助他們積累實戰經驗,并安排導師為其提供幫助和建議。這樣一來,新人可以在其他人負責更高價值的工作的時候學習。新人不斷累積經驗,證明自身工作能力,導師逐步在更關鍵的決策上信任他們的意見。學徒逐漸成為合作伙伴,為企業貢獻技能和想法。
我們認為這一方式也適用于人工智能。下文我們將結合自身及其他學者針對AI和信息系統應用的研究和咨詢工作,以及公司創新及工作實踐方面的研究,提出應用AI的一種方式,分四個階段。通過這種方式,企業可以逐步培養員工對AI的信任(這也是接納AI的關鍵條件),致力于構建人類和AI同時不斷進步的分布式人類AI認知系統。很多企業都已嘗試過第一階段,部分企業進行到了第二、三階段;迄今為止第四階段對多數企業來說還是“未來式”,尚處在早期階段,但從技術角度來說可以實現,能夠為利用人工智能的企業提供更多價值。
普及人工智能的第一階段和培訓助手的方式十分相似。你教給新員工一些關于AI的基本規則,將自己手頭上一些基礎但耗時的工作(如填寫網絡表格或者匯總文檔)分配給他,這樣你就有時間處理更重要的工作內容。受訓者通過觀察你不斷學習,完成工作,提出問題。
AI助手的常見任務之一是整理數據。20世紀90年代中期,一些提供推薦系統的企業幫助用戶過濾數千種產品,找到他們最需要的——亞馬遜和奈飛在應用這項技術方面處于領先地位。
現在越來越多的商業決定要用到這種數據分類。例如,資產組合經理在決定投資哪些股票時,要處理的信息量超出了人類的能力,而且還有源源不斷的新信息。軟件可以根據預先定義的投資標準迅速篩選股票,降低任務難度。自然語言處理技術可以搜集和某公司最相關的新聞,并通過分析師報告評估未來企業活動的輿論情緒。位于倫敦、成立于2002年的馬布爾資產管理公司(MBAM)較早將這項技術應用到職場。公司打造了世界一流的RAID(研究分析&信息數據庫)平臺幫助資產組合經理過濾關于企業活動、新聞走勢和股票動向的海量信息。
AI還可以通過模擬人類行為提供輔助。用過谷歌搜索的人都知道,在搜索框輸入一個詞,會自動出現提示信息。智能手機的預測性文本也通過類似方式加快打字速度。這種用戶模擬技術出現在30多年前,有時叫做判斷引導,也可以應用在決策過程中。AI根據員工的決策歷史,判定員工在面對多個選擇時最有可能做出的選擇,并提出建議——幫助人類加快工作速度,而非代替人類完成工作。
我們來看一個具體的例子。航空公司員工在決定每架飛機的配餐數量時,會根據過往航班經驗得出的假設進行計算,填寫餐飲訂單。計算錯誤會增加公司成本:預訂量不足可能激怒消費者不再選擇這家公司;超額預訂則代表多余的餐食將會被扔掉,而且飛機會因此儲備不必要的燃油。
這種情況下,人工智能可以派上用場。AI可以通過分析航空公司餐飲經理過往的選擇,或者經理設置的規則,預測他會如何下單。通過分析相關歷史數據,包括該航線餐飲消耗量及航班乘客的歷史購物行為,每趟航線都可以定制這種“自動填寫”的“推薦訂單”。但是,就像預測性輸入一樣,人類擁有最后的決定權,可以根據需要隨時覆蓋。AI僅僅通過模擬或預測他們的決策風格起到輔助作用。
如果管理者通過這種方式逐步引入AI,應該不會太困難。我們已經在生活中采用這種方式,網上填寫表格的時候允許AI自動補全信息。在職場,管理者可以制定AI助手在填表格時遵守的具體規則。很多企業在工作中使用的軟件(例如信用評級程序)正是人類定義的決策規則匯總。AI助手可以通過匯總管理者遵守這些規則的情境,進一步提煉規則。此類機器學習無需管理者采取任何行為,更不用“教導”AI助手。
下一步需要設定AI程序,為人類提供實時反饋。機器學習程序使得人類可以訓練AI,準確預測某種情境下(例如由于過度自信或疲勞導致的缺乏理性)用戶的決策。假如用戶即將做出的選擇有悖于過去的選擇記錄,系統會標記出矛盾之處。在決策量很大的工作中,人類員工可能因為勞累或分心出錯,這種方式可以起到很大的助益。
心理學、行為經濟學和認知科學的研究表明,人類的推理能力有限,而且有缺陷,特別是在商業活動中無處不在的統計學和概率性問題上。一些針對法庭審判決定的研究(本文作者之一陳參與了研究)表明,法官在午餐前更容易通過申請政治避難的案件;如果法官支持的美國職業橄欖球聯盟球隊在開庭前一天獲勝,他們在開庭當天的判罰會更輕;如果被告當天生日,法官會對其手下留情。很明顯,如果軟件可以告訴決策者他們即將做出的決定與之前有所矛盾,或者不符合純粹從司法角度分析的預測結果,也許更能體現公平公正。
AI可以做到這點。另外一項研究(陳參與其中)表明,加載了由基本法律變量組成的模型的AI程序,在申請避難的案件開庭當天,可以對結果做出準確率達80%的預測。作者為程序加入了機器學習功能,AI可以根據法官過去的決定模擬每位法官的決策過程。
這一方法也適用于其他情境。例如,馬布爾資產管理公司的資產組合經理(PM)在做出可能提升整體資產組合風險的投資決定時,例如提高對某特定領域或某地區的曝光,系統會在電腦控制的交易流中彈出對話框提醒他們,可以適當調整。PM也許會對這樣的反饋視而不見,但起碼知道了公司的風險限制,這種反饋仍然有助于PM的決策。
AI當然并不總是“正確的”。AI的建議往往不會考慮到人類決策者才掌握的可靠的私人信息,因此也許并不會糾正潛在的行為偏差,而是起到反作用。所以對AI的使用應該是互動式的,算法根據數據提醒人類,而人類教會AI為什么自己忽略了某個提醒。這樣做提高了AI的效用,也保留了人類決策者的自主權。
可惜很多AI系統的應用方式侵占了人類的自主權。例如,算法一旦將某銀行交易標記為潛在詐騙,職員必須請主管甚至外部審計員確認后,才能批準這一交易。有時,人類幾乎不可能撤銷機器做出的決定,客戶和客服人員一直對此感到挫敗。很多情況下AI的決策邏輯很模糊,即便犯錯員工也沒有資格表示質疑。
機器搜集人類決策數據時,還有一大問題是隱私權。除了在人類和AI的互動中給予人類控制權,我們還要確保機器搜集的數據都是保密的。工程師團隊和管理團隊間應該互不干涉,否則員工也許會擔心自己和系統不設防的交互如果犯了錯,之后會受到懲罰。
此外,企業應該在AI設計和互動方面制定規則,確保公司規范和實踐的一致性。這類規則要詳細描述在預測準確性達到何種程度的情況下需要做出提醒,何時需要給出提醒原因,確定提醒的標準,以及員工在何時應當聽從AI指令、何時該請主管決定如何處理。
為了讓員工在第二階段保有控制感,我們建議管理者和系統設計人員在設計時請員工參與:請他們作為專家,定義將要使用的數據,并決定基本的事實;讓員工在研發過程中熟悉模型;應用模型后為員工提供培訓和互動機會。這一過程中,員工會了解建模過程、數據管理方式和機器推薦的依據。
普華永道最近一項調研表明,參與者中60%稱希望獲得每日或每周一次的工作表現反饋。原因并不復雜。彼得·德魯克(Peter Drucker)2005年在著名的文章《管理自己》(“Managing Oneself”)中指出,人們一般都不知道自己擅長什么。當他們覺得自己知道時,往往是錯誤的。
問題在于,發現自身優勢、獲得改進機會的唯一方式是通過關鍵決策和行為的縝密分析。而這需要記錄自己對結果的預期,9到12個月后再將現實和預期進行比較。因此,員工獲得的反饋往往來自上級主管在工作總結時的評價,無法自己選擇時間和形式。這個事實很可惜,因為紐約大學的特莎·韋斯特(Tessa West)在近期神經科學方面的研究中發現,如果員工感到自主權受保護,可以自行掌控對話(例如能選擇收到反饋的時間),就能更好地對反饋做出反應。
AI可以解決這一問題。前文描述的程序可以給員工提供反饋,讓他們自查績效,反省自己的錯誤。每月一次根據員工歷史表現提取的分析數據,也許可以幫助他們更好地理解決策模式和實踐。幾家金融公司正在采用這一措施。例如MBAM的資產組合經理接受來自數據分析系統的反饋,該系統會統計每個人的投資決定。
數據展現了資產組合經理有趣且多變的偏見。一些經理更厭惡損失,對表現不佳的投資遲遲不肯止損。另一些則過度自信,可能對某項投資持倉過重。AI分析會發現這些行為,像教練一樣為其提供定制化反饋,標記行為隨時間的變化,給出改進決策建議。但最終由PM決定如何處理這些反饋。MBAM的領導團隊認為,這種“交易優化”正逐漸成為公司核心的差異化因素,幫助資產組合經理的發展,也讓公司變得更有吸引力。
更重要的是,好導師可以從被指導者身上學到東西,機器學習的“教練程序”也可以從有自主權的人類員工的決策中學習。上述關系中,人類可以反對“教練程序”,由此產生的新數據會改變AI的隱含模型。例如,如果由于近期公司事件,資產組合經理決定不對某個標記股票進行交易,他可以給系統做出解釋。有了這種反饋,系統可以持續搜集分析數據并得出洞見。
如果員工能理解并控制和AI的互動,就更能將其視為獲得反饋的安全渠道,目標是幫助人類提升績效而不是評估績效。想要實現這點,要選擇正確的界面。例如MBAM的交易提升工具(如視覺界面)是根據PM的偏好定制的。
第二階段中,讓員工參與設計系統很關鍵。AI做教練時,人們會更害怕權力被奪走。有人將AI視為合作伙伴就有人將其視為競爭對手——誰愿意被機器比下去呢?自主權和隱私的擔憂也許會更強烈。和教練共事需要誠實,但人們也許并不愿意對一個之后會把自己表現不佳的數據分享給HR的“教練”敞開心扉。
前三階段部署AI的方式當然有不足之處。長遠來看,新技術創造出的工作比毀掉的多,但就業市場的顛覆過程可能會很痛苦。馬特·比恩(Matt Beane)在《人機共生:組織新生態》一文中稱,部署AI的企業給員工親身實踐以及導師指導的機會更少。
因此,風險的確存在,人類不僅失去了初級職位(由于數字助手可以有效取代人類),還可能犧牲未來決策者自主決策的能力。但這并非不可避免,比恩在文章中指出,企業可以在利用人工智能為員工創造不同和更好的學習機會的同時提升系統透明度,并給員工更多控制權。未來的職場新人都將成長于人力加機器的工作環境,肯定比“前AI時代”的同事更能快速發現創新、增加價值和創造工作的機會。這把我們帶到了最后一個階段。
認知人類學家埃德溫·赫欽斯(Edwin Hutchins)研發出分布式認知理論。該理論基于他對艦船導航的研究,結合了水手、路線圖、標尺、指南針和繪圖工具。該理論總體上和意識延伸的概念相關,假定認知過程、信仰和動機等頭腦活動并不一定僅限于大腦甚至身體。外部工具和儀器在正確的條件下,可以對認知過程起到重要作用,創造出所謂的耦合系統。
和這一思路一致,AI應用的最后一個階段(就我們所知尚未有企業達到這個水平),企業應該打造一個人類和機器同時貢獻專長的耦合網絡。我們認為,隨著AI和人類用戶不斷交互,搜集專家歷史決策及行為數據,分析并建模,不斷完善,在完全整合了AI教練程序的企業中自然會出現一個專家社群。舉例來說,采購經理在決策時只需輕輕一點,就能看到其他人可能的報價——定制化的專家團體可能會對采購經理有所幫助。
盡管技術已經能夠實現這樣的集體智慧,但這一階段仍然充滿挑戰。例如,任何此類AI整合都要避免建立在偏見(舊的或者新的)基礎上,必須尊重人類隱私,人類才能像信任同類一樣信任AI,這本身已經充滿挑戰,因為無數研究證明人類信任彼此都很難。
在職場建立信任的最佳方式是增進理解。卡內基梅隆大學戴維·丹克斯(David Danks)和同事就這一主題進行了研究,根據其模型,一個人信任某人的原因是理解對方的價值觀、欲望和目的,對方也表明始終關心我的利益。理解一直是人類彼此信任的基礎,也很適合人類和AI發展關系,因為人類對人工智能的恐懼通常也是由于對AI運作方式的不理解。
建立信任時,一個很困難的問題是如何定義“解釋”,更不用說“好的解釋”。很多研究都在關注這個難題。例如,本文作者之一伊維紐正嘗試通過所謂“反事實解釋”的方式揭示機器學習的“黑匣子”。“反事實解釋”通過找出決定決策方向的交易特征列表,闡明AI系統做出某個決定(例如批準某個交易)的原因。如果交易不符合某項特征(或者和事實相反),系統就會做出不同決定(拒絕交易)。
伊維紐還希望了解人們覺得什么樣的解釋是對AI決策的優秀解釋。例如,人們是會覺得按邏輯列出特征(“因為具備X、Y、Z三個特征,所以這一交易獲批”)更好,還是說明該決定和其他決定的相關性(這一交易獲批是因為和其他獲批交易相似,你可以比較一下)更好。隨著針對AI解釋的研究繼續深入,AI系統會變得更透明,有助于贏得更多信任。
新技術應用一直是重大挑戰。一項技術的影響力越大,挑戰就越大。人工智能技術的潛在影響讓人們感到很難將其付諸實踐。但如果我們謹慎行事,這一過程可以相對順利。這也是為什么企業必須有責任地設計和發展AI,特別注意透明度、決策自主權和隱私,而且要讓使用AI技術的人參與進來,否則,不清楚機器做決策的方式,人們害怕被機器限制甚至取代也是理所當然的。關鍵在于克服恐懼,建立信任,通過負責任的設計,AI可以成為人類工作中真正的合作伙伴。
本文作者鮑里斯·巴比克是歐洲工商管理學院決策科學助理教授。丹尼爾·陳是圖盧茲經濟學院高級研究所教授。賽奧佐羅斯·伊維紐是歐洲工商管理學院決策科學和技術管理教授,馬布爾資產管理公司顧問。安妮-勞倫·法雅德是紐約大學坦登工程學院創新、設計和企業研究副教授。