顛覆式的創新有可能帶來顛覆性的結果,而低估人性的復雜性同樣有可能被人性反噬。這次OpenAI的鬧劇讓人們看到了那些號稱由人類最強大腦構思出來的治理規則存在基本的漏洞
2024年3月8日,OpenAI官方宣布其創始人山姆·奧特曼正式官復原職,繼續為這家全球領先的人工智能公司掌舵。這次事件雖已平息,但其漣漪將持久蕩漾。人類文明進入新的紀元,先進如人工智能這般的科技正在顛覆世界。而先進科技的發明者和擁有者,那些高科技創業獨角獸的創始人群體,在不斷嘗試新的方法來駕馭他們的科技巨獸。這個群體大多是技術專家,試圖把真實的世界逆向推入元宇宙化,試圖把商業環境以技術的方式結構化、模型化,并以他們顛覆技術的方式來顛覆公司治理。然而,他們可能低估了人性的復雜性。
治理災難的發生
2023年11月,世人看到了足以寫入商業史冊的OpenAI“五日政變”。創始人山姆·奧特曼在沒有被提前通知的情況下被董事會罷免。然而,僅僅5日劇情就迎來反轉。兩位創始人和數百位員工聲稱將加入微軟并創造一個新的OpenAI,并以此威脅董事會,最終成功逼迫董事會妥協。奧特曼重新控制了局面,而那些參與“政變”的董事會成員則被清掃出局。
在OpenAI投資占比49%的微軟,對奧特曼表達了堅定的支持。雖然微軟既不能參與董事會投票,也不能重組董事會,但配合奧特曼導演了一出釜底抽薪的大戲,成功實現了對董事會的“逼宮”。如果奧特曼和數百名OpenAI員工真的加入微軟,憑借微軟的資源,他們完全可以重造一個OpenAI。可以這么說,微軟差點“不花一分錢”就得到了OpenAI。
即便沒有真的得到奧特曼的加盟,微軟卻得以染指夢寐以求的OpenAI董事會席位。據美國科技媒體TheVerge報道,OpenAI計劃重組董事會并擴充至9人,而微軟非常有可能獲得席位。微軟成了最大的贏家。
顛覆式的治理目標和結構
創始人被董事會罷免的案例時有發生,比如優步創始人卡蘭尼斯的出局,以及廣為人知的喬布斯“二進宮”。在中國,國美、新浪、雷士照明等公司也都出現過治理爭斗。這些爭斗大多源于企業治理結構的不完善。OpenAI政變的根源也在于其治理規則的BUG(漏洞)。
和常規企業不同的是,OpenAI的治理目標并不是讓股東利益最大化,而是“造福全人類”。這越來越成為很多高科技企業(尤其是擁有顛覆式科技的企業)的使命和價值觀。所以,OpenAI遭遇的問題,值得所有類似企業學習和借鑒。
鑒于其“造福全人類”的目標,OpenAI對資本的逐利性和控制欲非常警惕,由此衍生出的治理結構比它的技術還要燒腦。根據哈佛商業周刊的描述,這個組織架構非常“離奇”。首先,它是一個非營利組織,但是控制了一個以營利為目的的公司;其次,員工們擁有營利公司的股權,但是CEO和董事會成員卻沒有;再次,投資人有分紅權,卻沒有投票權。在我看來,這既是一個不同法人主體的“套娃”,也是一個幻想平等與制衡的“烏托邦”。OpenAI寄希望于這樣一個“顛覆式的治理結構”可以幫助它抵御資本的侵蝕,但最終這份期許還是錯付了。
誠然,這樣的架構有其存在的合理之處。人工智能最好以非營利的形式運營,否則將會因為商業化而變質。然而,高科技的開發需要大量資金,注定了要融資燒錢,而非營利組織無法大規模融資,所以必須還要成立一個營利的組織來實現融資功能。所以,非營利的董事會,控制著營利的運營團隊,看上去解決了所有的問題。
諷刺的是,奧特曼親手設計并引以為傲的規則,最終差一點擊敗他自己。而拯救他的,恰恰是被他視為洪水猛獸的逐利性資本。造化弄人,“野蠻人”已經登堂入室。
不同的配方,同樣的風險
Anthropic是OpenAI最大的競爭對手,由一群OpenAI前員工于2021年成立。基于同樣的對資本逐利性的顧慮,Anthropic采用了一個不同于OpenAI,但是同樣燒腦的治理結構。
Anthropic雖然注冊了一個營利性公司(而非OpenAI那樣的非營利組織),但公司的類型是公眾利益公司(PublicBenefitCorporation,PBC),目標是“為了全人類的長遠目標而負責任地開發和維護人工智能技術”,并由一個長期信托輔助治理。信托持有人持有一種叫作T類普通股的股權(ClassTCommonStock),主要由一群技術精英組成,他們選舉出公司的董事會成員。
而信托自身也有其獨特的內部架構。信托的性質是一種普通法信托,接受特拉華州法律管理。但是,不像其他普通法信托的存在是為了一群受托人服務,Anthropic的信托是為了服務Anthropic的目標,即“為了全人類的長遠目標而負責任地開發和維護人工智能技術”。為了保持信托持有人的獨立性,他們的任期為一年。
不得不說,Anthropic的治理模式同樣是顛覆式的。作為一個全新的治理方式,Anthropic創始人團隊也承認這是一種“社會試驗”。他們甚至還邀請了耶魯大學法學院的教授為其提供一定的咨詢意見。即便有專家坐鎮,但這種模式還是非常讓人憂慮的,其憂慮之處在于不確定性,即不知道大廈在什么位置會產生裂紋。隱藏的風險才是最大的風險。
植入社會目標需漸進
促使OpenAI和Anthropic采用顛覆式治理結構的初衷是平衡社會責任和商業利益。其實,將社會責任融入商業利益的治理模式完全可以采用緩和的方式。比如,強調環境、社會、治理的ESG理念,就主張漸進式的公司治理改革,穩步推進社會責任在企業頂層設計中的融入和深入,從而實現企業和社會的雙重基業長青。
具體來說,ESG的流派按目標群體可以分為兩個。一個主張單一重要性原則,即還是以股東利益為目標,但是其他利益相關方的利益也需要得到滿足,這樣才能更好地實現股東利益最大化。另一派則主張雙重重要性原則,即股東和利益相關方的利益均為最終目標。利益相關方的利益本身就是最終訴求,而不是建立在股東利益最大化之上的二次訴求。
無論哪一種流派,其底層邏輯中都植入了股東利益之外的更廣的自然和社會責任,只是深度有別。這就已經極大地延伸了傳統的公司治理范疇。
另外,兩種流派都選擇了類似的治理組織模式。哈佛法學院2021年發布的一篇論文指出,企業在ESG治理的組織設計方面一般采取以下四種模式:
1.ESG由整個董事會領導。即不設立任何委員會,以全體董事會的形式來監管ESG相關課題。這種方式非常適合小型企業或規模較小的董事會。然而,這種方式的主要問題在于董事會可能沒有足夠的時間和精力來處理ESG課題,畢竟董事會需要處理的課題很多,這樣可能會稀釋其對于ESG的注意力。
2.ESG由單一現有委員會領導。有的董事會在現有委員會層面更加聚焦ESG課題(比如精力更充分、ESG技能更充足),所以現有委員會更適合領導ESG課題,比如戰略委員會或風險委員會。這種方式更容易讓ESG從戰略向內部落地。有些公司甚至修改了已有委員會的名稱以反映ESG的重要性。比如,美國航空公司就曾經將CorporateGovernanceandNominatingCommittee(公司治理與提名委員會)更名為CorporateGovernanceandPublicResponsibilityCommittee(公司治理和公共責任委員會),并在其職能中加入“監督ESG相關工作”。
3.ESG由多個現有委員會領導。由于ESG職能和多個現有委員會的職能相關,比如ESG戰略與戰略委員會相關,ESG風險與審計委員會或風險委員會相關,ESG績效評估與薪酬委員會相關,將ESG課題拆分并由多個現有委員會分頭領導也比較常見。這些委員會定期將各自的ESG工作進度向董事會匯報。然而,這種方式由于沒有絕對領導機構,有可能造成ESG工作統籌不利和跨委員會不配合等問題。
4.ESG由新建委員會領導。重新成立ESG專業委員會是很多企業的操作方式,用以表現對ESG的重視。這種方式整合了ESG的各項職能,讓企業更能夠整體通盤考慮ESG課題,而不至于陷入多頭領導的困境。然而,這樣的風險在于ESG專業委員會可能缺乏其他現有委員會的支持。ESG專業委員會必須主動積極地邀請其他委員會加入溝通和決策,并及時將ESG決議和進展通報其他董事會成員。
以上四種模式并不像OpenAI的治理架構那樣具有顛覆性,但可以確保公司治理組織和模式的穩步迭代,將治理風險控制在一定范圍內。有了穩固的頂層設計的支持,才有社會責任等新目標在組織內部的導入、宣貫、拉通、固化,從而實現從頂層理念向組織整體理念的轉變。這種方式,也許可以給如同OpenAI這樣的高科技初創企業以借鑒。
試探治理邊界的是人工智能,還是人自身?
“技術很簡單,人是最難的。”說這句話的是技術大佬、紅杉資本合伙人比爾·庫格倫(BillCoughlan)。現在山姆·奧特曼已經有了切身體會。OpenAI在創新治理方面的探索雖然遭遇挫折,卻為其他創業企業提供了一個不可多得的鑒戒。哈佛商業周刊的一篇文章《人工智能正在試探治理的邊界》中提到,OpenAI的案例至少教會我們以下幾點:
第一,傳統的公司治理模式無法適用于高科技治理。傳統治理的目標是股東利益最大化,而這對于面向全人類福祉的高科技創業已經過時。新的治理模式必須可以匹配新的目標。從這個角度來看,OpenAI的試錯是非常有意義的。
第二,獨立的董事會不一定以社會福祉為目標。OpenAI和Anthropic都在治理獨立性上做足了文章,但是光強調董事會的獨立性還不夠。以社會福祉為目標需要更多機制的補充。否則,這個命題并沒有閉環。
第三,新治理結構的設計和運營必須引入不同的群體,必須兼容技術考慮和商業考慮。這次開除奧特曼的決定,董事會也許有其認為非常正當的理由,甚至是為了社會福祉不得不做的理由。但是,沒有提前通知、沒有給投資人預警、沒有向公眾解釋,這種做法很明顯忽視了商業環境的影響。如果更多考慮這些因素,也許這次“政變”可以成功。
顛覆式的創新有可能帶來顛覆性的結果,而低估人性的復雜性同樣有可能被人性所反噬。
董事會和治理的復雜程度不亞于任何高科技體系。坐在董事會圓桌邊的成員們,他們中的每個人都是一個大模型,也是一個思考的黑盒子。無數的信息變量輸入他們的大腦,在大腦中引起神經遞質和激素的反應,最終產出他們的決策,而這一切都是從外部不可知的。每一次董事會決策都像5~9個人工智能的深度交互,而最終交互的結果有可能對外界造成相當大的影響,包括了股東和其他利益相關者。
所以,為了確保組織服務于它的目標,光強調公司治理的規則性是不夠的,還要充分融入對人的關注。這次OpenAI的鬧劇讓人們看到了那些號稱由人類最強大腦構思出來的治理規則存在基本的漏洞。那么,其他規則是否也存在漏洞?人工智能安全規則體系是不是同樣不堪一擊?機器人三定律還有效嗎?要知道,這些規則可經不起試錯,一次錯誤足以給人類帶來災難性后果。人類需要集中智慧去設計一個人工智能的牢籠,以應對即將到來的系統性風險。如果設計不成熟,寧可放緩技術的開發。一臺乖巧而可控的機器,總比聰明而難掌控的機器要更適合我們。
OpenAI治理模式1.0已死,2.0路在何方?
作者系美國管理會計師協會全球董事