李·溫塞爾
科技泡沫可能會給商業領袖帶來困擾:他們可能感到,必須盡早投資某項新技術,才能搶占競爭先機,但又不想一頭栽進虛假炒作的陷阱。隨著我們進入一個經濟不確定性變大、各行各業紛紛裁員的時代,對于哪些成本應該削減、哪些投資應當增加,高管們正在苦苦尋覓解答。
迅猛發展的人工智能(AI)和機器學習領域,對企業決策者提出了特殊挑戰。越來越多人認為穩妥可靠的做法是投資那些經過驗證的預測模型,這預計將推動人工智能方面的支出從2021年的330億美元增至2025年的640億美元。然而,在潮頭浪尖之處,生成式AI(Generative AI)正在激起大量虛假信息和投機行為。
生成式AI意指各種機器學習模型(例如,ChatGPT聊天機器人、必應智能AI、DALLE圖像生成器,以及Midjourney繪畫工具),這類模型在海量文本圖像數據庫上進行訓練,從而根據提示語生成新文本和新圖像。類似“不可或缺的10條ChatGPT秘技”和“你的ChatGPT用錯了!如何領先99%ChatGPT用戶”這樣的大標題開始大行其道。與此同時,美國數字新聞網站Axios報道稱,資金正在大量涌入生成式AI領域,從2022年的6.13億美元增長至2023年的23億美元,而資金的涌入只會助長瘋狂炒作。
企業領導者如果既不愿錯失大好機會,又不想在名不副實的技術上浪費時間和金錢,那就最好把有關科技泡沫的一些基本事實記在心上。首先,正如商學院教授布倫特·戈德法布(Brent Goldfarb)和戴維·基爾希(David Kirsch)在2019年出版的《泡沫與崩潰:技術創新的繁榮與蕭條》(Bubbles and Crashes: The Boom and Bust of Technological Innovation)一書中所述,人們講述的各種關于新技術會如何發展并影響社會經濟的故事,正在為這種炒作推波助瀾。不幸的是,圍繞新技術的早期故事幾乎總是謬誤百出。事實上,高估新系統的前景和潛力,正是泡沫問題的核心所在。
就準確預測技術發展的未來而言,商業預言家和分析師們的過往表現非常糟糕,因為沒有人能預見到,隨著時間推移,人類會怎樣別出心裁地選擇和應用各種工具,抑或如何花樣百出地使用新工具利用和支配他人。或者說,正如未來主義者羅伊·阿瑪拉(Roy Amara)在后來廣為人知的“阿瑪拉定律”中所說的那樣,“我們往往會高估一項技術的短期收益,而低估其長期影響”。
吹大各種科技泡沫的夸大故事,也已經出現在生成式AI領域。一些發燒友聲稱,ChatGPT距離通用人工智能只有幾步之遙,有望成為認知能力堪比甚至超越人類的獨立實體。作為ChatGPT開發者OpenAI公司的首席執行官,薩姆·奧爾特曼(Sam Altman)在這個領域投入甚多,他聲稱人工智能“會讓農業革命、工業革命和互聯網革命加在一起都黯然失色”。未來生命研究所(Future of Life Institute)也認為大語言模型影響深遠,但其看法更加灰暗。該組織發表了一封公開信,呼吁暫停訓練比GPT-4(ChatGPT-Plus背后的大語言模型)更強大的AI系統至少6個月,因為它們威脅到了整個人類。
這些支持者與批評者們雖然意見相左,卻是在共同推動關于未來的狂熱想象,而這些想象脫離了企業運用現有生成式AI工具有把握達成的現實。它們基本上無助于領導者理解這些技術的運作方式,以及它們可能存在的風險和局限性,更不用說幫助他們了解這些工具能否改善企業日常工作、提升企業贏利水平了。
新聞傳媒本身就是一個受“錯失恐懼癥”(fear of missing out, FOMO)驅動的行業。這個行業更是用言過其實的驚人報道,進一步加劇了泡沫。《華爾街日報》(Wall Street Journal)最近發表了一篇題為《生成式AI已經開始改變白領工作》(Generative AI Is Already Changing White-Collar Work as We Know It)的文章,文中并未拿出白領工作發生變化的真憑實據,而只是給出了商業領袖對這項技術潛在影響的猜測。與其他給職場人士敲響警鐘的報告一樣,它援引了OpenAI公司和賓夕法尼亞大學(University of Pennsylvania)研究人員合作撰寫的一篇論文的摘要。這篇論文試圖預測有多少工作崗位會受到這些新軟件系統的影響。
事實上,這類預測一直有失準確。在最近的一篇文章中,經濟學教授加里·史密斯(Gary Smith)和退休教授兼技術顧問杰弗里·芬克(Jeffrey Funk)指出,與2016年牛津大學(Oxford University)和德勤(Deloitte)的研究一樣,OpenAI和賓大的研究也使用了相同的美國勞工部數據庫。而2016年牛津大學和德勤的研究就聲稱,到2030年許多工作很可能會自動消失。這兩項研究都試圖先計算以重復任務為主的工作占比,進而預測其中有多少工作將因技術變革而流失。既然過去七年的趨勢似乎并未證實2016年研究的預測,那么現在也沒有什么理由相信與此類似的預測能有多么準確。
既然過往預測的表現不佳,高管們就必須謹慎行事,在圍繞科技未來影響的炒作面前,要冷靜思考。團隊需要做到“有憑有據地懷疑”:不是不假思索、否定式地懷疑,而是嚴謹科學地評估和推理。對于新科技功效的各種說法,要仔細考察并通過實踐來檢驗。與其糾纏于“它會如何演變”或“它將產生怎樣的影響”之類引起猜測的問題,倒不如從“我們知道什么”以及“有哪些證據”這種尋找事實依據的問題入手。對于技術的工作原理、預測的可靠性如何,以及其他輸出的質量,多問一些具體的問題。
如果信息來自已知的技術炒作主體(包括咨詢公司、供應商和行業分析師),企業領導們必須特別有意識地進行批判性思考。
雖然嘗試使用對公眾開放的生成式AI工具可能既省錢又有益,企業還是必須仔細評估使用各種新技術的潛在風險。例如,眾所周知,ChatGPT會編造虛假信息,包括給正文羅列一堆根本不存在的參考文獻。對這項技術的使用有必要加以嚴格監管,尤其是當此類生成性AI系統的輸出將提供給客戶,可能導致企業聲譽受損時。如果是在不受監管的情況下使用這類系統,企業還面臨著因此造成知識產權或敏感信息失控的風險。例如,三星公司(Samsung)的員工就將企業敏感信息輸入ChatGPT(ChatGPT再使用所提交的信息,去深度訓練系統中的模型),無意中造成了這些數據的外泄。我還了解到,有些藝術家、設計師和出版商會拒絕使用生成式AI,因為它可能損害自己或客戶的知識產權。
考慮到這些潛在風險,打算試水生成式AI的企業,應該制定基本使用規則。顯然第一步,就是要求所有在工作中使用這些技術的員工,對此做出公開聲明。企業的技術使用政策也可以設定一些基本要求,例如要求生成式AI的使用不得違反現有的道德和法律規范。對于哪些類型的企業數據可以輸入生成式系統,企業也應當考慮加以限定。美國人力資源管理協會(The Society for Human Resource Management, SHRM)以及其他一些團體最近發布了職場生成式AI使用指南,企業領導最好緊跟這些新思潮。
企業還應當留意其他一些風險。科技評論人士一直認為,企業部署生成式AI會導致員工生活質量的降級,使他們的人生越來越艱難。領導者最好確保這種情況不會發生,而且要通過推廣使用這些技術,使員工的生活更輕松、壓力更小、更加人性化。
如果能讓管理者關注周圍的變化,“錯失恐懼癥”和競爭壓力也可以起到積極的作用,但管理者不應該讓這類焦慮驅使自己做出非理性的輕率決策。如同尼古拉斯·卡爾(Nicholas Carr)在2004年出版的《IT不再重要》(Does IT Matter?)一書中描述的那樣,圍繞生成式AI的熱度很可能也會像對其他數字技術的熱情那樣消退。數字技術的采用往往會在一個行業內產生短期優勢,但隨著這些技術變得司空見慣——就像文本編輯器、電子表格和客戶關系管理系統那樣,這些優勢就會消失。
換句話說,目前并沒有證據表明,謀定后動而非一頭扎進生成式AI領域,會導致你們企業在戰略上落后于人,甚至被徹底顛覆。既然如此,領導者最好還是聚焦于自身業務的基本目標,反問道:“這個系統能幫助我們達成目標嗎?”如果有人說會,那就請他們來證明。
翻譯:徐廣彤