中圖分類號:C93 文獻標識碼:A 文章編號:2097-0145(2025)03-0001-08 doi:10.11847/fj.44.3.1
0 引言
近年來,大語言模型(largelanguagemodel,LLM,“大模型”)產業發展迅猛,自ChatGPT發布以來,大模型在各行業的生產實踐中發揮了重要作用,推動了企業數智化轉型。據Statista統計,2023年全球大模型市場規模已達300億美元,預計到2028年將增長至700億美元,展現出廣闊的市場前景。2025年的《政府工作報告》將“支持大模型廣泛應用\"列為政府工作任務之一,反映出國家對大模型產業的高度重視。在政策與市場的共同驅動下,國內外大模型技術持續演進。2025年初,深度求索公司發布了開源大模型DeepSeek-R1,通過強化學習提升了推理能力,并利用混合專家架構降低了訓練成本。同年3月,Monica推出基于多智能體架構的ManusAI,能夠自主完成報告撰寫、數據分析與行程規劃等復雜任務,展現了大模型的應用潛力。與此同時,OpenAI發布的O3系列大模型在推理、多模態處理與工具調用方面實現了突破,進一步拓寬了大模型的應用邊界。
隨著大模型技術持續進步,大模型的商業應用也在加速拓展,已在客戶服務[1]、內容生成[2]、教育培訓[3]、金融分析[4]和醫療診斷[5]等領域展現出應用價值。大量的應用實踐表明,領域適應性是影響大模型應用效果的關鍵因素[6]。目前,企業主要通過三種模式實現大模型的領域適應:(1)提示工程[7(promptengineering,PE)通過設計提示詞來引導大模型生成內容;(2)檢索增強生成[8](retrieval-augmented generation,RAG)利用外部相關文檔與知識來提升生成結果的準確性與專業性;(3)監督微調[9](supervised fine-tuning,SFT)與人工反饋強化學習[1o](reinforcement learning fromhumanfeedback,RLHF)通過深度注人領域知識,提升大模型的領域理解與任務執行能力。
然而,盡管現有應用模式提升了大模型的領域應用效果,但在大模型商業化應用過程中仍面臨諸多挑戰。例如,大模型在用戶意圖識別準確性、響應內容可控性與生成結果可靠性方面仍存在不足,特別是在醫療等高風險領域,企業對輸出結果的可解釋性提出了更高標準。此外,領域大模型部署對企業的算力資源、數據資源、專業人才儲備和組織協同能力也提出了較高要求。因此,企業需要系統性的應用框架,統籌技術能力與組織資源,確保大模型在復雜商業環境中的高效應用,實現大模型的商業價值轉化。
1文獻綜述
1.1 大模型技術原理
隨著人工智能技術的發展,以深度學習為代表的技術創新推動了大模型的興起[]。大模型通常指參數規模達到億級的神經網絡模型[12]。憑借出色的泛化性能,大模型已廣泛應用于自然語言處理(NLP)、計算機視覺、數據分析與決策支持等領域[13] 。
大模型的發展經歷了從基礎神經網絡到復雜網絡架構的演進。早期,循環神經網絡[14]和長短時記憶網絡[15]推動了深度學習在NLP領域的發展。2017年,Vaswani[16提出Transformer 架構,以自注意力機制高效建模序列數據,極大地提升了模型性能,催生了BERT[17]、GPT-3[18]、DeepSeek-V3[19]等大模型,這些大模型在自然語言理解與生成任務中展現出了卓越能力。隨著應用需求的擴展,研究者提出了CLIP[20]、DALL- ?E[21] 、Stable Diffusion[22]等多模態大模型,使模型能夠同時處理不同模態數據,滿足更復雜的應用場景。
大模型訓練的核心在于大規模神經網絡設計與高效優化策略,參數規模的擴大增強了模型對復雜特征與模式的理解與表達能力[23],而高效的訓練策略兼顧了降低資源消耗與挖掘大模型潛力[19]。為提升大模型領域適應性,學界提出了多種技術路徑。基于 SFT[9] 和 RLHF[10] 的策略組合,增強了模型輸出與人類偏好的對齊程度。提示工程通過設計提示詞引導高質量輸出[7],思維鏈[24]通過顯式推理路徑增強了模型的邏輯推理能力與可解釋性。針對計算資源消耗問題,以DeepSeek[19為代表的基于混合專家架構的大模型,通過門控機制動態激活少量專家網絡,有效降低了訓練成本。此外,RAG[8] 通過檢索知識庫或文檔提升模型回答的準確性與專業性。多智能體系統25則通過多個Agents的協同工作,提高了復雜任務處理能力。
總體來看,隨著深度學習技術的持續演進,以及高效訓練策略和多項創新技術手段的應用,大模型的性能和通用性顯著提升,應用范圍不斷擴大,已成為當前人工智能研究與實踐的重要方向。
1.2 大模型應用模式
大模型在自然語言理解與生成能力上的持續進步,推動其應用場景不斷擴展[26]。在通用任務方面,大模型在自然語言處理、圖像理解與多模態協同等方面實現了重要突破[27]。通過學習海量數據中的復雜模式,大模型能夠靈活生成符合用戶需求的個性化文本、圖像與視頻[2.28]。在問答系統中,大模型可以直接進行問題響應,能夠支持智能助理、客戶服務助手等多種場景[1,29]。在跨模態理解方面,大模型能夠統一建模文本、圖像與音頻數據,完成多模態生成任務[30-31]。同時,大模型在數據分析與決策支持方面也展現出強大能力,能夠高效處理結構化與非結構化數據,挖掘潛在數據模式,輔助商業決策[32-33] 。
在通用能力不斷增強的基礎上,大模型的行業應用也日益深人,已覆蓋醫療、教育、金融、法律、客戶服務等多個領域。在醫療領域,大模型已被用于醫學文獻理解、輔助診斷與患者教育[5];在教育領域,大模型支持個性化學習路徑推薦與實時答疑[];在金融領域,大模型能夠對財經數據和市場信息進行深度分析,輔助風險管理與投資決策[4];在法律領域,大模型被應用于法律文本檢索、文書生成與案件梳理[34];在客戶服務領域,大模型驅動的智能對話系統能夠實時理解客戶需求,提供高效且符合個性化需求的服務響應[35]。值得注意的是,隨著應用場景的復雜化,領域特定任務對大模型的推理能力提出了更高要求,尤其在醫療診斷、金融預測等場景中,準確的多步邏輯推理成為保障大模型應用價值的關鍵[36] 。
伴隨應用場景的不斷擴展,大模型在不同領域的應用逐漸演化出三類主流模式,體現了領域知識融合的不同策略。第一類是提示工程[7.24],通過構造高質量的提示詞,直接激發大模型的通用能力以完成響應。第二類是RAG[8],通過檢索外部領域知識庫,提升大模型對領域知識、時效性內容的掌握。RAG模式融合了搜索與生成的優勢,是實現大模型“輕量知識增強”的主要機制。第三類是基于 SFT[6.9]與RLHF[10]的模型重塑路徑,通過高質量標注數據與人類反饋進行大模型微調,將領域知識融入模型參數中。這種方式適用于構建具備領域專業性、行為對齊能力的大模型,也是當前企業訓練垂直領域大模型的主流策略。
雖然大模型在通用任務與行業應用中展現出巨大潛力,但是企業層面的大模型應用實踐仍缺乏系統性總結與指導。一方面,已有研究多聚焦于模型結構優化、性能提升等技術層面,較少關注企業在實際部署中面臨的復雜挑戰;另一方面,現有關于大模型應用的研究在組織管理方面的思考不足,未能充分揭示企業在應用大模型時所面臨的人員激勵、組織調整、跨部門協作等復雜挑戰,導致學者們對大模型應用問題的認識與企業的實踐需求之間存在脫節。
2大模型商業應用的案例分析
為解決當前大模型商業應用中的現實問題,本文調研了四家已部署大模型的企業,系統梳理了應用情況,并分析了應用挑戰與需求。
2.1大模型商業應用場景
A企業是一家提供孕嬰童產品與服務的新零售平臺,A企業于2023年推出了母嬰行業垂直大模型AGPT(因商業保密要求,本文均使用代稱),部署于五大業務場景。(1)營促銷:基于用戶行為與偏好生成個性化推薦與營銷內容,并通過社交媒體平臺優化活動策略;(2)社交互動:支持AI寫真、表情包定制等,滿足用戶在社交媒體上的個性化表達;(3)會員服務:通過智能客服與智能推薦系統提升服務響應速度與質量;(4)門店直播:利用AI數字人與用戶實時互動,提高線上直播與線下門店引流效果;(5)自動化分析系統:進行門店運營與供應鏈管理的數據分析,輔助決策。A企業的AGPT主要面向個人消費者和內部業務管理,兼顧用戶體驗與運營效率。
B企業是大宗商品行業信息服務商,擁有豐富的行業數據與專家知識。2024年,B企業基于開源大模型開發了大宗商品行業領域大模型BGPT,部署于五大業務場景。(1)查數據:提供實時價格、庫存、供需數據查詢,支撐企業客戶及時掌握市場動態;(2)讀咨詢:智能解讀行業分析報告與宏觀政策動態,提高信息處理效率;(3)寫報告:輔助市場研究報告與公文撰寫,減少企業用戶重復性勞動;(4)問百科:提供行業知識、上市公司信息查詢服務;(5)找商機:聚合供需信息與行業動態,幫助企業發現合作機會。B企業的BGPT主要面向企業用戶和內部專家團隊,聚焦于數據洞察、信息檢索與決策支持。
C企業是一家創新情報與知識產權服務平臺,C企業于2024年發布了生物醫藥大模型CGPT,主要應用于四個業務場景。(1)醫藥競爭格局分析:
通過聚合全球藥物研發管線信息與市場數據,輔助企業戰略布局;(2)文獻與數據檢索:支持文獻檢索并鏈接至Synapse等外部平臺的詳情頁,支持臨床試驗數據檢索,輔助臨床試驗管理;(3)化合物與序列檢索:支持精準檢索化合物結構、基因序列及相關專利,輔助藥物研發與專利申請;(4)醫藥政策問答:提供多國藥政信息,幫助用戶了解藥品監管政策。CGPT主要面向生物醫藥企業、科研機構與內部研究人員,聚焦于提升專業檢索能力、創新情報分析與研發支持。
D企業是一家酒店服務管理平臺,D企業于2024年推出了基于RAG模式的大模型DGPT,服務顧客、加盟商與自有員工三類用戶。(1)酒店虛擬前臺:支持入住自助辦理與常見問題解答等;(2)加盟商小助手:為加盟商提供實時經營數據分析并生成報告;(3)員工支持助手:輔助員工入職培訓和企業內部的問題解答。DGPT在提升顧客服務質量、優化企業運營效率方面發揮了作用。
2.2大模型商業應用實施方案
制定契合業務需求的大模型實施方案是保障應用效果的前提。四家企業在開發階段,結合自身行業特性和服務對象,制定了差異化的大模型應用策略,涵蓋數據準備到模型訓練的全過程。
A企業基于LLaMA-3,融合私有育兒知識庫與公共數據進行了微調,其模型訓練采用云端分布式架構,支持持續迭代優化。B企業自建GPU集群,采用多智能體架構,基于行業數據庫與宏觀政策數據進行了微調,支持高時效性業務。C企業基于LLaMA-3,融合專利、論文、試驗等數據進行了微調,并引入強化學習對齊行業標準,結合RAG動態檢索增強專業輸出。酒店服務行業對大模型專業性要求相對較低,D企業采用輕量化策略,利用運營手冊與常見問題庫構建檢索數據集,基于RAG的模式實現高效問答,無需深度微調。表1總結了四家企業在基座模型、數據準備、服務器條件與實現方式上的差異。

2.3大模型商業應用效果分析
根據調研發現,盡管四家企業所處行業、服務對象和應用場景不同,但在大模型應用過程中普遍實現了以下成效。
首先,大模型推動了客戶服務從規則驅動向動態生成轉型,能夠在理解用戶意圖的基礎上實時響應。AGPT可以根據用戶畫像生成營銷文案;DGPT的虛擬前臺實現了自助服務。其次,大模型重塑了企業對專業知識的利用方式。BGPT整合行業資訊,提高了報告撰寫效率;CGPT的智能檢索降低了研發信息獲取成本。再次,大模型提升了企業應對復雜任務的能力。BGPT借助多智能體提升了整體業務流程的響應效率與系統協同能力;CGPT實現復雜專業信息處理,優化了藥政研判流程。最后,大模型拓展了企業智能系統的邊界,支持多角色、多任務協同應用。AGPT同時服務消費者與門店運營;BGPT用于對外咨詢與內部管理;CGPT服務外部科研與內部研發;DGPT則構建了面向顧客、加盟商與員工的多角色助手體系。表2對四家企業在大模型應用場景與應用效果方面進行了總結。

從四家企業的大模型應用效果可以看出,大模型在企業中的應用呈現出從工具性嵌入向系統性重構的趨勢:一是逐步成為智能系統核心模塊,參與任務調度與系統協同;二是通過交互積累形成企業知識資產;三是部署范圍從局部應用擴展到跨部門、全流程;四是推動企業圍繞大模型能力,重構業務邊界與組織設計,推動管理模式升級。
2.4大模型商業應用挑戰與需求分析
雖然調研的四家企業已在多個場景實現了基于大模型的智能應用,并取得了初步成效,但在實際部署與運行過程中,仍面臨諸多挑戰,集中體現在模型響應質量、領域適應能力、數據隱私保護與組織協同四個方面。
首先,在處理用戶請求時,大模型往往難以準確識別用戶的真實意圖,導致生成內容無法完全滿足用戶期望。AGPT回應消費者關于育兒的多維度咨詢時,常出現回復片面、意圖覆蓋不足的問題;CGPT在面對專業程度高的研發類問詢時,輸出結果容易泛化,難以貼合實際需求。其次,在高度依賴專業知識的業務場景中,大模型的輸出在準確性與一致性方面仍存在明顯不足。B企業和C企業均反映,即使經過微調,大模型輸出的結果仍需專業人員反復核驗,難以替代傳統的知識服務流程;C企業的大模型還存在“幻覺”問題(生成與事實不符的信息),降低了大模型在高風險領域的可信度與可用性。再次,在使用企業數據對基座模型進行微調時,企業需要在算力成本與數據隱私保護之間權衡。B企業選擇自建GPU集群,以保障商業敏感數據的本地化處理,雖然有效降低了數據泄露風險,但也帶來了高昂的運維與更新成本。最后,基于大模型的智能系統在內部推廣過程中面臨人員接受度低與跨部門協同不足的問題。A企業與B企業的員工對大模型接受度不高,仍傾向于使用傳統方式進行數據分析與報告撰寫;B企業與C企業在知識庫更新與模型迭代優化時,部門之間缺乏統一的反饋渠道與協同機制,模型調優進度緩慢。
以上問題的出現,反映了企業在推動大模型商業應用的過程中,尚未構建起以知識為核心的系統性支撐機制,從技術基礎到業務流程,再到組織架構,企業的領域知識未能作為一種可治理、可調度、可共創的資源有效嵌入企業的大模型智能系統,成為制約企業大模型應用效能提升的關鍵挑戰。
首先,在技術層面,模型缺乏對領域知識的深度融合與理解。雖然企業通過RAG引入了企業知識庫,但由于內容更新滯后、語義覆蓋不足、結構化建模缺乏,僅僅采用RAG的大模型在面對用戶復雜請求時會出現召回偏差與信息斷層,導致響應內容的準確性下降;此外,雖然 A,B,C 三家企業基于領域知識對基座大模型進行了監督微調,但是由于微調數據覆蓋有限、結構化知識缺失,模型無法建立知識推理路徑,在回復用戶復雜問題時會出現理解不深入、推理缺失與響應不穩定的問題。
其次,在業務層面,企業的領域知識體系未能與業務流程形成有效聯動,限制了模型對業務邏輯的理解能力。盡管企業可以從大量業務經驗中積累企業私有知識,但是沒有明晰知識資源與業務場景的邏輯映射關系,導致知識難以嵌入關鍵業務鏈條,使得大模型在復雜任務處理中難以實現領域知識推理與業務判斷。
再次,在組織層面,企業尚未建立起面向大模型應用的知識治理機制,制約了知識在組織內部的高效流動與動態更新。一方面,企業知識生產與維護仍依賴個體經驗,缺乏基于知識貢獻的激勵機制,導致專業人員在知識結構化、反饋標注與模型優化中參與不足;另一方面,組織內部存在“知識孤島”,不同部門在知識使用標準和反饋流程上缺乏統一規范,限制了跨部門協同與大模型應用效果的進一步釋放。
因此,企業要實現高效、穩定的大模型商業應用,關鍵在于將領域知識由分散資源轉化為系統能力,構建貫穿技術、業務與組織全鏈條的知識賦能機制。這一機制不僅要支撐大模型對復雜任務的知識建模與知識推理,還應保障企業在多角色、多部門、多場景下的大模型協同運行,實現從信息驅動向知識驅動的能力躍遷,推動大模型從輔助工具向智能中樞演化。
3基于知識增強的大模型商業應用框架
經過對四家企業大模型商業應用現狀進行梳理并對他們面臨的挑戰與需求進行分析后,本文提出以知識增強為核心的大模型商業應用框架,旨在為企業在技術路徑選擇、領域知識融合與組織機制建設等方面提供實踐指引。如圖1所示,本文提出的應用框架分為四個層次:需求層、模型層、應用層與基礎設施層,每一層明確了需要重點構建的要素,以實現技術、業務與組織的知識聯動與協同,賦能領域大模型的商業應用。
3.1 場景需求發現
本文提出的基于知識增強的大模型商業應用框架中,場景需求發現是企業大模型應用的出發點,決定了后續模型開發的目標方向與重點任務。
在該階段,企業需要從業務實踐場景出發,圍繞三類關鍵用戶群體展開需求發現。個人用戶需求側重于內容生成、個性化推薦與智能交互等,強調用戶體驗的提升;企業用戶需求主要集中于數據分析、市場洞察與專業報告解讀等,強調業務支持與決策效率;內部員工需求則涵蓋知識檢索、任務協同與流程優化等環節,強調提升員工工作效率與知識賦能水平。通過發現用戶需求,企業能夠為后續大模型的應用提供明確方向,確保大模型應用目標與業務價值一致。

3.2 基礎設施建設
在開展領域大模型開發與優化之前,企業需要從人力資源、算力資源、數據資源與組織架構四個維度,構建穩定的能力與資源支撐體系。
首先,企業開發領域大模型,不僅需要熟悉業務流程與場景邏輯的業務人員,也需要具備大模型訓練與調優能力的技術人員,兩類人員的協作可以彌合技術與應用之間的認知差距,使得模型輸出更貼合業務需求。其次,企業需要根據數據敏感程度與計算任務強度,在本地部署與云端訓練之間做出權衡,也可以引入隱私計算技術,在保護數據隱私的基礎上進行模型訓練。再次,企業的私有知識是構建大模型行業認知能力與行業邏輯理解能力的核心支撐。企業需要歸納整理包括歷史業務數據、客戶服務記錄、操作手冊與領域知識文檔等各類企業知識數據,同時引入具備清晰實體邊界、層級關系與邏輯規則的結構化知識(如知識圖譜、業務流程結構等),幫助模型建立明確的知識調用路徑和邏輯推理鏈條,提升模型的推理能力,為實現高質量的領域知識增強奠定基礎。最后,企業需要建立清晰的大模型開發管理機制,構建技術、數據、業務團隊之間的協調機制,打通組織內部壁壘,提升知識流通效率,保障模型開發與優化過程中各團隊的目標一致。
3.3 模型開發優化
(1)知識增強的PE
基于PE的知識增強方式,是指通過設計提示詞模板,將領域知識以“提示”的形式輸入大模型,引導大模型生成符合專業語境的輸出。在這種模式下,企業需要通過構建問題模板、加人領域背景信息、設定語言風格等方式,提升模型對任務語境的感知能力。PE適用于需求變化頻繁、試錯成本較低的場景,如FAQ問答生成、營銷文案撰寫等,其優點在于響應速度快、部署成本低,但由于知識融合是通過輸人提示的淺層引導完成,模型對復雜邏輯關系與深層語義的把握有限,難以支撐復雜場景下的推理任務。
(2)知識增強的RAG
基于RAG的知識增強主要通過檢索企業知識庫,引導大模型在生成過程中動態調用外部知識。在這種模式下,企業首先需要構建覆蓋關鍵業務內容的領域知識庫,將包括文檔資料、結構化知識與外部可信數據在內的各類知識數據進行整合與組織,然后對知識內容進行向量化編碼,并基于語義匹配機制建立高效的檢索系統,使得大模型能夠在響應用戶請求時,實時獲取相關知識片段,并將其作為上下文用于內容生成。RAG適用于時效性強、知識更新頻繁的任務,其優勢在于靈活性與可擴展性,但大模型本身并未內化領域知識,其理解與推理能力依賴于檢索內容的質量。
(3)知識增強的SFT/RLHF
知識增強的SFT需要企業將領域知識轉化為訓練樣本,并基于任務場景構建微調數據集,通過監督訓練、目標對齊與效果評估等步驟,優化大模型對特定領域的理解與表達能力。特別地,在結構化知識的支持下,模型能夠學習到知識實體關系與業務邏輯規則,從而提升其對復雜任務的推理能力與專業領域的判斷能力。知識增強的RLHF需要企業基于反饋數據建立強化學習評價體系,根據實際輸出偏差進行模型參數微調與策略更新;同時,在組織層面,企業還需要構建系統化的知識反饋采集機制,并引人基于知識貢獻的激勵機制,提升一線人員在知識標注與知識結構校驗中的積極性。
知識增強的SFT/RLHF適用于任務復雜度高、語義理解要求深、決策容錯率低的業務場景,如醫療問診、法律分析、金融風控等。需要注意的是,由于SFT/RLHF模式通常涉及大量高質量訓練樣本的構建與多輪迭代優化,對算力資源、數據標注能力與人才配置提出了更高要求,企業在采用該模式時需要充分評估。
3.4Agents系統協同
在完成領域大模型的開發與優化之后,企業可以采用多智能體(multi-agent)策略,實現復雜業務場景的模塊化拆解與智能協同處理,賦能大模型商業應用。通過引入具備不同功能的Agents,企業可以將整個業務流程劃分為多個子任務,并由不同Agent分別處理,如市場分析、報告撰寫、價格預測、合規檢查等。各Agent之間通過任務規劃機制進行任務分發與信息傳遞,并根據全局目標動態調整行動策略,實現從局部響應到系統執行的升級。
在這種模式下,企業需要構建涵蓋工具集成、記憶管理、任務控制與用戶交互在內的多智能體應用系統。具體而言,企業首先需要構建系統工具,鏈接大模型與企業內部的業務系統和外部工具平臺,使各Agent具備任務執行能力,如自動調用CRM、ERP或數據可視化工具等;其次,引入長期記憶與知識緩存機制,支持Agents跨任務、跨輪次的知識延續;再次,在任務組織層面,需要構建基于工作流引擎或任務圖的規劃與控制機制,實現任務鏈的編排與過程管控,提升Agents協同過程的可控性與透明度;最后,還需設計友好的用戶交互界面,使終端用戶能夠實時查看Agents運行狀態,并在關鍵節點進行有效干預,確保人機協同的有效性。上述能力共同構成了企業實現Agents系統協同的基礎要素。
企業通過多智能體策略,可以將領域知識嵌入任務系統、將模型能力嵌入組織結構,各Agent以領域大模型為底座,通過協同調度與知識共享形成互補,推動大模型在任務執行中的系統性響應。進一步地,企業還可以結合知識更新機制,將任務執行過程中沉淀的高質量問答、業務判斷與策略建議補充至知識庫,構建以知識為核心、以Agents為載體的大模型智能協同應用系統。
4結論與展望
4.1 研究結果
(1)從大模型的應用模式來看,目前企業主要通過三種模式實現大模型的領域適應:提示工程(PE)、檢索增強生成(RAG)與監督微調/人工反饋強化學習(SFT/RLHF)。PE適用于需求靈活、試錯成本低的場景,RAG適用于知識更新頻繁、時效性要求高的場景,SFT/RLHF適用于需要復雜推理、嚴謹決策的場景。這三種應用模式代表了企業在增強大模型領域適應的過程中,根據應用場景復雜度對知識利用深度采取的差異化選擇。(2)從大模型的應用挑戰來看,企業應用大模型主要存在意圖召回不準確、知識利用不深入、回復生成不穩定與組織協同不高效四個方面的挑戰,反映出企業在推動大模型商業應用時,尚未構建起以知識為核心的系統性支撐機制。從技術基礎到業務流程,再到組織架構,領域知識未能作為一種可治理、可調度、可共創的資源有效嵌人企業的大模型智能系統。(3)本文從大模型商業應用的挑戰與需求出發,提出基于知識增強的大模型商業應用框架,系統串聯了企業在需求發現、資源建設、模型優化與應用部署四個階段的關鍵要素與任務,為企業實現大模型的商業應用提供了實踐路徑與參考指引。
4.2 研究局限和展望
首先,雖然大模型技術發展迅速,但其商業化應用仍處于起步階段,本文所分析的四家企業案例難以全面反映各行業的應用情況。隨著大模型在各行業的深人部署,未來研究有必要結合更廣泛的企業實踐,探討新興的應用場景、方法路徑與挑戰需求。其次,本文的案例分析主要來源于企業內部人員的主觀反饋,受限于數據可得性,尚缺乏對大模型實際應用效果的量化驗證。未來研究可以引入多維度客觀數據,深人評估大模型對企業運營效率、決策質量與業務創新的實際影響。再次,本文從案例出發,主要討論單一領域的知識增強應用框架,未考慮跨領域的知識遷移。未來研究可進一步探討如何實現領域知識的有效遷移與泛化,支持大模型在多領域、多任務環境下的穩定應用。此外,本文提出了基于多智能體的大模型應用框架,但是對智能體之間的協作機制、沖突管理與任務規劃細節的探討尚不充分。未來研究可以系統設計任務劃分策略、沖突檢測方法與協同優化機制,提升多智能體大模型系統在復雜業務環境下的穩定性。最后,隨著大模型技術演進與應用場景拓展,其對企業管理實踐將提出新的要求與挑戰。未來研究仍需從技術架構、人機協作機制及應用方案設計等維度展開更系統的研究。
參考文獻:
[1] Li Z,Wang L,Luo Q,et al.. Large language model based on full-text retrieval for temporal knowledge Qamp;A approach[A]. AINIT[C]. Nanjing,2024. 441-446.
[2]LiY A,Han C,Raghaan V,et al.. Styletts 2:towards human-level text-to-speech through style diffusion and adversarial training with large speech language models [J].AdvancesinNeuralInformationProcessing Systems,2024,36:19594-19621.
[3]KasneciE,SeBler K,Kuchemann S,et al..ChatGPT for good? On opportunities and challengesof large language models for education[J]. Learning and Individual Differences,2023,103:102274.
[4]Lee J,Stevens N,Han S C. Large language models in finance(FinLLMs)[J]. Neural Computing and Applications,2025(1):1-15.
[5]Liu L, Yang X,Lei J, et al.. A survey on medical large language models: technology,application, trustworthiness,and future directions[J].arXiv preprint arXiv: 240603712,2024.
[6]Lu W,Luu RK,Buehler MJ.Fine-tuning large language models for domain adaptation:exploration of training strategies,scaling,model merging and synergistic capabilities[J].NPJ Computational Materials,2025, 11(1): 84.
[7] Mesk6 B. Prompt engineering as an important emerging skill for medical professionals:tutorial[J]. Journal of Medical Internet Research,2023,25:e50638.
[8] Asai A, Wu Z, Wang Y, et al.. Self-rag: learning to retrieve, generate,and critique through self-reflection [A].ICLR[C].Kigali,2023.1-13.
[9]Liu Z, Xu Y, Xu Y, et al.. Improved fine-tuning by better leveraging pre-training data[J]. Advances in Neural Information Processing Systems,2022,35: 32568-32581.
[10]Yu T, Yao Y,Zhang H, et al.. Rlhf-v: towards trustworthy mllms via behavior alignment from fine-grained correctional human feedback[A]. CVPR[C]. Seattle, 2024.13807-13816.
[11]Yao Y,Duan J,Xu K,et al..A survey on large language model (llm) security and privacy:the good, the bad,and the ugly[J]. High-Confidence Computing,2024,4(2):100211.
[12]Kaplan J,Mccandlish S,Henighan T,et al.. Scaling laws for neural language models[J]. arXiv preprint arXiv:200108361,2020.
[13] Zhao H,Chen H,Yang F,et al..Explainability for large language models: a survey[J]. ACM Transactions on Intelligent Systems and Technology,2024,15(2): 1-38.
[14]Elman JL.Finding structure in time[J]. Cognitive Science,1990,14(2): 179-211.
[15]Yu Y,SiX,Hu C,et al..A review of recurrent neural networks:LSTM cells and network architectures[J]. Neural Computation,2019,31(7):1235-1270.
[16]Vaswani A.Attention is all you need[A]. NeurIPS [C].Barcelona,2017.2-17.
[17]Devlin J. Bert: pre-training of deep bidirectional transformers for language understanding[J]. arXiv preprint arXiv:181004805,2018.
[18] Brown T B. Language models are few-shot learners[J]. arXiv preprint arXiv:200514165,2020.
[19]Liu A, Feng B, Xue B, et al.. Deepseek-v3 technical report[J].arXiv preprint arXiv:241219437,2024.
[20]Radford A,Kim JW,Hallacy C,et al..Learning transferable visual models from natural language supervision[A]. ICML[C]. Online,2021.8748-8763.
[21]Ramesh A,Pavlov M,Goh G,et al.,Zero-shot text-toimage generation[A]. ICML[C].Online.2021.8821-8831.
[22]Rombach R,Blattmann A,Lorenz D,et al..Highresolution image synthesis with latent diffusion models [A].CVPR[C].NewOrleans,2022.10684-10695.
[23]Menghani G. Efficient deep learning: a survey on makingdeeplearningmodelssmaller,faster,andbetter [J].ACMComputing Surveys,2023,55(12):1-37.
[24]Wei J,Wang X,Schuurmans D,et al.. Chain-ofthought prompting elicits reasoning in large language models[A].NeurIPS[C].New Orleans,2022. 24824-24837.
[25]ChanC-M,Chen W,SuY,et al..Chateval:towards better llm-based evaluators through multi-agent debate [J].arXivpreprint arXiv:230807201,2023.
[26]Srivastava A,Rastogi A,Rao A,et al..Beyond the imitation game:quantifying and extrapolating the capabilities of language models[J].arXiv preprint arXiv: 220604615,2022.
[27]Hadi MU,Qureshi R,Shan A,et al..A survey on large language models:applications,challenges,limitations,and practical usage[J]. Authorea Preprints, 2023,3(1):1-12.
[28]Kojima T,Gu SS,Reid M,et al..Large language models are zero-shot reasoners[J]. Advances in neural information processing systems,2022,35:22199-22213.
[29]張金營,王天堃,么長英,等.基于大語言模型的電力 知識庫智能問答系統構建與評價[J].計算機科學, 2024,51(12):286-292.
[30]FeiN,Lu Z,Gao Y,etal..Towards artificial general intelligencevia a multimodal foundation model[J]. NatureCommunications,2022,13(1):3094.
[31]JiangF,DongL,Peng Y,et al..Large AImodel empowered multimodal semantic communications[J]. arXivpreprintarXiv:2023.01249,2024.
[32]XuFF,AlonU,NeubigG,etal..Asystematicevaluation of large language models of code[A]. Proceedings of the 6th ACM SIGPLAN International Symposium on MachineProgramming[C].Online,2022.1-10.
[33]Liu Y,Yang B,Liu Q,et al..Textmonkey:an ocr-free large multimodal model forunderstanding document[J]. arXiv preprint arXiv:240304473,2024.
[34]Shu D,Zhao H,Liu X,et al..LawLLM:law large language model for the US legal system[A].Proceedings of the 33rd ACM International Conferenceon Information and Knowledge Management[C].Online, 2024.4882-4889.
[35]Pandya K,Holia M. Automating customer service using langchain:building custom open-source GPT Chatbot for organizations[J]. arXiv preprint arXiv:2310o5421, 2023.
[36]Lucas M M,YangJ,Pomeroy JK,et al..Reasoning with largelanguagemodels formedical question answering[J].Journal of the American Medical Informatics Association,2024,31(9):1964-1975.
Challenges and Managerial Strategies in Commercial Application of Large Language Models : A Knowledge-enhanced Framework
JIN Xulei,CHEN Gang1,HUANG Lihua', XIAO Shuaiyong2, ZHANG Chenghong1 (1.School of Management,Fudan University, Shanghai 20433,China;2. School of Economics and Management, Tongji University,Shanghai 200092,China)
Abstract:Since the release of ChatGPT,large language models (LLMs) have experienced explosive growth.LLMs' technological innovationsand wide-rangingapplicationshaveunlockedtremendous potentialforthedigitaland inteligent transformation of enterprises.In China,the development of AI andLLMs has garnered significant atention from the government,which have emphasized the strategic importance ofdomestic LLM in high-qualitydevelopment.Since 2023, thedomestic landscape of LLMdevelopment has witnessdarapid proliferation of models,accompanied bysignificant advancements incore technologies.DeepSeek—known for itsopen-source accessibility,balanced capabilities,and low inferencecosts—has gained widerecognition both domesticalland internationally.LLMsare becoming adriving force forlocalized innovationandapplicationofAI.However,thepath tocommercializing LLMsremains fraughtwith chalenges.Beyond ensuring model performance,enterprises face additional hurdles related to_personnel training, organizational restructuring,and governancereform.Despite increasing scholarlyatention,existing research largely centers on technical aspects,with limited systematic exploration from the viewpoint of enterprise management.
This study adopts aqualitative methodologyand conducts an in-depth analysis offour representative enterprises that have implementedLLMs.Through semi-structured interviews,document analysis,and cross-case comparisons,it systematicallyidentifies the core challengesand obstacles faced in the process of commercial LLM deployment.The research focuses on how enterprises can overcomedual bariers in technologyandmanagement andadapt across key dimensions suchasinfrastructure,businessprocesses,organizational structures,and humanresources.Furthermore, thestudyofersa detailed examinationof three mainstreamappication paradigms—promptenginering,retrievalaugmented generation,andsupervised fine-tuning with reinforcement learning from human feedback—clarifying their respective roles and implementation pathways in enterprise-level deployment.
The findings indicate that successful commercialization of LLMs requires more than technological readiness—it hingeson theefective integrationof model capabilitieswith internal management strategies.Enterprisesmust simultaneously enhance cross-functional collaboration,strengthendatagovernance,and invest inworkforcereskiling to fullyunlock thetransformativepotentialof LLMs.Thisstudycontributesamanagement-orientedframework thatleverages domain-specificknowledgetoguidetheapplicationofLLMsinbusinesscontexts.Itidentifiesfouressentialpillrsfor implementation:infrastructure,user needs,modelarchitecture,anddeployment strategy.Fromamanagerialperspective, theresearchoutlinesactionable strategies tohelporganizationsnavigatebothorganizational and technicalchallnges associated with embedding LLMsintocore business operations.These insightsofferavaluablereference for enterprises exploring AI-driven innovation and provide anew analytical lens for academic discussionson LLM commercialization.
Key words:large language model; framework for commercial application;case analysis