999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

大模型在知識管理中的應用與挑戰

2024-07-14 00:00:00張宇王玉梁
知識管理論壇 2024年3期
關鍵詞:人工智能

摘要:[目的/意義]分析大模型在知識管理領域的應用場景和挑戰,為相關領域的研究和實踐提供參考和借鑒,促進大模型在知識管理領域更加深入的應用,提高知識管理工具的使用體驗。[方法/過程]通過跟蹤軟硬件廠商、商業化產品、開源項目、學術研究和客戶的實際使用體驗等多方面的動態,總結和梳理人工智能大模型在知識管理領域的實際應用以及在應用過程中面臨的問題與挑戰。[結果/結論]人工智能大模型已成為知識管理的有力工具,得到越來越多的實際應用,包括輔助撰寫文檔、自動生成文檔摘要、使用自然語言檢索信息、智能問答等。這些應用改變了傳統知識管理的方式,使其更高效、智能化和用戶友好。然而,大模型在知識管理領域的應用也面臨著一些尚待解決的問題,如數據隱私保護、知識產權保護、知識污染、高成本、內容輸出不穩定等。

關鍵詞:大模型;知識管理;知識庫;人工智能

分類號:TP391

引用格式:張宇, 王玉梁. 大模型在知識管理中的應用與挑戰[J/OL]. 知識管理論壇, 2024, 9(3): 227-236 [引用日期]. http://www.kmf.ac.cn/p/389/. (Citation: Zhang Yu, Wang Yuliang. Applications and Challenges of Large Models in Knowledge Management[J/OL]. Knowledge Management Forum, 2024, 9(3): 227-236 [cite date]. http://www.kmf.ac.cn/p/389/.)

1" 引言/Introduction

企業的技術創新依賴知識資產的支撐。多樣化知識的獲取和積累是企業創新的重要基礎[1]。隱性知識不易被復制或竊取,是企業形成核心競爭力的基礎和源泉[2]。通過知識管理,將組織和個人的隱性知識轉化為顯性的、可利用的知識資產,從而提升整個組織的創新能力,是企業在激烈的市場競爭中把握機遇和應對挑戰的必然選擇。

當前,在傳統企業內部,知識資產分散在各個部門和員工之間,形成知識孤島,知識資產沒有得到充分的利用。同時,企業內部組織架構的變化以及人員的流動,常常會導致知識資產的流失,給企業長遠發展造成不利影響。

知識管理平臺是一個旨在幫助企業高效管理知識資產的IT工具,通過收集、組織、存儲、共享、搜索、分析和分發知識,盤活企業知識資產,使企業快速應對復雜多變的客戶需求,助力企業長期高質量發展。當前,越來越多的企業開始部署知識管理平臺,用數字化的方式開展知識管理工作。例如,中國商飛等國內領先企業,通過實施知識管理工程,有效推動員工績效的提升,完善公司的知識體系,并在打造學習型組織方面起到了重要的促進作用[3]。

傳統的知識管理方法通常依賴于運營團隊對知識資產進行手工整理和分類,這種方式效率低下且容易出錯。結合人工智能和大數據技術,一些廠商對知識管理平臺的功能做了增強。例如,郝建蘋[4]探討了郵政教育培訓應用中的知識管理場景,通過構建和分析員工畫像,提高員工內容檢索的精確度,再結合知識圖譜技術,識別用戶的個性化需求。但受制于技術瓶頸,智能化程度還有待提高。

以ChatGPT為代表的人工智能大模型,能更好地理解和生成自然語言和圖像等,并以人機對話等多種方式提供智能化功能,這使得大模型可以在知識管理的各個環節發揮關鍵作用。

因此,筆者探討大模型在知識管理各個環節中如何發揮關鍵作用,為未來的大規模應用提供指導建議。同時,旨在促進人工智能在知識管理領域中的合理應用和發展,指出大模型落地知識管理平臺將面臨的挑戰,供決策制定者和研究人員參考借鑒。

2" 大模型的快速發展/Rapid development of large model

2022年11月,OpenAI發布ChatGPT[5]大語言模型,可以理解和生成文本、回答提問、提供信息、執行任務等,并與用戶進行實時對話,標志著人工智能技術的熱點從決策式向生成式轉變[6]。該模型在訓練過程中使用了數百TB的預訓練數據,模型的參數量高達1 750億,超過了人腦神經元數量。由于其性能表現遠超此前各IT廠商推出的智能助手,短短一周時間突破百萬用戶。據瑞銀集團研究報告中的數據,ChatGPT的月活躍用戶數突破1億僅用2個月時間,打破Tiktok此前上線9個月月活破億的紀錄[7]。2023年9月,據美國知名風險投資機構Andreessen Horowitz統計,ChatGPT預估月訪問量達16億次,月用戶達2億人次,這也讓ChatGPT的訪問量在所有互聯網網站中排名第24位[8]。

隨后,谷歌和Meta等公司在競爭壓力之下,紛紛推出了各自的大模型。谷歌于2023年3月發布LaMDA [9]大語言模型,隨后升級為對標GPT-4的PaLM 2[10]大模型。2023年4月,Meta發布名為Llama[11]的開源大語言模型,并于當年7月推出下一代開源大語言模型Llama 2[12],同時宣布免費提供給研究和商業使用。

2023年3月,OpenAI發布了GPT-4[13],其參數量已達萬億級別,具有更加自然的文本生成、更加準確的語言理解和更加高效的模型訓練能力,還提供一系列插件以供各類API接口與其他信息系統互通,同時提供模型微調接口,供企業用戶訓練專屬的大模型應用。2023年12月,谷歌正式發布Gemini大模型[13-14],繼續追趕OpenAI。2024年2月,繼在大語言模型取得領先優勢后,OpenAI發布文生視頻模型Sora[15],其可根據用戶的提示詞生成長達60秒的高品質視頻,引領新一輪AI技術變革。以ChatGPT為代表的大模型,讓人類第一次看到實現通用人工智能偉大目標的可能性。

在國內,甚至出現了“百模大戰”的狀況。據統計,僅在2023年底,已發布的大模型數量超過200個。百度公司于2023年3月發布自研大語言模型“文心一言”[16],并有超過650家合作伙伴宣布接入文心一言生態。隨后,華為、字節跳動、阿里等也紛紛發布各自的大模型。中國電信于2024年1月對外宣布,將自研星辰AI大型模型全面開源,以更好地助力客戶業務的智能化升級,充分展現了國資央企在人工智能領域的研發實力[17]。

除了大模型技術自身的快速發展,以大模型應用的快速落地為目標,一大批大模型相關軟件也快速涌現,如大模型中間件、向量數據庫、大模型開發平臺等,解決了大模型在應用落地過程中遇到的數據集成、工具集成、應用集成等一系列問題,也加速了大模型在千行百業中的落地應用。

3" 大模型賦能知識管理全流程/Empowering the entire process of knowledge management with large models

大模型可貫穿知識管理工作全流程,有效激活知識資產價值,實現開放式、數字化、智能化的知識生態系統。

3.1" 知識創造

大模型的自然語言生成能力激發了知識管理平臺用戶的創意和靈感。例如,用戶可以通過對話的方式,根據文章題目讓大模型輸出文章的提綱,還可以進一步讓大模型輸出具體章節的內容。也可以輸入文章的大致內容,讓大模型輸出文章的題目建議。大模型還可以根據用戶的提示,生成想法、廣告語等創意內容。

大模型在生成文本摘要任務上也具有明顯優勢。X. Pu等使用人類生成的評估數據集評估了大模型在各種摘要任務(如生成單條新聞、多條新聞、對話、源代碼和跨語言等摘要)上的表現,經過定量和定性的比較后發現,由大模型生成的摘要明顯受到人類評估者的青睞[18]。知識管理平臺用戶可以在完成文檔編寫后,利用大模型的生成文本摘要的能力,自動生成文本摘要的初稿,在此基礎上進行優化修改,提高寫作效率。

以Stable Diffusion[19]和DALL·E 3[20]為代表的“文生圖”大模型,可以根據用戶輸入的文本提示,準確地反映提示內容,同時生成逼真的高質量圖像。這些圖像可用于文檔的封面設計、內容對應的插圖、幻燈片的背景素材等。圖1為文心一言大模型根據“生成一張高質量的智慧城市解決方案文檔封面圖片”提示詞而自動生成的文檔封面。

以Sora為代表的“文生視頻”大模型,其生成的視頻質量雖然讓人感到驚艷,但其目前還難以準確模擬現實世界的復雜性,期待未來可以根據知識文檔的內容直接生成視頻,如生成產品宣傳視頻或產品使用的視頻指導等。

大模型的自然語言、圖像和視頻生成能力,對用戶的創造力提供了良好的啟發和補充,有助于創造出更高質量的知識內容,同時也大幅提高知識創造的效率。

3.2" 知識檢索與推薦

首先,大模型可以和知識管理平臺的搜索引擎相結合,用戶可以在平臺的搜索框中輸入自然語言,而不需要輸入搜索的關鍵字,由大模型對用戶的搜索意圖進行理解和分析,驅動搜索引擎完成搜索任務并返回結果。用戶也不必通過點擊搜索結果中的鏈接來繼續縮小搜索范圍,而是可以通過與大模型進行對話獲得更多的信息或搜索建議。用戶也可以通過與搜索引擎后臺的大模型進行對話,直接提出問題,由大模型對搜索引擎的搜索結果進行整合、歸納和總結,生成問題的答案,返回給用戶,并通過連續對話提升用戶搜索體驗。

其次,基于大模型的推薦算法研究逐漸得到重視。內容推薦是機器學習和人工智能技術領域永恒的研究熱點之一。現有推薦算法已在業界廣泛應用,但傳統內容推薦算法,普遍存在一些問題,例如:①存在數據的稀疏性問題。在實際應用場景中,用戶和內容的交互信息往往是非常稀疏的。例如,一個知識共享平臺可能包含幾十萬個內容,然而一個用戶訪問的內容可能數量很少。使用如此少量的已觀測數據來預測大量的未知信息,會極大地增加算法的過擬合風險。②傳統算法無法為新用戶產生推薦,因為新用戶缺少與平臺現有內容的交互,傳統算法無法獲取用戶特征,所以無法為用戶產生推薦,這也稱為“冷啟動問題”。③傳統推薦算法無法挖掘出用戶的潛在興趣,因為其依賴于用戶過去對某些內容的喜好,它產生的推薦也會和用戶過去喜歡的內容相似。如果一個人以前只看算法推薦的內容,算法只會給他推薦更多與推薦相關的文章,但用戶可能還對其他內容感興趣。隨著大模型技術的興起,越來越多的研究者將大模型技術應用于內容推薦任務,圖2是當前基于大模型的推薦算法研究成果的總結[21]。大模型具有大量外部世界知識和豐富的語義信息,有助于解決傳統推薦算法的問題。

此外,大模型也可以自動為知識管理平臺上的文檔生成摘要,方便用戶快速了解文檔內容,也可以自動為文檔生成標簽,方便用戶快速瀏覽某個主題的全部文檔。

綜上所述,大模型通過深度語義理解用戶檢索意圖、個性化推薦等方式,幫助提升知識管理平臺檢索和推薦的效果,為用戶提供更好的使用體驗。

3.3" 知識問答

大模型能捕捉豐富的語言表征,能夠參考多輪對話的背景信息,擁有良好的泛化能力,從而可以完美地匹配知識問答的技術需求,為知識的獲取提供了新的交互方式。通過與大模型對話,用戶無需在知識管理平臺手動搜索,就可以更快速更直接地獲取所需的知識和信息。

類似ChatGPT和文心一言等大模型,其訓練數據主要來自互聯網上的大量文本以及各種書籍、文章、網頁等,因此,對于某些行業或企業內部特有的或未在訓練數據中涵蓋的問題,這些通用的大模型無法提供準確的答案。

為了讓大模型能掌握企業特有的知識,目前業界存在兩種解決方案:

3.3.1" 訓練企業專屬大模型

企業首先需要整理行業或企業專屬的知識語料,包括來自企業內部知識管理平臺中特定專業的知識庫、項目案例、項目總結、會議紀要等。如果企業本身具有大模型的研發能力,也具備充足的算力資源,可以使用專屬的知識語料,訓練企業專屬的大模型,這些大模型可部署在企業內部,有利于對企業數據的隱私保護。如果企業本身缺少大模型研發能力和算力資源,也可以通過ChatGPT等在線的大模型提供的微調接口,只需要上傳自有的訓練數據,即可訓練出企業專屬的大模型,這種方式的訓練成本較低。

由于企業的知識處于不斷的積累和迭代變化過程中,而大模型并不能實時更新自己的模型網絡架構和參數權重,導致訓練后的大模型在一段時間后就不能準確回答用戶對新產生的知識的提問。而重新訓練或微調大模型,都會消耗企業的算力資源,帶來成本上升。

3.3.2" 采用檢索增強生成技術

隨著大模型中間件LangChain[22]以及向量數據庫Milvus[23]等工具軟件的逐漸成熟和流行,一種新的基于大模型的知識問答架構,即檢索增強生成(retrieval augmented generation, RAG)[24],逐漸在業界得到廣泛應用。RAG的架構如圖3所示:

這種架構不依賴大模型本身對企業內部知識的掌握程度,而是通過建立大模型與企業知識庫的互動,提高大模型生成內容的準確性和時效性。首先,按一定規則對企業內部的原始文檔進行切片,每個切片的文本通過大模型的嵌入接口[25-26]進行向量化,切片的向量存儲于向量數據庫。其次,用戶的提問同樣經過大模型的嵌入接口進行向量化,并與向量數據庫中存儲的切片對應的向量通過余弦相似度等算法進行相似度比較,找到最相似的若干個切片。最后,利用大模型的總結歸納能力,從這些切片的內容中提煉出對用戶提問的回答內容。整個處理過程由大模型中間件進行編排。在這種知識庫架構下,當企業內部知識發生變化后,只需要重新切片和向量化,再替換向量數據庫中的內容即可,而不需重新訓練或微調大模型。這樣,大模型無需頻繁更新升級,用戶始終可以得到最準確的回答。

基于大模型的知識問答應用,是當前大模型在行業落地案例數量最多的應用場景,使用體驗明顯高于傳統技術實現方式,提高了知識管理平臺的交互性和實用性,未來有望成為知識管理平臺的基本功能之一。

4" 大模型對知識管理帶來的挑戰/Challenges posed by large models to knowledge management

4.1" 數據隱私保護問題

將大模型引入知識管理平臺時,數據的隱私和安全保護是需要考慮的重要因素。

韓國三星集團的設備解決方案部門在使用ChatGPT服務約20天內,發生3起數據泄露事故,導致與半導體設備測量、良品率/缺陷、內部會議內容等敏感信息被上傳到OpenAI的服務器中[27]。

為避免產生此類事件,企業可以考慮在企業自有的數據中心內或專屬云部署企業專屬的大模型服務,以控制敏感數據的泄露范圍,同時也使企業能夠更好地進行數據治理工作,以滿足監管和合規性要求。

但更重要的工作是:要注意大模型訓練數據的隱私保護。首先,企業應根據數據的不同獲取方式和類別,對訓練數據的來源、內容合法性等進行嚴格審查。其次,對訓練數據進行脫敏等處理,清除身份證號碼、電話號碼、銀行賬號、車牌號碼和家庭住址等敏感信息。

4.2" 知識產權保護問題

大模型應用過程中涉及的知識產權問題也是不容忽視的。2023年7月,國家網信辦發布《生成式人工智能服務管理暫行辦法》[28],其中第四條規定:尊重知識產權、商業道德,保守商業秘密。

就在ChatGPT火爆全網的同時,《紐約時報》更新了服務條款,禁止科技公司抓取其網站上的內容以訓練AI模型。同時,《紐約時報》與OpenAI展開談判,試圖達成一項授權協議,內容包括OpenAI將向《紐約時報》付費,以使用其內容作為大模型的訓練數據。由于協商沒有達成一致,《紐約時報》考慮起訴OpenAI,起訴的結果可能包括銷毀ChatGPT的數據集,并對每條侵權內容處以高達15萬美元的罰款[29]。

知識管理平臺的研發團隊應關注數據應用的合規性。如果模型訓練使用了已超過著作權保護期限的著作,則應避免在生成內容中侵犯著作權人的署名權等。如果模型訓練使用了仍處于著作權保護期限內的著作,則應提前獲取著作權人的明確授權。

4.3" 知識污染問題

幻覺問題[30-31]是大模型當前急需解決的技術問題之一。幻覺問題是指大模型生成的文本雖然自然且流暢,但內容可能包含明顯與事實不符之處。大模型的幻覺問題將導致生成大量低質量的知識。例如,隨著大模型的流行,由大模型產生的低質量內容正在開始污染互聯網。國外知名IT技術問答網站Stack Overflow的多位版主曾集中封禁疑似發布由AI生成的內容的用戶賬號,并進行刪帖。

在將大模型引入知識管理平臺后,也存在生成錯誤或不準確內容的可能,可以從兩方面進行有效應對:①需要對大模型的輸出內容進行持續的監督和評估。有研究指出[32],ChatGPT被用于科學界時必須要堅持人類審查的原則。在知識管理領域,可由知識管理平臺的運營團隊對大模型的輸出內容進行抽樣審查,避免其產生的錯誤信息被廣泛傳播和誤用而為企業造成潛在損失。②使用檢索增強生成技術,讓大模型基于企業的私有知識庫中的內容來生成輸出的內容,大模型僅針對企業私有知識進行歸納總結,因此,可將知識污染問題的發生概率降至最低。

4.4" 高昂的研發和使用成本問題

據專家估計,GPT-3的單次訓練成本約460萬美元[33]。此外,僅GPT-3論文作者就有31人,另外,訓練語料還需要外包團隊進行標注、反饋質量等,這些將引入額外的巨大的人工成本。在模型部署后為用戶提供推理服務時,仍需要耗費大量的GPU(Graphics Processing Unit,圖形處理單元)算力。

高額的研發和運營成本是絕大多數企業無法獨自承擔的。為了加速大模型的落地,產業界和學術界需要從多方面入手嘗試解決成本問題。

首先,大模型的軟件技術一直在發展。通過模型優化、壓縮等技術,一些初創公司和學術團隊正在嘗試在保持性能不下降的前提下減少模型的體積,從而減少模型訓練和推理過程中對算力的消耗,如GPTQ(Generative Pre-trained Transformer Quantization)[34]和AWQ(Activation-Aware Weight Quantization)[35]等大模型量化技術。

同時,各硬件廠商也在研發異構算力,以擺脫對價格高昂的英偉達GPU的依賴。例如,華為推出了晟騰AI芯片。這些異構AI芯片已成為英偉達GPU的良好替代,但其后續的發展依賴軟件生態的繁榮,例如,大模型開發框架對AI芯片的支持、AI芯片支持的算子的豐富程度、基于AI芯片進行模型開發的開發者數量等。

另外,開源社區推出了多個性能優異的開源大模型和開源的訓練數據集,極大降低了中小廠商的大模型研發成本,如Meta的Llama2以及國內北京智源人工智能研究院的悟道系列大模型等。

4.5" 依賴用戶提示的問題

目前各廠商和開源社區發布的大模型,普遍存在對用戶提示(prompt)比較敏感的問題[36]。用戶輸入的提示的句法或表述等即使存在很小的變化,也會導致大模型的輸出變化很大。

針對此問題,業界主要從兩方面著手解決:①各廠商和開源社區通常針對特定大模型發布用戶提示的教程或最佳實踐,用戶參照其中的內容,可以更好地控制大模型的輸出,獲得質量更高的響應。例如,OpenAI官方發布了一份提示工程指南[37],介紹了一些有效的技巧,可以讓GPT-4等大模型輸出更準確的內容。②在知識管理平臺的設計中,更加關注人機交互的模式,例如,可以將常用的用戶提示方法制作成提示模板,用戶基于模板增加個性化內容后,再提交給大模型,通過平臺界面和交互的優化設計來提高大模型使用的效果和滿意度。

5" 結語/Conclusions

大模型的出現有助于提高企業員工的工作效率,將員工從瑣碎的撰寫工作中解放出來,投入到需要更多創新性的工作中。這和企業開展知識管理工作的初衷是一致的,即減少員工的重復勞動,復用知識,從而為企業帶來更多的創新成果。

為了更好地將大模型的能力融入到知識管理工作中,知識管理要持續在應用場景上進行創新。例如,中國電信集團在知識管理實踐中基于大模型做了多項應用創新,包括:基于大模型向量嵌入的相似文檔識別、基于大模型知識庫的文檔輔助寫作助手、基于大模型知識庫的智能運維服務機器人等。這些應用均針對員工日常工作中內容繁瑣的環節進行創新,應用落地后極大提高了工作的自動化程度,提高效率的同時也大大減少了人工投入。

本文介紹了大模型對知識管理工作的賦能,同時也分析了大模型應用在知識管理實踐中遇到的挑戰,希望能給予行業同仁更多啟發,為企業帶來更高效、更精準、更靈活、更具創新性的知識管理體驗,共同促進國內知識管理行業的快速發展。

參考文獻/References:

[1] 陳勁, 趙闖, 賈筱, 等. 重構企業技術創新能力評價體系: 從知識管理到價值創造[J]. 技術經濟, 2017, 36(9): 1-8, 30. (CHEN J, ZHAO C, JIA X, et al. Reconstructing firm’s technological innovation capability evaluation system: from knowledge management to value creation[J]. Technology economics, 2017, 36(9): 1-9.)

[2] 宋建元, 陳勁.企業隱性知識共享的效率分析[J]. 科學學與科學技術管理, 2005(2): 58-61. (SONG J Y, CHEN J. Efficiency analysis of enterprise implicit knowledge sharing[J]. Science of science and management of S.amp;T., 2005(2): 58-61.)

[3] 趙闖, 陳勁, 薛瀾. 用知識管理打造企業核心能力——從C919首飛成功看中國商飛的“雙屏創新”[J]. 清華管理評論, 2017(5): 35-39. (ZHAO C, CHEN J, XUE L. Building core competence of enterprises through knowledge management: a study of COMAC’s “dual screen innovation” from the success of C919’s first flight[J]. Tsinghua business review, 2017(5): 35-39.)

[4] 郝建蘋. 國內外知識管理研究現狀綜述[J]. 情報雜志, 2003(8): 17-19. (HAO J P. A review of the current situation of knowledge management research at home and abroad[J]. Journal of intelligence, 2003(8): 17-19.)

[5] OpenAI. ChatGPT[EB/OL]. [2023-12-23] https://chat.openai.com/.

[6] Gartner. 5 impactful technologies from the gartner emerging technologies and trends impact radar for 2022[EB/OL]. [2023-12-02]. https://www. gartner.com/en/articles/5-impactful-technologies-from-the-gartner-emerging-technologies-and-trends-impact-radar-for-2022.

[7] REUTERS. ChatGPT sets record for fastest-growing user base - analyst note[EB/OL]. [2023-11-02]. https://www.reuters.com/technology/chatgpt-sets-record-fastest-growing-user-base-analyst-note-2023-02-01/.

[8] HOROWITZ A. How are consumers using generative AI?[EB/OL]. [2023-12-10]. https://a16z.com/how-are-consumers-using-generative-ai/.

[9] THOPPILAN R, DE FREITAS D, HALL J, et al. Lamda: language models for dialog applications[J]. arXiv preprint, 2022, arXiv:2201.08239.

[10] Google. PaLM 2 Technical Report[EB/OL]. [2023-11-16]. https://ai.google/static/documents/palm2techreport.pdf.

[11] TOUVRON H, LAVRIL T, IZACARD G, et al. Llama: open and efficient foundation language models[J]. arXiv preprint, 2023, arXiv:2302.13971.

[12] TOUVRON H, MARTIN L, STONE K, et al. Llama 2: open foundation and fine-tuned chat models[J]. arXiv preprint, 2023, arXiv:2307.09288.

[13] OpenAI. GPT-4[EB/OL]. [2024-03-12]. https://openai.com/research/gpt-4.

[14] Google. Gemini[EB/OL]. [2024-02-02]. https://gemini.google.com/.

[15] OpenAI. Creating video from text[EB/OL]. [2024-03-15]. https://openai.com/sora/.

[16] 百度. 文心一言[EB/OL]. [2024-02-02]. https://yiyan.baidu.com/. (Baidu. ERNIE Bot[EB/OL]. [2024-02-02]. https://yiyan.baidu.com/.)

[17] 中國電信.中國電信星辰AI大模型開源[EB/OL]. [2024-01-20]. http://www.chinatelecom.com.cn/news/02/202401/t20240112_79586.html. (China Telecom. China Telecom Star AI Big Model Open Source[EB/OL]. [2024-01-20]. http://www.chinatelecom.com.cn/news/02/202401/t20240112_79586.html.)

[18] PU X, GAO M, WAN X. Summarization is (almost) dead[J]. arXiv preprint, 2023, arXiv:2309.09558.

[19] ROMBACH R, BLATTMANN A, LORENZ D, et al. High-resolution image synthesis with latent diffusion models[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. New Orleans: IEEE/CVF, 2022: 10684-10695.

[20] OpenAI. Improving image generation with better captions[EB/OL]. [2024-03-26]. https://cdn.openai.com/papers/dall-e-3.pdf.

[21] LIN J, DAI X, XI Y, et al. How can recommender systems benefit from large language models: a survey[J]. arXiv preprint, 2023, arXiv:2306.05817.

[22] KEIVALYA P, MEHFUZA H. Automating customer service using LangChain: building custom open-source GPT Chatbot for organizations[J]. arXiv preprint, 2023, arXiv:2310.05421v1.

[23] WANG J, YI X, GUO R, et al. Milvus: a purpose-built vector data management system[C]//Proceedings of the 2021 international conference on management of data. Xi’an: SIGMOD, 2021:2614-2627.

[24] LEWIS P, PEREZ E, PIKTUS A, et al. Retrieval-augmented generation for knowledge-intensive NLP tasks[J]. arXiv preprint, 2020, arXiv:2005.11401.

[25] OpenAI. What are embeddings?[EB/OL]. [2024-03-16]. https://platform.openai.com/docs/guides/embeddings/what-are-embeddings.

[26] FlagOpen. FlagEmbedding[EB/OL]. [2024-02-02]. https://github.com/FlagOpen/FlagEmbedding.

[27] TechCrunch. Samsung bans use of generative AI tools like ChatGPT after April internal data leak[EB/OL]. [2024-03-11]. https://techcrunch.com/2023/05/02/samsung-bans-use-of-generative-ai-tools-like-chatgpt-after-april-internal-data-leak/.

[28] 中華人民共和國國家互聯網信息辦公室. 生成式人工智能服務管理暫行辦法[EB/OL]. [2024-03-20]. http://www.cac.gov.cn/2023-07/13/c_1690898327029107.htm. (CyberSpace Administration of China. Interim measures for the management of generative artificial intelligence services[EB/OL]. [2024-03-20]. http://www.cac.gov.cn/2023-07/13/c_1690898327029107.htm.)

[29] 云頭條. ChatGPT 或被關閉: 銷毀數據集[EB/OL]. [2023-10-15]. https://www.163.com/dy/article/ICF8QUR90511D6RL.html. (Cloud Head Bar. ChatGPT or closed: destroy dataset[EB/OL]. [2023-10-15]. https://www.163.com/dy/article/ICF8QUR90511D6RL.html)

[30] JI Z, LEE N, FRIESKE R, et al. Survey of hallucination in natural language generation[J]. ACM computing surveys, 2023, 55(12): 1-38.

[31] ZHANG M R, PRESS O, MERRILL M, et al. How language model hallucinations can snowball[J]. arXiv preprint, 2023, arXiv: 2305.13534.

[32] EVA A M V D, JOHAN B, WILLEM Z, et al. ChatGPT: five priorities for research[J]. Nature, 2023, 614(7947): 224-226.

[33] OpenAI. Openai’s gpt-3 language model: a technical overview[EB/OL]. [2023-10-18]. https://lambdalabs. com/blog/demystifying-gpt-3.

[34] FRANTAR E, ASHKBOOS S, HOEFLER T, et al. Gptq: accurate post-training quantization for generative pre-trained transformers[J]. arXiv preprint, 2022, arXiv:2210.17323.

[35] LIN J, TANG J, TANG H, et al. AWQ: activation-aware weight quantization for LLM compression and acceleration[J]. arXiv preprint, 2023, arXiv:2306.00978.

[36] KADDOUR J, HARRIS J, MOZES M, et al. Challenges and applications of large language models[J]. arXiv preprint, 2023, arXiv: 2307.10169.

[37] OpenAI. Prompt engineering[EB/OL]. [2024-04-02]. https://platform.openai.com/docs/guides/prompt-engineering.

作者貢獻說明/Author contributions:

張" 宇:確定研究選題,提出研究思路,撰寫與修改論文;

王玉梁:修改論文。

Applications and Challenges of Large Models in Knowledge Management

Zhang Yu" "Wang Yuliang

China Telecom Digital Intelligence Technology Co., Ltd., Beijing 100032

Abstract: [Purpose/Significance] By analyzing the application scenarios and challenges of large models in the field of knowledge management, this paper aims to provide reference and inspiration for research and practice in related fields, promote the deeper application of large models in the field of knowledge management, and improve the user experience of knowledge management tools. [Method/Process] By tracking the dynamics of software and hardware vendors, commercial products, open source projects, academic research, and actual customer experience, the practical application of large models in the field of knowledge management, and the problems and challenges faced in the process were summarized and sorted out. [Result/Conclusion] Large models have become a powerful tool for knowledge management and have more and more practical applications, including assisting in document writing, automatically generating document summaries, using natural language to retrieve information, intelligent question answering, etc. These applications have changed the way traditional knowledge management operates, making it more efficient, intelligent, and user-friendly. However, the application of large models in the field of knowledge management also faces some unresolved problems, such as data privacy protection, intellectual property rights protection, knowledge pollution, high costs, and unstable content output, which have yet to be solved.

Keywords: large model" " knowledge management" " knowledge base" " artificial intelligence

Author(s): Zhang Yu, senior business manager, senior engineer, master, E-mail: zhangy193@chinatelecom.cn; Wang Yuliang, technical director, senior engineer, master.

Received: 2023-11-28" " Published: 2024-04-25

作者簡介:張宇,高級業務經理,高級工程師,碩士,E-mail: zhangy193@chinatelecom.cn;王玉梁,技術總監,高級工程師,碩士。

收稿日期:2023-10-30" " " " 發表日期:2024-05-23

猜你喜歡
人工智能
我校新增“人工智能”本科專業
用“小AI”解決人工智能的“大”煩惱
汽車零部件(2020年3期)2020-03-27 05:30:20
當人工智能遇見再制造
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
AI人工智能解疑答問
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
基于人工智能的電力系統自動化控制
人工智能,來了
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
人工智能來了
學與玩(2017年12期)2017-02-16 06:51:12
主站蜘蛛池模板: 午夜三级在线| 亚洲精品国产首次亮相| 欧美啪啪网| 国产在线无码av完整版在线观看| 日本精品中文字幕在线不卡| 久久久久无码国产精品不卡| 国产一区免费在线观看| 国产区91| 99热这里都是国产精品| www亚洲天堂| 九九热精品视频在线| 露脸真实国语乱在线观看| 国产精品毛片在线直播完整版 | 色妞永久免费视频| 热伊人99re久久精品最新地| 国产凹凸视频在线观看| 亚洲欧美精品在线| 国产精品亚洲天堂| 国产95在线 | 色老二精品视频在线观看| 99精品国产自在现线观看| 91久久国产成人免费观看| 国产精品视频3p| 四虎在线观看视频高清无码 | 国产91高跟丝袜| 欧美色丁香| 精品视频第一页| 色噜噜综合网| 一级毛片不卡片免费观看| 人妻91无码色偷偷色噜噜噜| 中文字幕2区| 亚洲一区二区三区国产精华液| 国产特一级毛片| 97在线免费| 日韩欧美在线观看| 日韩不卡免费视频| 国产成人无码AV在线播放动漫 | 国产成人综合亚洲网址| 成人午夜久久| 怡红院美国分院一区二区| 欧美精品不卡| 91欧洲国产日韩在线人成| 人妖无码第一页| 亚洲男人天堂2018| 97青青青国产在线播放| 一本视频精品中文字幕| 国产美女精品在线| 久久精品丝袜高跟鞋| 亚洲乱伦视频| 亚洲国产成人在线| 激情综合五月网| 久久免费视频播放| 亚洲国产系列| 国产成人精品一区二区免费看京| 9966国产精品视频| 国内精品小视频在线| 中文字幕欧美日韩| 91亚洲免费视频| 国产丰满大乳无码免费播放| 夜夜拍夜夜爽| 伊人福利视频| 亚洲Va中文字幕久久一区| 久久久久人妻一区精品| 999在线免费视频| 国产伦精品一区二区三区视频优播 | 色老头综合网| 国内精品视频区在线2021| 99久久精品国产综合婷婷| 97se亚洲综合| 国产主播福利在线观看| 免费又黄又爽又猛大片午夜| 97精品久久久大香线焦| 一级毛片免费播放视频| 日韩成人免费网站| 毛片在线播放网址| P尤物久久99国产综合精品| 亚洲伊人天堂| 国产精品无码影视久久久久久久| 高清不卡一区二区三区香蕉| 国内丰满少妇猛烈精品播| 亚洲最大综合网| 国产原创演绎剧情有字幕的|