999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種混合提示學習與規則的領域命名實體識別方法

2025-08-27 00:00:00張晗張亞洲徐秉智張鋮方
鄭州大學學報(理學版) 2025年5期

關鍵詞:提示學習;命名實體識別;自然語言處理;低資源

中圖分類號:TP183 文獻標志碼:A 文章編號:1671-6841(2025)05-0031-08

DOI: 10.13705/j.issn.1671-6841.2024040

Abstract: Prompt-based fine-tuning was a new direction to improve the performance of domain specific named entity recognition (NER).However,the existing methods faced challenges such as the need of manual template construction,lengthy prompt information,and fixed prompt templates.To address these issues,a method combined prompt learning with expert knowledge was proposed in the field of domain specific named entity recognition.Firstly,by introducing the bootstrapping algorithm,potential entities were automatically identified. And the string matching algorithm used in the process of obtaining unannotated entity types from the same context was improved to obtain more prompt information templates. Next, expert knowledge from the domain ontology was introduced to address the reliability concerns associated with prompt information. Simultaneously,first-order predicate logic was used to represent prompt information and to improve the representation of prompt information.Finally,with experiments on finance dataset and information security dataset,the method was verified to improve the performance of domain specific named entity recognition effectively.

Key words: prompt based learning; named entity recognition; natural language processing; low resource

0 引言

命名實體識別(NER)旨在從文本中提取各種類型的實體,其結果可用于其他復雜任務諸如關系提取[1]、領域知識圖譜的構建[2-3]等。與通用領域的命名實體識別任務相比,特殊領域的命名實體識別經常面臨著兩方面的問題:領域標注數據缺乏;領域中的實體形式更加復雜,并非局限于傳統NER定義的名詞或者名詞短語。

目前,基于提示的調優學習已經成為自然語言處理領域的新范式[4]。基于提示的調優學習可以通過改造下游任務和增加專家知識,使任務的輸入和輸出適合原始語言模型,從而在少樣本場景中獲得良好的效果。但是,目前基于提示的調優學習多應用于文本分類或文本生成領域[5-7],在命名實體識別領域的應用較少。

通過對文獻[8-12]進行分析后發現,目前已經發表的基于提示學習的 NER方法具有如下缺陷:1)需要人工構造提示信息模板,因此需要耗費大量的人力且容易出錯;2)需要對序列中的每一個單詞都構造提示信息[9-i0],當輸人序列較長時,會增加序列的長度,增加模型的計算復雜度;3)提示信息模板較為固定[11-12],在面對復雜類型實體時表現較差。

事實上,構造提示信息模板是影響提示學習方法性能的關鍵因素[13]。因此,本文將更加關注提示信息的自動構造問題以及提示信息的可靠性問題。目前已有不少研究驗證了專家知識的加人對提升模型在數據集上的可靠性有很大幫助[14-15]。鑒于以上思想,本文提出了一種結合提示學習與專家知識的NER方法,該方法的核心部分即提示信息構造模塊,在這個模塊中引入了Bootstrapping 算法[來解決提示模式的固定問題,然后又引入領域本體中的專家知識來解決提示信息的可靠性問題。同時,本文還在該模塊中引人了謂詞邏輯理論,相較于采用自然語言序列作為提示信息的方法[9,II-12],謂詞邏輯的序列更短,更易于被模型理解。此外,為了提高方法的運行效率,本文提出了一種基于AC自動機的高效文本匹配方法,以縮減使用Bootstrapping算法的時間。本文的主要貢獻如下。

1)提出了一種基于提示學習與規則的領域命名實體識別方法,用于解決領域中的標注數據稀缺問題,該方法在低資源場景的信息安全和金融領域數據集上都表現出了最優的性能,這些改進主要來自可靠而多樣的提示信息構造。

2)提出了一種提示信息自動構造方法,該方法首先通過Bootstrapping算法來獲取實體的上下文模式,然后通過引人本體中的專家知識增加提示信息的可靠性,并采用一階謂詞公式的形式來表示提示信息,這樣既解決了由于提示信息的加入所造成的輸入序列過長問題,又易于對模型的理解。

3)提出了一種實體上下文模式在非結構化文本中的快速匹配方法,在AC_BM算法的基礎上進行改進,將Double-arraytrie引入AC_BM算法,解決了AC_BM算法在中文領域的空間浪費及內存溢出問題。

1相關工作

標注數據缺乏一直是領域命名實體識別所面臨的一個大問題。最近,一種資源較少的下游任務方式——提示學習[17]引起了人們的興趣。2021年,Cui等[9]提出采用cloze prompt 解決小樣本下的NER任務。對于一個句子,如果某個詞組是實體,那么其對應的模板就是 i:jgt; isa kgt; ;如果某個詞組不是實體,那么其對應的模板為 i:jgt; is not anentity。這種模板構造方法過于依賴人工經驗,并且效果也難以保障。

為了解決上述問題,文獻[10]利用同種類型實體相互預測以及構造空間映射,將NER任務的提示學習構造為無須模板的語言模型問題。Shen 等[8]構造了雙槽多提示模板,將實體的定位與實體類型統一到一輪中,通過并行的方法提取所有可能的實體。利用二分圖實現模板與實體的自動對應,自動形成提示模板。He等[18]利用外部知識對實體類型對語義初始化并結合對比損失,將無須模板的提示嵌入句子表達中,也降低了模板構造與枚舉過程的資源消耗。然而,由于領域數據集的稀缺,文獻[8]中同類型實體的集合很難構建。Lee等在低資源場景下,通過在數據文本后提供額外的信息描述形成基于演示的學習,利用面向實體與面向實例的拼接提示模板來代替手工模板。有的研究從不同語言與不同任務的特點出發分別提出了跨語言與跨任務的基于提示學習的NER方法。Wang等[1利用不同語言作為監督與度量指標,實現了當時最先進的少樣本跨語言NER任務效果。為了涵蓋信息抽取過程中不同的模式特點,Lu等[2通過提示學習實現了語義知識共享以及任務遷移。與上述方法不同的是,文獻[12]構造的查詢模板中包含了類別信息,訓練的模型從文本序列中定位實體并補全模板。

2 方法

2.1 問題定義

假設有少量標注數據集 D,xi∈D ,有未標記文本集合 T ,此時,通過將 D 中的 xi 對 T 進行逐一匹配,獲取一個候選規則集 r,ri={prefixi,xi,postfixi} ,將規則集 r 套用到未標記文本上,從而可以獲取與xi 相同前后綴的實體 zj ,若 xi 標簽為 yi ,則 zj 標簽也為 yi ,會導致識別的實體有限,且會出現準確率高但召回率低的問題。因此,需要進一步加入領域本體作為輔助。從本體 o 中獲取所有包含 yi 類別關系的集合re ??l,reli,j={?yi ,relation, ∣yj∣ , yi 為實體 xi 對應的類別標簽, yj 表示本體 o 中其他類別標簽,與xi 所在的文本進行相似度比較,選擇其中置信度最高的規則 reli,j 作為提示信息。將其與原文本一同作為預訓練語言模型的輸人,獲取未標記實體 xj 的標簽yjo

2.2 模型介紹

在本文所提出的方法中,提示信息模板構造是其核心部分。與之前提出的方法不同的是,本文為了保證提示信息的多樣性和可靠性,采取了半監督方法Bootstrapping算法與專家知識相結合的方式,方法具體流程如圖1所示。由圖1可以看出,本文的模型主要包括了三個核心部分。

圖1 模型架構圖

Figure1Modelarchitecturediagram

1)相同上下文未標注實體類別獲取:該部分主要為本體中的可信任規則篩選提供匹配信息。它利用少樣本標注數據集 Di 獲取規則模式集合 R ,然后通過快速匹配算法,對句子 si 中的具有相同前后綴的未標記實例 xj 標記類別 yj

2)本體中的規則篩選:該部分主要用于篩選本體中的規則,將規則作為提示信息來標注句子 si 中不能通過規則模式匹配的實體類別。它將前一個組件提出的 yj 作為輸人,將本體中所有包含了 yj 及其關系的三元組提取出來,組成集合 Regj

3)可信提示信息獲取與模型訓練:該部分主要用于從 Regj 中獲取可信的規則作為提示信息。本文將引入數理邏輯中的概念,將 Regj 中所有的規則與輸入句子進行對比,然后提取其中可信度最高的規則 Regji 作為提示信息,與 si 一同交給預訓練模型。然后將模型分類出的結果返回給第2)部分,通過自監督訓練模型。

2.2.1相同上下文未標注實體類別獲取 在這一階段,本文通過Bootstrapping算法將與標注數據集具有相同上下文的未標注實體標注出來。這部分的核心工作是字符串的快速匹配算法。傳統的字符串匹配算法有KMP算法和BM算法,而本文的工作更類似于多模式查詢匹配,AC自動機算法更適用于本文的工作。文獻20]中采用了效率更高的BM算法代替了原來AC自動機算法中的KMP算法,更加提升了查詢的速度。但是文獻[20]主要針對的是英文模式匹配,這意味著構建英文詞典的前綴樹,只需要維護一個26叉樹。但中文字符集的規模遠遠超過英文,由于前綴樹的每個節點都需要創建一個與字符集等長的數組來快速訪問子節點,直接將文獻[20]用于中文模式匹配會造成空間的浪費并導致內存溢出問題。而Double-array結合了array查詢效率高、list節省空間的優點。因此,本文采用Double-arraytrie(DATrie)與BM算法相結合的方法,構建一種高效的中文多模式查詢算法(DAAC_BM算法)。該算法過程如下所示。

步驟1:根據字典 N 生成前綴樹trie。將trie的root節點存入隊列queue,并初始化base和check數組。獲得每個節點的好前綴偏移gsShift與壞字符偏移bcShift。

步驟2:當queue不為空時,從queue中出隊一個節點currentNode,尋找其在base中對應的值baseVal,并將currentNode的所有子節點加人隊列。然后獲得currentNode的父節點在base中的下標checkVal,并將baseVal和checkVal存人base和check數組。

步驟3:將輸人序列 X 分割為 n 值不同的 n -gram子串組成的詞語組集合{phrases',phrases2,phrases\"},對詞語組phrasesk中包含的詞語phrases進行匹配。

步驟4:phrases為字符集合 {ci1,ci2,…,cik} 。初始化下標 j ,通過base數組和check數組在 N 中查找模式 {cij,cij+1,…} 。若完整匹配 N 中一個詞語,則phrases匹配成功并跳轉步驟6。

步驟5:根據步驟4中匹配結果,取gsShift和bcShift中較大值作為 j 的位移量,返回步驟4并重新計算 j 。直到 j 小于0,則phrases匹配完成。

步驟6:返回步驟3,直到{phrases',phrases2…,phrases\"}中phrases全部完成匹配,并返回所有匹配成功的詞語。

下面,本文對DAAC_BM算法與KMP算法、BM算法以及傳統的AC_BM算法分別比較時間復雜度和空間復雜度。

假設存在 k 個待匹配模式 Pk , m 為模式 Pk 中單個模式的長度,目標文本 T 長度為 n ,字典的大小為 D 。KMP算法的每個模式匹配的時間復雜度為O(n) ,計算next數組為 O(m) 。在多模式匹配情況下,總的時間復雜度為 O(k*n) (排除預處理時間)。BM算法每個模式匹配的時間復雜度在O(n/m) 和 O(m*n) 之間,則多模式下在O(k*n/m) 和 O(k*m*n) 之間。改進后的算法可以分為在 T 上的移動與在AC 樹中查找節點兩部分。在目標文本上匹配和移動時,最佳情況下的時間復雜度為 O(n/min(m)) ,最差情況下為O(n*max(m)) ,平均為 O(n/m) 。在AC樹中查找時,如果每個節點只存儲其后繼子節點,則每個節點查找下一個節點的時間復雜度取決于查找算法,如二分查找為 O(logD) ,則總體時間平均復雜度為 。如果每個節點存儲的是字典長度,則查找下一個節點的時間復雜度為 O(1) 。這與傳統的AC_BM算法查找效率相同,總體時間

復雜度為 O(n/m) 。

在空間復雜度上,傳統的 AC- BM算法的空間復雜度在 O(D*max(m) )和 O(D*avg(m)*k) (號之間。而改進后的算法主要包含兩個數組,每個數組的大小在 O(max(m) )和 O(avg(m)*k) 之間。因此,DATrie的空間復雜度在 O(max(m)+D) 和O(avg(m)*k+D) 之間。相比之下,改進后的算法在保持與傳統算法相同查找效率的同時解決了傳統AC_BM算法中的空間消耗過大及內存溢出問題。

2.2.2本體中的規則篩選該部分主要對本體中的規則進行篩選,將實體類別 yj 作為輸入,從本體中提取出所有包含了 yj 及其關系的三元組,組成集合 Regj 。例如:

影子經紀人利用永恒藍和雙脈沖星這兩個漏洞進入受害者的機器

在這句話中,本文先通過Bootstrapping算法將實體“影子經紀人”標記類別為“威脅主體”。然后采用KMP算法從網絡安全領域本體UCO中獲取所有含有“威脅主體”的三元組。因為缺乏比較完善的中文網絡安全領域本體,所以,本文采用了最簡單的翻譯方式。如圖2所示,這些三元組構成了“threat agent”的關系集合 Reg attack ○

圖2UCO中所有含有“威脅主體”的三元組

Figure 2 All triples containing \"threat agent\" in UCO

2.2.3可信提示信息獲取接下來,本文將要從Regattack 中獲取可信的規則作為提示信息。由于Regautack 中都是以三元組形式構建的集合,本文將其轉換為一階謂詞邏輯公式集合 Predictattack 。同樣,也要把句子轉換成一階謂詞邏輯的形式。一個句子的核心成分為主語、謂語和賓語。謂語類似于謂詞邏輯公式中的謂詞,主語和賓語就相當于謂詞邏輯中的項。因此,第一步,本文先對輸入文本進行詞性標注,提取句子中所有動詞。第二步,對句子進行語法依存關系分析,提取名詞主語。最后,本文再提取動詞的直接賓語。以“影子經紀人利用永恒藍和雙脈沖星這兩個漏洞進入受害者的機器”這句話為例。首先提取兩個動詞“利用”和“進入”;其次,提取句子中的名詞主語“影子經紀人”;最后提取“利用”和“進入”的直接賓語,分別是“漏洞”和“機器”。因此,可以構建出該句子的謂詞公式分別是“利用(影子經紀人,漏洞)”和“進入(影子經紀人,機器)”。在2.2.1的工作中,已經確定了影子經紀人的類型為“威脅主體”,因此,謂詞公式可轉換為“利用(威脅主體,漏洞)”“進入(威脅主體,機器)”。

本文將從句子中得到的謂詞邏輯公式集合Predictsentence 與 Predictattack 進行比較,獲取相似度比較高的謂詞公式,本文采用的是余弦相似度比較方法。如果 Predictsentencei 與 Predictattackj 的相似度大于閾值 λ ,則 Predictattackj 被選為可信賴的提示規則,然后將其轉變為普通句子的形式,與輸入句子一同輸入預訓練語言模型中。

2.2.4模型訓練借鑒同類相吸引異類相排斥的觀點,本文認為模型要達到好的訓練效果應當使得同類別距離最小,不同類別距離最大。

有實體集合 E ,其中, E?B∈E 表示通過Boot-strapping算法標注的實體集合, Ey∈E 表示通過模型標注的實體集合。由于Bootstrapping算法具有高準確率,因此,本文將 E?B 中屬于同類別的實體向量求和取均值作為該類別中心,設 為預測標簽, 為類別 yi 的中心, Y 為所有類別集合,則目標函數 Lurget 可表示為

3 實驗與分析

本文設計了三個實驗來驗證本文方法的優越性。首先,比較本文方法與其他先進的命名實體識別方法在數據集上的表現;其次,利用不同批注樣本數量的數據集訓練模型,驗證本文方法在低資源場景數據集上的適應性;最后,比較了AC_BM算法與DAAC_BM算法在關鍵字集上的空間消耗。

3.1實驗設置與基線模型

實驗使用了金融與網絡安全兩個領域數據集。金融數據集(DatasetI)包含了從多個金融網站的新聞、財報、文章摘要等信息中提取的7521個句子,批注了人名(PER)、產品名(PRO)、公司名(COM)地名(LOC)、組織(ORG)和時間(TIME)6種實體類型。網絡安全領域數據(DatasetⅡ)主要來自Freebuf網站和烏云漏洞數據庫,共13428條數據,包含了PER、LOC、ORG、軟件名(SW)、網絡術語(RT)和漏洞編號(VUL)6類實體類型。

實驗中的5個基準模型分別如下。

1)BERT-tagger:在BERT模型的基礎上利用標簽分類器進行微調的方法[21]。

2)BERT-BiLSTM-CRF:一種利用BERT模型實現上下文關聯,結合雙向長短時記憶網絡進行微調的方法[22]。

3)BERT-RDCNN-CRF:該方法針對網絡安全領域的數據集,在BERT模型的基礎上增加了基于殘差空洞卷積網絡與CRF層[23]

4)PWII-BERT:一種將提示引導詞匯信息集成到BERT模型的中文命名實體識別方法[24] 。

5)TemplateNER:一種低資源場景下無模板的提示學習方法[10] 。

本實驗中使用的預訓練模型為BERT-base-Chi-nese模型,訓練優化器為Adam,學習率為 1×10-5 O模型輸入的最大句子長度為256,批大小設置為32。實驗的硬件環境為64GB顯存的NVIDIAGTX3090顯卡、64 GB內存。

在驗證集上取得最佳 F1 值的前提下,將本文中在DatasetI和Dataset Ⅱ上使用的閾值 λ 分別設定為0.64與0.58。本文所提方法在處理信息安全領域數據集時用的本體為UCO,處理金融領域數據集時用到的本體為FTHO。

本實驗中采用常用的精確率(precision, P )、召回率(recall, R ) .F1 分數作為評價標準。計算每個類別的 P,R,F1 ,累加后取平均值作為總體數據集的評估值。

3.2 結果分析

3.2.1與基線模型的對比實驗通過多輪訓練,每種方法在兩個數據集上實驗時最佳性能結果如表1所示。觀察表1可以發現,本文方法在兩個數據集上的表現總體超過基線模型。在引入了句法與表層特征提取模型后,BERT-BiLSTM-CRF和BERT-RDCNN-CRF都可以較大提高模型的識別效果。同時,PWII-BERT、TemplateNER以及本文方法這些基于提示學習的微調方法,總體表現更好,特別是在召回率上。這可能是由于提示學習與預訓練任務形式更相似,在低資源場景下具有較好的泛化能力。本文方法在去除本體知識后,在兩個數據集上的 P?R 和 F1 都明顯下降,驗證了本體知識作為提示信息的有效性。本文方法在 R 與 F1 兩個指標上高于其他方法,這得益于本體知識的加入為模型提供了更全面、準確的提示信息。而在DatasetI的 P 指標上,PWII-BERT模型略高于本文所提出的方法,這可能是由于文獻[24]將詞級特征注入提示信息中。總體來說,本文的方法在金融與網絡信息安全的兩個領域數據集上,取得了最好的綜合效果。

表1各方法在金融與網絡安全領域數據集上的表現性能

Table1Performance evaluation of methods on datasets in the finance and cybersecurity domai

注: -0 為本文方法在去除本體知識后的模型;黑體為最優值。

3.2.2在低資源情況下的性能實驗為了驗證在少樣本情況下的模型效果,本文隨機選擇比例為10% ) 20% .30% ? 50% 100% 的訓練數據集對模型訓練。不同模型的 F1 性能結果如表2所示。由表2可以得出,隨著訓練數據集的減少,BERT-tagger與BERT-BiLSTM-CRF模型的性能會有明顯下降。在訓練數據集較多時,PWII-BERT與本文方法效果相近,但當可用數據降低到 20% 與 10% 時,本文的方法表現更好。TemplateNER、PWII-BERT方法由于提示學習方法的特點, F1 下降趨勢并不太明顯。總體來說,本文方法總體保持最高的 F1 值,尤其是在20% 與 10% 的情況下,

表2不同比例訓練集下各模型的 F1

Table2 F1 scores ofdifferent models with different training set ratios

注:黑體為最優值。

3.2.3DAAC_BM算法與原始AC_BM算法的空間對比實驗該實驗比較了AC_BM算法和DAAC_BM算法使用6個中文關鍵字集(setofkeywords,SK)構造的查找樹與雙數組在空間上的表現。通過Python實現AC_BM算法與改進的算法,并分別統計4個關鍵字集形成的查找樹與雙數組占用的內存空間信息。關鍵字集統計信息與算法內存占用結果見表3。

從表3可以發現,DAAC_BM算法在所有關鍵字集上測試的內存占用低于AC_BM算法,驗證了DAAC_BM算法的有效性。特別是當關鍵字集合較大時,改進后AC_BM算法占用的內存變化并不大,這是因為雙數組的緊湊結構可以避免不必要的空白節點造成的空間資源浪費。在可接受的預處理時間消耗范圍內,DAAC_BM算法結合了AC_BM算法與Double-arraytrie的優點,在內存占用方面表現更為高效。

表3關鍵字集統計信息與各算法占用內存

Table 3Statistical information of keywords set and the memory occupancy with different algorithms

4結語

本文提出了一種結合提示學習與專家知識的領域命名實體識別方法。引人Bootstrapping 算法自動識別潛在的實體,并改進了相同上下文未標注實體類別獲取過程中字符串匹配的算法以獲取更多提示信息模板。引人領域本體中的專家知識來解決提示信息的可靠性問題,采用一階謂詞公式的形式表示提示信息來改善提示信息長度。實驗表明,本文方法與其他基準模型相比,在金融與信息安全領域命名實體識別任務上能夠達到更加優越的性能。考慮中文分詞的特點,未來工作需要進一步研究如何有效利用詞級信息,以提升模型在中文數據上的識別效果。

參考文獻:

[1] YANGLY,YUANLF,CUI LY,et al.FactMix:using a fewlabeled in-domain examples to generalize to crossdomain named entity recognition[EB/OL].(2022-08- 24)[2023-12-16]. https:// doi. org/10.48550/arXiv. 2208.11464.

[2] 李明鍵,李衛軍,王海榮.融合關聯信息與CNN的實體 識別研究[J].大學學報(理學版),2023,55(5): 53-59. LIMJ,LIWJ,WANG HR.Fusion ofassociationinformation and entity recogni-tion of CNN[J].Journal of Zhengzhou university(natural science edition),2023,55 (5):53-59.

[3] ZHAO YC,ZHANGBK,GAO D.Construction of petrochemical knowledge graph based on deep learning[J]. Journal of loss prevention in the process industries,2022, 76:104736.

[4] HANX,ZHANGZY,DINGN,etal.Pre-trainedmodels:past,present and future[J].AI open,2O21,2: 225-250.

[5] DING N,CHEN Y L,HAN X,et al. Prompt-learning for fine-grained entity typing[C]//Findings of the Association for Computational Linguistics. Stroudsburg: Association for Computational Linguistics,2022:6888-6901.

[6]SCHICK T, SCHUTZE H. It's not just size that maters : small language models are also few-shot learners[EB/ OL].(2020-09-15)[2023-12-16].https:// doi.org/ 10.48550/arXiv. 2009.07118.

[7] WUYQ,,LIU YF,LUWM,et al. Towards interactivity and interpretability:a rationale-based legal judgment prediction framework[C]//Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing. Stroudsburg: Association for Computational Linguistics,2022: 4787-4799.

[8]SHEN Y,TAN Z,WU S,et al. Prompt-NER:prompt locating and typing for named entity recognition[EB/ OL].(2023-05-26)[2023-12-16]. https:// doi.org/ 10. 48550/arXiv. 2305.17104.

[9]CUI L Y,WU Y,LIU J,et al. Template-based named entity recognition using BART[C]//Findings of the Association for Computational Linguistics. Stroudsburg:Association for Computational Linguistics,2021:1835-1845.

[10]MA R T,ZHOU X,GUI T,et al. Template-free prompt tuning for few-shot NER[C]//Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Stroudsburg:Association for Computational Linguistics,2022:5721-5732.

[11]LEE D H,KADAKIA A,TAN K M,et al. Good examples make a faster learner:simple demonstration-based learning for low-resource NER[C]//Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics. Stroudsburg:Association for Computational Linguistics,2022:2687-2700.

[12]LU Y J,LIUQ, DAI D,et al. Unified structure generation for universal information extraction[C]//Proceedings of the 6Oth Annual Meeting of the Association for Computational Linguistics.Stroudsburg:Association for Computational Linguistics,2022:5755-5772.

[13]LINGTT,CHENL,SHENGHX,etal.Sentence-level event detection without triggers via prompt learning and machine reading comprehension[EB/OL].(2023-06- 25)[2023-12-16]. http://arxiv.org/abs/2306.14176.

[14]CHEN H N,LUO X W.An automatic literature knowledge graph and reasoning network modeling framework based on ontology and natural language processing[J]. Advanced engineering informatics,2019,42:100959.

[15]BIERMANN D,GOODWIN M,GRANMO O C. Knowledgeinfused representations through combination of expert knowledge and original input[C]//Symposium of the Norwegian AI Society. Cham:Springer International Publishing,2022:3-15.

[16]TEIXEIRA J,SARMENTO L,OLIVEIRA E. A bootstrapping approach for training a NER with conditional random fields[C]//Portuguese Conference on Artificial Intelligence. Berlin:Springer Press,2011:664-678.

[17]SCHICK T,SCHUTZE H. Exploiting cloze-questions for few-shot text classification and natural language inference [C]/Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics. Stroudsburg:Association for Computational Linguistics, 2021:255-269.

[18]HE K,MAO R,HUANG Y C,et al.Template-free prompting for few-shot named entity recognition via semantic-enhanced contrastive learning[J]. IEEE transactions on neural networks and learning systems,2O23,99:

[19]WANGYG,HUANGYC,GONGTL,etal.Enhancingcross-lingual few-shot named entity recognition by prompt-guiding[C]//International Conference on Artificial Neural Networks.Cham:International Springer Publishing,2023:159-170.

[20] COMMENTZ-WALTER B. A string matching algorithm fast on the average[M]//Automata,Languages and Programming.Berlin:Springer Press,1979:118-132.

[21]DEVLIN J,CHANG M W,LEE K,et al.BERT:pretraining of deep bidirectional transformers for language understanding[EB/OL].(2019-05-24)[2023-12-16]. http : //arxiv. org/abs/1810. 04805.

[22]HU X S,ZHANG HJ,HU SL. Chinese named entity recognition based on BERTbased-BiLSTM-CRF model [C]//IEEE/ACIS 22nd International Conference on Computer and Information Science. Piscataway:IEEE Press, 2022:100-104.

[23]謝博.基于深度學習的中文網絡威脅情報信息抽取技 術研究[D].貴陽:貴州大學,2022. XIEB. Research on information extraction technology of chinese cyber threat intelligence based on deep learning [D].Guiyang:Guizhou University,2022.

[24]HEQ,CHEN GW,SONG W C,et al.Prompt-based word-level information injection BERT for Chinese named entity recognition[J]. Applied sciences,2023,13(5): 3331.

主站蜘蛛池模板: 国产毛片片精品天天看视频| 狠狠色香婷婷久久亚洲精品| 国产精品久久久久久久久| 四虎精品国产AV二区| 欧美精品v日韩精品v国产精品| 毛片免费高清免费| 东京热一区二区三区无码视频| 波多野结衣国产精品| 久久久受www免费人成| 91在线高清视频| 欧美成人午夜视频免看| 亚洲激情99| 免费啪啪网址| 欧美精品色视频| 久久精品aⅴ无码中文字幕| V一区无码内射国产| 香蕉视频在线观看www| 欧美伦理一区| 制服丝袜一区二区三区在线| 国产在线观看一区精品| 在线亚洲精品自拍| 污污网站在线观看| 亚洲一区二区在线无码| 蜜桃视频一区| 国内精品九九久久久精品 | 婷婷99视频精品全部在线观看| 国产另类视频| 日本午夜影院| 亚洲天堂高清| 国产成人精品免费av| 国产一区二区网站| 国产麻豆另类AV| 精品无码一区二区三区在线视频| 亚洲制服丝袜第一页| 国产精品久久久久鬼色| 国产精品xxx| 99福利视频导航| 精品国产成人av免费| 最新日本中文字幕| 日本三级精品| 成人毛片免费在线观看| 国产综合另类小说色区色噜噜| 国产色爱av资源综合区| 日韩在线1| a色毛片免费视频| 亚洲国产日韩视频观看| 日本亚洲国产一区二区三区| 992Tv视频国产精品| 亚洲综合第一页| 99这里只有精品在线| 免费AV在线播放观看18禁强制| 欧美高清三区| 国产一区二区人大臿蕉香蕉| 久久久久久久久亚洲精品| 亚洲天堂首页| 国精品91人妻无码一区二区三区| 国产视频入口| 91在线中文| 爽爽影院十八禁在线观看| 亚洲经典在线中文字幕| 亚洲天堂伊人| 91精品久久久久久无码人妻| 国产亚洲精品在天天在线麻豆 | 久久婷婷五月综合色一区二区| 国产精品分类视频分类一区| 99久久国产综合精品2023| 亚洲中久无码永久在线观看软件| 精品三级在线| 尤物精品国产福利网站| 成人福利在线免费观看| 久久综合亚洲鲁鲁九月天| 亚洲三级a| 亚洲丝袜中文字幕| 国产人免费人成免费视频| 欧美一级夜夜爽| 在线播放精品一区二区啪视频| 国产真实乱了在线播放| 人人看人人鲁狠狠高清| 正在播放久久| 中文字幕不卡免费高清视频| 一本色道久久88| 日本尹人综合香蕉在线观看 |