陳洪輝 鄭建明 蔡 飛 韓 毅
1 (國防科技大學系統工程學院 長沙 410073)
2 (國防科技大學氣象海洋學院 長沙 410073)
關系抽取[1](relation extraction, RE)通過識別非結構化文本中實體之間的關系類別,獲取信息三元組(頭實體,關系,尾實體).例如,給定上下文句子“Newton was served as the president of the Royal Society”,對于頭實體Newton 和尾實體Royal Society,關系抽取模型可以識別出這2 個實體之間包含“member of ”關系.關系抽取任務是自然語言處理中的一項基礎任務,可以支撐大量下游任務,例如:知識圖譜補全[2]、問答系統[3]、對話生成[4],等.傳統的關系抽取方法(基于高斯核[5-6]、基于特征[7]以及基于神經網絡[8]等)依賴大量標注數據實現模型的收斂.然而,在現實應用中,新的實體和關系類別不斷涌現,標注足夠訓練數據的速率遠遠趕不上新類別的涌現速率[9-10]①例如,FewRel[9]是2018 年標注的大型關系抽取數據集,它從Wikidata[10]中抽取100 種關系類別.然而,這個數量遠少于當時920 種類別的數據量.更為嚴峻地,Wikidata 中無標注關系類別數量到現在為止已經增長到6 000 余種.,使得關系抽取任務陷入少樣本困境.
針對該挑戰,現有模型普遍采用元學習(meta learning)的訓練范式[11-14].其核心在于將數據豐富的關系類別分解成一系列N-類K-樣本(N-wayK-shot)的元任務,用以模擬數據匱乏的應用場景,如圖1 所示.通過元任務訓練,關系類別間的元知識得以獲取,進而快速泛化到數據匱乏的關系類別中.盡管元學習的范式取得了明顯的進展,但它們僅僅側重于標注數據,而少樣本任務中由于標注數據量稀少導致的過擬合風險仍然存在.為了應對該風險,神經雪球(neural snowball, NS)模型[15]著眼于現實應用中廣泛存在且容易獲得的無標注數據.該模型將元學習和自助采樣相結合,通過將現有標注數據中的知識遷移到無標注數據中,為無標注數據打上偽標簽,從而實現標注數據量的持續增加.由此,神經雪球模型不僅可通過元學習破除傳統關系抽取模型難以解決少樣本的局限性,還可通過對無標注數據的知識遷移極大提升標注數據量,顯著降低模型過擬合的風險.

Fig.1 Example of 3-way 2-shot relation extraction meta task圖1 3-類別2-樣本關系抽取元任務的示例
然而,回溯神經雪球模型,我們發現其存在2 種缺陷:
1)當無標注數據打偽標簽時,神經雪球模型是通過一個固定相似度閾值來判定無標注數據是否屬于特定關系類別.可是不同關系類別在相似度閾值的選擇上存在差異.如圖2 所示,當相似度閾值固定在0.60 時,雖然可以很好地區分“board member”和“owned by”這2 種關系,但卻無法辨別“publisher”和“item operated”的關系.因此,設定固定閾值會不可避免地打錯標簽,使得新入選的無標注數據包含噪聲.

Fig.2 Similarity scores in unlabeled data圖2 無標注數據相似度得分
2)神經雪球模型對新入選的無標注數據予以相同的置信度,并將其納入關系抽取模型的訓練當中.然而,這種不加區分的訓練,會進一步放大噪聲數據的影響,勢必會造成關系分類器的性能偏移.
針對上述2 種缺陷,本文提出一種基于適應性自訓練的少樣本關系抽取模型(adaptive self-training relation extraction, Ada-SRE).具體地,對于缺陷1),我們從模型無關的元學習[16](model-agnostic meta-learning,MAML)中得到啟發,提出一種自適應閾值模塊.不同于傳統的有監督學習,MAML 通過模型無關的元任務訓練來獲取模型參數的梯度停靠點.由此,即使在只有少量的新關系樣本的情況下,模型也能實現快速泛化.借助于MAML 的快速泛化能力,自適應閾值模塊同樣可通過元任務訓練去學習關系閾值的梯度停靠點.當出現新的關系類別時,能夠通過較少的梯度更新獲取最適合當前關系類別的閾值.值得注意的是,MAML 僅僅適用于標注數據,而自適應閾值模塊面向的則是無標注數據,用于確定特定關系類別的閾值選擇.對于缺陷2),我們提出一種基于梯度反饋的賦權策略,該策略通過梯度反向傳播計算費雪信息矩陣(Fisher information matrix),獲取對新加入的無標注數據的權重分配.其中,置信度低的無標注數據權重低,從而降低噪聲數據的影響.
我們在公開的少樣本關系抽取數據集上進行一系列的實驗分析.實驗結果證明在少樣本場景下,與基準模型相比,Ada-SRE 取得明顯的性能提升.此外,無標注數據預測分布證明自適應閾值模塊在提升召回率的同時有效降低噪聲數據的引入,而消融實驗證明各個模塊的有效性.
本節首先介紹傳統的關系抽取模型的原理與算法;接著分析少樣本環境下的關系抽取任務,并討論現有模型的利弊.
關系抽取致力于識別在給定句子中的2 個實體間的關系.傳統關系抽取建模屬于有監督學習,需要大量標注數據進行訓練[1],它們可以劃分為3 種類別:基于高斯核[5-6]、基于特征[7]以及基于神經網絡[8].其中,基于高斯核的關系抽取模型主要設計一組核函數計算2 個關系示例之間的相似度.這些核函數包含句法序列核[17]、句法樹核[18]、句法依賴樹核[19]、依賴圖路徑核[20]以及句法組合樹核[21].而基于特征的關系抽取模型關注于為關系分類器生成一組特征,例如:詞特征[22]、句法特征[23]以及語義特征[24].不同于需要人工參與的基于高斯核和基于特征的方法,基于神經網絡的關系抽取模型關注于利用神經網絡抽取關系特征實現端到端訓練(end-to-end training),例如:卷積神經網絡[25]、圖卷積神經網絡[26]、遞歸神經網絡[27]等.
然而,這些傳統的關系抽取模型無法應對不斷涌現的新關系類別和標注樣本匱乏的困境.本文聚焦于解決少樣本關系抽取建模問題.
少樣本關系抽取建模一般是通過元學習的訓練范式得以實現.其中,每個元任務(或稱之為片段)包含一個支撐集和一個查詢集,如圖1 所示,元任務利用支撐集獲取關系知識,并在查詢集上進行驗證對網絡參數進行更新.
這一訓練范式可以劃分為基于度量[13,28-29]、基于模型[30-31]和基于優化[16,32-33]的3 種模式.具體地,基于度量的元訓練模型通過設計度量準則衡量支撐集和查詢集之間的相似度;基于模型的元訓練模型聚焦于設計模型的結構實現少樣本任務;而基于優化的元訓練模型嘗試初始化網絡參數,使得模型能在一步或者幾步的梯度更新過程中快速擬合到新任務上.常用的元學習模型已經能在少樣本關系抽取任務上得到應用并取得較好的性能,例如:圖神經網絡[12]、神經注意力元學習網絡[14]、原型網絡[13]和元網絡[11].此外,Gao 等人[34]應用混合注意力機制突出重要示例和特征.Ye 等人[35]利用子圖分析查詢集和支撐集之間的交互匹配信息,并且采用注意力機制聚合支撐示例從而計算關系原型.Soares 等人[36]采用點積來衡量向量相似度.Qu 等人[37]利用一個全局關系圖譜指引每個關系原型的計算.
然而,這些元學習模型在關系抽取建模中對于無標注數據并未很好地利用.雖然神經雪球模型[15]利用自助采樣技術對關系抽取任務中的無標注任務進行初步探索,但是人為手動的閾值以及不加區分的無標注數據,促使我們對神經雪球模型做進一步改進,并提出一種基于適應性自訓練的少樣本關系抽取模型.
本節首先介紹對于少樣本關系抽取任務的相關定義;接著對于神經雪球模型中存在的2 個缺陷,分別提出2 種相應的策略,也就是自適應閾值模塊和基于梯度反饋的賦權策略.
2.1.1 任務定義
給定一個句子示例x,它是由1 組詞序列和1 對標記的頭尾實體eh,et組成,關系抽取任務致力于通過句子示例x預測這對頭尾實體eh,et之間的關系標簽r.因為要衡量關系抽取模型對于新關系類別的抽取能力,遵循神經雪球模型中的任務設定(不同于傳統的有監督學習和元學習模式).給定一組大規模標注的關系抽取數據集DL,一組新關系類別標注數據集Ds(標注樣本的數量較少,遵循N-類K-樣本范式)和對應的查詢集Dq,一組無標注數據集Du,本文的目的是要檢驗關系抽取模型能否從包含現有關系類型、新關系類型以及未知關系類型的查詢集中準確定位Dq中關系類別的能力.
2.1.2 神經雪球模型
為了應對這種應用困境,Gao 等人[15]提出神經雪球模型.如圖3 所示,神經雪球模型一共分為預訓練和新關系類別樣本收集2 個階段.其中,預訓練階段:關系孿生網絡和關系分類器共同在DL進行預訓練獲取在舊類別上的關系抽取能力.而新關系類別增量階段可劃分為4 個步驟.

Fig.3 Neural snowball model圖3 神經雪球模型
相同頭尾實體可能蘊含相同關系類別[15],基于這個假設,我們通過Ds中的實體對對Du進行檢索,符合該假設的無標注數據聚合形成候選集A1.具體地:
1)利用關系孿生網絡對候選集A1中的示例進行相似度排序,選取前k1個示例.此外,過濾出相似度小于閾值 α的示例,獲得初選的示例.
2)利用初選的示例對關系分類器進行微調,提升關系分類器識別新關系類別的能力.
3)利用微調后的關系分類器從Du中再次選擇前k2個示例,并且過濾出預測分數小于閾值 β的示例,獲得候選集A2.
4)重復步驟2)~3),直到從Du中再也找不到可標注的示例.
對于新關系類別樣本收集階段,我們可以清楚地發現,閾值的選擇是決定無標注數據抽取質量的關鍵.然而,如圖2 所示,不同關系類別的相似度閾值的選擇存在極大差異.以固定閾值簡單地確定數據的標簽并不能挖掘無標注數據的潛能.例如:過高的閾值選擇降低無標注數據的標注召回率,并不能增加新關系類別的樣本數量;而過低的閾值選擇又增加噪聲數據標簽的可能性,毒害關系孿生網絡和關系分類器.另外,對于所引入的無標簽數據,神經雪球模型施以相同的置信度,增加了噪聲樣本影響模型性能的風險.
鑒于這2 種缺陷,本文針對固定閾值問題,提出自適應閾值模塊為每個關系類別獲取相應閾值;而對于相同置信度問題,提出基于梯度反饋的賦權策略,減少噪聲數據的影響.
在標注樣本較少的情況下,無法利用傳統的有監督學習直接獲得每個關系類別對應的閾值.不過,元學習可以通過少量樣本準確定位測試樣本所對應的標簽,這為我們提供解決該缺陷的一種思路.
具體地,在模型無關的元學習中,MAML 通過學習模型的未知標簽的泛化能力,獲得標簽的通用梯度停靠點.因此,當遇到新關系類別時,MAML 可以通過該梯度停靠點和少量的標注樣本,快速泛化到新關系類別對應的模型權重.因此,本文將標簽閾值類比于MAML 中的梯度,致力于學習所有類別的通用閾值停靠點,使得模型能夠在少量樣本情況下,快速泛化到未知標簽的最佳閾值點.
正式地,假設閾值 α和關系分類器fC在第t步的參數為wt,通過相似度計算,可以將無標注數據集Du分割成2 部分,即Du→Dse+Duns,其中Dse是已選集合而Duns是未選集合.接下來,對于新入選的Dse,可以用來更新fC的參數wt,即
其中 λw是參數學習率,是關系分類器在參數wt下的損失函數,而wt+1是時刻t+1關系分類器更新后的參數.
接下來,通過在查詢集Dq的損失函數計算,可以確定閾值 α的更新方向,即
其中 λα是閾值 α的學習率.值得注意的是,當(Dq)<(Dq)時,說明已選集合Dse對關系分類器fC有促進作用.因此,閾值α應該進一步減小,擴大已選集合Dse;反之,(Dq)>(Dq)則說明過小的閾值α導致已選集合Dse中充滿噪聲,需要進一步增大閾值 α,降低Dse的噪聲率.
以上是閾值 α的一種軟更新策略,基于這一準則,還可以采用一種硬更新策略.具體而言,將未選集合Duns按照相似度從大到小排列,獲得降序未選集合;將已選集合Dse按照相似度從小到大排列,獲得升序已選集合.因此,閾值硬更新策略可表示為
其中TP(·)是定位函數,它在樣本序列中定位第P個樣本,返回其相似度大小.
最后,基于式(1)~(3)并結合MAML 的訓練范式,可以在少量樣本的參與下,為每個關系類別標簽快速獲得其對應的閾值.
將自適應模塊的訓練過程總結,如算法1 所示.
算法 1.自適應閾值模塊訓練算法.
其中Lαi()表示在閾值 αi下輸入為的損失函數.
雖然自適應閾值模塊可以解決不同標簽的相似度閾值的選擇,但是對新入選的Dse無差別相信會增大噪聲數據的影響.因此,基于梯度反饋的賦權策略致力于獲取Dse的權重,降低噪聲數據的影響.
假定Dse={s1,s2,…,sn},其中si表示入選的第i個無標注示例.根據定義,費雪信息矩陣可以衡量對參數估計的準確程度.從另一個角度,可以由此確定所入選的無標注示例對參數估計的貢獻程度.因此,改進費雪信息矩陣用于確定無標注示例si的權重mi.具體地,首先用無標注示例si更新fC的參數w,即
之后,基于更新后的參數集合wi,利用查詢集Dq計算權重,即
其中SW是 當前關系分類模型的參數集合.進一步地,將獲得的權重序列進行歸一化可以獲得無標注示例的歸一化權重序列,即
特別地,在測試階段時,當沒有查詢集可供梯度反饋時,從支撐集Ds中隨機選取10%的示例用于梯度反饋.
本文遵循神經雪球模型[15]中的數據集設定,采用FewRel[9]和Re-TACRED[38]作為實驗數據集.其中,FewRel 從維基百科中共抽取100 種關系類別,每種關系類別包含70 000 個示例.同時,FewRel 將自身劃分成3 個子集,分別為64 類別的訓練集、16 類別的驗證集以及20 類別的測試集.與之相比,Re-TACRED 則是從一個大規模關系抽取數據集中改進所得,它包含91 467 個句子,分布于40 種關系類別中.同樣地,通過類別劃分,Re-TACRED 可以劃分為30 類別的訓練集、5 類別的驗證集以及5 類別的測試集.
此外,為了獲得更為公正的評價,本文仍然采用神經雪球模型中收集到的大規模無標注語料庫,它包含899 996 個示例和464 218 對實體對.同樣地,我們進一步將訓練集分割成訓練集A和訓練集B.在訓練階段,用訓練集A作為DL.然后,在每步評價中,從驗證集和測試集中無放回采樣1 種關系作為新關系r,并選擇k個示例作為種子組成Ds,而查詢集Dq是從訓練集B和驗證/測試集中采樣得到的.值得注意的是,Dq不僅包含DL中標簽數據豐富的關系類別,還可能來源于支撐集Ds中樣本數目較少的關系類別,以及先前訓練不存在的關系類別.這種設定相較于傳統的少樣本關系抽取更具有挑戰性,而且更加符合現實世界的應用,因為在現實世界語料庫并不會局限于一定關系數量或類別.
為了驗證基于Ada-SRE 在少樣本關系抽取建模上的性能,本文選擇8 種具有挑戰性的方法作為基準模型.
1)基于分布式語義的自舉關系抽取(bootstrapping relationship extractors with distributional semantics,BREDS)[39]模型是原始雪球(snowball)模型[40]的變形,它通過詞嵌入進行模式選擇;
2)微調分類器(fine-tuning classifier, FC)[15]是通過微調關系分類器所獲得的;
3)關系孿生網絡(relational siamese network, RSN)[15]在預測查詢集時,通過孿生網絡計算與查詢集中示例標簽的相似度大小;
4)遠監督(distant supervision, DS)模型[15]是通過關系孿生網絡和關系分類模型進行采樣的關系抽取模型;
5)增量元自訓練關系抽取(incremental meta selftraining relation extraction, MetaSRE)模型[41]采用一種元學習網絡以防止模型因標簽噪聲而導致的漂移,并通過迭代自訓練增強其魯棒性;
6)多重引用圖(multiple reference graph, MRefG)模型[42]通過構建包含實體、動詞以及語義引用在內的引用圖,以實現語義和詞法層面有效鏈接標注數據和無標注數據;
7)神經雪球(neural snowball, NS)模型[15]是對傳統雪球模型的改進,結合關系孿生網絡和關系分類模型二者神經網絡特點;
8)本文提出的基于適應性自訓練的少樣本關系抽取模型(Ada-SRE),包含軟更新(Ada-SRES)和硬更新(Ada-SREH)策略.
類似文獻[15],在驗證集上進行參數調節.其中編碼器,應用BERT[5]作為基礎編碼器進行研究.至于模型微調,在網格搜索后,我們采用訓練輪數為50 次,批次大小為10,學習率為0.05,而負樣本損失系數為0.2.在BERT[5]上微調采用相同的參數,除了學習率和負樣本系數分布分別設為0.01 和0.5.在神經雪球過程中,每個階段從無標注數據集加入的示例同樣設定為5.但是不同于文獻[15]中的人為閾值設定,我們每次利用自適應閾值模塊進行計算,其中學習率分別設定為λw=0.005,λin=0.001,λout=0.001.此外,對于硬更新策略,我們將更新步數設定為1.
本文將分別從5 個實驗問題用于驗證模型的有效性.
1)在總體性能方面,Ada-SRE 是否可以超過現有的基準模型;
2)添加自適應閾值模塊后,關系孿生網絡的性能能否獲得提升;
3)隨著迭代步數的增加,Ada-SRE 是否都能保持對于神經網絡模型的優勢;
4)當應用硬更新于自適應閾值模塊,定位函數TP(·)中位置參數P是否對模型性能產生影響;
5)對于自適應閾值模塊和基于梯度反饋賦權模塊,哪一模塊對Ada-SRE 的性能影響更大.
我們將在第4 節對這5 個研究問題依次分析,探討少樣本場景下關系抽取性能.
根據實驗問題,本節依次進行實驗分析與討論.
表1 和表2 分別展示了少樣本關系抽取模型在數據集FewRel 和Re-TACRED 上的整體性能.整體而言,隨著種子示例的增加,所有模型的精確率、召回率以及F1 值(F1 score)都得以提升.這說明種子示例的增加,增強了模型的有監督信號,進而使得模型性能也有所提升.特別地,Ada-SRE 模型在任意種子示例的參與下仍能取得最好的模型性能,這證明Ada-SRE 模型的有效性.

Table 1 Results of Few-Shot Relation Extraction Models on FewRel表1 少樣本關系抽取模型在FewRel 上的結果%
在基準模型當中,傳統基于統計性指標的BREDS 在眾多模型中表現最為欠佳.這是因為傳統的有監督模型在樣本量較少的情況下,無法規避在測試集中的過擬合風險.FC 和RSN 雖然可以取得較為可觀的召回率,然而無差別地引入無標注數據,反而會引入噪聲數據,相對應的精確率也會不可避免地降低.而NS 是眾多基準模型中表現最為突出的一個,獲得了最佳的精確率和F1 值.
將最優基準模型NS 和Ada-SRE 加以比較,我們不難發現,無論是什么評價指標,Ada-SRE 都更勝一籌,獲得全面提升,在召回率方面的提升尤為顯著.Ada-SRE 在種子示例為5,10 和15 時,在FewRel 和Re-TACRED 上分別取得了36.6%,16.5%,23.8%和33.20%,25.16%,29.38%的性能提升.這說明Ada-SRE 可以高質量地從無標注數據集中收集新的訓練示例,在一定程度上避免了NS 由于固定閾值和同等權重等因素帶來的負面影響.此外,在Ada-SRE 中,軟更新在種子示例較少的情況下表現更佳,硬更新則是在種子示例較多的情況下有更優性能.
為了檢驗在NS 和Ada-SRE 中關系孿生網絡的抽取能力,在FewRel 上隨機采樣1 個關系以及所屬關系的5 個類別作為支撐集,而余下的數據作為查詢集.將訓練過的NS,Ada-SRES和Ada-SREH中的關系孿生網絡抽取出來,分別作為查詢集中的每個示例計算相似度大小,并且采用P@N(precision at top-N)作為評價指標.
從表3 中可以看出,任意一個模型的孿生網絡在訓練后,只要給定5 個種子示例都能達到一定的分類準確度.特別地,在測試集P@5 列中,所有模型都可以達到80%以上的分類性能.這說明每增加5 個示例,其中至少有4 個示例是準確的,而這也是我們每次從無標注數據集選5 個示例的原因.

Table 3 RSN Results of Different Models表3 不同模型關系孿生網絡的結果%
此外,相比于NS 的關系孿生網絡,添加自適應閾值和梯度反饋模塊的Ada-SRE 的關系孿生網絡可以取得更好的分類效果,這進一步證明選擇合適閾值和合適權重的有效性.
為了進一步分析迭代步數對于NS 和Ada-SRE 的影響,在FewRel 中隨機選取1 個新加入的關系chairperson,并基于5 個種子示例分析迭代步數對模型分類性能的影響.由于空間所限制,這里只展現1 種關系的分類性能.圖4 中分別展現各個模型在不同迭代步數下精確率和召回率的變化.

Fig.4 Model performance on different iteration steps圖4 不同迭代步數的模型性能
總體而言,隨著迭代步數的增加,各個模型的精確率和召回率也隨之增加.特別地,召回率的增長尤為明顯,NS 從起初的召回率為0 到迭代5 次后增長到接近60%.而召回率的提升也進一步帶動模型在精確率方面的提升.而隨著迭代步數增長到5,召回率的提升也漸緩,這說明模型從無標注數據集挖掘的信息也逐漸趨向于飽和.
此外,將NS 與Ada-SRE 相比可以發現,無論是在精確率還是召回率方面,Ada-SRE 始終保持著對NS的領先地位.特別地,Ada-SRE 在初始召回率比NS領先近20%,這也證明Ada-SRE 在提升無標注數據集召回質量方面的有效性.而至于軟硬更新之間的差異,Ada-SRES也能保持對Ada-SREH的微弱領先.
在Ada-SREH中,定位函數TP(·)中位置參數P對模型性能的影響很大.因此,分析位置參數P對模型的F1 值的影響.
從表4 中可以看出,無論有多少種子示例的參與,當位置參數P=1 時,Ada-SREH的性能都達到最優.特別地,當位置參數P上升到2 時,Ada-SREH性能開始急劇下降.這種現象可能是因為當迭代步數一定時,模型從無標注數據集中挖掘信息的能力已經達到極限,這時定位2 個以上的無標注數據集會不必要地引入多余的噪聲,造成模型性能的下降.

Table 4 F1 Score of Ada-SREH Under Different P表4 不同P 下Ada-SREH 的F1 值%
為了驗證哪一個模塊對模型性能影響更大,將模型的各個子模塊去除或者替換成Ada-SRE 中原有的模塊,用符號“--”表示.例如:“Ada-SRES--weight”表示應用軟更新策略的Ada-SRE 去除梯度反饋模塊,而將每個無標注示例視為同等重要.特別地,無論是什么樣的更新策略,去除自適應閾值模塊之后,Ada-SRE 都只剩下梯度反饋模塊,因此我們都將其表示為“Ada-SRE--threshold”.
然后,在種子示例為5,10,15 時分別檢驗模型的性能,總結于表5.從表5 中可以發現,Ada-SRES和Ada-SREH同時去除梯度反饋模塊之后,模型性能都會獲得相應的下降,這證明梯度反映模塊的有效性.另外,當只保留自適應閾值模塊后,軟更新策略始終會優于硬更新策略.除此之外,當模型去除自適應閾值模塊,也就是只保留梯度反饋模塊,模型的性能下降得尤為明顯.這一現象反映在提升少樣本關系分類性能方面,自適應閾值模塊相比于梯度反映模塊能夠發揮更大的作用.

Table 5 F1 Score on Ablation Study表5 消融實驗下的F1 值%
本文聚焦于現實應用中廣泛存在的少樣本關系抽取任務,通過分析現有神經雪球模型在設計中存在的缺陷,提出適應性自訓練算法Ada-SRE 進行改進.針對神經雪球模型設定統一固定閾值的缺陷,本文基于元學習的思想提出自適應閾值模塊,能夠為每個關系類別提供合適的閾值選擇.而針對神經雪球模型對入選的無標注示例施以相同置信度問題,本文提出基于梯度反饋的賦權策略,為每個入選的示例提供特定的權重,避免噪聲數據的干擾.此外,通過在2 個公開數據集上進行實驗分析,發現Ada-SRE 能夠取得優于當前最優的神經雪球模型更好的實驗結果.
在未來的工作,我們將從2 個方面開展工作:一方面,將探究本該入選但低于閾值的無標注示例和入選示例的關系,在保持模型精確率的同時,進一步提升模型的召回率;另一方面,鑒于提示學習(prompt learning)在少樣本領域的快速發展,將探究提示學習在無標注數據參與下的關系抽取任務上的應用.
作者貢獻聲明:陳洪輝提出了模型的算法思路和實驗問題;鄭建明基于提出的實驗問題完成實驗并撰寫論文;蔡飛負責論文的修改和校對,并提出指導意見;韓毅參與了論文校對和實驗數據分析整理工作.