999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于小樣本學(xué)習(xí)和語義信息的圖像描述模型

2021-08-20 04:54:30王會勇盧超張曉明
計(jì)算機(jī)工程 2021年8期
關(guān)鍵詞:單詞信息模型

王會勇,盧超,張曉明

(河北科技大學(xué)信息科學(xué)與工程學(xué)院,石家莊 050000)

0 概述

圖像描述模型的主要工作是根據(jù)圖像的內(nèi)容生成對圖像的描述語句,需要識別圖像中的對象,另外還要考慮所生成描述語句的語法正確性,以接近人類的描述結(jié)果。主流的圖像描述方法傾向于采用編碼器-解碼器模式的端到端神經(jīng)網(wǎng)絡(luò)模型[1]。通常使用基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的結(jié)構(gòu)將圖像編碼成特征向量,然后使用長短期記憶(LSTM)網(wǎng)絡(luò)對該向量解碼生成描述。這些模型通常建立在大量由圖像-描述對構(gòu)成的數(shù)據(jù)集上,如微軟COCO(Microsoft Common Objects in Context)數(shù)據(jù)集[2],并且通常依賴在相同數(shù)據(jù)集上訓(xùn)練的目標(biāo)檢測器只能識別固定類別的對象。將這些目標(biāo)檢測器和描述模型訓(xùn)練集之外的對象稱為集外對象(Out of Dataset,OOD)。傳統(tǒng)的目標(biāo)檢測器在不經(jīng)調(diào)整和額外訓(xùn)練的情況下,往往無法有效識別集外對象,因此依賴這些檢測器的圖像描述模型難以描述集外對象,阻礙了這些模型在現(xiàn)實(shí)場景中的泛化。另外,這些集外對象也沒有對應(yīng)的人工編寫的描述語句供模型進(jìn)行學(xué)習(xí),圖像描述模型在訓(xùn)練時(shí)就無法學(xué)習(xí)到如何對這些對象及所處的場景進(jìn)行描述,難以生成正確的語句。因此,要對集外對象進(jìn)行描述,需要解決2 個(gè)問題:即如何使圖像描述模型識別出集外對象;在圖像描述模型未對集外對象進(jìn)行過描述訓(xùn)練的情況下,如何為該對象生成恰當(dāng)?shù)拿枋觥?/p>

小樣本目標(biāo)檢測器屬于小樣本學(xué)習(xí)領(lǐng)域的一個(gè)新分支。利用包含集外對象的少量示例圖像作為樣本(一般為1~10 張),檢測器就可以識別出這些新對象。相較于傳統(tǒng)目標(biāo)檢測器,可識別的對象不再局限于訓(xùn)練集中那些固定的類別,而且不需要額外的訓(xùn)練,為圖像描述模型識別集外對象提供了途徑。

知識圖譜作為一個(gè)龐大的資源,以三元組的形式提供了豐富的事實(shí)和知識,如果能夠有效利用,則能為自然語言處理任務(wù)提供幫助。根據(jù)知識圖譜提供的與新對象相近實(shí)體的語義信息,可以幫助描述模型計(jì)算上下文語義信息,明確語句中使用的單詞,從而幫助模型生成質(zhì)量更好的語句。

本文提出一種新的模型可以對集外對象進(jìn)行描述。對于給定圖像,采用Resnet101[3]網(wǎng)絡(luò)提取視覺特征,同時(shí)使用小樣本目標(biāo)檢測器識別新對象,后根據(jù)識別出來的對象類別標(biāo)簽查詢相關(guān)的知識圖譜信息,并將與新對象相關(guān)的實(shí)體和LSTM 的當(dāng)前隱藏狀態(tài)作為其輸入,最終得到對圖像的描述。

1 相關(guān)研究

1.1 圖像描述模型與新對象描述

目前圖像描述方法主要利用端到端的序列模型來產(chǎn)生符合一定句法結(jié)構(gòu)的句子。文獻(xiàn)[4]提出CNN+RNN 架構(gòu),該架構(gòu)利用LSTM 逐字生成句子。文獻(xiàn)[5]通過整合軟、硬注意力機(jī)制進(jìn)一步擴(kuò)展了文獻(xiàn)[4]的工作,在生成相應(yīng)的單詞時(shí)自動關(guān)注圖像內(nèi)的顯著區(qū)域。此外,不同于文獻(xiàn)[5]的工作中解碼階段每個(gè)時(shí)刻都要計(jì)算圖像上的注意力,文獻(xiàn)[6]設(shè)計(jì)了自適應(yīng)注意力機(jī)制以決定何時(shí)依賴視覺信息。文獻(xiàn)[7]通過自下而上和自上而下2 種注意機(jī)制來增強(qiáng)生成語句的質(zhì)量。另外,還有一些研究通過結(jié)合語義信息來改進(jìn)圖像描述模型,如文獻(xiàn)[8]為語義信息添加注意力來提升圖像描述的能力。為進(jìn)一步挖掘圖像中的信息,文獻(xiàn)[9]提出基于高級圖像特征的方法,同時(shí)結(jié)合了圖像質(zhì)量這種低級圖像特征和動作分類以及面部識別這些高級圖像特征。文獻(xiàn)[10]提出一種結(jié)合圖片場景因素的圖像語義理解模型,以解決當(dāng)前圖像描述模型中描述錯誤或忽略場景的問題。考慮語句的語法信息,文獻(xiàn)[11]提出使用句子的詞性標(biāo)簽的方法來幫助模型確定是否需要某個(gè)單詞,提高了單詞的選擇效率。結(jié)合最近NLP 的研究趨勢,Transformer 結(jié)構(gòu)在某些任務(wù)中性能優(yōu)于LSTM 等傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò),因此文獻(xiàn)[12]使用Transformer 替代傳統(tǒng)圖像描述模型中的LSTM 解碼器來提升模型的能力。表1 所示為不同模型在BLEU4[13]和METEOR[14]評測標(biāo)準(zhǔn)下的實(shí)驗(yàn)結(jié)果。

表1 傳統(tǒng)圖像描述模型的評測結(jié)果Table1 Evaluation results of traditional image caption models %

盡管最近基于深度學(xué)習(xí)的圖像描述方法取得了較好的結(jié)果,但它們在很大程度上依賴于數(shù)據(jù)集。這些類型的方法能生成數(shù)據(jù)集中已有對象的描述,但如果在測試集中遇到集外對象,則難以生成相應(yīng)的描述。因此,該方法需要大量圖像-描述對用來訓(xùn)練模型,可識別新對象的圖像描述模型,希望能夠在面對訓(xùn)練數(shù)據(jù)集中不存在的新對象時(shí)也可以生成良好的描述。

可識別新對象的圖像描述方法一般先將圖像描述訓(xùn)練數(shù)據(jù)集中的圖像-描述對拆分,分別基于圖像數(shù)據(jù)和描述數(shù)據(jù)訓(xùn)練單獨(dú)的對象目標(biāo)檢測器(或可能增加標(biāo)簽分類器)和語言模型(基于RNN),然后兩部分相結(jié)合進(jìn)行聯(lián)合訓(xùn)練,可以對遇到的新對象進(jìn)行描述。本文所提出的方法與之類似,采用小樣本目標(biāo)檢測器識別圖中的對象,基于LSTM 結(jié)構(gòu)生成描述,但是可識別的對象類型范圍不再受限于檢測器的可識別范圍。

文獻(xiàn)[15]提出了DCC(Deep Compositional Captioner)模型,結(jié)合對圖像的多標(biāo)簽分類器,描述了可以生成訓(xùn)練集中不包含的對象。為更好地接收對象的標(biāo)簽,文獻(xiàn)[16]提出一種復(fù)制機(jī)制來生成新對象的描述。該方法使用單獨(dú)的目標(biāo)檢測為新對象進(jìn)行分類,在體系結(jié)構(gòu)添加了一個(gè)新網(wǎng)絡(luò),用于接收目標(biāo)檢測器識別出來的對象,并將它們與LSTM 合并以生成描述,文獻(xiàn)[17]在此基礎(chǔ)上提出一種新的復(fù)制機(jī)制,使用指針網(wǎng)絡(luò)將新對象標(biāo)簽復(fù)制到描述語句中,提高了模型可用的詞匯量。與上述方法不同,文獻(xiàn)[18]提出依據(jù)模板輸出描述,然后用填入對象標(biāo)簽的方法來保證對象標(biāo)簽的接收,并且使用Resnet101 網(wǎng)絡(luò)提取視覺特征,因此模型對新對象識別的平均F1 值較基線模型提高了9.4 個(gè)百分點(diǎn)。表2 所示為模型的實(shí)驗(yàn)測評結(jié)果。

表2 可識別新對象的圖像描述模型評測結(jié)果Table 2 Evaluation results of image caption models that can identify novel objects %

相較于表1 的模型,表2 中的模型需要關(guān)注模型對新對象的識別能力,因此加入了對圖像中對象的平均F1 值(AVG F1)的測評,而基本不再提供BLEU4 結(jié)果。另外,因?yàn)樾枰指钜徊糠謭D像用來測試對新對象的描述能力,模型可用的訓(xùn)練數(shù)據(jù)變少,并且受目標(biāo)檢測器檢測能力的影響,可識別新對象的圖像描述模型的描述能力有所下降。

1.2 運(yùn)用知識圖譜的圖像描述模型

知識圖譜中包含大量的事實(shí)知識,一般用三元組(h,r,t)來表示,h表示頭實(shí)體,t表示尾實(shí)體,r表示2 個(gè)實(shí)體之間的關(guān)系。常見的知識圖譜有DBpedia[19]、ConceptNet[20]等。通過表示學(xué)習(xí)的方法生成三元組的向量,以這種形式為圖像描述模型提供外部知識。CNet-NIC[21]使用YOLO9000[22]作為對象識別的模塊,經(jīng)過訓(xùn)練可以識別9 000 個(gè)對象類別,使用ConceptNet作為外部知識圖譜來獲取與對象相關(guān)的背景知識。描述對象識別模塊在圖像中找到對象,根據(jù)各個(gè)對象檢索兩組相關(guān)詞。然后將得到的詞提供給經(jīng)過預(yù)訓(xùn)練的RNN模塊,以獲得相關(guān)詞語的對應(yīng)向量空間嵌入,METEOR得分為25.6%,較基線模型提高了0.4 個(gè)百分點(diǎn)。文獻(xiàn)[23]給定具有關(guān)聯(lián)標(biāo)簽和其他數(shù)據(jù)(例如地理位置標(biāo)簽等數(shù)據(jù))的圖像,將圖像輸入描述模板生成器,對于生成器生成的包含占位符的描述語句,根據(jù)實(shí)體類型和頻率選擇使用合適的候選詞進(jìn)行填充,利用來自社交媒體的社會與體育事件生成數(shù)據(jù)集,在其數(shù)據(jù)集上的METEOR 得分為11.0%,較基線模型提高了1.1 個(gè)百分點(diǎn)。KGA-CGM(Knowledge Guided Attention-Caption Generation Model)模型[24]用于在知識圖譜的支持下為訓(xùn)練集中不包含的對象(但包含在目標(biāo)檢測器的訓(xùn)練集中的對象)生成描述。KGA 的核心目標(biāo)是將外部語義注意力引入描述生成模型中,通過外部語義信息提高模型的描述能力,F(xiàn)1 得分為35.8%,提高了2.2個(gè)百分點(diǎn),準(zhǔn)確率達(dá)到34.2%,提高了3.1個(gè)百分點(diǎn)。另外,文獻(xiàn)[25]采用TransE[26]方法來學(xué)習(xí)主語到賓語之間的轉(zhuǎn)換嵌入,TransE 是知識圖譜中常用的表示學(xué)習(xí)方法,該模型關(guān)注于對象之間關(guān)系的檢測,較其基線模型BLEU4 值提高了7 個(gè)百分點(diǎn)。

包括上述模型在內(nèi),過去所謂的對新目標(biāo)進(jìn)行圖像描述的模型都普遍依賴于在完整數(shù)據(jù)集上預(yù)訓(xùn)練過的目標(biāo)檢測器,所以在進(jìn)行描述時(shí)出現(xiàn)的對象對于目標(biāo)檢測器不能算是集外對象。集外對象與訓(xùn)練集對象的范圍關(guān)系如圖1 所示。

圖1 集外對象與目標(biāo)檢測器訓(xùn)練集中對象的范圍關(guān)系Fig.1 Scope relationship between objects out of the dataset and objects in the train set of the object detector

超出了之前訓(xùn)練時(shí)數(shù)據(jù)集的范圍,即進(jìn)入到集外對象的范圍內(nèi),也就超出了檢測器的認(rèn)知范圍,對這些集外對象無法準(zhǔn)確識別,進(jìn)而圖像描述模型的能力也會隨之下降。而傳統(tǒng)模則需要重新訓(xùn)練目標(biāo)檢測器,才能使目標(biāo)檢測可識別的類別范圍擴(kuò)大,之后還要再訓(xùn)練圖像描述模型。在目前沒有解決深度學(xué)習(xí)模型訓(xùn)練時(shí)對設(shè)備算力的依賴前提下,重新訓(xùn)練無疑需要付出額外成本,這限制了圖像描述模型的泛化能力。本文使用基于小樣本學(xué)習(xí)的目標(biāo)檢測器[27],該檢測器與其他小樣本學(xué)習(xí)方法[28]類似,可以根據(jù)提供的少量樣本來識別出集外對象,而無需重新進(jìn)行大量的訓(xùn)練,提高了對新對象描述的能力。同時(shí),使用來自知識圖譜與圖像中對象相關(guān)的實(shí)體信息作為背景語義信息,提升模型所生成描述的質(zhì)量。

本文的主要貢獻(xiàn)如下:

1)將小樣本目標(biāo)檢測器嵌入到圖像描述模型中來幫助識別集外對象。構(gòu)建了one-shot COCO 和one-shot FSOD 數(shù)據(jù)集,每個(gè)類別的對象都有一張包含該對象的圖像相對應(yīng),為小樣本目標(biāo)檢測器識別數(shù)據(jù)集中的對象提供了參考樣本。

2)提出使用知識圖譜來幫助對集外對象進(jìn)行描述的方法。通過查找知識圖譜中與集外對象(語義)相近的實(shí)體,結(jié)合注意力機(jī)制,幫助模型確定描述語句生成的各個(gè)時(shí)刻上需要輸出的單詞。

2 圖像描述模型

本文提出的圖像描述模型的具體實(shí)現(xiàn)細(xì)節(jié)及訓(xùn)練流程,包括如何使用小樣本目標(biāo)檢測器,以及知識圖譜提供的相關(guān)實(shí)體信息。描述模型的整體結(jié)構(gòu)如圖2 所示。該模型采用編碼器-解碼器結(jié)構(gòu),編碼器是在ImageNet上進(jìn)行過預(yù)訓(xùn)練的Resnet101 網(wǎng)絡(luò),解碼器使用了LSTM 網(wǎng)絡(luò)。分別是代表描述開始和結(jié)束的特殊符號,LSTM 網(wǎng)絡(luò)接收到符號后,會開始生成語句,每輸出一個(gè)單詞,就會進(jìn)入下一時(shí)刻,直到模型判斷應(yīng)該輸出符號為止。編碼器對圖像進(jìn)行特征提取,小樣本目標(biāo)檢測器通過將樣本與圖像進(jìn)行對比,判斷出所包含的對象,然后在知識圖譜中查詢出與該對象相關(guān)的實(shí)體,通過注意力機(jī)制確定與LSTM 當(dāng)前隱藏狀態(tài)相對應(yīng)的參考詞供解碼器使用。例如,小樣本目標(biāo)檢測器在輸入圖像中檢測到樣本圖像中的對象,即“horse”,然后模型將在提供相關(guān)背景知識的KG 中查詢與“horse”語義上相近的詞,得到“zebra”“carriage”等實(shí)體,這些實(shí)體詞與“horse”共同組成參考詞供LSTM 使用。在LSTM 接收參考詞之前,需要根據(jù)注意力機(jī)制提供的權(quán)重來確定參考詞的重要性,確定與當(dāng)前狀態(tài)最相關(guān)的參考詞。每個(gè)輸入圖像I,都有5個(gè)樣本語句S作為參考,S={w1,w2,…,wN},wi表示參考語句中的第i個(gè)單詞。

圖2 圖像描述模型的總體結(jié)構(gòu)Fig.2 Overall structure of image description model

2.1 小樣本目標(biāo)檢測

本文使用文獻(xiàn)[27]提出的小樣本目標(biāo)檢測器,該檢測器以faster-RCNN[29]為基礎(chǔ),使用一張包含待檢測對象的圖像作為樣本,與輸入的圖像分別提取圖像特征,通過圖像特征的比較,判斷輸入圖像中是否包含樣本圖像中的對象,并給出置信度,用以說明檢測器對這一結(jié)果的把握程度。圖3右側(cè)為樣本圖像,包含的對象為“bicycle”,左側(cè)為輸入圖像檢測后得到的結(jié)果。本文使用檢測器的結(jié)果為語言模型提供對象的類別標(biāo)簽信息。

圖3 小樣本目標(biāo)檢測器檢測結(jié)果(左)與樣本圖像(右)展示Fig.3 Detection result(left)and sample image(right)of the few-shot object detector

2.2 輸入圖像的特征

Resnet101 網(wǎng)絡(luò)原本是用于圖像分類的模型,包含101 層CNN 網(wǎng)絡(luò),因?yàn)槠淞己玫姆夯阅埽疚牟捎眠@個(gè)網(wǎng)絡(luò)作為圖像描述模型的編碼器,保留Resnet101 前半部分的網(wǎng)絡(luò)主體結(jié)構(gòu),剔除其作為圖像分類器的功能,從而利用其提取圖像特征的能力。將待描述的圖像作為編碼器的輸入,將圖像特征編碼為固定維度的張量輸出給解碼器,供其生成圖像描述使用。

2.3 對象相關(guān)實(shí)體的信息

本文參考文獻(xiàn)[23]的方法,使用DBpedia Spotlight 工具進(jìn)行實(shí)體抽取,DBpedia Spotlight 是用來對自然語言文本進(jìn)行DBpedia 資源注釋的工具,提供了對命名實(shí)體識別、名稱解析以及其他信息提取任務(wù)有用的功能。使用DBpedia Spotlight 從COCO 數(shù)據(jù)集中的圖像描述中自動提取812 個(gè)不同的實(shí)體標(biāo)簽。然后利用Rdf2vec[30]工具為每一個(gè)實(shí)體標(biāo)簽生成對應(yīng)唯一的向量,向量的維度為500。將這些實(shí)體從文本映射到向量空間中,以通過向量化的形式表示語義信息,具有相關(guān)語義信息的實(shí)體向量在向量空間中有著相近的分布。這些語義向量與由文本計(jì)算得到的GloVe[31]詞向量同樣帶有語義信息,但是實(shí)體向量的生成中包含了知識圖譜中相互關(guān)聯(lián)的三元組之間的語義信息,可以補(bǔ)充GloVe 的能力,而LSTM 在逐個(gè)生成描述語句中的單詞時(shí),就是依賴于單詞之間的語義信息,判斷單詞之間的相關(guān)性,確定當(dāng)前需要輸出的單詞。通過計(jì)算圖像中對象的向量和實(shí)體向量的相似度,得到與對象最接近的5 個(gè)實(shí)體向量,這些向量所對應(yīng)的實(shí)體,即為對象的相關(guān)實(shí)體。

圖像描述模型使用注意力機(jī)制來整合三元組中的實(shí)體信息Kt。首先計(jì)算各個(gè)實(shí)體向量與LSTM 模型的隱藏狀態(tài)的注意力得分g,計(jì)算公式如式(1)所示:

其中:ei表示相關(guān)實(shí)體(entity)的向量;ht表示LSTM層的隱藏狀態(tài)矩陣;Whe是ei的轉(zhuǎn)換矩陣,將實(shí)體向量轉(zhuǎn)化為和LSTM 層隱藏狀態(tài)相同的尺寸;t代表描述生成過程中的某一時(shí)刻。實(shí)體在當(dāng)前時(shí)刻的注意力權(quán)重信息由基于softmax 的式(2)計(jì)算得到:

其中:L表示相關(guān)實(shí)體的數(shù)目;t代表描述生成過程中的某一時(shí)刻。最后將注意力權(quán)重與對應(yīng)的實(shí)體向量相乘,由式(3)計(jì)算當(dāng)前時(shí)刻所需實(shí)體信息:

其中:αti表示第t時(shí)刻實(shí)體的權(quán)重信息;ei表示第i個(gè)實(shí)體向量;L表示相關(guān)實(shí)體的數(shù)目。

為了給圖像描述模型提供更豐富的語義信息,本文使用自然語言處理工具NLTK 中的WordNet包,查找到數(shù)據(jù)集中的每個(gè)對象類別的近義詞集,利用WordNet包中自帶的path_similarity、Leacock-Chodorow Similarity、Wu-Palmer Similarity3 種語義相似度計(jì)算策略,分別為每個(gè)對象類別提供了3 種計(jì)算策略下的5 個(gè)同義詞。來自WordNet同義詞使用GloVe 詞向量表示,同樣結(jié)合注意力機(jī)制來進(jìn)行整合。但與實(shí)體信息不同的是,將使用WordNet相似度計(jì)算得到的結(jié)果作為該同義詞的基本權(quán)重。圖像描述模型所使用的來自WordNet的同義詞信息D由式(4)計(jì)算:

其中:si表示同義詞的向量;βi表示第i個(gè)同義詞的權(quán)重;L表示同義詞的數(shù)目。同義詞權(quán)重信息由基于softmax 的式(5)對基礎(chǔ)權(quán)重計(jì)算得到:

其中:ni表示同義詞的基礎(chǔ)相似度;L表示同義詞的數(shù)目。將知識圖譜的實(shí)體信息和WordNet 的同義詞信息送入解碼器供描述模型使用。

2.4 基于LSTM 的解碼器

為了接收并處理生成描述所需的信息,文本設(shè)計(jì)一種基于LSTM 網(wǎng)絡(luò)的解碼器。用于生成描述的解碼器如圖4 所示。其中,Wi是上一時(shí)刻生成的單詞,BOS 是語句的起始標(biāo)志,而EOS 是結(jié)束標(biāo)志,Ci表示由式(1)計(jì)算得到的來自知識圖譜的相關(guān)實(shí)體信息,Pt是當(dāng)前時(shí)刻輸出的單詞對應(yīng)的概率值,yt是t時(shí)刻輸出的單詞,J表示句子的長度,D表示同義詞信息。

圖4 基于LSTM 的描述生成模塊Fig.4 LSTM-based description generation module

LSTM 網(wǎng)絡(luò)解碼器方法如下:

1)由編碼器得到的圖像特征與由小樣本目標(biāo)檢測器得到的對象標(biāo)簽向量進(jìn)行拼接,輸入到第1 層LSTM 網(wǎng)絡(luò)中。

2)將輸出結(jié)果與來自知識圖譜的實(shí)體信息進(jìn)行拼接,輸入到第2 層LSTM 網(wǎng)絡(luò)中。

3)將上一步輸出結(jié)果與上一時(shí)刻輸出的單詞向量進(jìn)行拼接,輸入到第3 層LSTM 網(wǎng)絡(luò)中。

4)第3 層LSTM 網(wǎng)絡(luò)的輸出結(jié)果,輸入到softmax 層進(jìn)行計(jì)算,為整個(gè)詞典上的單詞計(jì)算概率,概率最高的單詞即為模型所預(yù)測的當(dāng)前時(shí)刻應(yīng)該輸出的單詞。

5)輸出當(dāng)前時(shí)刻的單詞之后,將LSTM 層當(dāng)前的狀態(tài)信息送入下一時(shí)刻,準(zhǔn)備計(jì)算下一時(shí)刻的單詞,直到模型預(yù)測的輸出單詞為結(jié)束符號。

圖像描述模型在t時(shí)刻輸出的單詞對應(yīng)的概率經(jīng)過式(6)~式(8)依次計(jì)算得到:

其中:It是來自CNN 的圖像特征,即圖5 中的Visual feature;B是對象的標(biāo)簽信息,即圖5 中的是第1 層LSTM 上一時(shí)刻的隱藏狀態(tài);⊕表示將向量進(jìn)行拼接是第1 層LSTM 的輸出結(jié)果。

其中:ct是對象的相關(guān)實(shí)體信息;D是同義詞信息;Wct是對ct和D的拼接結(jié)果的轉(zhuǎn)換矩陣是第2層LSTM上一時(shí)刻的隱藏狀態(tài)是第2 層LSTM 的輸出結(jié)果。

其中:wt-1是上一時(shí)刻的輸出單詞是LSTM 層上一時(shí)刻的隱藏狀態(tài);pt是模型計(jì)算出的t時(shí)刻所有單詞的概率。模型將根據(jù)計(jì)算結(jié)果選出概率最高的單詞作為t時(shí)刻的輸出結(jié)果。圖像描述模型的目標(biāo)函數(shù)如式(9)所示,其計(jì)算結(jié)果為模型的損失值,代表模型當(dāng)前輸出的描述與數(shù)據(jù)集中真實(shí)描述之間的誤差。通過對模型進(jìn)行優(yōu)化訓(xùn)練,使式(9)計(jì)算出模型的損失值達(dá)到最小。

其中:L表示描述語句的長度;yn是模型生成的語句中輸出的第n個(gè)單詞;P(yn)表示所輸出單詞對應(yīng)的概率。

模型訓(xùn)練時(shí)使用teacher forcing[32]方法來加速模型的訓(xùn)練速度,即在訓(xùn)練過程中,每個(gè)時(shí)刻模型不使用上一時(shí)刻自身輸出的單詞,而使用訓(xùn)練樣本提供的真實(shí)描述中的單詞作為輸入,來預(yù)測到當(dāng)前時(shí)刻所需要的單詞。為了避免teacher forcing 方法帶來的負(fù)面影響,即描述模型的泛化能力較差會影響面對集外對象時(shí)生成的描述質(zhì)量,本文采用了集束搜索方法。搜索寬度為k,即每個(gè)時(shí)刻輸出預(yù)測的單詞時(shí),保留當(dāng)前累計(jì)預(yù)測概率最高的前k個(gè)語句的結(jié)果,在下一時(shí)刻分別為每個(gè)句子生成下一個(gè)單詞,最終保留所有語句中總體預(yù)測概率最高的一個(gè)作為輸出語句。

3 實(shí)驗(yàn)

為測試本文提出的圖像描述模型對集外對象的描述性能,模型在COCO 訓(xùn)練集上進(jìn)行訓(xùn)練,使用COCO 數(shù)據(jù)集和FSOD[33]的測試集進(jìn)行測試。如前文所述,使用傳統(tǒng)的模型所用的目標(biāo)檢測器,會在COCO 數(shù)據(jù)的所有類別上進(jìn)行訓(xùn)練,所以在COCO數(shù)據(jù)集上進(jìn)行測試時(shí)不存在完全的新對象。為公平比較,本文使用基于Resnet101 的圖像描述模型作為基準(zhǔn),并且使用相同的數(shù)據(jù)集分割來進(jìn)行訓(xùn)練,然后對比模型的性能,基線模型來自文獻(xiàn)[5],也是本文所提出的圖像描述模型的基礎(chǔ)模型。

3.1 數(shù)據(jù)集

小樣本學(xué)習(xí)的關(guān)鍵在于模型對新類別的識別能力,為了訓(xùn)練一個(gè)能夠檢測未知物體的模型,必須使用具有大量物體類別的高多樣性數(shù)據(jù)集。

COCO 數(shù)據(jù)集是一個(gè)龐大的數(shù)據(jù)集,用于圖像識別、分割和描述。為提供小樣本目標(biāo)檢測器需要的樣本圖像,本文根據(jù)COCO 數(shù)據(jù)集的類別構(gòu)建了one-shot COCO 數(shù)據(jù)集。如圖5 所示,針對COCO 中的每個(gè)類別標(biāo)簽都有來自ImageNet[34]的圖像相對應(yīng),這些圖像中的主體內(nèi)容即所對應(yīng)類別的對象,不會包含太多背景畫面,以避免太多干擾信息影響目標(biāo)檢測器的識別。圖5 中的Labels 就是COCO 數(shù)據(jù)集中對象的類別標(biāo)簽。使用小樣本目標(biāo)檢測器來識別圖像中的對象,根據(jù)提供的樣本圖像可適應(yīng)不同類別的對象,而不需要再進(jìn)行額外的訓(xùn)練,能夠高效地?cái)U(kuò)大可識別對象的類別,更好地幫助圖像描述模型對集外對象進(jìn)行描述。

圖5 one-shot COCO 數(shù)據(jù)集示意圖Fig.5 Schematic diagram of one-shot COCO dataset

COCO 數(shù)據(jù)集包含有限的類別,為此本文使用FSOD 數(shù)據(jù)集對模型進(jìn)行后續(xù)的測試。FSOD 數(shù)據(jù)集是專門為小樣本學(xué)習(xí)而設(shè)計(jì)的,其構(gòu)建目的是評估模型在新類別上的泛化能力,測試集包含200 個(gè)類別。通過在FSOD 上的測試,可以反映出基于小樣本目標(biāo)檢測器的圖像描述模型面對更多類別的集外對象時(shí)的表現(xiàn)。

3.2 參數(shù)設(shè)置

模型使用PyTorch[35]框架來實(shí)現(xiàn),運(yùn)用Adam 優(yōu)化方法進(jìn)行訓(xùn)練,初始學(xué)習(xí)率為10-3,每10 000 個(gè)batch 衰減1/2。模型都是從頭開始進(jìn)行端到端的訓(xùn)練,不需要額外的數(shù)據(jù)集。本文使用NLP 領(lǐng)域中常用的GloVe 詞向量,維度為300,將LSTM 模塊中的隱藏層維度設(shè)置為512,激活函數(shù)為sigmoid 函數(shù)。本文使用小樣本學(xué)習(xí)目標(biāo)檢測器同樣運(yùn)用Adam 優(yōu)化器,且已經(jīng)進(jìn)行過預(yù)訓(xùn)練,實(shí)驗(yàn)中不再進(jìn)行微調(diào)。模型在訓(xùn)練集上總共訓(xùn)練了20 個(gè)epoch,其中前13 個(gè)epoch 只訓(xùn)練解碼器,之后7 個(gè)epoch 對編碼器也進(jìn)行微調(diào)。對照實(shí)驗(yàn)所使用的基線模型采用了相同的訓(xùn)練參數(shù)。

3.3 評估指標(biāo)

BLEU4、METEOR、ROUGE_L[36]和SPICE[37]通常用來評估生成的圖像描述的質(zhì)量,其中,BLEU4 最早應(yīng)用于機(jī)器翻譯結(jié)果的評測,根據(jù)機(jī)器生成的結(jié)果與人工標(biāo)注的語句中的共現(xiàn)情況來計(jì)算得分;METEOR使用WordNet 提供的信息,考慮到了生成的描述與參考描述之間的同義詞、詞根和詞綴的匹配情況;ROUGE_L 主要考慮生成的描述語句中所使用單詞的召回率(Recall);SPICE 是專門用來進(jìn)行圖像描述結(jié)果評價(jià)的標(biāo)準(zhǔn),更多地考慮語義信息,使評測結(jié)果更接近人類的判斷。模型在這些評價(jià)標(biāo)準(zhǔn)上的得分越高,就表明模型的性能越好。為了保持公正性,在本文的實(shí)驗(yàn)中的得分指標(biāo)都是利用COCO 官方發(fā)布的代碼來計(jì)算的。另外,對于COCO數(shù)據(jù)集和不包含人工描述FSOD的圖像描述的評估,參考文獻(xiàn)[16,38]的方法和指標(biāo),統(tǒng)計(jì)描述結(jié)果中各個(gè)類別對象的F1 得分,并且結(jié)合了精確率(Precision)、召回率(Recall)和準(zhǔn)確率(Accuracy)。具體計(jì)算如式(10)所示:

其中:Precision 表示某類對象的精確率;Recall 表示該類對象的召回率。精確率、召回率和準(zhǔn)確率的計(jì)算公式如式(11)~式(13)所示:

其中:TP 表示被模型預(yù)測為正值的正樣本;FN 表示被模型預(yù)測為負(fù)值的正樣本;TN 表示被模型預(yù)測為負(fù)值的負(fù)樣本;FP 表示被模型預(yù)測為正值的負(fù)樣本。

3.4 結(jié)果分析

需要對比測試的項(xiàng)目為對圖像的描述性能、新對象的識別準(zhǔn)確率。模型和基準(zhǔn)采用了相同的訓(xùn)練標(biāo)準(zhǔn)進(jìn)行訓(xùn)練。

3.4.1 在COCO 數(shù)據(jù)集上的實(shí)驗(yàn)

實(shí)驗(yàn)中對COCO 數(shù)據(jù)集進(jìn)行了重新的劃分,并且按照訓(xùn)練小樣本目標(biāo)檢測器時(shí)的劃分,將COCO數(shù)據(jù)集分割為4 組(split1~split4),每組都有20 個(gè)類別,使用后3 組作為訓(xùn)練集,第1 組作為測試集進(jìn)行測試。訓(xùn)練集中包含第1 組對象的圖像將被剔除,而測試集保持不變,包含全部類別。這樣是為了使目標(biāo)檢測器和圖像描述訓(xùn)練數(shù)據(jù)集保持一致。具體分組與統(tǒng)計(jì)如圖6 所示。

圖6 COCO 數(shù)據(jù)集類別分組Fig.6 Groups of COCO dataset categories

測試時(shí)需要模型生成對圖像的描述,并且根據(jù)新對象是否出現(xiàn)在描述中來判斷模型是否對圖像中的新對象進(jìn)行了描述,并且統(tǒng)計(jì)準(zhǔn)確率。描述語句在COCO 數(shù)據(jù)集上的描述測評結(jié)果對比如表3 所示,其中,KG 為使用知識圖譜信息,withoutKG 則只使用來自目標(biāo)檢測器的標(biāo)簽信息。

表3 COCO 數(shù)據(jù)集上的評測結(jié)果Table 3 Evaluation result on COCO dataset %

通過表3 的對比可以發(fā)現(xiàn),本文提出的模型較基線模型在各項(xiàng)測評中均有所提升。在不使用來自知識圖譜的信息時(shí),模型能力的提升來自于對小樣本目標(biāo)檢測器的利用,通過接收集外對象的標(biāo)簽信息,生成的描述中可以包含這些對象,提高了描述的正確性。如果使用來自知識圖譜的信息,則評測結(jié)果可以進(jìn)一步提高,說明這些信息可以幫助提升描述結(jié)果的質(zhì)量。因?yàn)閬碜灾R圖譜的相關(guān)實(shí)體信息提供了當(dāng)前對象以及已生成單詞的相關(guān)語義信息,可以幫助模型計(jì)算出當(dāng)前時(shí)刻最適合輸出的單詞。

在COCO 數(shù)據(jù)集上的F1 得分結(jié)果對比如表4 所示,其中,Seen 表示訓(xùn)練集中出現(xiàn)過的類別,Unseen是集外對象的結(jié)果。

表4 在COCO 數(shù)據(jù)集上的F1 值結(jié)果Table 4 F1 score on COCO dataset %

本文提出的模型在COCO 數(shù)據(jù)集上的準(zhǔn)確率、精確率、召回率如表5 所示,其中,Seen 表示訓(xùn)練集中出現(xiàn)過的類別,unseen 是集外對象的結(jié)果。

表5 在COCO 數(shù)據(jù)集上的準(zhǔn)確率、精確率和召回率Table 5 Accuracy,precision and recall on COCO dataset %

由表4 和表5 可知,本文提出的模型在對新對象的描述F1 值上較基準(zhǔn)模型提高了16.1 個(gè)百分點(diǎn),在整個(gè)測試集上的平均F1 值提高了6.6 個(gè)百分點(diǎn)。且模型面對新對象時(shí)的準(zhǔn)確率、精確率和召回率會低于面對已知對象,這與傳統(tǒng)描述模型的情況類似。由此可知,本文提出的模型在面對新對象時(shí)的描述能力相對于基線模型有所提升,但是因?yàn)樾聦ο鬀]有出現(xiàn)在訓(xùn)練集中,并且會受目標(biāo)檢測器的影響,對這些對象的能力要弱于對已知對象的描述。另外,是否使用知識圖譜對結(jié)果的提升影響較小,說明對圖像中對象的準(zhǔn)確度更多地受到小樣本目標(biāo)檢測器的影響,特別是在集外對象的識別。

3.4.2 同義詞采用不同計(jì)算策略對模型的影響

來自WordNet 的同義詞信息可以提供與對象相近的語義信息,從而提升圖像描述模型的能力。為此,本文比較了WordNet 中不同語義相似度計(jì)算策略對模型描述能力的影響,3 種計(jì)算策略下同義詞對模型的影響如表6 所示(粗體為結(jié)果最優(yōu)),其中,path 表示path_similarity,lch 表示Leacock-Chodorow Similarity,wup 表示W(wǎng)u-Palmer Similarity 策略。

表6 3 種計(jì)算策略下同義詞對模型的影響Table 6 Influence of synonyms under three computing strategies on the model %

從表6 可以看出,模型額外使用WordNet 同義詞與只使用實(shí)體信息相比還有進(jìn)一步提升。但不同的計(jì)算策略得到的最終描述結(jié)果總體差距不大,推測是因?yàn)樗褂玫牟煌x詞之間的語義相似度較高,提供給模型的語義信息是相近的,所以最終結(jié)果也會相近。

3.4.3 測試搜索寬度對模型的影響

不同的搜索寬度(beam size)意味著模型在生成描述時(shí),同時(shí)保留高概率的潛在輸出單詞。例如搜索寬度為3 時(shí),模型在ti時(shí)刻保留3 個(gè)最好的待完成的語句,進(jìn)入ti+1時(shí)刻分別為每個(gè)語句計(jì)算出概率最高的后續(xù)單詞,并對所有的語句進(jìn)行排序,然后保留概率最高的前3 名,進(jìn)入到下一時(shí)刻。為測試不同搜索寬度對模型的影響,本文設(shè)計(jì)了在COCO 數(shù)據(jù)集上運(yùn)用不同搜索寬度的實(shí)驗(yàn),使用Wu-Palmer Similarity 策略下的同義詞權(quán)重。實(shí)驗(yàn)結(jié)果如表7 所示(粗體為結(jié)果最優(yōu))。

表7 不同搜索寬度下的評測結(jié)果Table 7 Evaluation results under different beam size %

表7 中記錄了6 種搜索寬度下模型生成描述語句的評測結(jié)果。可以看出在BLEU4、METEOR 和ROUGE_L 3 項(xiàng)指標(biāo)上,隨著搜索寬度的增大,模型表現(xiàn)更好。由于SPICE 是專為圖像描述設(shè)計(jì)的測評指標(biāo),本文的測評優(yōu)先考慮SPICE。結(jié)合圖7 可以看出,搜索寬度為3 或4 時(shí),結(jié)果最好,繼續(xù)增大搜索寬度,SPICE 結(jié)果并不會提高。另外,寬度為4 時(shí),其他評測指標(biāo)的上的表現(xiàn)都高于寬度為3 時(shí)的結(jié)果,綜合以上結(jié)果,在搜索寬度為4 時(shí)模型的表現(xiàn)最好。

圖7 不同搜索寬度下的SPICE 結(jié)果Fig.7 SPICE results under different beam sizes

在COCO 數(shù)據(jù)集為每張圖像所提供的5 句人工標(biāo)注的樣本中,并不一定都會包含某個(gè)對象,這會對模型的訓(xùn)練產(chǎn)生影響,導(dǎo)致模型在描述中忽略這個(gè)對象。本文剔除了這些數(shù)據(jù),因此模型訓(xùn)練時(shí)的數(shù)據(jù)集規(guī)模變小。本文使用包含20 個(gè)集外對象的完整COCO 訓(xùn)練集訓(xùn)練的基線模型,并使用相同的參數(shù)設(shè)置,此時(shí)BLEU4 得分可以達(dá)到30.4,使用分割后的訓(xùn)練集,基線模型的BLEU4 得分為19.22,由此判斷描述模型受到訓(xùn)練數(shù)據(jù)集規(guī)模的縮小的影響。

3.5 在FOSD 數(shù)據(jù)集上的對比實(shí)驗(yàn)

對于FSOD 數(shù)據(jù)集,本文同樣構(gòu)建了包含每個(gè)類別對象的樣本數(shù)據(jù)集。經(jīng)過COCO 數(shù)據(jù)集上的訓(xùn)練,模型已經(jīng)具備圖像描述的能力,接下的測試重點(diǎn)是對集外對象的識別能力。本文對FSOD 測試集上的每個(gè)類別進(jìn)行測試,每個(gè)類別得到一個(gè)準(zhǔn)確率,通過平均200 個(gè)類別對象的分?jǐn)?shù)獲得最終的F1 值為16.2%,精確率為17.6%,召回率為15.0%,準(zhǔn)確率為16.9%。FSOD 數(shù)據(jù)集圖像內(nèi)容比COCO 數(shù)據(jù)集復(fù)雜,而且對象類別數(shù)量更多,對模型的能力要求更高。圖8 所示為圖像描述模型的描述能力,對比了基線模型和本文提出的模型,搜索寬度為4,使用了知識圖譜信息和WordNet 信息,同義詞權(quán)重計(jì)算策略為Wu-Palmer Similarity。

圖8 本文模型與基線模型實(shí)驗(yàn)結(jié)果對比Fig.8 Comparison between experimental results of this model and baseline model

在圖8 中,加下劃線的詞就是該圖像中對應(yīng)的對象的標(biāo)簽。圖8(a)中的對象是“train”,對基線模型和小樣本圖像描述模型來說都不算是新對象,所以2 個(gè)模型的描述都包含這一對象。在剩下的圖像中,“skateboard”“elephants”“refrigerator”“airplane”為新對象,所以基線模型難以描述這些對象,而小樣本圖像描述模型可以識別并生成包含這些對象的描述。

圖9 所示為模型生成描述時(shí)所采用的樣本圖像與待描述的圖像,其中圖像右側(cè)為小樣本檢測器的參考圖像。小樣本圖像描述模型通過目標(biāo)檢測器的檢測,識別出圖9(a)圖像中的“pizza”,和圖9(b)圖像中的“bus”,并且在描述中包含了識別出來的新對象。

圖9 樣本圖像與待描述圖像的展示Fig.9 Display of sample images and images to be described

在圖10(a)和圖10(b)中,待描述的圖像相同,但是參考樣本圖像不同。圖10(a)中的“bus”被小樣本目標(biāo)檢測器檢測出來,但是圖10(b)中的“umbrella”卻沒有被識別出來。從圖10 的結(jié)果可以看出,未被識別的“umbrella”是樣本圖像與實(shí)際待描述對象的差異導(dǎo)致的,這一問題有待后續(xù)改進(jìn)。

圖10 采用不同樣本圖像時(shí)的識別結(jié)果Fig.10 Recognition results when using different sample images

4 結(jié)束語

本文提出一個(gè)基于小樣本學(xué)習(xí)和語義信息的圖像描述模型。利用小樣本目標(biāo)檢測器,并結(jié)合知識圖譜中與對象相關(guān)的實(shí)體信息作為背景知識,對集外對象進(jìn)行描述。實(shí)驗(yàn)結(jié)果表明,與基線模型相比,該模型不僅能夠識別集外對象,還可以有效提升所生成描述的質(zhì)量,并且減少對訓(xùn)練數(shù)據(jù)集中對象類別數(shù)量上的依賴,有利于圖像描述模型的實(shí)際應(yīng)用。下一步研究是改進(jìn)小樣本識別模塊以提高檢測器的性能。

猜你喜歡
單詞信息模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
單詞連一連
看圖填單詞
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
3D打印中的模型分割與打包
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
最難的單詞
單詞拾趣
海外英語(2006年8期)2006-09-28 08:49:00
主站蜘蛛池模板: 熟妇丰满人妻| 99精品久久精品| 国产日韩欧美视频| 国产第一页第二页| 欧美成人午夜影院| 精品综合久久久久久97超人该| 午夜日韩久久影院| 91在线国内在线播放老师| 日韩欧美国产成人| 一区二区自拍| 亚洲h视频在线| 亚洲天堂精品在线观看| 国产玖玖玖精品视频| 国产簧片免费在线播放| av手机版在线播放| 黄色网址手机国内免费在线观看| 欧美成人免费| 日韩A∨精品日韩精品无码| 波多野结衣国产精品| 久久香蕉国产线看观| 国产亚洲精品自在久久不卡| 日韩无码视频专区| 国产欧美日韩综合在线第一| 黄色福利在线| 自拍欧美亚洲| 黄色在线不卡| 99视频在线免费| 在线观看无码av免费不卡网站| 天天综合亚洲| 日韩欧美综合在线制服| 欧美激情福利| 伊人AV天堂| 亚洲日韩每日更新| 久久香蕉国产线看观看亚洲片| 国产永久无码观看在线| 久久综合五月| 精品国产成人高清在线| 伊人久久青草青青综合| 欧美色伊人| 韩日无码在线不卡| 国产主播在线观看| 五月天丁香婷婷综合久久| 丝袜国产一区| 精品日韩亚洲欧美高清a| 华人在线亚洲欧美精品| 青青青亚洲精品国产| 影音先锋亚洲无码| 在线观看视频99| 大香网伊人久久综合网2020| 996免费视频国产在线播放| 亚洲福利网址| 999国产精品永久免费视频精品久久| 亚洲日韩久久综合中文字幕| 欧美精品H在线播放| 午夜福利视频一区| 久久人搡人人玩人妻精品一| 国产麻豆va精品视频| 精品自拍视频在线观看| 国产男女XX00免费观看| 成人国产小视频| 免费不卡视频| 欧美成人一级| 成年午夜精品久久精品| 欧美一区精品| 国产91视频免费观看| 久久人体视频| a色毛片免费视频| 亚洲最猛黑人xxxx黑人猛交| 91亚洲视频下载| 日韩精品成人网页视频在线| 国产91无毒不卡在线观看| 亚洲最新在线| 久久婷婷五月综合97色| 91在线激情在线观看| 第一区免费在线观看| 亚洲成a∧人片在线观看无码| 54pao国产成人免费视频 | 97人妻精品专区久久久久| 国产成年女人特黄特色大片免费| 久久久黄色片| 米奇精品一区二区三区| 久草中文网|