999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于對抗學(xué)習(xí)的跨模態(tài)檢索方法研究進展

2019-03-02 02:35:26張璐
現(xiàn)代計算機 2019年2期
關(guān)鍵詞:語義模態(tài)特征

張璐

(四川大學(xué)計算機學(xué)院,成都 610065)

0 引言

近年來,由于多媒體數(shù)據(jù)的快速增長,跨模態(tài)檢索這一研究領(lǐng)域吸引了學(xué)者們的廣泛關(guān)注。跨模態(tài)檢索的任務(wù)是用一種模態(tài)數(shù)據(jù)作為查詢條件,檢索相關(guān)語義的另一種模態(tài)的數(shù)據(jù)。該研究領(lǐng)域的核心問題和難點是如何去衡量不同模態(tài)數(shù)據(jù)的內(nèi)容相似度,同時目前的研究致力于提高檢索的精度。2017年,B.Wang等人第一次提出了將生成對抗網(wǎng)絡(luò)(Generative Adversarial Networks)[1]應(yīng)用到跨模態(tài)檢索問題的方法ACMR(Adversarial Cross-Modal Retrieval)[2],該方法中使用對抗學(xué)習(xí)來使得文本和圖像兩種模態(tài)數(shù)據(jù)的特征分布趨于一致,可以有效地尋找不同模態(tài)的共同子空間。2018年,出現(xiàn)了更多使用對抗學(xué)習(xí)進行跨模態(tài)檢索的研究方法,并在公開數(shù)據(jù)集上取得了優(yōu)秀的效果,進一步證明了對抗學(xué)習(xí)在跨模態(tài)檢索問題上的有效性和研究價值。

1 相關(guān)工作

1.1 跨模態(tài)檢索

跨模態(tài)檢索的一般步驟分為三步,如圖1所示。第一步是對不同模態(tài)的數(shù)據(jù)進行特征提取,第二步是進行跨模態(tài)相關(guān)性建模,第三步是對檢索結(jié)果進行排序。跨模態(tài)檢索方法大致分為兩類,一類是基于實值特征學(xué)習(xí)的方法,另一類是基于二值特征學(xué)習(xí)的方法[3]。先進的實值特征學(xué)習(xí)方法包括 CCA[4]、Corr-AE[5]、LCFS[6]、JRL[7],先進的二值特征學(xué)習(xí)方法包括 CMSSH[8]、SCM[9]、SePH[10]、DCMH[11]。雖然二值特征會損失部分信息,但是由于采用位運算,二值特征學(xué)習(xí)方法在檢索速度上優(yōu)于實值特征學(xué)習(xí)方法。

圖1 跨模態(tài)檢索的總體框架[3]

1.2 對抗學(xué)習(xí)

Ian J.Goodfellow等人在2014年提出了生成對抗網(wǎng)絡(luò)(Generative Adversarial Networks),該網(wǎng)絡(luò)的原理是利用零和博弈的思想,讓網(wǎng)絡(luò)結(jié)構(gòu)中負(fù)責(zé)生成偽造數(shù)據(jù)的生成器(Generator)和負(fù)責(zé)鑒別真實數(shù)據(jù)與偽造數(shù)據(jù)的判別器(Discriminator)進行對抗訓(xùn)練,從而讓生成器學(xué)習(xí)到正確的數(shù)據(jù)分布。GAN相比較于傳統(tǒng)的模型,不同點在于它擁有兩個不同的網(wǎng)絡(luò),訓(xùn)練的時候采用的是對抗訓(xùn)練,其中生成器的梯度更新信息來源于判別器而不是真實的數(shù)據(jù)樣本。在跨模態(tài)檢索領(lǐng)域,對抗學(xué)習(xí)中的判別器通常替換為一個進行二分類的分類器,判別生成的數(shù)據(jù)是文本模態(tài)或者圖片模態(tài),來使得生成器生成模態(tài)不變的共同特征。

2 研究進展

2.1 對抗跨模態(tài)檢索

對抗跨模態(tài)檢索是第一個將對抗學(xué)習(xí)應(yīng)用到跨模態(tài)檢索問題的論文。該方法是一個實值特征學(xué)習(xí)方法。該方法使用特征生成器和模態(tài)分類器組成的對抗網(wǎng)絡(luò)生成具有模態(tài)間不變性和模態(tài)內(nèi)判別性的共同特征。特征生成器由標(biāo)簽預(yù)測和結(jié)構(gòu)保存兩個模塊組成。標(biāo)簽預(yù)測模塊以圖片和文本的特征匹配對為輸入,輸出該匹配對的語義類別概率分布,損失函數(shù)表示為:

其中yi表示圖片和文本匹配對的真實的類別標(biāo)簽向量,log和log分別表示圖像和文本的多標(biāo)簽分類概率。優(yōu)化該損失函數(shù)的目的是保存特征的模態(tài)內(nèi)判別性。結(jié)構(gòu)保存模塊引入了三元組約束和模態(tài)間不變性損失。損失函數(shù)表示為:

其中mi表示輸入的文本或者圖片特征的模態(tài)標(biāo)簽,是一個one-hot向量。D(vi;θD)和 D(ti;θD)分別表示預(yù)測輸入特征為文本或者圖片模態(tài)的概率。對抗訓(xùn)練的過程是在一次迭代中固定特征生成器或者模態(tài)分類器的參數(shù),最小化正在訓(xùn)練的模塊的損失函數(shù)來進行優(yōu)化的,這兩個子進程可以表示為:

2.2 自監(jiān)督對抗哈希網(wǎng)絡(luò)

自監(jiān)督對抗哈希網(wǎng)絡(luò)跨模態(tài)檢索[12]是一個二值特征學(xué)習(xí)方法。該方法使用自監(jiān)督語義生成網(wǎng)絡(luò)和對抗學(xué)習(xí)來保存生成的統(tǒng)一的哈希碼的語義相關(guān)性和分布一致性。該方法利用自監(jiān)督語義生成網(wǎng)絡(luò)生成保存圖像和文本語義信息的標(biāo)簽的語義特征,并使得圖像和文本的生成網(wǎng)絡(luò)學(xué)習(xí)到的特征對齊語義特征,以此建立文本和圖像特征的語義關(guān)聯(lián)。利用兩個模態(tài)分類器對輸入的語義特征或者文本和圖像特征進行模態(tài)分類,以此在對抗學(xué)習(xí)中學(xué)習(xí)不同模態(tài)特征分布的一致性。自監(jiān)督語義生成網(wǎng)絡(luò)的損失函數(shù)表示為:

該損失函數(shù)表示模態(tài)分類器分類錯誤的個數(shù)。對抗學(xué)習(xí)的損失函數(shù)表示為:

對抗訓(xùn)練時固定生成網(wǎng)絡(luò)或者判別網(wǎng)絡(luò)的參數(shù),優(yōu)化另一個網(wǎng)絡(luò)中的參數(shù)。

2.3 基于注意力機制的深度對抗哈希

基于注意力機制的深度對抗哈希跨模態(tài)檢索[13]是一個二值特征學(xué)習(xí)方法。該方法引入注意力機制去檢測多媒體數(shù)據(jù)中有益于不同模態(tài)數(shù)據(jù)進行相似度比較的信息量大的區(qū)域,即受關(guān)注區(qū)域。使用深度對抗哈希去學(xué)習(xí)有效的注意力掩碼和哈希碼,通過實驗驗證了注意力機制在跨模態(tài)哈希方法中的有效性。該方法包括三個模塊,分別是特征學(xué)習(xí)模塊,注意力模塊和哈希模塊。特征學(xué)習(xí)模塊用于提取圖像和文本的特征,注意力模塊學(xué)習(xí)注意力掩碼用于區(qū)分圖像與文本的受關(guān)注區(qū)域和不受關(guān)注區(qū)域,哈希模塊用于將圖像和文本的受關(guān)注區(qū)域特征和不受關(guān)注區(qū)域特征分別轉(zhuǎn)換成對應(yīng)的哈希碼。特征學(xué)習(xí)模塊和注意力模塊對應(yīng)對抗學(xué)習(xí)中的生成器,哈希模塊對應(yīng)對抗學(xué)習(xí)中的判別器。該方法引入了跨模態(tài)檢索損失和對抗檢索損失對網(wǎng)絡(luò)的參數(shù)進行優(yōu)化。跨模態(tài)檢索損失函數(shù)表示為:

其中A和B表示不同的模態(tài),HiA和HjB是語義相同的不同模態(tài)的哈希碼,HiA和HkB是不同語義不同模態(tài)的哈希碼,優(yōu)化該損失函數(shù)的目的是保存哈希碼的語義相似性。對抗檢索損失表示為:

哈希模塊優(yōu)化該損失函數(shù)的目的是盡量讓同一語義不同模態(tài)的不受關(guān)注區(qū)域保存相似性,而注意力模塊盡量區(qū)分出受關(guān)注區(qū)域和不受關(guān)注區(qū)域,讓不受關(guān)注區(qū)域不保存相似性信息。整個框架的目標(biāo)損失函數(shù)表示為:

訓(xùn)練的時候固定哈希模塊,更新特征生成模塊和注意力模塊的參數(shù):

固定特征生成模塊和注意力模塊的參數(shù),更新哈希模塊的參數(shù):

3 結(jié)語

自監(jiān)督對抗哈希網(wǎng)絡(luò)與對抗跨模態(tài)檢索的區(qū)別在于后者是一個實值特征學(xué)習(xí)方法,而前者是一個二值特征學(xué)習(xí)方法;后者是讓圖像和文本的特征在擬合真實語義標(biāo)簽的過程中進行共同決策來使得圖像和文本預(yù)測標(biāo)簽分類的概率分布趨于一致,而前者是讓圖像和文本的特征對齊真實語義標(biāo)簽的特征分布來使得特征分布趨于一致。基于注意力機制的深度對抗哈希與對抗跨模態(tài)檢索的區(qū)別在于前者是一個二值方法;后者使用對抗學(xué)習(xí)來尋找共同子空間,而前者使用對抗學(xué)習(xí)處理注意力網(wǎng)絡(luò)的參數(shù)學(xué)習(xí)。從以上內(nèi)容的介紹可以看出,基于對抗學(xué)習(xí)的跨模態(tài)檢索方法受到了廣泛的關(guān)注,且在已發(fā)表的文獻中呈現(xiàn)的實驗結(jié)果也充分證明了對抗學(xué)習(xí)應(yīng)用到跨模態(tài)檢索問題上的有效性和進一步的研究價值。

猜你喜歡
語義模態(tài)特征
語言與語義
如何表達“特征”
不忠誠的四個特征
抓住特征巧觀察
“上”與“下”語義的不對稱性及其認(rèn)知闡釋
國內(nèi)多模態(tài)教學(xué)研究回顧與展望
基于HHT和Prony算法的電力系統(tǒng)低頻振蕩模態(tài)識別
認(rèn)知范疇模糊與語義模糊
由單個模態(tài)構(gòu)造對稱簡支梁的抗彎剛度
計算物理(2014年2期)2014-03-11 17:01:39
線性代數(shù)的應(yīng)用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 国产高清国内精品福利| 67194亚洲无码| 99热这里只有精品2| 99九九成人免费视频精品| 日韩高清中文字幕| 色色中文字幕| 久久人人97超碰人人澡爱香蕉| 国内老司机精品视频在线播出| 暴力调教一区二区三区| 午夜无码一区二区三区| 国产va在线观看免费| 中文字幕无码制服中字| 国产精品亚洲五月天高清| 午夜久久影院| 日韩欧美91| 国产91蝌蚪窝| 狠狠v日韩v欧美v| 亚洲最大看欧美片网站地址| 高h视频在线| 9啪在线视频| 日韩无码白| 99久久精品免费观看国产| 国产综合网站| 国产精品不卡片视频免费观看| 国产爽爽视频| 欧美精品一二三区| 亚洲第一黄片大全| www.国产福利| 天天摸天天操免费播放小视频| 国产主播福利在线观看| 在线观看91香蕉国产免费| 97se亚洲| 精品国产免费人成在线观看| 色综合久久88色综合天天提莫 | AV色爱天堂网| 亚洲成人播放| 欧美成人亚洲综合精品欧美激情| 亚洲欧美日本国产综合在线| 国产麻豆va精品视频| 天堂成人av| 中国一级特黄大片在线观看| 亚洲第一极品精品无码| 九色在线视频导航91| 久久永久免费人妻精品| 天天躁日日躁狠狠躁中文字幕| 99精品久久精品| 91成人试看福利体验区| 亚洲二区视频| 九九九久久国产精品| 这里只有精品在线播放| 国产在线欧美| 亚洲天堂免费观看| 欧美色视频在线| 日韩 欧美 小说 综合网 另类| 久久香蕉国产线看精品| 香蕉网久久| 国产精品一老牛影视频| 白浆免费视频国产精品视频| 日本成人精品视频| 亚洲欧美日韩精品专区| 国产视频一区二区在线观看| 伊人久久久久久久久久| 黄色福利在线| 国产精品极品美女自在线网站| 91在线无码精品秘九色APP| 国产精品xxx| 九色综合视频网| 色哟哟国产精品一区二区| 日韩精品无码不卡无码| 欧美一级夜夜爽www| 最近最新中文字幕在线第一页 | 日韩免费无码人妻系列| 亚洲欧洲日韩综合| 国产精品女人呻吟在线观看| 久无码久无码av无码| 福利小视频在线播放| 久久亚洲中文字幕精品一区| 成人久久18免费网站| 国产欧美视频在线观看| 亚洲精品欧美重口| 精品国产99久久| 国产va在线观看|