999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于遷移學(xué)習(xí)的圖像分類在詩詞中的應(yīng)用研究

2021-08-02 03:49:20武蘇雯趙慧杰王佳豪
關(guān)鍵詞:分類模型

武蘇雯,趙慧杰,劉 鑫,王佳豪

(中原工學(xué)院 計(jì)算機(jī)學(xué)院,河南 鄭州 451191)

0 引 言

圖像分類是將不同類別的圖片分開的圖像處理方法。它在工業(yè)、農(nóng)業(yè)、醫(yī)學(xué)等領(lǐng)域都起著重要的作用。圖像識(shí)別在詩詞搜索中的應(yīng)用研究是根據(jù)圖像中的主要特征,例如花、鳥、山來進(jìn)行圖像分類,得到關(guān)鍵詞,通過關(guān)鍵詞在已經(jīng)創(chuàng)建好的數(shù)據(jù)庫中搜索詩詞,得到搜索結(jié)果。當(dāng)前,許多詩詞應(yīng)用系統(tǒng)已投入市場(chǎng),例如西窗燭、古詩詞典和古詩詞分類賞析等應(yīng)用軟件,這類軟件為用戶提供了一個(gè)搜索詩詞的平臺(tái),便于用戶快速獲取到詩詞信息。考慮到現(xiàn)有的搜索方式較為單一,且許多用戶聯(lián)想到詩詞的情景各有不同,提出一種新型應(yīng)用系統(tǒng),通過對(duì)用戶輸入的圖像進(jìn)行特征提取,將特征提取后的分類結(jié)果進(jìn)行整合,從已有的詩詞庫中自動(dòng)匹配,輸出與圖像意境匹配最佳的詩詞推薦給用戶。

目前,圖像與詩詞匹配的算法日新月異,國內(nèi)外致力于這一領(lǐng)域的研究也取得了一定的研究成果。文獻(xiàn)[1]通過學(xué)習(xí)深度耦合的視覺詩意嵌入模型與基于RNN的聯(lián)合學(xué)習(xí)生成器結(jié)合進(jìn)行多對(duì)抗訓(xùn)練,實(shí)現(xiàn)跨模態(tài)相關(guān)性和詩意的相關(guān)性,提出了一種由圖像自動(dòng)生成英文詩歌的模型。文獻(xiàn)[2]通過改進(jìn)的VGG16模型,預(yù)測(cè)輸入圖形的中文預(yù)測(cè)結(jié)果,然后根據(jù)RNN的預(yù)測(cè)結(jié)果創(chuàng)作一首詩歌。文獻(xiàn)[3]將深度卷積網(wǎng)絡(luò)遷移應(yīng)用到小規(guī)模花卉數(shù)據(jù)集上,在進(jìn)行模型微調(diào)后可以取得較好的識(shí)別結(jié)果。文獻(xiàn)[4]通過使用EfficientNet和MixNet構(gòu)建了一個(gè)專家系統(tǒng),能夠準(zhǔn)確、快速識(shí)別水果的種類。文獻(xiàn)[5]提出了基于自然性和視覺特征通道的場(chǎng)景分類方法,用Gist模型在Oliva等[6]提出的圖像庫依據(jù)其語義類別進(jìn)行分類,得到了良好的分類效果。文獻(xiàn)[7]通過使用改進(jìn)的InceptionV3網(wǎng)絡(luò)以及改進(jìn)的激活函數(shù),實(shí)現(xiàn)了大規(guī)模花卉圖像數(shù)據(jù)集的分類。

1 相關(guān)工作

1.1 圖像數(shù)據(jù)集

由于項(xiàng)目的特殊需求,本實(shí)驗(yàn)專門構(gòu)建了意象圖像數(shù)據(jù)NID(nature image dataset),圖像數(shù)據(jù)集NID是通過從標(biāo)準(zhǔn)數(shù)據(jù)集(例如Flower102、ImageNet、CIFAR-10、SUN397-15場(chǎng)景數(shù)據(jù)集、scene15category等)、百度圖片庫中選取的。刪除無關(guān)、重復(fù)的圖片以及非JPG格式的圖像數(shù)據(jù)后,得到了60種共70 206張有效圖片。由于物種類別的多樣性,結(jié)合項(xiàng)目中詩詞意象的特點(diǎn),人為將類型相近的物種歸為一類,便于識(shí)別分類。共分為九種不同的類別,對(duì)每一種類別的物種分別進(jìn)行識(shí)別,具體的圖像數(shù)據(jù)集如表1所示。其中有45類的圖像數(shù)據(jù)在1 000張以上,最多的一種包含1 800張圖像,有15類的圖像數(shù)據(jù)低于1 000張,最少的一類為478張。由于圖像的分類精度會(huì)受到數(shù)據(jù)樣本數(shù)量的影響,文中采用數(shù)據(jù)增強(qiáng)[8]的方法來進(jìn)行數(shù)據(jù)擴(kuò)充,主要包括隨機(jī)裁減、隨機(jī)旋轉(zhuǎn)、亮度調(diào)節(jié)等操作。其中設(shè)置了訓(xùn)練集和測(cè)試集,分別占數(shù)據(jù)集的80%和20%。

表1 NID數(shù)據(jù)集

1.2 EfficientNet模型

EfficientNet卷積神經(jīng)網(wǎng)絡(luò)[9]是通過使用復(fù)合系數(shù)網(wǎng)絡(luò)的深度(卷積層的數(shù)量)、寬度(卷積層的通道數(shù))、分辨率(輸入特征的尺寸)中的所有維度進(jìn)行均勻縮放的網(wǎng)絡(luò)結(jié)構(gòu)。因?yàn)閱为?dú)縮放其中任一個(gè)維度,模型會(huì)隨著模型的增大,精度變小,在整個(gè)神經(jīng)網(wǎng)絡(luò)的縮放過程中要綜合均衡所有的維度才是關(guān)鍵,得到協(xié)調(diào)的進(jìn)度和效率。在EfficientNet模型中,其使用一組固定的縮放系數(shù)統(tǒng)一縮放網(wǎng)絡(luò)深度、寬度和分辨率。若想使用2N倍的計(jì)算資源,可將網(wǎng)絡(luò)深度擴(kuò)大αN倍、寬度擴(kuò)大βN倍、圖像尺寸擴(kuò)大γN倍,這里的α、β、γ都是由原來的小模型上做微小的網(wǎng)格得到的最優(yōu)解,N則是表明資源的可用范圍,調(diào)節(jié)模型的可用資源。圖1為EfficientNet的設(shè)計(jì)思路,從三個(gè)方面同時(shí)拓充網(wǎng)絡(luò)的特性。

圖1 模型的擴(kuò)展過程

神經(jīng)網(wǎng)絡(luò)架構(gòu)采用搜索的方式,在限定存儲(chǔ)空間和目標(biāo)浮點(diǎn)運(yùn)算次數(shù)的條件下,搜索到了一系列EfficientNet B0-B6模型。文中采用輕量級(jí)的EfficientNet-B0網(wǎng)絡(luò)作為主干網(wǎng)絡(luò),具體參數(shù)如表2所示。其中考慮到在stem stage層的小模型對(duì)前期底層特征的依賴,采取的是步長為2的卷積操作,可以有效地避免信息丟失的問題。

表2 輕量級(jí)EfficientNet-B0主干網(wǎng)絡(luò)參數(shù)

1.3 模型構(gòu)建

文中使用的EfficientNet-B0基本網(wǎng)絡(luò)作為主干網(wǎng)絡(luò),主要由1個(gè)Stem和16個(gè)大Blocks堆疊構(gòu)成,其中16個(gè)大Blocks可以分為1、2、2、3、3、4、1個(gè)Block。Block的通用結(jié)構(gòu)如圖2所示,其總體的設(shè)計(jì)思路是Inverted residuals結(jié)構(gòu)和殘差結(jié)構(gòu),在3×3或者5×5網(wǎng)絡(luò)結(jié)構(gòu)前利用1×1卷積升維,在3×3或者5×5網(wǎng)絡(luò)結(jié)構(gòu)后增加了一個(gè)關(guān)于通道的注意力機(jī)制[10],最后利用1×1卷積降維后增加一個(gè)大殘差[11]邊。

圖2 Block的通用結(jié)構(gòu)

1.4 遷移學(xué)習(xí)及微調(diào)

為了能加快模型的學(xué)習(xí)速度,本實(shí)驗(yàn)使用遷移學(xué)習(xí)。遷移學(xué)習(xí)[12-15]是將訓(xùn)練好的深度神經(jīng)網(wǎng)絡(luò)模型應(yīng)用到另一個(gè)新的任務(wù)中,在這個(gè)過程中模型解凍、參數(shù)微調(diào),訓(xùn)練得出適合新任務(wù)的模型。將已經(jīng)在ImageNet數(shù)據(jù)集上訓(xùn)練好的EfficientNet-b0參數(shù)作為特征提取模型的初始參數(shù),從而繼承模型從ImageNet數(shù)據(jù)集上學(xué)習(xí)到的特征提取能力,再在此基礎(chǔ)上進(jìn)行微調(diào)。ImageNet數(shù)據(jù)集的數(shù)據(jù)量十分龐大,可以賦予模型極強(qiáng)的特征提取能力以及泛化能力。該方法不僅可以節(jié)省大量的訓(xùn)練時(shí)間和計(jì)算資源,更可以在一定程度上削弱過擬合現(xiàn)象,使模型擁有比隨機(jī)初始化參數(shù)更好的表現(xiàn)。

2 多EfficientNet模型的融合應(yīng)用

2.1 基于遷移學(xué)習(xí)的EfficientNet圖像分類算法

由于NID的圖像數(shù)據(jù)量目前還不夠大,難以將網(wǎng)絡(luò)模型訓(xùn)練到理想的分類效果,而ImageNet數(shù)據(jù)集的圖像數(shù)量高達(dá)100多萬張,EfficientNet模型先在ImageNet數(shù)據(jù)集上完成訓(xùn)練,對(duì)訓(xùn)練模型可以得到良好的識(shí)別率。因此文中采用基于遷移學(xué)習(xí)的EfficientNet圖像分類算法來完成NID的分類任務(wù)。首先將ImageNet數(shù)據(jù)集在EfficientNet預(yù)訓(xùn)練模型上進(jìn)行訓(xùn)練,在訓(xùn)練過程中調(diào)整模型超參數(shù),使預(yù)訓(xùn)練模型能夠較好地提取出圖像的低層特征,例如邊緣特征、紋理特征,使模型具有更佳的通用性,得到最佳識(shí)別結(jié)果,并記錄相應(yīng)的權(quán)重文件。再將NID其中一類圖像隨機(jī)選擇80%用于訓(xùn)練,20%用于測(cè)試,訓(xùn)練集可以再次對(duì)模型超參數(shù)進(jìn)行微調(diào),充分訓(xùn)練和調(diào)整模型的語義層面的參數(shù)信息,提取出具有區(qū)分性的圖像特征,最終得到最適合該類圖像數(shù)據(jù)集的基于遷移學(xué)習(xí)的EfficientNet圖像分類模型。

具體圖像分類順序如圖3所示。

圖3 基于遷移學(xué)習(xí)的EfficientNet圖像分類算法順序

2.2 融合模型的圖像分類算法

NID中9大類圖像分別通過基于遷移學(xué)習(xí)的EfficientNet圖像分類算法得到9種不同參數(shù)的EfficientNet模型,其中包括獸類、鳥類、花類、昆蟲、景物類、樹類、水生動(dòng)物、天氣、人等。將這9種EfficientNet模型部署為一種融合模型,用于系統(tǒng)中圖像處理的應(yīng)用,圖像識(shí)別與詩詞搜索的系統(tǒng)框架如圖4所示。其中的圖像處理過程可以分為兩個(gè)過程,第一個(gè)過程是圖像裁剪、預(yù)處理,第二個(gè)過程是將預(yù)處理后的圖像進(jìn)行通道融合,選取相應(yīng)的分類模型進(jìn)行識(shí)別,將分類之后的輸出結(jié)果傳送到詩詞數(shù)據(jù)庫中進(jìn)行下一步的搜索處理,圖像分類過程的基本流程如圖4所示。

(3)與職業(yè)技能鑒定相銜接。口腔教研室積極與自治區(qū)職業(yè)技能鑒定中心聯(lián)系,將技能競(jìng)賽項(xiàng)目和內(nèi)容與國家職業(yè)資格標(biāo)準(zhǔn)相結(jié)合,口腔技能競(jìng)賽項(xiàng)目與職業(yè)技能鑒定操作題相結(jié)合,使學(xué)生通過參與競(jìng)賽訓(xùn)練,達(dá)到職業(yè)資格標(biāo)準(zhǔn)的要求,取得相應(yīng)的職業(yè)資格證書。這樣,一方面可使競(jìng)賽資源得到有效利用,另一方面可增強(qiáng)學(xué)生參賽的積極性和競(jìng)賽的實(shí)效性。

圖4 圖像分類過程的基本流程

3 實(shí)驗(yàn)結(jié)果與分析

3.1 實(shí)驗(yàn)設(shè)置

3.1.1 環(huán)境設(shè)置

本實(shí)驗(yàn)均在kaggle平臺(tái)上進(jìn)行,使用python編程語言結(jié)合深度學(xué)習(xí)模型TensorFlow的高階API:tf.keras實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)的搭建、訓(xùn)練和測(cè)試。環(huán)境配置如下:操作系統(tǒng)為Windows10;GPU為Nvidia Tesla P100-PCIE-16 GB 1.328 5 GHz;CPU Frequency為2.3 GHz;RAM為14 GB;Disk為5.2 GB。

3.1.2 參數(shù)設(shè)置

該文使用TensorFlow的深度學(xué)習(xí)庫Keras構(gòu)建基于遷移學(xué)習(xí)的圖像分類模型,通過EfficientNet模型遷移學(xué)習(xí),設(shè)置學(xué)習(xí)率0.001,批尺寸128,采用AMSGrad優(yōu)化器及交叉熵?fù)p失函數(shù),實(shí)現(xiàn)了對(duì)NID的特征提取和分類。

AMSGrad算法針對(duì)Adam算法收斂性證明的缺陷,對(duì)Adam的更新規(guī)則做出了一些改進(jìn),在某些應(yīng)用場(chǎng)景下?lián)碛谐^Adam算法的收斂速度。

3.2 結(jié)果對(duì)比分析

3.2.1 多EfficientNet融合模型結(jié)果分析

實(shí)驗(yàn)過程中分別在NID上對(duì)9種模型進(jìn)行訓(xùn)練,實(shí)驗(yàn)訓(xùn)練總輪數(shù)為15輪,在訓(xùn)練過程中計(jì)算出每一輪的平均損失值,所有的損失值都隨著訓(xùn)練輪數(shù)的增加而減小,收斂速度較快,并未出現(xiàn)過擬合現(xiàn)象。根據(jù)記錄下的每一種模型精度繪制的變化圖可以看出,模型精度也在隨訓(xùn)練輪數(shù)的增加趨于穩(wěn)定,其中每一類圖像的分類精度如表3所示,9種模型的損失值和精確率變化情況如圖5所示。

(a)9種模型的損失值變化曲線 (b)9種模型的精確率變化曲線

表3 NID的分類結(jié)果

由表3可知,文中方法圖像分類結(jié)果均在90%以上,精確率最高的一類為水生動(dòng)物,達(dá)到了99.62%,相對(duì)來說精確率較低的一類為鳥類,精確率為91.88%。

結(jié)合圖5來看,基于遷移學(xué)習(xí)的EfficientNet的圖像分類算法使NID的各類別圖像的平均精確率達(dá)到了96.25%。這足以說明在NID圖像分類研究方面的有效性。文中采用的遷移學(xué)習(xí)思想提取了深度特征避免了模型過擬合,同時(shí)結(jié)合低層特征來充分表達(dá)圖像信息,使得文中分類算法更穩(wěn)定,魯棒性更強(qiáng)。

3.2.2 不同模型實(shí)驗(yàn)結(jié)果分析

為了驗(yàn)證EfficientNet對(duì)于NID的分類效果優(yōu)于其他模型,將EfficientNet與Xception、Inception-V3、VGG16、ResNet50四種模型作比較,在構(gòu)建的花類物種數(shù)據(jù)集上進(jìn)行對(duì)比實(shí)驗(yàn),結(jié)果如表4所示。可以看出,文中算法的精確率分別較Xception、Inception-V3、VGG16、ResNet50模型高5.11%、4.31%、13.32%、8.2%,且參數(shù)量為11 574 063,相比其他四種算法的參數(shù)量大大減少,降低了運(yùn)算復(fù)雜度,減少了運(yùn)算時(shí)間,符合項(xiàng)目中對(duì)圖像分類的要求。

表4 EfficientNet模型與其他模型的對(duì)比

4 結(jié)束語

文中構(gòu)建了一個(gè)大型的詩詞圖像數(shù)據(jù)集NID,在此基礎(chǔ)上提出了一種基于遷移學(xué)習(xí)的多EfficientNet融合的圖像分類算法模型,并取得了良好的分類效果,各類圖像的平均識(shí)別率為96.25%,收斂速度快,且訓(xùn)練集和驗(yàn)證集之間并未出現(xiàn)過擬合現(xiàn)象。對(duì)比其他四個(gè)模型,實(shí)驗(yàn)結(jié)果表明,文中采用的模型識(shí)別結(jié)果穩(wěn)定,且在NID上的識(shí)別率最高。

本研究僅對(duì)數(shù)據(jù)集中包含的60種意象景物進(jìn)行了分類識(shí)別實(shí)驗(yàn),要建立有效的、用于詩詞搜索的圖像識(shí)別系統(tǒng),就要有更強(qiáng)大的訓(xùn)練數(shù)據(jù)作為基礎(chǔ),并且在提升模型的識(shí)別率,同時(shí)持續(xù)補(bǔ)充詩詞庫,以保證搜索到更全面、更精確的詩詞。因此,在后期的工作中將補(bǔ)充圖像數(shù)據(jù)研究種類、豐富詩詞庫,并增加圖像識(shí)別模型識(shí)別的特征目標(biāo),以便獲取更多的圖像數(shù)據(jù)信息,以建立更準(zhǔn)確的詩詞搜索系統(tǒng)。

猜你喜歡
分類模型
一半模型
分類算一算
垃圾分類的困惑你有嗎
大眾健康(2021年6期)2021-06-08 19:30:06
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
分類討論求坐標(biāo)
數(shù)據(jù)分析中的分類討論
教你一招:數(shù)的分類
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
主站蜘蛛池模板: 99re在线观看视频| 欧美色99| 波多野结衣视频网站| 天天婬欲婬香婬色婬视频播放| 亚洲欧美另类专区| 国产精品99久久久| 国产主播在线一区| 国产欧美视频综合二区| 国产日本一线在线观看免费| 91麻豆国产视频| 91视频99| 亚洲综合色婷婷| 欧美日韩导航| 亚洲第一页在线观看| 最新精品国偷自产在线| 在线播放国产99re| 国产综合欧美| 91精品国产自产在线观看| 成人综合在线观看| 乱人伦视频中文字幕在线| 欧美自慰一级看片免费| 国产精品分类视频分类一区| 欧美成一级| 超薄丝袜足j国产在线视频| 99尹人香蕉国产免费天天拍| 日本欧美成人免费| 亚洲精品午夜天堂网页| 最新亚洲人成网站在线观看| 亚洲三级a| 亚洲黄色网站视频| 国产视频欧美| 一级毛片在线播放免费观看| 亚洲人成网站在线观看播放不卡| 成人精品免费视频| 女人爽到高潮免费视频大全| 色亚洲成人| 亚洲欧洲日产国产无码AV| 色综合手机在线| 国产二级毛片| 五月婷婷中文字幕| 久久鸭综合久久国产| 成人在线不卡| 97视频精品全国在线观看| 美女内射视频WWW网站午夜| 人妻少妇乱子伦精品无码专区毛片| 国产成人喷潮在线观看| 亚洲国产综合精品一区| 亚洲精品无码日韩国产不卡| 亚洲91在线精品| 人妻一区二区三区无码精品一区| 欧美激情视频一区| 亚洲综合精品第一页| 最新亚洲人成无码网站欣赏网| 久操线在视频在线观看| 国产v精品成人免费视频71pao | 中国一级特黄大片在线观看| 国产精品第一区在线观看| 亚洲精品国产首次亮相| 一级香蕉人体视频| 无码'专区第一页| 亚洲人成网18禁| 成人在线亚洲| 婷婷六月综合网| 精品视频在线观看你懂的一区| 中国国产一级毛片| 最新国产成人剧情在线播放| 99精品热视频这里只有精品7| 亚洲第一av网站| 亚洲天堂网视频| 一级毛片a女人刺激视频免费| 亚洲第一黄片大全| 国产成人精品一区二区| 国产成人精品一区二区三区| 国产簧片免费在线播放| 国产精品太粉嫩高中在线观看| 在线日韩日本国产亚洲| 91区国产福利在线观看午夜 | 高潮毛片免费观看| 成人一区专区在线观看| 无码精品国产VA在线观看DVD| 亚洲视频免费在线| 亚洲国产天堂久久综合|