999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合螢火蟲方法的多標(biāo)簽懶惰學(xué)習(xí)算法

2019-08-01 01:48:57程玉勝錢坤王一賓趙大衛(wèi)
計算機應(yīng)用 2019年5期

程玉勝 錢坤 王一賓 趙大衛(wèi)

摘 要:已有的多標(biāo)簽懶惰學(xué)習(xí)算法(IMLLA)在利用近鄰標(biāo)簽時因僅考慮了近鄰標(biāo)簽相關(guān)性信息,而忽略相似度的影響,這可能會使算法的魯棒性有所降低。針對這個問題,引入螢火蟲方法,將相似度信息與標(biāo)簽信息相結(jié)合,提出一種融合螢火蟲方法的多標(biāo)簽懶惰學(xué)習(xí)算法(FFMLLA)。首先,利用Minkowski距離來度量樣本間相似度,從而找到近鄰點;然后,結(jié)合標(biāo)簽近鄰點和螢火蟲方法對標(biāo)簽計數(shù)向量進(jìn)行改進(jìn);最后,使用奇異值分解(SVD)與核極限學(xué)習(xí)機(ELM)進(jìn)行線性分類。該算法同時考慮了標(biāo)簽信息與相似度信息從而提高了魯棒性。實驗結(jié)果表明,所提算法較其他的多標(biāo)簽學(xué)習(xí)算法有一定優(yōu)勢,并使用統(tǒng)計假設(shè)檢驗與穩(wěn)定性分析進(jìn)一步說明所提出算法的合理性與有效性。

關(guān)鍵詞:多標(biāo)簽學(xué)習(xí);螢火蟲方法;標(biāo)簽相關(guān)性;多標(biāo)簽懶惰學(xué)習(xí)算法;極限學(xué)習(xí)機

中圖分類號:TP181

文獻(xiàn)標(biāo)志碼:A

Abstract: The existing Improved Multilabel Lazy Learning Approach (IMLLA) has the problem that the influence of similarity information is ignored with only the neighbor label correlation information considered when the neighbor labels were used, which may reduce the robustness of the approach. To solve this problem, with firefly method introduced and the combination of similarity information with label information, a Multilabel Lazy Learning Approach based on FireFly method (FFMLLA) was proposed. Firstly, Minkowski distance was used to measure the similarity between samples to find the neighbor point. Secondly, the label count vector was improved by combining the neighbor point and firefly method. Finally, Singular Value Decomposition (SVD) and kernel Extreme Learning Machine (ELM) were used to realize linear classification. The robustness of the approach was improved due to considering both label information and similarity information. The experimental results demonstrate that the proposed approach improves the classification performance to a great extent compared to other multilabel learning approaches. And the statistical hypothesis testing and stability analysis are used to further illustrate the rationality and effectiveness of the proposed approach.

英文關(guān)鍵詞Key words: multilabel learning; firefly method; label correlation; Improved Multilabel Lazy Learning Approach (IMLLA); Extreme Learning Machine (ELM)

0 引言

多標(biāo)簽學(xué)習(xí)[1]是一種應(yīng)用非常廣泛的學(xué)習(xí)范式,是機器學(xué)習(xí)研究的重要熱點之一。傳統(tǒng)的單標(biāo)簽學(xué)習(xí),每個對象只與單個標(biāo)簽相關(guān)聯(lián);然而,真實世界中的對象往往具有多義性,比如一篇文章可能屬于軍事、體育、運動等多個主題[2]。

多標(biāo)簽學(xué)習(xí)作為處理具有豐富語義真實世界對象的學(xué)習(xí)框架之一,且其研究成果已經(jīng)廣泛應(yīng)用到文本分類[3]、基因工程[4]、圖像識別[5-6]、Web數(shù)據(jù)挖掘[7]和視頻自動標(biāo)注[8]等多個領(lǐng)域。對此許多學(xué)者提出了針對多標(biāo)簽分類的學(xué)習(xí)算法,例如BR(Binary Relevance)算法、LP(Label Power)算法[9]等,它們通過增加分類器個數(shù)或者標(biāo)簽的種類來解決多標(biāo)簽問題,但在一定程度上影響了分類器效率。經(jīng)典的MLKNN(MultiLabel K Nearest Neighbors)算法[10]利用最大化后驗概率(Maximum A Posteriori)來解決多標(biāo)簽學(xué)習(xí)預(yù)測問題,雖提升了分類器的性能,卻增加了其計算的復(fù)雜度。

此外,現(xiàn)實世界中各樣本所含標(biāo)簽并不相互獨立,存在相關(guān)關(guān)系,然而目前絕大多數(shù)多標(biāo)簽學(xué)習(xí)算法未充分考慮其標(biāo)簽相關(guān)性。因此,充分利用標(biāo)簽之間的相關(guān)性信息,對構(gòu)建強泛化性能的多標(biāo)簽分類學(xué)習(xí)算法具有重要意義[11]。

而針對標(biāo)簽間的相關(guān)性,許多學(xué)者提出了相關(guān)算法,取得了不錯的效果。例如,RankSVM(Ranking Support Vector Machine)算法[12]采用最大間隔策略以適應(yīng)多標(biāo)簽學(xué)習(xí),采用類似BR策略構(gòu)建SVM(Support Vector Machine)多標(biāo)簽分類器,但其時間消耗較大。由于極限學(xué)習(xí)機(Extreme Learning Machine, ELM)[13]訓(xùn)練速度快,MLRKELM(MultiLabel algorithm of Regression Kernel Extreme Learning Machine)算法[14]使用回歸模式的核ELM,縮短了算法的運行時間。MLASRKELM(MLRKELM with Association Rules)算法[14]在MLRKELM算法的基礎(chǔ)上引入了關(guān)聯(lián)規(guī)則,保留了標(biāo)簽之間的信息。針對標(biāo)簽之間的相關(guān)性,張敏靈[15]在MLKNN算法基礎(chǔ)上提出一種新型的多標(biāo)簽懶惰學(xué)習(xí)算法(Improved Multilabel Lazy Learning Approach, IMLLA)。IMLLA利用近鄰的標(biāo)簽信息構(gòu)建一個標(biāo)記計數(shù)向量來進(jìn)行分類, 此算法在構(gòu)建標(biāo)簽計數(shù)向量時使用了近鄰標(biāo)簽信息,認(rèn)為近鄰的標(biāo)簽具有相同的重要性。然而,近鄰與樣本間的相似度越大,此近鄰的標(biāo)簽越重要, IMLLA因未考慮近鄰相似度信息所以其泛化性有所降低。

在上述研究成果上,對于樣本分布問題,本文在IMLLA的基礎(chǔ)上引入螢火蟲方法[16-17]。螢火蟲方法作為模仿自然界中螢火蟲發(fā)光行為而構(gòu)造出的元啟發(fā)式算法,具有操作簡單、易于并行處理、魯棒性強等特點。故利用螢火蟲方法將近鄰的標(biāo)簽信息與近鄰的相似度信息相融合,以提高算法的魯棒性,而提出一種融合螢火蟲方法的多標(biāo)簽懶惰學(xué)習(xí)算法(Multilabel Lazy Learning Approach based on FireFly method, FFMLLA)。本文通過螢火蟲方法根據(jù)相似度來計算樣本與近鄰間的吸引度,吸引度越大則該近鄰的標(biāo)簽越重要。然后將吸引度作為權(quán)重與標(biāo)簽信息相結(jié)合,對IMLLA中的標(biāo)簽計數(shù)向量進(jìn)行重構(gòu)。由于Huang等提出的極限學(xué)習(xí)機算法[13]具有訓(xùn)練速度快、泛化能力強等優(yōu)點,所以在使用線性分類器進(jìn)行分類時,引入ELM進(jìn)行權(quán)重求解。此外,還使用了奇異值分解(Singular Value Decomposition, SVD)求解權(quán)重。為了驗證本文算法的有效性,本文將FFMLLA與標(biāo)準(zhǔn)IMLLA,以及其他經(jīng)典的多標(biāo)簽算法在多個公開數(shù)據(jù)集上進(jìn)行實驗對比。實驗結(jié)果表明,本文算法較其他對比算法具有一定優(yōu)勢。

1 理論介紹

1.1 多標(biāo)簽學(xué)習(xí)

多標(biāo)簽學(xué)習(xí)是針對現(xiàn)實生活中普遍存在的多義性對象而提出的一種學(xué)習(xí)框架。在這個框架之下,樣本由多個特征和多個標(biāo)簽構(gòu)成,學(xué)習(xí)的目標(biāo)是將未知的實例對應(yīng)更多正確的標(biāo)簽。在單實例多標(biāo)簽學(xué)習(xí)中,假設(shè)X={x1,x2,…,xn}T∈Rn*d表示有n個樣本且每個樣本的特征數(shù)為d,Y={1,2,…,Q}表示可能的概念構(gòu)成的集合。T={(x1,Y1),(x2,Y2),…,(xm,Ym)}(xi∈X,Yi∈Y)表示訓(xùn)練集,多標(biāo)簽學(xué)習(xí)的目標(biāo)就是得到映射關(guān)系f:X→{-1,1}Q,并對標(biāo)簽未知而特征已知的樣本進(jìn)行標(biāo)簽預(yù)測。

1.2 IMLLA

MLKNN是一種經(jīng)典的多標(biāo)簽分類算法,它先獲取近鄰樣本的標(biāo)簽信息,再通過“最大化后驗概率”的方式推理未見實例的標(biāo)簽集合, 但它未充分考察標(biāo)簽之間的相關(guān)性。基于此問題,張敏靈提出一種新型的多標(biāo)簽懶惰學(xué)習(xí)算法IMLLA。IMLLA首先將測試樣本在訓(xùn)練集中找出k個近鄰及其k個近鄰的標(biāo)記信息,然后根據(jù)k個近鄰的標(biāo)記信息生成各標(biāo)簽計數(shù)向量,并提交給已訓(xùn)練的分類器進(jìn)行標(biāo)簽預(yù)測。

4 結(jié)語

本文針對基于k近鄰的多標(biāo)簽相關(guān)性算法未考慮樣本分布問題進(jìn)行了研究,運用螢火蟲方法的思想將相似度信息與近鄰標(biāo)簽信息進(jìn)行融合。螢火蟲方法是源于模擬自然界螢火蟲在晚上的群聚活動的自然現(xiàn)象而提出的,其計算效率高、魯棒性強,能夠很好地將相似度信息與標(biāo)簽信息融合。本文算法在重構(gòu)標(biāo)簽計數(shù)向量后分別使用了奇異值分解與核極限學(xué)習(xí)機進(jìn)行權(quán)重求解,再進(jìn)行線性分類。實驗結(jié)果表明了本文提出的FFMLLA算法具有不錯的效果和較好的穩(wěn)定性。

雖然將相似度信息與近鄰標(biāo)簽信息相結(jié)合的方法一定程度上提升了模型的分類精度,但與預(yù)期效果之間還存在一定差距,因此如何從近鄰空間提取出比相似度信息更為有效的信息來輔助分類器進(jìn)行分類是今后研究的重點。

參考文獻(xiàn) (References)

[1] ??? GIBAJA E, VENTURA S. A tutorial on multilabel learning[J]. ACM Computing Surveys, 2015,47(3):1-38.

[2] ??? 何志芬, 楊明, 劉會東. 多標(biāo)記分類和標(biāo)記相關(guān)性的聯(lián)合學(xué)習(xí)[J]. 軟件學(xué)報, 2014, 25(9):1967-1981. (HE Z F, YANG M, LIU H D. Joint learning of multilabel classification and label correlations[J]. Journal of Software, 2014, 25(9):1967-1981.)

[3] ??? LIU J, CHANG W, WU Y, et al. Deep learning for extreme multilabel text classification[C]// Proceedings of the 40th International ACM SIGIR Conference on Research & Development in Information Retrieval. New York: ACM, 2017:115-124.

[4] ??? KORDMAHALLEH M M, HOMAIFAR A, DUKKA B K C. Hierarchical multilabel gene function prediction using adaptive mutation in crowding niching[C]// Proceedings of the 13th IEEE International Conference on BioInformatics and BioEngineering. Piscataway, NJ: IEEE, 2013:1-6.

[5] ??? ZHU X, LI X, ZHANG S. Blockrow sparse multiview multilabel learning for image classification[J]. IEEE Transactions on Cybernetics, 2016, 46(2):450.

[6] ??? WANG Z, CHEN T, LI G, et al. Multilabel image recognition by recurrently discovering attentional regions[C]// Proceedings of the 2017 IEEE International Conference on Computer Vision. Washington, DC: IEEE Computer Society, 2017:464-472.

[7] ??? OZONAT K M, YOUNG D E. Towards a universal marketplace over the Web: statistical multilabel classification of service provider forms with simulated annealing[C]// Proceedings of the 15th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM, 2009:1295-1304.

[8] ??? HOU S, ZHOU S, CHEN L, et al. Multilabel learning with label relevance in advertising video[J]. Neurocomputing, 2016, 171(C):932-948.

[9] ??? BOUTELL M R, LUO J, SHEN X, et al. Learning multilabel scene classification [J]. Pattern Recognition, 2004, 37(9):1757-1771.

[10] ?? ZHANG M, ZHOU Z. MLKNN: a lazy learning approach to multilabel learning[J]. Pattern Recognition, 2007, 40(7):2038-2048.

[11] ?? LEE J, KIM H, KIM N R, et al. An approach for multilabel classification by directed acyclic graph with label correlation maximization[J]. Information Sciences, 2016, 351(C):101-114.

[12] ?? ELISSEEFF A E, WESTON J. A kernel method for multilabelled classification[C]// Proceedings of the 14th International Conference on Neural Information Processing Systems: Natural and Synthetic. Cambridge, MA: MIT Press, 2002: 681-687.

[13] ?? HUANG G, ZHU Q, SIEW C K. Extreme learning machine: theory and applications[J]. Neurocomputing, 2006, 70(1/2/3):489-501.

[14] ?? 王一賓, 程玉勝, 何月,等. 回歸核極限學(xué)習(xí)機的多標(biāo)記學(xué)習(xí)算法[J]. 模式識別與人工智能, 2018, 31(5):419-430. (WANG Y B, CHENG Y S, HE Y, et al. Multilabel learning algorithm of regression kernel extreme learning machine[J]. Pattern Recognition and Artificial Intelligence, 2018, 31(5): 419-430.)

[15] ?? 張敏靈. 一種新型多標(biāo)記懶惰學(xué)習(xí)算法[J]. 計算機研究與發(fā)展, 2012, 49(11):2271-2282. (ZHANG M L. An improved multilabel lazy learning approach[J]. Journal of Computer Research and Development, 2012, 49(11):2271-2282.)

[16] ?? YANG X, HE X. Firefly algorithm: recent advances and applications[J]. International Journal of Swarm Intelligence, 2013, 1(1):36-50.

[17] ?? HIDALGOPANIAGUA A, MIDUEL A V, JOAQUIN F, et al. Solving the multiobjective path planning problem in mobile robotics with a fireflybased approach[J]. Soft Computing, 2017, 21(4):1-16.

[18] ?? LEI Y, ZHAO D, CAI H B. Prediction of lengthofday using extreme learning machine[J]. Geodesy and Geodynamics, 2015, 6(2):151-159.

[19] ?? WANG Z, XIN J, TIAN S, et al. Distributed and weighted extreme learning machine for imbalanced big data learning[J]. Tsinghua Science and Technology, 2017, 22(2):160-173.

[20] ?? LUO F F, GUO W Z, YU Y L, et al. A multilabel classification algorithm based on kernel extreme learning machine[J]. Neurocomputing, 2017, 260: 313-320.

[21] ?? 楊明極, 馬池, 王婭, 等. 一種改進(jìn)Kmeans 聚類的FCMM 算法[J/OL]. 計算機應(yīng)用研究, 2019, 36(7)[2018-04-12]. http://www.arocmag.com/article/02201907006.html.(YANG M J, MA C, WANG Y, et al. Algorithm named FCMM to improve Kmeans clustering algorithm[J/OL].Application Research of Computers, 2019, 36(7)[2018-04-12]. http://www.arocmag.com/article/02201907006.html.)

[22] ?? WANG H, WANG W, ZHOU X, et al. Firefly algorithm with neighborhood attraction[J]. Information Sciences, 2017, 382/383:374-387.

[23] ?? 程美英, 倪志偉, 朱旭輝. 螢火蟲優(yōu)化算法理論研究綜述[J]. 計算機科學(xué), 2015, 42(4):19-24.(CHENG M Y, NI Z W, ZHU X H. Overview on glowworm swarm optimization or firefly algorithm[J]. Computer Science, 2015, 42(4):19-24.)

[24] ?? ZHANG M L, ZHOU Z H. A Review on multilabel learning algorithms[J]. IEEE Transactions on Knowledge & Data Engineering, 2014, 26(8):1819-1837.

[25] ?? DEMSAR J. Statistical comparisons of classifiers over multiple data sets[J]. Journal of Machine Learning Research, 2006, 7(1):1-30.

[26] ?? ZHANG M, WU L. Lift: Multilabel learning with labelspecific features[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(1): 107-120.

[27] ?? LIN Y, LI Y, WANG C, et al. Attribute reduction for multilabel learning with fuzzy rough set[J]. KnowledgeBased Systems, 2018,152:51-56.

主站蜘蛛池模板: 国产精品第一区| 美女国内精品自产拍在线播放| 亚洲中文久久精品无玛| 亚洲AV无码久久天堂| 中文无码精品a∨在线观看| 三级国产在线观看| 日a本亚洲中文在线观看| 在线观看国产精品第一区免费 | 国产导航在线| 久久精品中文字幕少妇| 91视频99| 久久无码高潮喷水| 亚洲久悠悠色悠在线播放| 久久精品这里只有精99品| 97se亚洲| 日韩欧美亚洲国产成人综合| 一级福利视频| 58av国产精品| 红杏AV在线无码| 精品乱码久久久久久久| 激情视频综合网| 91在线一9|永久视频在线| 亚洲av无码牛牛影视在线二区| 亚洲IV视频免费在线光看| 一本大道香蕉久中文在线播放| 亚洲一区第一页| 日韩第九页| 一级毛片在线直接观看| 97久久精品人人做人人爽| 亚洲精品无码久久久久苍井空| 亚洲一区二区无码视频| 婷婷五月在线| 国产精品视频导航| 精品国产成人国产在线| 亚洲丝袜中文字幕| 国产三级毛片| 麻豆精选在线| 91免费观看视频| 久久青草免费91观看| 国产高清无码第一十页在线观看| 亚洲天堂精品在线| 免费又黄又爽又猛大片午夜| 91久久夜色精品国产网站| 欧美成人a∨视频免费观看| 手机在线免费不卡一区二| 精品国产香蕉伊思人在线| 成人精品在线观看| 18黑白丝水手服自慰喷水网站| 99爱在线| igao国产精品| 伊人无码视屏| 国产精品综合色区在线观看| 高清色本在线www| www.91在线播放| 亚洲女同一区二区| 高h视频在线| 亚洲无码高清视频在线观看| jizz国产在线| 日本欧美中文字幕精品亚洲| 久久国产精品夜色| 国产精品女熟高潮视频| 国产视频欧美| 日韩成人高清无码| 一本久道久久综合多人| 亚洲男人的天堂久久香蕉| 一本大道无码日韩精品影视| 欧美专区在线观看| 拍国产真实乱人偷精品| 国产在线一区二区视频| 中国一级毛片免费观看| 欧美亚洲欧美区| 欧美人人干| www.av男人.com| 久久窝窝国产精品午夜看片| 欧美在线一二区| 成年免费在线观看| 成人av专区精品无码国产 | 国产乱论视频| 九九热在线视频| 激情无码视频在线看| 在线欧美一区| 国产成人精品一区二区不卡|